Künstliche Intelligenz (KI-Systeme) und ihre Folgen Künstliche Intelligenz: Metamorphose des Maschinenbildes
Es macht genau das, was ihm der Konstrukteur beigebracht hat.Deine Eltern oder eine schmerzhafte Erfahrung haben dir auch beigebracht dem Verlauf einer Straße zu folgen und nicht in einer Kurve geradeaus zu fahren. Würdest du dir deshalb autonomes Verhalten absprechen? Das wäre die Konsequenz aus obiger Aussage.
Null davon ist eigenständiges Handeln.
Verwechsle du da gerade Mensch und Maschine?
Ich will dich nicht bekehren. Von mir aus können alle deine Autos denken. Meine funktionierten bisher ausschließlich auf die vom Konstrukteur mitgegebenen Verhaltensweisen.
Verwechsle du da gerade Mensch und Maschine?Ich verwechsele überhaupt nichts. Tatsache ist, dass autonome Fahrzeuge keine konkreten Handlungsanweisungen folgen, sondern relativ abstrakten Regeln, wie zum Beispiel einem beliebigen Straßenverlauf zu folgen. Nichts anderes tust du auch, denn die Evolution hat dich mit Handlungsvorschriften ausgestattet, die jenseits einer freien Entscheidung liegen. Oder kannst du aus freier Entscheidung das Atmen einstellen?
Ich will dich nicht bekehren. Von mir aus können alle deine Autos denken. Meine funktionierten bisher ausschließlich auf die vom Konstrukteur mitgegebenen Verhaltensweisen.
Ich halte deine Definition davon, was autonomes Handeln ist und was nicht, nicht für zielführend. Genau genommen kann danach kein Lebewesen völlig frei handeln.
Ich verwechsele überhaupt nichts. Tatsache ist, dass autonome Fahrzeuge keine konkreten Handlungsanweisungen folgen, sondern relativ abstrakten Regeln, wie zum Beispiel einem beliebigen Straßenverlauf zu folgen.
...........
Gibt es deiner Meinung nach Autos die besser oder schlechter denken als andere?
Würdest du im folgenden Fall dem Auto die Schuld geben? War das zu doof?
Ich denke die Entwickler machten einen Fehler. Das Auto verhielt sich so wie es konstruiert war. (Damit meine ich auch die Software)
Die Ursache des tödlichen Uber-Unfalls im Jahr 2018 ist jetzt offiziell geklärt: Die US-amerikanische Verkehrsbehörde NTSB (National Transportation Safety Board) kommt in ihrem Abschlussbericht zu dem Ergebnis, dass eine fehlerhafte Software die Ursache war. Damals schob die Fußgängerin Elaine Herzberg ihr Fahrrad über eine mehrspurige Straße. Ein vom Fahrdienstvermittler Uber für autonomes Fahren ausgerüsteter Volvo XC90 überfuhr Herzberg, die noch am Unfallort ihren Verletzungen erlag – die Software hatte die Fußgängerin nicht erkannt.
https://www.auto-motor-und-sport.de/verkehr/toedlicher-unfall-autonom-auto-uber-softwarefehler/
Wir beide werden keinen Konsens finden.Ich bin aber nun still.
@hobbyradler,
dieser Thread heißt mit Bedacht "Metamorphose des Maschinenbildes". Du möchtest beim Traktor stehen bleiben, weil Du offensichtlich nicht so wie ich davon ausgehst, dass auch in unseren Köpfen alles naturwissenschaftlich abläuft, unser Geist das Ergebnis von Informationsverarbeitung ist.
Problematisch wird es, wenn durch solch ein statisches Maschinenbild verhindert wird zu erkennen, was eigentlich derzeit um uns herum passiert.
Karl
Hallo Karl,
ich sehe die Dinge so wie sie sind.
Warum sprichst du gerade von einem Traktor?
Die Menschen fliegen zum Mond, können Gene manipulieren, das Wetter vorhersagen, den Menschen zu Gesundheitszwecken zum großen Teil analysieren. Ist das nicht Fortschritt auf den die Menschheit stolz sein kann. Alles mit grandioser Computertechnik und Software.
Nur wäre es doch an dem der behauptet das Maschinen selbständig denken können, es auch zu beweisen.
Ciao
Hobbyradler
Es wäre praktisch, würdest du nicht wechselnde Formulierungen benutzen. Weiter oben schreibst du von eigenständigem Handeln, jetzt geht es um eigenständiges Denken. So wird das nix.
...Nun, ist zum Go-Spielen kein Denken notwendig?
Nur wäre es doch an dem der behauptet das Maschinen selbständig denken können, es auch zu beweisen.
Ciao
Hobbyradler
Künstliche Intelligenz: AlphaZero meistert Schach, Shogi und Go
Wirst Du die Intelligenz von Maschinen auch dann noch negieren, wenn sie wie Kleinkinder Vieles selber lernen müssen?Die Google-Tochter DeepMind hat mit "AlphaZero" einen Algorithmus entwickelt, der selbstständig die Strategiespiele Schach, Shogi und Go lernt. Und nicht nur das: Die resultierende "Künstliche Intelligenz" (KI) spielt das jeweilige Spiel besser als die stärksten bisherigen Programme (Schach: Stockfish; Shogi: Elmo, Go: AlphaGo Zero 3-day). Bemerkenswert ist vor allem, dass für diese drei unterschiedlichen Strategiespiele im Prinzip ein und dasselbe Verfahren angewendet wird. Grundlage ist wie schon bei der ebenfalls von DeepMind geschaffenen KI AlphaGo ein neuronales Netz.
Bei dem komplexen Strategiespiel Go war es eine Sensation, dass AlphaGo erst den Top-Profi Lee Sedol 4:1 schlug, in einer stärkeren Version 2017 die Nummer eins der Weltrangliste Ke Jie 3:0 wegputzte und dann in einer nochmals verbesserten Version namens AlphaGo Zero das Spiel von Grund auf selbst gelernt hatte und seinen Vorgänger auf die Plätze verwies.
Karl
Nun, ist zum Go-Spielen kein Denken notwendig?Hallo Karl,
ich kann nicht Go spielen. Denke aber, dass es ein gerüttelt Maß an Intelligenz erfordert um gut zu sein.
Der Mensch der Go spielt benötigt Intelligenz.
Eine Maschine die Go spielt hat keine Intelligenz.
Die Maschine benötigt keine Intelligenz, da sie lediglich die vorgegebenen implementierten Möglichkeiten des Entwicklers ausführen kann.
Die reale Intelligenz liegt bei den Entwicklern, den Fachleuten.
Egal ob die Maschine mit der Implementierung Daten sammelt um sie auszuwerten, oder was auch immer. Egal ob es um Deap Learning und anders geht.
Das Wort KI verleitet zu der völlig absurden Idee die Maschine hätte durch die implementiere Software Intelligenz und könnte denken.
Das Wort KI ist natürlich interessanter als zu sagen „scheinbare Intelligenz“. Es macht mehr her.
Ich verlinke zu einem Wikipeda Beitrag
Was da steht ist die Realität wie ich sie sehe und kein Wunschdenken.
Es lohnt sich sehr den gesamten Artikel zu lesen und nicht nur meinen speziell kopierten Text.
…..............
Im Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll,[1] bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält. Die Ziele der starken KI sind nach Jahrzehnten der Forschung weiterhin visionär.
…...............
Insbesondere sind solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die Schaffung starker KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI in den letzten Jahren bedeutende Fortschritte erzielt worden.
…..............
https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz
Ciao
Hobbyradler
Das Zitat aus Wikipedia grenzt schwache KI zur starken Ki ab, was leicht daran erkennbar ist. dass von "Schaffung von Bewusstsein" die Rede ist. Niemand behauptet, dass schwache KI Bewusstsein schafft.
Du schreibst immer wieder etwas wie dass eine Maschine etwas nicht könne und das ist deswegen nur sehr eingeschränkt richtig, weil es deine persönliche Definition von selbständigem Verhalten nicht erfüllt. Diese Vorstellung müssen andere nicht teilen.
Außerdem läßt sich keine sinnvolle Diskussion führen, wenn du immer wieder zwischen Begriffen wie "selbständigem Handeln", "selbständigem Denken" und jetzt wieder "intelligenz" hin und her springst.