Künstliche Intelligenz (KI-Systeme) und ihre Folgen Künstliche Intelligenz: Metamorphose des Maschinenbildes
Mir ist anlässlich meines gestrigen Vortrags in Emmendingen über die "Kulturelle Evolution" (von dem ich unterschiedliche Kapitel in der gleichnamigen Gruppe veröffentlichen werde) einer meiner alten Vorlesungstexte (von 1981) wieder einmal in die Hände gefallen. Hier ein Auszug daraus:
KRITIK VON VORURTEILEN ÜBER DIE THEORETISCHEN GRENZEN DER COMPUTERFÄHIGKEITEN
1. Erstes Vorurteil: "Computer sind nur zählende Idioten"
Die meisten Computer verarbeiten Information in digitaler Form. Ihre elementarsten Bausteine (logische Gatter) können in Abhängigkeit von den Eingängen an ihrem Ausgang die logischen Zustände "0" und "1" einnehmen. Dies wird häufig benützt (zugegebenermaßen nur in der trivialen Literatur), um zu behaupten, daß Computer eigentlich nur bis 0 und 1 zählen könnten. Wie widersinnig es ist, hierin eine Beschränkung der Computerfähigkeiten zu sehen, liegt auf der Hand. Prinzipiell darf die Leistungsfähigkeit eines komplexen Systems nicht an derjenigen seiner isolierten Bausteine gemessen werden. Wer wollte einer einzelnen Nervenzelle Intelligenz oder gar Selbstbewußtsein zuschreiben?
Die de Morganschen Gesetze besagen, daß die logischen Funktionen NOR und NAND Universalfunktionen sind. Mit ihnen lassen sich im Prinzip alle lösbaren logischen Probleme lösen. Dieser Satz bedeutet nichts anderes, als daß Computer theoretisch die Arbeit der Logiker übernehmen können. Es ist selbstverständlich, daß auch Computer prinzipiell unlösbare Probleme nicht lösen können (es gibt hiervon in der Logik und der Mathematik eine ganze Reihe).
2. Zweites Vorurteil: "Computer können nicht lernen".
Diese Anschauung vertrat sogar in den 70er Jahren im Fernsehen ein Stuttgarter Informatikprofessor (dessen Namen ich glücklicherweise vergessen habe), was nur zeigt, daß manchmal eine zu detaillierte Beschäftigung mit einer Sache den Blick für allgemeinere Zusammenhänge vernebeln kann. Wir haben uns mit einem lernfähigen Computerprogramm eingehend befaßt; deshalb erübrigt es sich hier, über dieses Vorurteil noch viel Worte zu machen.
3. Drittes Vorurteil: "Computer sind nicht kreativ"
Beim Rückzugsgefecht darüber, was Computer nicht können, wird häufig angeführt "Computer sind nicht kreativ". Diese Behauptung wird selten von einer Definition dessen begleitet, was unter "kreativ" verstanden werden soll. Sobald kreativ nämlich in sinnvoller Weise definiert wird, ist meistens schon der Weg für eine maschinelle Nachahmung vorgezeichnet. Willwacher z.B. beschreibt einen produktiven Einfall als die Neukombination früher erlernter Informationen. Sein auf einem Computer simuliertes assoziatives Speichersystem konnte solche produktiven Einfälle produzieren.
Ich könnte den Rest der Vorlesungszeit damit füllen, aus einem Buch mit Computerlyrik zu rezitieren. Solche Computerlyrik ist nicht deshalb nicht kreativ, weil wir die Regeln kennen (können), nach denen der Computer seine Gedichte verfaßt hat. Wenn dem so wäre, würde eine notwendige Bedingung für menschliche Kreativität die Unkenntnis der Regeln sein, nach denen menschliche Gehirne Neues produzieren. Kreativität wäre dann wegforschbar.
Dieses Argument leitet über zum 4. Vorurteil.
4. Viertes Vorurteil: "Computer können nicht klüger werden als ihre Programmierer".
Was ein Computer tut und wie er es tut, hängt von seinem Programm und damit von seinem Programmierer ab. Damit ist aber kein neuer Erhaltungssatz formuliert, d.h. ein Programmierer kann mehr Information aus dem Computer erhalten als er hineingesteckt hat. Das wird besonders anschaulich bei lernfähigen Programmen. Auch hier kann uns das von Samuel programmierte lernfähige Damespielprogramm als Beispiel dienen. Wir haben nachvollziehen können, warum dieses Programm bald besser Dame spielen konnte als sein Schöpfer. Der Satz "Ein Computer kann nie intelligenter werden als sein Programmierer" verschleiert tatsächliche Entwicklungen. Er vernachlässigt darüberhinaus, daß schon heute in vielen Großcomputern Programme laufen, die von einem ganzen Stab von Programmierern über viele Jahre entwickelt worden sind.
Es sollte im übrigen angemerkt sein, daß auch wir Menschen abhängig davon sind, was Erzieher und sonstige Umwelt in uns eingepflanzt haben. Ein prinzipieller Unterschied zu lernfähigen Computern wäre hier noch nachzuweisen.
Die richtig gestellte Frage ist nicht die, ob Computer nur das tun, was ihnen aufgetragen wurde zu tun, sondern die Frage nach den Grenzen dessen, was einem Computer aufgetragen werden kann zu tun.
5. Fünftes Vorurteil: "Computer können keine Gefühle haben"
Von dem chinesischen Philosophen Chuang Tzu ist folgende Parabel überliefert: "Zwei Philosophen standen auf einer kleinen Brücke, über einem klaren Bach, und sahen dem Spiel der Fische zu. Da sagte der eine: 'Sieh nur, wie die Fischlein dort im Kreis herumschwimmen und plätschern. Das ist ein Vergnügen für sie'. Darauf versetzte der zweite: 'Woher weißt du, was für die Fische ein Vergnügen ist?' - 'Und wieso weißt du', entgegnete ihm der erste, 'der du doch nicht ich bist, daß ich nicht weiß, was den Fischen Vergnügen macht?'
Verfechter der These: "Ein Computer kann kein Gefühl haben" sind Dogmatiker mit einem echten Vorurteil (vor jeder Erfahrung ). Sie vergessen, daß sie die Maschine selbst sein müßten, um dies subjektiv zu überprüfen. Auf das Gefühlsleben unserer Mitmenschen und das mancher Haustiere schließen wir instinktiv aufgrund angeborener auslösender Mechanismen. Auf der philosophischen Ebene rechtfertigen wir diese instinktive Grundhaltung ad hoc mit einem Analogieschluß: Alle Menschen verhalten sich so, als hätten sie ein Gefühlsleben wie wir selbst, also haben sie eins (man beachte, wie wir in diesem Fall das Prinzip des Turing Tests - auf Mitmenschen angewandt - akzeptieren).
Bei dem traurigen Erscheinungsbild heutiger Computer funktionieren weder angeborene auslösende Mechanismen, noch können uns Analogieschlüsse mangels Ähnlichkeit dazu bewegen, ihnen ein Gefühlsleben zuzusprechen. Sie haben sicher auch keins. Aber zu behaupten, daß eine (zukünftige) Maschine mit der Komplexität eines menschlichen Gehirns keine Gefühle haben kann, ist tatsächlich nichts anderes als ein unbewiesenes und wahrscheinlich unbeweisbares Vorurteil. Wenn wir als Naturwissenschaftler annehmen, daß unsere Gefühle und sogar unser Selbstbewußtsein auf Informationsverarbeitungsprozessen beruhen, dann ist es eher konsequent anzunehmen, daß eine Maschine mit entsprechender Informationsverarbeitung eben auch diese Phänomene kennt.
Auf der Basis von Turings Test ist aber selbst dieser 'Glaube' irrelevant. Relevant ist bei dieser Betrachtungsweise nur, ob der Computer sich so verhalten kann, als ob er Gefühle habe.
Vollständiger Text unter https://zum.de/ki
P.S.: Heute (2018) hätte ich in obigem Text statt des Begriffes "Computer" eher "Roboter" oder "Software Assistent" oder "Algorithmus" verwendet.
Hallo Karl,
dass du dich vom Computer zum Algorithmus hin bewegst, also zur Software die Aufgaben bearbeitet, ist ein wichtiger richtiger Schritt, denn noch heute kann ein Computer nichts Sinnvolles. Programme, egal ob fest oder veränderbar, bestimmt das Können.
Das alte Thema - es gibt keine wirkliche maschinelle Intelligenz, nur scheinbare, bleibt für mich bestehen. Nur weil z.B. Alexa eine Anweisung ausführen kann, steckt dahinter keine wirkliche Intelligenz oder eigene Handlungsweise. Es sind Sensoren und Programmcode, die nur das machen was ihnen mitgegeben wurde. Programmcode hat an keiner Stelle Entscheidungsgewalt, die nicht vorab implementiert worden wäre.
Ciao
Hobbyradler
Stellt sich die Frage, wie Du unsere Leistungen einordnest?
Funktionieren wir ohne Sensoren und ohne Algorithmen?
Wenn ich die Entwicklung richtig interpretiere, dann werden derzeit doch selbstlernende neuronale Netze gerade dort eingesetzt, wo „Computerprogramme“ ihre größten Erfolge feiern.
Die KI-Forschung kopiert die Biologie.
Gerne später mehr, gerade ist Halbzeit in Hamburg (spielen gegen Freiburg).
Karl
............, dann werden derzeit doch selbstlernende neuronale Netze gerade dort eingesetzt, wo „Computerprogramme“ ihre größten Erfolge feiern.Hallo Karl,
ich glaube das ist unsere weitestgehend unterschiedliche Meinung.
Es gibt heute keine im Sinn des Wortes selbstlernenden neuronalen Netze. Zum einen sind es künstlich nachgebildete Netze, zum anderen müssen sie trainiert werden. Wie war das mit den letzten Unfällen der selbstfahrenden Autos? Wobei ich nicht weiß ob deren Sensoren mit "künstlichen" neuronalen Netzen arbeiten.
Speziell für die Simulation künstlicher neuronaler Netze in Wissenschaft und Technik gilt:https://de.wikipedia.org/wiki/Neuronales_Netz
- Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem.
- Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d. h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Sie arbeiten nicht exakt, sondern näherungsweise.
Mittlerweile lässt sich der Anwendungsbereich der Methode in zwei große Bereiche unterteilen:Insgesamt übt die Idee der neuronalen Netze auf viele Menschen eine sehr hohe Faszinationskraft aus. Diese Lernhilfe soll auf der einen Seite versuchen, diesen Enthusiasmus auf Sie zu übertragen. Zugleich soll jedoch auch gezeigt werden, dass hinter dem Thema neuronale Netze nichts weiter als Matrizenberechnungen stehen.
- Künstliche neuronale Netze, die modelliert werden, um menschliches Verhalten und Erleben bzw. die Funktionsweise des menschlichen Gehirns besser zu verstehen.
- Künstliche neuronale Netze, die dazu dienen konkrete Anwendungsprobleme aus Bereichen wie z. B. Statistik, Wirtschaftswissenschaften, Technik und vielen anderen Gebieten zu lösen.
Link
Ciao
Hobbyradler
Lieber hobbyradler,
aus Deinem ZitatDieses "nicht weiter als" habe ich ja schon unter Vorurteil 1 gelistet. Es gibt viele Neurowissenschaftler, die sagen "Denken ist ja nichts weiter als Nervenkommunikation". Solche mechanistischen Überlegungen wären nur dann wichtig, wenn diese elementaren Operation das begrenzen würden, was biologische Gehirne oder Elektronengehirne vermögen.
"Zugleich soll jedoch auch gezeigt werden, dass hinter dem Thema neuronale Netze nichts weiter als Matrizenberechnungen stehen."
Unser Disput, wir hatten den ja bereits früher einmal geführt, kommt wahrscheinlich zustande, weil ich als ehemaliger Biologe, der sich mit Gehirnentwicklung und parallel dazu auch mit Gehirnfunktion beschäftigt hat, einen mechanistischeren Blick auf die Leistung biologischer Gehirne habe als Du.
Dass biologische Gehirnfunktionen verstanden werden können, zeigt ja eben auch der Nachbau in Form von neuronalen Netzen und deren Leistungsfähigkeit.
Die Fähigkeiten biologischer Nervennetze kombiniert mit der Schnelligkeit elektronischer Informationsverarbeitung muss auf Dauer den biologischen Netzen überlegene Systeme schaffen, insbesondere weil die Verkleinerung der elektronischen Bausteine inzwischen der Biologie alle alle Ehre macht.
Das mooresche Gesetz besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt; je nach Quelle werden 12 bis 24 Monate als Zeitraum genannt. Dieses exponentielle Wachstum führt bei logarithmischer Auftragung zu einer Geraden.
Dieses Faktum erklärt, warum Speicherplatz so billig und Rechner so mächtig geworden sind und warum wir momentan das Gefühl haben (also ich habe es), dass die Digitalisierung um uns herum immer schnellere Fortschritte macht.
Die 10 Meilensteine der künstlichen Intelligenz
•1950 Turing Test
•1951 Erster Neurocomputer
•1956 Künstliche Intelligenz (engl. Artificial Intelligence) als Begriff geboren
•1960 Lernfähiger Computer
•1961 Damespielprogramm gewinnt gegen weltbesten Damespieler
•1966 Das erste Konversationsprogramm Eliza
•1979 Backgammon-Programm schlägt den Weltmeister Luigi Villa
•1997 Schachcomputer Deep Blue gewinnt gegen Weltmeister Kasparow
•2011 IBM‘s Watson gewinnt die Quizsendung Jeopardy.
•2011 Sprachassistent Siri kommt auf den Markt
•2016 Googles AlphaGo schlägt den weltbesten Go-Spieler
•2018 Selbstfahrende, lenkradlose Autos erhalten die Straßenzulassung in Kalifornien
Karl
Hallo Karl,
wir beide werden keinen Konsens finden.
Das von dir als Argument benutze Mooresche Gesetz hat mit „scheinbarer Intelligenz“ recht wenig zu tun. Es besagt lediglich, dass Computerchips kleiner und leistungsfähiger werden. Das mehr Schaltkreise auf gleichem Platz möglich sind.
Das bedeutet nur, dass ein Computer bzw. dessen Prozessor tatsächlich schneller rechnen kann. Er hat das Gesetz auch schon angepasst und es Bedarf neuer Möglichkeiten, denn in den nächsten 20 Jahren soll das "Gesetz" nicht mehr stimmen.
Ich erspare es mir gegen deine aufgeführten Punkte zu künstlichen Intelligenz mit ähnlichen Fakten zu argumentieren wie früher. Damals habe ich dir z.B. die Aussagen des Schachweltmeisters und des Computerherstellers genannt, die beide davon sprachen, dass der Computer bzw. das Programm keine eigene Intelligenz besitzen.
Ich stelle mal einen Link zu einem Beitrag der Uni Heidelberg ein. Er erklärt den Stand der möglichen Computerforschung in Verbindung zum menschlichen Gehirn.
…...........denn Informationsverarbeitung findet nicht nur auf unserem Laptop im Büro, sondern auch in unserem Kopf statt. Die sich in diesem Zusammenhang aufdrängenden Fragen sind fundamental: Könnte es sein, dass mein Computer irgendwann einmal mehr kann als mein Gehirn? Werde ich von Computern abhängig? Könnte es gar sein, dass mein Computer in Zukunft eigene Intelligenz aufweisen wird? Die ersten beiden Fragen würden einige unter uns vermutlich schon heute mit einem – eingeschränkten – Ja beantworten. Die dritte Frage ist zurzeit noch Stoff für Science-Fiction-Romane.
http://www.uni-heidelberg.de/presse/ruca/ruca07-1/vorbild.html
Ciao und schönen Sonntag
Hobbyradler
Guten Morgen hobbyradler,
danke für den Link zum Text von Karlheinz Meier von 2007.
Er endet wie folgt:
Karlheinz MeierDas noch gültige mooresche Gesetz (eigentlich eine Regel, die sich immer aufs neue bestätigen muss) hat in den 11 Jahren seit diesem Text die Computerbausteine wieder etwa um den Faktor 1000 verkleinert und entsprechend ist die Mächtigkeit der Rechenleistungen gestiegen.
Als Ergebnis erhoffen wir uns neue Erkenntnisse auf zwei Arbeitsgebieten, die recht verschieden voneinander sind. Zum einen sollen die Funktionsprinzipien der neuronalen Informationsverarbeitung experimentell untersucht und mit biologischen Resultaten verglichen werden. Aufschlussreiche Erkenntnisse könnten sich vor allem aus der neuen Möglichkeit ergeben, die Dynamik komplexer neuronaler Schaltungen über große Zeitskalen zu verfolgen. Die biologische Zeitskala von Millisekunden bis hin zu Jahren kann durch die neue Elektronik auf Nanosekunden bis Minuten komprimiert werden.
Das bietet einen Zugang, um Prozesse der Selbstorganisation und des Lernens zu untersuchen. Für den Physiker interessant ist vor allem das zweite Projektziel: das Entwickeln neuer Architekturen zum Verarbeiten von Informationen, in denen Eigenschaften wie Fehlertoleranz und Energieeffizienz bereits „konzeptionell“ eingebaut sind. Für die zukünftige Nutzung neuer Bauelemente, etwa molekulare Schalter oder Kohlenstoff-Nanoröhren, werden solche Konzepte unter Umständen sehr bedeutend – und Computer nach dem Vorbild des menschlichen Gehirns vielleicht doch eines Tages möglich sein.
Lieber Hobbyradler, die Entwicklungen haben sich derzeit so beschleunigt, dass ich überzeugt bin, auch Du wirst Deine Aussage, dass Computer keine Intelligenz besitzen unter dem Eindruck des Faktischen noch revidieren.
Du solltest Intelligenz übrigens definieren, wenn Du behauptest, künstliche Intelligenz gäbe es nicht wirklich.
Nocheinmal eine andere Frage wird sich beim Bewusstsein stellen, das Neurowissenschaftler auch als das Ergebnis von Informationsverarbeitung ansehen. Ohne Frage beobachten wir derzeit eine Entkopplung von intelligenten Verhalten und Bewusstein, etwas, was man bei der Beobachtung von Tieren und Menschen zunächst nicht erwartet hätte. Aber auch ich sehe in jedem Taxifahrer einen interessanteren Gesprächspartner als in einem Selbstfahrenden Auto. Aber ist diese Funktion „Autofahren“ nicht auch bei uns automatisiert möglich? Ich bin schon oft, von Margit zum Einkaufen geschickt, ganz verwundert auf dem Institutsparkplatz „aufgewacht“. „Alte Gewohnheit“ sagt man dann.
Ob „technische Assistenten“ jemals „Bewusstsein“ erlangen werden, ist schon deshalb schwierig zu beantworten, weil sich die Neurowissenschaften diesem Problem höchstens angenähert, es aber noch nicht gelöst haben.
Kein seriöser Wissenschaftler kann derzeit jedoch ausschließen, dass es in Zukunft selbstbewusste Roboter geben wird. Es gibt kein bekanntes Naturgesetz, das dies verhindern könnte.
Karl
Hallo Karl,
ich würde auch nichts ausschließen, doch sicher nicht mit heutigen Technologien erreichbar.
Ein Artikel der Süddeutschen Zeitung vom 6.April 2018 bringt ein gutes Beispiel, dass die als KI bezeichnete Eigenschaft ausschließlich vom Konstrukteur vorgegeben ist. Das ein Computerprogramm nur das lernen kann an was sein Konstrukteur vorgedacht bzw. geplant hat..
Süddeutsche Zeitung
Im Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die das menschliche Denken mechanisieren soll[1], bzw. eine Maschine zu konstruieren und zu bauen, die intelligent reagiert oder sich eben wie ein Mensch verhält.
Die Ziele der starken KI sind nach Jahrzehnten der Forschung weiterhin visionär.
Wikipedia
Ciao
Hobbyradler
Hallo Karl,
noch ein Nachtrag.
Der US-Soziologe Hugh G. Loebner lobte 1991 einen Preis von 100.000 Dollar für das Computerprogramm aus, das den Turing-Test besteht und eine Expertenjury hinters Licht führt. Bis 2017 hat niemand den Preis erhalten, und der Großteil der KI-Forscher geht davon aus, dass das auch in absehbarer Zeit nicht passieren wird.
https://www.planet-wissen.de/technik/computer_und_roboter/kuenstliche_intelligenz/
Ciao
Hobbyradler
Sollte es möglich sein oder werden, den Computern Gefühle beizubringen, dann schwant mir Böses: Im Moment erleben wir auf der ganzen Welt mehr Sadisten und Kriegsgurgeln als Pazifisten. Müssen wir damit rechnen, dass auch die sadistischen Roboter die humanistischen ausrotten werden?