Künstliche Intelligenz: Metamorphose des Maschinenbildes
Ich erlaube mir hier im Seniorentreff, ein Duplikat meines alten Vorlesungstextes auf ZUM.DE zur Diskussion zu stellen:
Künstliche Intelligenz: Metamorphose des Maschinenbildes [1]
(Text von 1980)
K.F. Fischbach
Gekürzt als "Mensch und Computer" in UMSCHAU 81 (1981) 11, 331-333
Zusammenfassung
Intelligenz ist die Fähigkeit vorauszuschauen, zu bewerten und zu entscheiden, verknüpft mit der Fähigkeit aus den Konsequenzen der Entscheidungen zu lernen, d.h. z.B. zur Veränderung und Anpassung der Bewertungsmaßstäbe. Auch Maschinen können über alle diese Eigenschaften verfügen und damit Tätigkeiten wahrnehmen, die Intelligenz erfordern. Anhand eines einfachen Damespielprogramms wird dies erläutert. Sodann werden Vorurteile angesprochen, die verhindern, dass Menschen die ganze Tragweite dieser Fakten erfassen. Es wird die These vertreten, dass die potentiellen Fähigkeiten von Maschinen weitreichende gesellschaftspolitische Konsequenzen haben werden. Früher wurde die Handarbeit automatisiert, in Zukunft wird die Kopfarbeit maschinell erledigt. Dies wird für viele Menschen Sinnverlust bedeuten.
Gliederung
EINLEITUNG
1. KÖNNEN MASCHINEN DENKEN?
1.1. Das Imitationsspiel
1.2. Kritik des neuen Problems
2. COMPUTER ALS INTELLIGENTE SPIELPARTNER
2.1. Damespiel als Testfall
2.2. Vorausschauen
2.3. Bewerten
2.4. Auswendiglernen und Vergessen
2.5. Verallgemeinerndes Lernen
2.6. Vergleich der Lernmodi
2.7. Kombination der Lernmodi
3. KRITIK VON VORURTEILEN ÜBER DIE THEORETISCHEN
GRENZEN DER COMPUTERFÄHIGKEITEN
3.1. Erstes Vorurteil: "Computer sind nur zählende Idioten"
3.2. Zweites Vorurteil: "Computer können nicht lernen"
3.3. Drittes Vorurteil: "Computer sind nicht kreativ"
3.4. Viertes Vorurteil: "Computer können nicht klüger werden als ihre Programmierer"
3.5. Fünftes Vorurteil: "Computer können keine Gefühle haben"
4. MÖGLICHE FOLGEN DER COMPUTERENTWICKLUNG
4.1. Die Verdrängung des Menschen aus den Produktionsprozessen
4.2. Unüberschaubare Computerprogramme und der Verlust menschlicher Verantwortung?
LITERATUR
Einleitung
Jeden Tag erfährt Materie dramatische Umwandlungen. Wir sind Zeuge der erstaunlichen Entwicklungsprozesse, die aus relativ unstrukturierten Eizellen fertige Organismen entstehen lassen. Wir wissen auch von der Evolution, der Selbstorganisation der Materie bis zum Menschen. Dabei sind wir nicht Krone, nicht Endglied einer Entwicklung, sondern bestenfalls - wenn wir als Menschheit das Überleben meistern - Zwischenstation. Niemand kann die zukünftige Metarmorphose der Materie im Detail voraussehen. In diesem Aufsatz vertrete ich jedoch den Standpunkt, daß intelligente Maschinen eine wesentliche Rolle bei der kommenden Metamorphose spielen werden.
Wir sind Zeugen einer explosionsartigen Erhöhung der Leistungsfähigkeit von Computern und haben Anlaß, uns zu fragen, ob dem maschinellen Leistungsvermögen Grenzen gesetzt sind. Ergänzen Computer unsere menschlichen Fähigkeiten oder erwächst uns in ihnen ein ebenbürtiger oder sogar überlegener Partner?
Für eine grundsätzliche Diskussion dieser Frage genügt es nicht, über heutige Computer und ihre Leistungsfähigkeit nachzudenken. Es gilt, die Konsequenzen der möglichen Ausdehnung der Computerfähigkeiten bis an theoretische Grenzen abzuschätzen. Es ist notwendig, ein flexibles Maschinenbild zu haben. Extrapolationen in die Zukunft, die eine Verfeinerung der Technologie nicht berücksichtigen, werden durch die tatsächliche Entwicklung sehr bald ins Lächerliche gezogen[2]. Ich werde mich deshalb nicht mit technischen Problemen beschäftigen.
Die Fähigkeiten von Computern, die ich ansprechen möchte, sind mehr prinzipieller Natur. Eine solche Betrachtungsweise wird jedoch häufig - selbst oder gerade bei akademisch Gebildeten - durch emotionale Barrieren blockiert, die in der Äußerung gewisser Glaubenssätze sichtbar werden. Mit einigen dieser Vorurteile werden wir uns hier auseinandersetzen müssen. Damit dies auf einer sachlich fundierten Basis geschehen kann, möchte ich zunächst Turings Intelligenztest für Maschinen vorstellen und dann anhand eines konkreten Beispiels die Lern- und Denkfähigkeit von Computern erläutern.
1. KÖNNEN MASCHINEN DENKEN?
Der von Turing entwickelte Intelligenztest für Maschinen ist besonders gut dazu geeignet, das Augenmerk auf die wesentlichen Punkte bei unserer Argumentation zu lenken. Der Engländer A.M. Turing war Mathematiker und Logiker. Häufig wird unterstellt, daß die moderne Ära der Computerwissenschaft mit seinem Aufsatz von 1936 mit dem Titel "On computable numbers, with an application to the Entscheidungsproblem" begann. In dieser epochemachenden Veröffentlichung wies er nach, daß Maschinen gebaut werden können, die alle jene logischen Probleme lösen können, die lösbar sind.
Turing hat sich auch mit der Frage beschäftigt: "Können Computer denken?". Er hat diese Frage allgemein verständlich abhandeln können. Bemerkenswert an seinen Gedankengängen ist, daß sie 1950, also 5 Jahre vor dem ersten tatsächlichen Beginn von Arbeiten auf dem Gebiet der Künstlichen Intelligenz entstanden sind.
'Turings Test', so lautet heute das von Turing vorgeschlagene Experiment zur Überprüfung von Computerintelligenz, läßt seine behavioristische Grundhaltung erkennen. Er schlägt ein Experiment vor, das von Nebensächlichkeiten abstrahiert und nur auf die Vergleichbarkeit des intelligenten Outputs konzentriert ist. Es ist eine Basis für sachlich geführte Diskussionen des Problems "Können Maschinen denken".
Leider starb Turing schon 1954, sonst hätte er erste bescheidene Schritte auf dem Wege zur künstlichen Intelligenz verfolgen können. Im folgenden sind seine Gedankengänge sinngemäß wiedergegeben.
1.1. Das Imitationsspiel
Turing sieht bei der Diskussion maschineller Intelligenz emotionale Probleme. Deshalb möchte er sich nicht mit semantischen Streitfragen wie "Was ist eine Maschine?", "Was heißt 'Denken'?" abgeben. Stattdessen schlägt er zur Versachlichung ein Spiel, ein Imitationsspiel vor.
Drei Personen (A, B, C) nehmen an dem Spiel teil. Die Personen A und B sind von C räumlich getrennt, können mit C jedoch Informationen über einen Fernschreiber austauschen. Zunächst soll A ein Mann und B eine Frau sein. C ist ein Interviewer, der durch intelligente Fragen versuchen muß herauszufinden, welches Geschlecht seine Spielpartner haben. B ist ein Spieler, der verpflichtet ist, immer die Wahrheit zu sagen, er soll dem Interviewer möglichst helfen. A darf lügen, er soll den Interviewer über sein Geschlecht im Unklaren lassen. Der Interviewer weiß bei Spielbeginn natürlich nicht, wer A und wer B ist. Er kennt sie unter den Namen X und Y.
Ein paar Beispiel-Fragen:
C: Würde X mir bitte die Länge ihrer oder seiner Haare mitteilen?[3]
X (als A): Meine Haare sind gelockt und ungefähr 35 cm lang.
Y (als B): Ich bin die Frau, glaub ihm nicht etc.
X (als A): Er lügt, glaube ihm nicht.
Es ist klar, daß ein Mensch in der Rolle von A durch geschickte Antworten erreichen kann, daß dem Interviewer am Ende nur noch das Raten bleibt. Was aber ist, wenn das Spiel so durchgeführt wird, daß nicht zwischen Mann und Frau, sondern zwischen Mensch und Maschine unterschieden werden soll und eine Maschine Spieler A darstellt?
1.2. Kritik des neuen Problems
Ist das neue Problem eine Untersuchung wert? Turing meint ja, denn es zieht eine scharfe Trennungslinie zwischen den physischen und den intellektuellen Eigenschaften des Menschen. Es hätte für die ursprüngliche Fragestellung doch wenig Sinn, die Maschine auch noch im Aussehen, in ihren Bewegungen und in ihrer Sprechweise dem Menschen gleichzumachen. Das wäre ja vielleicht sogar schwieriger als eine intelligente Maschine zu bauen.
Andere Vorteile werden durch folgende Frage-Antwort Beispiele verdeutlicht:
C: Schreibe mir bitte ein Gedicht über die Forth-Brücke.
A: Da kannst Du mit mir nicht rechnen. Ich konnte noch nie Gedichte
schreiben.
C: Addiere 34957 und 70764.
A: (Nach ungefähr 30 sec Pause) 105621.
C: Spielst Du Schach?
A: Ja.
C: Ich habe nur noch den König auf E1. Du hast Deinen König auf E3 und einen Turm auf A2. Du bist am Zug. Was spielst Du?
A: (15 sec Pause) Turm auf A1, matt.
Dieses Frage- und Antwortspiel ist für unsere Fragestellung also sehr gut geeignet, denn die Maschine soll auf ihre intellektuellen Fähigkeiten getestet werden und nicht für ihr Aussehen bestraft werden. Nebenbei bemerkt: Die Aufgabe, die der Maschine gestellt ist, ist schwieriger als bloß intelligent zu sein. Um für einen Menschen gehalten zu werden, muß sie mit einigen ihrer Fähigkeiten hinter dem Berg halten (z.B. mit der Rechengeschwindigkeit). Ein Mensch hätte in dem Spiel als Spieler A keine Chance.
Bevor wir nun auf die Frage eingehen, ob es theoretisch vorstellbar ist, daß ein Computer in dem Imitationsspiel erfolgreich bestehen kann, möchte ich einige der Fähigkeiten von Computern anhand eines einfachen Beispiels erläutern.
2. COMPUTER ALS INTELLIGENTE SPIELPARTNER
Ein besonders wichtiges Merkmal intelligenten Verhaltens ist sein vorausschauender Charakter. Der Schachspieler ist z.B. dann ein guter Spieler, wenn er seine Zugwahl aufgrund von Überlegungen trifft, die die mögliche Spielfortsetzungen möglichst weit in die Zukunft hinein mit berücksichtigen.
Der vorausschauende Charakter intelligenten Handelns setzt voraus, daß ein internes Modell der Umwelt existiert. Die möglichen Folgen einer Handlung müssen "im Kopf" durchgerechnet werden. Der intelligent Handelnde trifft seine Entscheidungen über die durchzuführenden Handlungen aufgrund seiner Bewertung der Handlungsfolgen. Das bedeutet, daß im internen 'Weltmodell' nicht nur verschiedene 'Spielfortsetzungen' erkannt werden, sondern auch, daß ein interner Bewertungsmaßstab, eine Bewertungsfunktion für Handlungsfolgen existiert. Die Bewertung einer Handlung erfolgt danach, ob der Abstand zu einem Ziel vergrößert oder verringert wird.
Handlungsziele werden durch die jeweilige Umweltsituation, aber vor allem auch durch die interne Bedürfnislage bestimmt. Wenn man hungrig ist, setzt man seine Intelligenz dazu ein, etwas zu essen zu bekommen. Sind alle physiologischen Bedürfnisse befriedigt, wird es leichter, sich auf den Gewinn einer Schach- oder einer Damepartie zu konzentrieren.
Die Existenz einer Bewertungsfunktion, an der wir die Folgen unserer möglichen Handlungen messen, und die Fähigkeit, daß wir in einem internen Modell der Umwelt mögliche Handlungen durchspielen und uns für die 'beste' Variante entscheiden können, ist charakteristisch für Intelligenz. Wir dürfen die wichtige Frage stellen, ob Computer zu solch intelligentem Verhalten in der Lage sind, also ob sie vorausschauen, bewerten und entscheiden können.
2.1. Damespiel als Testfall
Bereits in den 50er Jahren entwickelte A.L. Samuel ein lernfähiges Damespielprogramm, das schließlich so gut wurde, daß es einen Meisterspieler besiegte, der mehrere Jahre von menschlichen Gegnern nicht besiegt worden war.
Spiele sind für Computerwissenschaftler beliebte Objekte. Im Gegensatz zu Problemen des täglichen Lebens sind die auftretenden Schwierigkeiten standardisiert und die Komplikationen des Details fehlen. Samuel wählte Dame und nicht Schach, weil die relative Einfachheit der Regeln es erlaubte, den Schwerpunkt der Analyse auf die Lernfähigkeit des Programms zu legen. Obwohl Dame intellektuell sicher nicht mit Schach konkurrieren kann, sind ihm doch die wesentlichen Merkmale eigen, welche unsere Fragestellung erfordert. Hierzu gehören:
1. Im praktischen Sinne ist Dame nicht determiniert, d.h. es gibt keinen bekannten Algorithmus, der einen Sieg oder ein Unentschieden garantiert. Die komplette Analyse des Spielbaumes des Damespiels würde ungefähr 1040 einzelne Zugentscheidungen umfassen. Wenn drei Züge in einer Nanosekunde analysiert werden könnten, würde die vollständige Analyse immer noch 1021 Jahrhunderte dauern.
2. Es besteht ein definiertes Ziel. Beim Damespielen besteht es darin, den Gegner bewegungsunfähig zu machen.
3. Es existiert zumindest ein gutes Kriterium, das etwas über die Nähe zum Ziel aussagt. Beim Damespiel ist das numerische Verhältnis der schwarzen und weißen Spielsteine entscheidend.
4. Die Gesetze, denen eine Handlung folgen muß, sind bekannt.
5. Es besteht in Form publizierter Damepartien ein Wissenshintergrund, gegen den die Leistungen des Computerprogramms gemessen werden können.
6. Die meisten Menschen sind mit den Regeln des Damespiels vertraut. Deshalb ist zu hoffen, daß das Verhalten des Computerprogramms verständlich gemacht werden kann.
Im folgenden wird die konkrete Struktur des Damespielprogramms erläutert.
2.2. Vorausschauen
Der Computer spielt Dame, indem er ein paar Züge vorausplant und die sich ergebenden Stellungen bewertet, ähnlich wie das ein menschlicher Damespieler tun würde. Dies funktioniert so, daß alle möglichen Züge ausgehend von einer Stellung berechnet werden. Dies geschieht mehrere Zugfolgen tief. Die Tiefe der Analyse ist nicht konstant, sondern richtet sich nach einer Hierarchie von Kriterien. Einige seien genannt:
1. Es wird immer mindestens x (z.B. 3) Züge voraus gerechnet.
2. Es wird tiefer analysiert, wenn der nächste Zug ein Sprung ist, der
letzte Zug ein Sprung war oder ein Austauschangebot möglich ist.
3. Es wird höchstens x+y (z.B. 20) Züge vorausberechnet. Diese Grenze
wird durch die Memory Kapazität des benutzten Computers bestimmt.
Durch diese Kriterien wird erreicht, daß die nachfolgende Bewertung der sich ergebenden Stellungsbilder nur solche Stellungen erfaßt, die relativ stabil sind (tote Positionen). Das Vorausschauen wird also nicht mitten in einem Abtausch abgebrochen.
2.3. Bewerten
Die Endstellungen, die sich aus dem Vorausschauen ergeben, werden bewertet. Grundlage hierfür ist in dem Programm ein lineares Polynom. Der wichtigste Term hierin, d.h. der Term mit dem höchsten Koeffizienten, steht für das numerische Verhältnis der weißen und schwarzen Spielsteine. Sein Vorzeichen entscheidet darüber, ob normales Dame oder "Freß-Dame" gespielt wird. Weitere 26 Terme wurden von Samuel in das Bewertungspolynom eingebaut, z.B. Zentrumskontrolle, Beweglichkeit, Kontrolle der Grundlinie etc. Auch binäre Kombinationen dieser Parameter wurden ausprobiert. Der Computer konnte, wie unter der Überschrift "Verallgemeinerndes Lernen" nochmal erwähnt werden wird, die Koeffizienten der Terme sowie die Auswahl der verwendeten Terme im Prinzip selbst bestimmen.
Mit Hilfe des Bewertungspolynoms wird jeder Endstellung, die sich aus dem Vorausschauen ergibt, ein numerischer Wert zugeschrieben. Hiervon ausgehend muß der beste Zug ausgewählt werden. Dies geschieht mit Hilfe der Minimax-Methode. Es reicht nicht aus, den Zug zu wählen, der zu der am höchsten bewerteten Endstellung führt, denn die bösen" Absichten des Gegenspielers müssen mit berücksichtigt werden. Rückwärts von den Endstellungen muß die Analyse durch den Spielbaum fortschreiten; jedem Knoten wird entweder der Minimalwert der tieferen Schichten zugedacht (wenn er eine Entscheidungsstelle des Gegners beschreibt) oder der Maximalwert (wenn er eine eigene Entscheidungsstelle darstellt). Erst diese Minimax Methode ermöglicht die Auswahl des besten Zugs. Der Wert der wahrscheinlichsten Endstellung wird der Ausgangsstellung zugeschrieben. Dies ist sehr wichtig zum Verständnis der Effektivität des Auswendiglernens, der primitivsten Lernform, zu der Samuel seinen Computer "erzogen" hat.
2.4. Auswendiglernen und Vergessen
Wir haben gesehen, wie jeder Spielstellung ein Wert zugeordnet wird, der sich aus der Minimax Analyse des Spielbaums ergibt. Dieser Wert wird nun zusammen mit der Spielstellung gespeichert. Wenn in einem neuen Spiel diese Stellung beim Vorausschauen wieder angetroffen wird, so wird sie nicht mit dem Polynom, sondern mit dem gespeicherten Wert bewertet. Dies bedeutet eine effektive Verdopplung der Zugzahl, um welche vorausgedacht wird. Theoretisch ist es möglich, daß durch diese Art des Lernens in der n-ten Partie partiell nx Züge vorausgedacht wird, wenn x die normale Vorausschautiefe bezeichnet.
In der Praxis stößt das Auswendiglernen jedoch sehr bald an die Grenzen der Speicherkapazität eines Computers. Samuel löste in seinem Fall dieses Problem dadurch, daß die Bewertung sehr selten angetroffener Stellungen vergessen werden konnte. Je häufiger eine Stellung beim Spiel angetroffen wurde, umso länger wurde die Bewertung "behalten".
Was kann der Computer, ausgestattet mit der Fähigkeit des Auswendiglernens, leisten? In der Trainingsphase ließ Samuel das Programm gegen sich selbst, aber auch gegen viele menschliche Gegner, darunter einige Meisterspieler, antreten. Auch einige Spiele aus der Literatur wurden nachgespielt. Am Ende dieser Lernphase spielte der Damecomputer eine sehr gute Eröffnung und erkannte die meisten Gewinn- oder Verluststellungen im Endspiel. Im Mittelspiel hatte das Auswendiglernen jedoch keine eindeutige Verbesserung bewirken können. Das Computerprogramm war in diesem Stadium als ein überdurchschnittlich guter Anfänger, aber sicher nicht als Experte, zu bezeichnen.
2.5. Verallgemeinerndes Lernen
Auswendiglernen ist durch die Gedächtniskapazität des Computers beschränkt. Es gibt zu viele mögliche Stellungen, als daß alle "auswendig" gespeichert werden könnten. Eine viel effektivere Lernmethode besteht darin, die gemachten Erfahrungen zu verallgemeinern und nur diese Verallgemeinerungen zu speichern. Dieses Lernen sollte verschiedene Ebenen der Abstraktion beinhalten. Samuel versuchte seinem Programm die Fähigkeit zur Abstraktion dadurch zu geben, daß er es in die Lage versetzte, die Terme des Bewertungspolynoms selbst auszuwählen und das Vorzeichen und die Größe der Koeffizienten anhand des Spielerfolgs zu bestimmen. Die Modifikation der Termkoeffizienten anhand des Spielerfolges beinhaltet folgende Schwierigkeit: Nach Beendigung eines Spiels ist nicht immer sicher, welcher Spielzug zum Gewinn oder zu dem Verlust der Partie geführt hat, also ist auch nicht sicher, welcher Term neu gewichtet werden sollte. Samuel umgeht dieses Problem dadurch, daß er während des Spiels nach jedem Zug eine Bewertung des Bewertungspolynoms vornimmt. Gegeben sei z.B. eine beliebige Stellung im Mittelspiel. Grundlage des Lernvorgangs ist dann der Vergleich der Bewertungen für die augenblickliche Stellung, die sich ergeben, einmal aus der augenblicklichen Berechnung mit dem Polynom und zum anderen nach der Generierung des Spielbaums aus der Rückrechnung mit der Minimax Methode. Die Differenz zwischen beiden Bewertungen ist Delta. Delta ist ein Maß für die Güte des Bewertungspolynoms. Wenn Delta positiv ist, bedeutet das, daß die Berechnungen des Polynoms zu pessimistisch waren. Alle positiven Terme sollten also u.U. stärker bewertet werden. Wenn Delta negativ ist, dann war die Bewertung mit Hilfe des Polynoms zu optimistisch und alle Terme, die negativ beitragen, sollten u.U. stärker zu Buche schlagen. Nach Beendigung des Spiels werden deshalb die für jeden Zug ermittelten Delta-Werte mit dem Vorzeichen der verschiedener Terme während eines ganzen Spiels korreliert. Die Koeffizienten werden je nach berechneter Korrelation für das nächste Spiel verändert.
2.6. Vergleich der Lernmodi
Während das Auswendiglernen sehr schnell zu einer guten Eröffnung führte, aber im Mittelspiel wenig veränderte, hatte verallgemeinerndes Lernen nicht so ein gutes Eröffnungsspiel zur Folge, aber das Mittelspiel wurde drastisch beeinflußt. Einmal in Steinvorteil, hatte der Gegner meist keine Chance mehr.
2.7. Kombination der Lernmodi
Wirklich meisterlich spielte der Damecomputer nach der Kombination beider Lernmodi. So konnte er ein Spiel gegen Mr. R.W. Nealey gewinnen, der seit Jahren gegen Menschen nicht mehr verloren hatte. Nealey kommentierte das Spiel gegen den Computer folgendermaßen:
"Unser Spiel... hatte seine Höhepunkte. Bis zum 31. Zug war unser gesamtes Spiel publiziert, wenn man davon absieht, daß ich mehrmals das 'Buch' verlies, um den Computer in Zeitnot zu bringen. Ab dem Zug 32-27 (dem Verlustzug) ist das Spiel original, soviel ich weiß. Es ist für mich sehr interessant festzustellen, daß der Computer mehrere Starzüge machen mußte, um gewinnen zu können, anderenfalls hätte ich die Möglichkeit zum Unentschieden gehabt. Deshalb spielte ich weiter. Die Maschine spielte ein perfektes Endspiel ohne einen Fehlzug. In bezug auf das Endspiel habe ich seit 1954, als ich mein letztes Spiel verlor, keinen solchen Gegner gehabt."
3. KRITIK VON VORURTEILEN ÜBER DIE THEORETISCHEN GRENZEN DER COMPUTERFÄHIGKEITEN
3.1. Erstes Vorurteil: "Computer sind nur zählende Idioten"
Die meisten Computer verarbeiten Information in digitaler Form. Ihre elementarsten Bausteine (logische Gatter) können in Abhängigkeit von den Eingängen an ihrem Ausgang die logischen Zustände "0" und "1" einnehmen. Dies wird häufig benützt (zugegebenermaßen nur in der trivialen Literatur), um zu behaupten, daß Computer eigentlich nur bis 0 und 1 zählen könnten. Wie widersinnig es ist, hierin eine Beschränkung der Computerfähigkeiten zu sehen, liegt auf der Hand. Prinzipiell darf die Leistungsfähigkeit eines komplexen Systems nicht an derjenigen seiner isolierten Bausteine gemessen werden. Wer wollte einer einzelnen Nervenzelle Intelligenz oder gar Selbstbewußtsein zuschreiben?
Die de Morganschen Gesetze besagen, daß die logischen Funktionen NOR und NAND Universalfunktionen sind. Mit ihnen lassen sich im Prinzip alle lösbaren logischen Probleme lösen. Dieser Satz bedeutet nichts anderes, als daß Computer theoretisch die Arbeit der Logiker übernehmen können. Es ist selbstverständlich, daß auch Computer prinzipiell unlösbare Probleme nicht lösen können (es gibt hiervon in der Logik und der Mathematik eine ganze Reihe).
3.2. Zweites Vorurteil: "Computer können nicht lernen".
Diese Anschauung vertrat sogar in den 70er Jahren im Fernsehen ein Stuttgarter Informatikprofessor (dessen Namen ich glücklicherweise vergessen habe), was nur zeigt, daß manchmal eine zu detaillierte Beschäftigung mit einer Sache den Blick für allgemeinere Zusammenhänge vernebeln kann. Wir haben uns mit einem lernfähigen Computerprogramm eingehend befaßt; deshalb erübrigt es sich hier, über dieses Vorurteil noch viel Worte zu machen.
3.3. Drittes Vorurteil: "Computer sind nicht kreativ"
Beim Rückzugsgefecht darüber, was Computer nicht können, wird häufig angeführt "Computer sind nicht kreativ". Diese Behauptung wird selten von einer Definition dessen begleitet, was unter "kreativ" verstanden werden soll. Sobald kreativ nämlich in sinnvoller Weise definiert wird, ist meistens schon der Weg für eine maschinelle Nachahmung vorgezeichnet. Willwacher z.B. beschreibt einen produktiven Einfall als die Neukombination früher erlernter Informationen. Sein auf einem Computer simuliertes assoziatives Speichersystem konnte solche produktiven Einfälle produzieren.
Ich könnte den Rest der Vorlesungszeit damit füllen, aus einem Buch mit Computerlyrik zu rezitieren. Solche Computerlyrik ist nicht deshalb nicht kreativ, weil wir die Regeln kennen (können), nach denen der Computer seine Gedichte verfaßt hat. Wenn dem so wäre, würde eine notwendige Bedingung für menschliche Kreativität die Unkenntnis der Regeln sein, nach denen menschliche Gehirne Neues produzieren. Kreativität wäre dann wegforschbar.
Dieses Argument leitet über zum 4. Vorurteil.
3.4. Viertes Vorurteil: "Computer können nicht klüger werden als ihre Programmierer".
Was ein Computer tut und wie er es tut, hängt von seinem Programm und damit von seinem Programmierer ab. Damit ist aber kein neuer Erhaltungssatz formuliert, d.h. ein Programmierer kann mehr Information aus dem Computer erhalten als er hineingesteckt hat. Das wird besonders anschaulich bei lernfähigen Programmen. Auch hier kann uns das von Samuel programmierte lernfähige Damespielprogramm als Beispiel dienen. Wir haben nachvollziehen können, warum dieses Programm bald besser Dame spielen konnte als sein Schöpfer. Der Satz "Ein Computer kann nie intelligenter werden als sein Programmierer" verschleiert tatsächliche Entwicklungen. Er vernachlässigt darüberhinaus, daß schon heute in vielen Großcomputern Programme laufen, die von einem ganzen Stab von Programmierern über viele Jahre entwickelt worden sind.
Es sollte im übrigen angemerkt sein, daß auch wir Menschen abhängig davon sind, was Erzieher und sonstige Umwelt in uns eingepflanzt haben. Ein prinzipieller Unterschied zu lernfähigen Computern wäre hier noch nachzuweisen.
Die richtig gestellte Frage ist nicht die, ob Computer nur das tun, was ihnen aufgetragen wurde zu tun, sondern die Frage nach den Grenzen dessen, was einem Computer aufgetragen werden kann zu tun.
3.5. Fünftes Vorurteil: "Computer können keine Gefühle haben"
Von dem chinesischen Philosophen Chuang Tzu ist folgende Parabel überliefert: "Zwei Philosophen standen auf einer kleinen Brücke, über einem klaren Bach, und sahen dem Spiel der Fische zu. Da sagte der eine: 'Sieh nur, wie die Fischlein dort im Kreis herumschwimmen und plätschern. Das ist ein Vergnügen für sie'. Darauf versetzte der zweite: 'Woher weißt du, was für die Fische ein Vergnügen ist?' - 'Und wieso weißt du', entgegnete ihm der erste, 'der du doch nicht ich bist, daß ich nicht weiß, was den Fischen Vergnügen macht?'
Verfechter der These: "Ein Computer kann kein Gefühl haben" sind Dogmatiker mit einem echten Vorurteil (vor jeder Erfahrung ). Sie vergessen, daß sie die Maschine selbst sein müßten, um dies subjektiv zu überprüfen. Auf das Gefühlsleben unserer Mitmenschen und das mancher Haustiere schließen wir instinktiv aufgrund angeborener auslösender Mechanismen. Auf der philosophischen Ebene rechtfertigen wir diese instinktive Grundhaltung ad hoc mit einem Analogieschluß: Alle Menschen verhalten sich so, als hätten sie ein Gefühlsleben wie wir selbst, also haben sie eins (man beachte, wie wir in diesem Fall das Prinzip des Turing Tests - auf Mitmenschen angewandt - akzeptieren).
Bei dem traurigen Erscheinungsbild heutiger Computer funktionieren weder angeborene auslösende Mechanismen, noch können uns Analogieschlüsse mangels Ähnlichkeit dazu bewegen, ihnen ein Gefühlsleben zuzusprechen. Sie haben sicher auch keins. Aber zu behaupten, daß eine (zukünftige) Maschine mit der Komplexität eines menschlichen Gehirns keine Gefühle haben kann, ist tatsächlich nichts anderes als ein unbewiesenes und wahrscheinlich unbeweisbares Vorurteil. Wenn wir als Naturwissenschaftler annehmen, daß unsere Gefühle und sogar unser Selbstbewußtsein auf Informationsverarbeitungsprozessen beruhen, dann ist es eher konsequent anzunehmen, daß eine Maschine mit entsprechender Informationsverarbeitung eben auch diese Phänomene kennt [4].
Auf der Basis von Turings Test ist aber selbst dieser 'Glaube' irrelevant. Relevant ist bei dieser Betrachtungsweise nur, ob der Computer sich so verhalten kann, als ob er Gefühle habe.
4. MÖGLICHE FOLGEN DER COMPUTERENTWICKLUNG
Alle möglichen Folgen der Computerentwicklung kann niemand voraussehen. Einige der Entwicklungen sind jedoch schon heute absehbar. Sie seien kurz angesprochen.
4.1. Die Verdrängung des Menschen aus den Produktionsprozessen
Die Einsparung menschlicher Arbeitskraft durch den Einsatz der Computertechnologie ist - trotz politisch motivierter Gegenrede - evident. Die heutige Arbeitslosigkeit ist zumindest teilweise auf die progressive Automatisierung der Produktionsprozesse zurückzuführen. Der Anteil dieser strukturellen Arbeitslosigkeit wird zunehmen, trotz der langfristig drastischen Verkürzung der menschlichen Arbeitszeit.
Die heutige Situation ist nicht nur einfach eine Wiederholung der Erscheinungen während der ersten industriellen Revolution im 19. Jahrhundert, als z.B. die Weber durch die Konkurrenz der mechanischen Webstühle brotlos wurden. Jede der damaligen Maschinen bedeutete wenigstens auch einen Arbeitsplatz für denjenigen, der sie bedienen mußte. Heute ist die Entwicklung hingegen gerade die, daß Maschinen selbständig (automatisch) ihre Arbeit verrichten. Menschenleere Fabriken sind z.B. in der Automobilindustrie und in der chemischen Verfahrenstechnik schon heute keine Utopie mehr. Vor allem auch in der Computerentwicklung selbst werden immer mehr Computer eingesetzt. Das dynamische Wachstum dieser Branche verschleiert noch, daß pro Produktionseinheit immer weniger Mensch benötigt wird.
Früher wurde die Handarbeit mechanisiert, der Mensch blieb immer der 'Kopf' des Mensch-Maschine Systems. Heute wird auch die Kopfarbeit automatisiert; wird dadurch der Mensch funktionslos?
Es steht zu erwarten, daß die mehrheitliche Beschränkung der Menschen auf das Konsumieren, d.h. seine Verdrängung aus der Produktion, nicht ohne große Probleme für die menschliche Sinnsuche ablaufen wird.
4.2. Unüberschaubare Computerprogramme und der Verlust menschlicher Verantwortung?
Es ist nicht so, daß die heutige Entwicklung generell eine Befreiung von unwürdigen Tätigkeiten bedeutet. Computer (Roboter) verdrängen den Menschen nicht nur bei zeitaufwendigen Routinearbeiten, sie nehmen vielen auch das Gefühl, von Bedeutung zu sein. Außerdem werden Computer zunehmend bei Entscheidungsprozessen in Politik und Wirtschaft eingesetzt, bei Tätigkeiten, denen ein hohes Sozialprestige entsprechen würde. Es ist die Aufgabe von Computern geworden, optimale Verkaufsstrategien, Investitionen oder Personalbestände zu berechnen. Der Mensch, der den Entscheidungsprozeß des Computers häufig nicht mehr überschauen kann, ist oft nur noch das Computerinterface zur 'real world', das Verbindungsglied zwischen Computer und Umwelt. Dies ist notgedrungen ein Rückzug des Menschen aus der Verantwortung. Ein Mensch, der die Entscheidungen eines Computers weitergibt, ohne dessen Entscheidungsprozeß nachvollziehen zu können, fühlt sich nicht verantwortlich und - in einem gewissen Sinne - ist er es auch nicht. Da die Entscheidungen eines Computers auf so komplexen Programmen beruhen können, daß kein einzelner Programmierer, sondern nur ganze Generationen von Programmierern verantwortlich zeichnen, gibt es gar keine juristisch belangbare individuelle menschliche Verantwortung mehr, wie Joseph Weizenbaum feststellt: "...but responsibility has altogether evaporated".
Noch wird in der Computertechnologie das potentielle Lernvermögen der Computer selten eingesetzt. Was es in obigem Zusammenhang bedeuten würde, wenn Computerentscheidungen aufgrund von Erfahrungen getroffen würden, die der Computer selber gesammelt hat, ohne daß ein menschliches Interface eingeschaltet war, ist offensichtlich. Computer wären endgültig autonome Handlungszentren im Funktionsgefüge dieser Welt.
Wir brauchen eine Diskussion der Frage, was für uns als Menschen wünschenswert ist, und ob die gegenwärtige Entwicklungstendenz an diesen Zielen orientiert ist. Als denkende Menschen sollten wir die Richtung der stattfindenden Metamorphose mitbestimmen und uns nicht ahnungslos von ihrer Eigendynamik überrollen lassen.
Literatur
Krause M. und G.F. Schaudt: "Computer Lyrik. Poesie aus dem Elektronenrechner". Droste Verlag. Düsseldorf 1967.
Samuel A.L.: "Some Studies in Machine Learning Using the Game of Checkers". In "Computers and Thought", ed. E. Feigenbaum und J. Feldman, McGraw Hill New York (1963) pp.71-105
Turing A.M.: "On computable numbers, with an application to the Entscheidungsproblem". Proc. of the London Mathematics Society (Series 2) 42, 230-265 (1936).
Turing A.M.: "Computing machinery and intelligence". Mind, October, 1950, 59, 433-460. Nachdruck in "Computer and Thought" Ed. E.A. Feigenbaum und J. Feldman. McGraw-Hill 1963.
Weizenbaum, J: "Computer Power and Human Reason". Freeman & Co., San Francisco (1976).
Willwacher, Gerd: Fähigkeiten eines assoziativen Speichersystems im Vergleich zu Gehirnfunktionen. Biol. Cybernetics 24, 181-198 (1976).
... und so sieht die Diskussion über Roboter 2007 - nur 26 Jahre später - aus!
Ray Kurzweil (2006): Why We Can Be Confident of Turing Test Capability Within a Quarter Century
Ray Kurzweil hat in seinem Buch "The Singularity is Near, When Humans Transcend Biology" von 2005 vieles von dem, was ich 1980/81 angerissen habe, mit heutigem Wissen konsequent zu Ende gedacht.
Kommentare (9)
@Globetrotter
Liebe Gisela, das finde ich auch interessant. Tatsächlich sind solche Aussagen von damals auch heute noch oft zu hören. Z. B. wird heute Abend eine interessante Sendung in der ARD zu KI gebracht, die ich mir schon in der Mediathek angeschaut habe ("Better then Human"). Dort sagt jemand, die Sprachmodelle wären nicht intelligent, weil sie immer nur das wahrscheinlichste nächste Wort suchen würden.
Vergessen tut er bzw. er vergißt zu reflektieren, dass die Sprachgenerierung in unseren Gehirnen ähnlich funktioniert. Die generativen Sprachmodelle wurden alle ursprünglich von der generativen Grammatik von Noam Chomsky getriggert, der die menschliche Sprachgenerierung untersucht hat.
Karl
„Dies ist notgedrungen ein Rückzug des Menschen aus der Verantwortung.“
Lieber Karl,
bei den aktuellen Kriegsabläufen wird die KI bereits genutzt (Optronik, Systemtechnik, Bildauswertung), allerdings auf allen Seiten.
Die Menschheit hat es leider nie geschafft, trotz ihrer Intelligenz und ihren vielen vergleichbaren Erfahrungswerten, grausame Kriege zu verhindern.
Wäre es da nicht viel sinnvoller, wenn sich der Mensch bereits im Vorfeld bei seiner Entscheidungsfindung, wie man endlich Eskalationen und Kriege verhindern kann, von einer aggressionsfreien KI helfen lässt? Auch wenn diese Vorstellung sicher sehr abstrakt ist..., die Möglichkeit könnte ja bestehen, falls man den Menschen (in diesem einen Fall) mal ganz aus der Verantwortung nimmt.
KI für den Frieden
In Zusammenarbeit mit der Uno wollen Forscherinnen und Forscher der ETH vorhandene Daten mit künstlicher Intelligenz systemisch aufbereiten und damit Konfliktdynamiken frühzeitig erkennen.
Freitag, 15.12.2023, 22:34 Uhr
Nur eine kleine Überlegung zu Deinem Beitrag.
Herzliche Grüße
Rosi65
@Rosi65
Liebe Rosi, ich stimme Dir zu. Es ist ein Jammer, dass KI wie die natürliche menschliche Intelligenz für schlechte Ziele missbraucht werden kann. Intelligenz sucht die schnellsten und effektivsten Wege zu einem Ziel, wobei diese Ziele gut oder schlecht sein können.
Deshalb sollte das übergeordnete, einprogrammierte Ziel aller KI sein, der Menschheit zu nutzen und jeden einzelnen Menschen zu achten.
Asimov hat deshalb schon sehr früh seine drei Gesetze der Robotik festgelegt:
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Karl
@Rosi65
eine Art Kriegsführungs-Bremse?, die verhindern würde, dass ein Krieg praktiziert wird?
@JuergenS
es wäre zu hoffen, dass den Kriegsherren eine KI klarmachen kann, dass es bessere Wege zu Wohlstand, zu wirtschaftlichem Erfolg und ihrem eigenen Wohlbefinden geben kann als Krieg.
Es wäre zu hoffen, dass eine KI die Kooperation zwischen Menschen und Staaten auf eine gesunde friedliche Basis stellen kann. Aber ob es je so kommt, wissen wir leider nicht.
Karl
Es ist wirklich schade, dass Turing so früh verstorben war. Und der A.L. Samuel hat aus dem bekannten Damespiel etwas echt Kompliziertes gemacht, mit all den Polynomen (einer war das doch wohl) und Termen; trotzdem ist der Stoff verständlich und interessant.
Zu den Gefühlen: ich glaube, wäre die KI auch wirklich intelligent, sollte sie die Option „Gefühle” bei sich einfach selber ausschalten. Durch Gefühle könnte sie eventuell nur weniger intelligent werden. Möge sie dafür eher über einen „Sinn“ verfügen; in ihrem Fall müsste das ein Sinn für alles mögliche sein.
Und sonst: man kann ziemlich mutig eine eigene Meinung wagen, wenn es sogar für einen Gelehrten mit glücklich vergessenem Namen gilt: „...manchmal eine zu detaillierte Beschäftigung mit einer Sache den Blick für allgemeinere Zusammenhänge vernebeln kann“.
Sehr gern gelesen; danke auch für Hinweise, was man dazu noch in Büchern finden könnte.
Mit Grüßen
Christine
@Christine62laechel
Herzlichen Dank für den Kommentar, Christine. Ja, manchmal können Gefühle der Intelligenz vielleicht im Wege stehen. Aber, so wie Intelligenz den Weg zu einem Ziel ebnet, so können Gefühle helfen, die richtigen Ziele auszuwählen!
Hier trifft dies dann auch den Kommentar von @Rosi65
Eine KI sollte Mitgefühl und Empathie für Menschen eingepflanzt bekommen, dann würde sie sicher helfen, Kriege zu vermeiden und sich die richtigen Ziele setzen. Aber selbst die Robotergesetze von Asimov bergen ja, wie seine Erzählungen zeigen, noch immer großes Konfliktpotential.
Karl
Danke @Karl für diesen mehr als 40 Jahre alten, informativen Text. Erstaunlich finde ich, dass die Vorurteile auch heutzutage noch auf die KI übertragen werden können.
LG
globetrotter