Archivübersicht |
Impressum
THEMA: Das immerwaehrende Thema: Kuenstliche 'Intelligenz'
25 Antwort(en).
Wolfgang
begann die Diskussion am 25.12.05 (12:45) :
Jahr fuer Jahr nerven sie mich - die Forscher, die Dir erzaehlen, dass es so etwas wie kuenstliche 'Intelligenz' geben koenne. Wenn dann noch Staatsknete lockt, verkaufen sie ihre eigene Grossmutter als junges Maedchen. So geschieht es jetzt wieder... 'RobotCub' heisst das Geraet (s. Link).
Es soll Krabbeln koennen wie ein Kind.
Ausgewachsene Maenner (oder sind gar Frauen dabei) verlustieren sich an dem Projekt und tun ungeheuer wichtig und raunen, was man mit so einem Geraet alles anfangen koenne. In der Mainstream-Presse jubeln sie dann wie auf Bestellung (vielleicht faellt fuer so einen Artikel ja auch was ab).
'Garbage in, garbage out' ist eine bekannte Programmiererweisheit. Wo Muell reingesteckt wird, kommt Muell raus. Da nuetzen keine integrierten Schaltkreise was. So wird also viel Muell rauskommen bei dem Projekt 'RobotCub'. Fortschritt ? Genau... Fortschritt !
Related Link(s)...
Spiegel 52/2005 KUENSTLICHE INTELLIGENZ Roboter in der Krabbelstube Von Manfred Dworschak Europaeische Forscher bauen einen verspielten Maschinenzwerg, der die Welt wie ein Kind auf allen Vieren erkundet. Koennte sich in dem Wesen einst ein Funke von Verstand regen? https://www.spiegel.de/spiegel/0,1518,391939,00.html
Internet-Tipp: https://www.robotcub.org/
|
schorsch
antwortete am 25.12.05 (16:24):
....aber keine Frage, dass es in absehbarer Zeit gelingen wird, Technik mit menschlichen Gehirnen zu verbinden.....
Mir graust zwar davor. Aber andererseits bin ich auch davon fasziniert.
|
Karl
antwortete am 25.12.05 (17:40):
Frohe Weihnachten Wolfgang,
du weißt ja bereits, dass ich zu diesem Thema deine Meinung nicht teile. Es gibt keinen mathematischen Beweis dafür, dass Intelligenz durch Maschinen nicht erreichbar ist. Entsprechende Unmöglichkeitspostulate (einschließlich deiner) sind reines Wunschdenken. Auch in deinem obigen Text ist kein sachliches Argument enthalten, sondern es finden sich nur Behauptungssätze, die als Glaubensbekenntnis gewertet werden müssen. Alles, was ich weiß, spricht dafür, dass es möglich sein wird, Maschinen zu konstruieren, die lernfähig sind und in der Lage sein werden, Intelligenz zu entwickeln. Aber auch, dass ich im Recht bin, muss erst noch bewiesen werden. Der im Spiegel Artikel geschilderte Ansatz ist sehr interessant. Der Linktipp führt zu älteren Diskussionen des Themas hier im ST.
Internet-Tipp: /seniorentreff/de/diskussion/threads7/thread261.php
|
Wolfgang
antwortete am 25.12.05 (19:11):
"Es gibt keinen mathematischen Beweis dafuer, dass Intelligenz durch Maschinen nicht erreichbar ist." (Karl) - Es gibt aber auch keinen mathematischen Bewis dafuer, dass Intelligenz per Maschine erreichbar waere. Wie auch. Je nachdem, wie Intelligenz definiert wird, bauen sie ja heute schon 'intelligente' Maschinchen. Die 'lernen' zum Beispiel, wie Eier zu kochen sind,, dass eine bestimmte Menge Wasser eingefuehrt wird, messen die Verdraengung der eingesetzten Eier und 'berechnen' messerscharf die Zeit, die benoetigt wird, um die Eier auf den gewuenschten Punkt zu kochen.
Dass solche 'intelligenten' Maschinchen zuvor von Menschen entwickelt und gebaut werden mussten, ist ihr erster Schoenheitsfehler. Dass sie nachher ausschliesslich das machen koennen, fuer das Menschen sie erdacht haben, ihr zweiter Schoenheitsfehler. Kurz: Sie sind das Gegenteil von intelligent, sie sind aeusserst dumm.
Die Glaeubigkeit, die Ideologie, liegt bei Dir, Karl. Wie in anderen Bereichen auch. So wie Du denkt derzeit praktisch die gesamte 'wissenschaftliche' Nomenklatura. Ganz wenige Ausnahmen gibt es. Der Herr Joseph Weizenbaum ist so einer (s. Link). - Nenne mir bitte eine Maschine, die in der Lage waere, ueber sich selbst hinauszugehen... Zum Beispiel, dass sie sich zum Schutze irgendeines Ideals selbst opfert. Wohlgemerkt: Ohne dass man dieser Maschine vorher gesagt haette, was das fuer ein Ideal sei, und unter welchen Umstaenden sie sich zerstoeren soll. Ich warte auf Dein nachpruefbares Beispiel. ;-)
Internet-Tipp: https://de.wikipedia.org/wiki/Joseph_Weizenbaum
|
Wolfgang
antwortete am 25.12.05 (19:42):
Den Link gibt es immer noch. *staun* Ich hatte ihn in einer frueheren Diskussion zum Thema schon einmal benutzt:
c't 19/2001, S. 30 Goetter bauen Dietrich Doerner im Gespraech mit Thomas Zimmermann Stehen uns bald Roboter gegenueber, die eigene Gefuehle und Intentionen entwickeln? Das jedenfalls legt Steven Spielbergs neuester Film 'A.I.' nahe, der am 13. September in den deutschen Kinos startet. Wir befragten den Bamberger Psychologieprofessor Dietrich Doerner zum Stand der Kuenstlichen Intelligenz (Artificial Intelligence, AI). https://www.heise.de/ct/01/19/030/
P.S.: Aus dem puren Verweis auf einen Artikel sollte von niemandem geschlossen werden, dass ich mit dem, was da drin steht, teilweise oder gar vollstaendig einverstanden bin. Ich finde nur, dass der verlinkte Artikel lesenswert ist.
Internet-Tipp: https://www.heise.de/ct/01/19/030/
|
Karl
antwortete am 25.12.05 (19:50):
Hallo Wolfgang,
du hast überlesen, dass ich schrieb: "Aber auch, dass ich im Recht bin, muss erst noch bewiesen werden."
Uns unterscheidet ganz einfach, dass du zu wissen vorgibst und ich weiß, dass nichts bewiesen ist. Dein obiges Eierkochbeispiel ist enttäuschend schwach, denn es berücksichtigt wenig von dem, was unter "Intelligenz" verstanden wird.
Das Argument, eine Maschine sei durch die Intelligenz der Programmierer begrenzt, widerlegen schon die Schachprogramme, die jeden einzelnen ihrer Programmierer besiegen können. Wie soll das erst für lernfähige Roboter gelten? Auch wir wären notgedrungen auf die Intelligenz unserer Erzieher beschränkt, wenn dies ein Gesetz wäre.
Dass sich meine Sicht der Dinge mehr und mehr auch zu einer Sicht der Mehrheit in der Wissenschaft entwickelt hat, liegt nicht daran, dass diese Sicht falsch sein muss ;-)
Herrn Weizenbaums Bücher kenne ich schon Jahrzehnte und ich habe auch schon einmal einen seiner Vorträge vorzeitig verlassen ;-(( Meine Frau hat sich in einer Fernsehdiskussion mit ihm nicht schlecht geschlagen. Er ist ein alter interessanter Mann, aber die Entwicklung hat ihn überrollt.
Selbstaufopferung? Rein logisch betrachtet ist dies nun ein weniger kompliziertes Problem. Es hat ganz einfach etwas mit der Hierarchie der Bewertungsfunktionen für Handlungen zu tun. Asimov hat gezeigt, wie mit seinen drei einfachen Gesetzen der Robotik komplizierte Verhaltensmuster entstehen können, die er in seinen Science-Fiction Romanen genüßlich entwickelt hat. Asimov ein Genie unserer Zeit! Seine Romane sind Sterne am Science Fiction Himmel:
Internet-Tipp: https://de.wikipedia.org/wiki/Isaac_Asimov
|
Karl
antwortete am 25.12.05 (20:01):
Hier die 3 Gesetze der Robotik:
Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.
Ein Roboter muss dem Menschen gehorchen, es sei denn, der Befehl steht im Konflikt mit dem ersten Gesetz.
Ein Roboter muss seine eigene Existenz beschützen, es sei denn, dieser Schutz tritt in Konflikt zum ersten oder zweiten Gesetz.
Diese 3 grundlegenden Regeln hat Asimov das erste mal in "Runaround" (Herumtreiber) erläutert. Asimov hat darauf hingewiesen, dass Werkzeuge im Allgemeinen so konstruiert sind, dass sie implizit diesen Gesetzen gehorchen. Analog werden in seinen Geschichten Roboter-Gehirne so entworfen, dass die Roboter nicht anders können, als den Gesetzen der Robotik zu gehorchen. Später lässt Asimov in einem Roman das sog. "Nullte Robotergesetz" entwickeln: Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt. Das Erste, Zweite und Dritte Gesetz der Robotik werden entsprechend modifiziert: "... es sei denn, dadurch würde das Nullte Gesetz verletzt." Bezeichnenderweise ist es kein Mensch, sondern ein Roboter (R. Daneel Olivaw), der dieses Gesetz aufstellt.
Ich kann die Bücher Asimovs nur empfehlen. Ich habe sie als Student verschlungen und sie haben mein Denken sehr beeinflusst.
Internet-Tipp: https://de.wikipedia.org/wiki/Isaac_Asimov
|
Wolfgang
antwortete am 25.12.05 (20:52):
Dass Du zu Science Fiction-Erzeugnissen Zuflucht suchst, Karl, sei Dir verziehen. Da gehoert die ganze Spielerei auch hin. Unterste Sorte ist aber, einen der bedeutendsten Denker und Wissenschaftler unserer Zeit mit dem Attribut 'alt' abzutun, nur weil Dir seine Erkenntnisse nicht passen.
So ist das, wenn die Argumente ausgehen. Ich bin's ja gewohnt von Dir. Ich warte immer noch auf das Beispiel einer Maschine, die intelligent ist. Nenne sie, wenn Du eine kennst ! Aber, bitte, komme mir nicht mehr mit Deep Fritz... Ohne die Hundertschaft an Technikern und Programmierern, die ihm hilft zu gewinnen, waere es nichts. Ansonsten verweise ich was Fritz und seine angebliche 'Intelligenz' betrifft auf fruehere Beitraege (s. Link).
Internet-Tipp: /seniorentreff/de/diskussion/archiv7/a200.html
|
dirgni
antwortete am 25.12.05 (22:23):
Zunächst "ich weiß, daß ich nichts weiß :-)",
aber wenn ich die 3 Gesetze der Robotik lese, frage ich mich, warum sollte ein intelligentes Wesen (egal ob natürlich oder künstlich) sich zum Sklaven des Menschen machen, dessen moralischen Vorstellungen gehorchen, ohne daß der Mensch ihm die Menschenrechte (z.B. Gleichberechtigung) zugesteht?
|
Karl
antwortete am 26.12.05 (09:50):
Einen schönen entspannten zweiten Weihnachtstag wünsche ich allen Diskutanten!
Lieber Wolfgang,
du weißt, dass die Antwort auf die Frage, was eine intelligente Maschine ist, voraussetzt, dass wir definieren, was Intelligenz ist. Eine einfache Antwort gibt es hier nicht, sondern moderne Intelligenztests messen unterschiedlichste Faktoren. Dem so entstehenden "Intelligenzprofil" wird der IQ als einfache Zahl nicht gerecht.
Mit der Feststellung, dass z. B. Deep Blue, der im Schach den Weltmeister besiegte, nicht das Produkt eines einzelnen Programmierers, sondern das Produkt ganzer Heerscharen von Programmieren war, hast du schon mal einen ganz wesentlichen Punkt erfasst. "Der" Programmierer wird bei den Robotern der Zukunft nicht mehr auszumachen sein, insbesondere weil sich die Roboter durch Lernprozesse und das "Leben in einer Umwelt" selbst programmieren werden.
Du fragst bei diesem Thema, das unsere Zukunft entscheidend mitbestimmen wird, nach intelligenten Maschinen der Gegenwart, als ob deren Erscheinungsbild irgendetwas darüber aussagen würde, was theoretisch möglich sein wird. Du hast ja bereits vorbereitet, dass die Erwähnung von Schachcomputern von dir nicht akzeptiert werden wird, obwohl noch vor 100 Jahren jeder im Schachspiel eine Intelligenzleistung gesehen hätte. Dieses vereinfachte "Weltszenario" mit einfachen Regeln fordert zu simplen Entscheidungsprozessen heraus, die nicht nur das eigene Wollen, sondern auch das Siegenwollen des Opponenten berücksichtigen müssen. Die theoretisch möglichen Schachpartien können nicht alle vorprogrammiert werden, da deren Zahl die Anzahl der Elementarteilchen im Universum um ein Vielfaches übersteigt. Deshalb sind moderne Schachcomputer neben riesigen Stellungsbibliotheken mit Bewertungsfunktionen ausgestattet, die es erlauben, auch unbekannte Stellungen viele Züge tief zu analysieren. Damit kommt diesen Schachchcomputern in dieser Spielewelt eindeutig ein wesentliches Charakteristikum von "Intelligenz" zu, nämlich die Fähigkeit Handlungsoptionen an ihren "gedachten" Konsequenzen zu bewerten.
Es ist unklug, die theoretischen Grenzen der künstlichen Intelligenz über eine Betrachtung gegenwärtiger Technologie erfassen zu wollen ;-)
Ein Beispiel für die verfehlte Extrapolation des derzeitigen Technologiestandards ist folgende Aussage von J.H. Troll in "The thinking of men and machines", Atlantic Monthly, July, pp.62-65; 1954: "Das menschliche Gedächtnis hat eine weitaus größere Speicherkapazität als der größte jemals gebaute Computer. Ein mechanisches Gehirn, das so viele Röhren oder Relais haben würde wie der Mensch Nervenzellen (einige 10 Milliarden) würde nicht in das Empire State Building passen und die Energie des Niagara Falls verbrauchen, sowie den Niagara Fluß zum Kühlen benötigen. Solch ein Computer könnte außerdem nur einen Bruchteil einer Sekunde störungsfrei arbeiten, bevor tausende von Röhren durchgebrannt wären und ersetzt werden müßten" (eigene sinngemäße Übersetzung). Die Miniaturisierung der elementaren Computerbausteine hat inzwischen das Niveau der Nervenzelle unterschritten und bewegt sich auf die Ausmaße von molekularen Monolayers zu.
@ dirgni,
Asimov hat dieses Thema sehr subtil behandelt. Ich schrieb ja schon, dass schließlich ein Roboter das nullte Gesetz formuliert hat, übrigens, wenn ich mich richtig erinnere, zu einem Zeitpunkt als er der Regierungschef der intergalaktischen Förderation war ;-))
P.S.: Ich mache mir keine Illusionen, dass die Asimovschen Gesetze tatsächlich als Grundlage für die Entwicklung intelligenter Roboter gemacht werden. Dazu ist die Herrschaft der Militärs auf unserer Welt leider viel zu stark - oder man wird das nullte Gesetz als Vowand für jegliche Art von Gräuel verwenden.
Internet-Tipp: https://zum.de/ki
|
schorsch
antwortete am 26.12.05 (10:35):
Genau so wie aus primitiven Urzellen sich langsam Intelligenz entwickeln konnte, wird es in absehbarer Zukunft möglich sein, weitere Intelligenz zu erschaffen. Je näher die Wissenschafter der Entstehung des Lebens kommen, umso schneller werden sie fähig werden, neues Leben zu erschaffen. Dieses neue Leben wird zuerst primitiv sein wie das erste Leben überhaupt. Wenn es dann aber ein gewisses Eigenleben entwickelt, wird es zwangsläufig auch zur Entwicklung von Intelligenz kommen. Intelligenz ist ja nichts anderes als Reaktion auf die Umwelt.
|
Wolfgang
antwortete am 26.12.05 (12:24):
Ein Rueckzug auf Raten, Karl... Immerhin... Ich habe immer darauf hingewiesen, dass es verschiedene Arten von Intelligenz gibt... Menschliche Intelligenz, tierische, Intelligenz, Maschinenintelligenz...
Je nach Definition kommen ganz unterschiedliche Dinge raus. Verkauft wird aber die Maschinenintelligenz als sei sie so was Aehnliches wie menschliche Intelligenz. Oder sie sei auf dem Weg dahin. Das ist sie nicht. Das kann sie gar nicht.
Der Maschinenintelligenz (passive I.) fehlt das Entscheidende dafuer: Die menschliche Intelligenz (aktive I.) gedeiht nur auf der 'Hardware' Mensch. Jeder gute Programmierer weiss, dass Hardware und Software eine nicht zu trennende Einheit sind. Wobei die Hardware die Software bestimmt, nicht etwa umgekehrt. Wer also menschliche Intelligenz will, muss auf den Menschen zurueckgreifen. Da findet er reichlich davon.
|
Karl
antwortete am 26.12.05 (12:37):
Lieber Schorsch,
die Definitionen von "Leben" und "Intelligenz" haben Überlappungen, aber es gibt Leben ohne Intelligenz und Intelligenz ohne Leben. Zur Lebensdefinition gehört nämlich die Fähigkeit zur Selbstvermehrung. Dies ist keine Bedingung für Intelligenz und jeder weiß umgekehrt auch, dass Leben ohne Intelligenz möglich ist.
Du schreibst "Intelligenz ist ja nichts anderes als Reaktion auf die Umwelt."
Dem Artikel im Spiegel, den Wolfgang als Eingangsaufhänger gewählt hat, liegt in der Tat die Vorstellung zu Grunde, dass sich Intelligenz in der Auseinandersetzung mit der Umwelt entwickelt. Dies gilt in hohem Maße für das Kleinkind, das seine Umwelt mit wachem, lernbereiten Hirn erforscht. Das funktioniert so gut, weil das Gehirn der Kleinkinder die Lernfähigkeit bereits als angeborene Eigenschaft besitzt. Ohne diese Lernfähigkeit würde sich keine Intelligenz entwickeln können.
Die KI-Forschung hat lernfähige Algorithmen entwickelt und lernfähige Nervennetze programmiert, die auch künstlichen Gehirnen die prinzipielle Fähigkeit zum Lernen vermitteln. Die Frage ist nun, was passiert, wenn solche lernfähigen Systeme in bewegliche und mit Sensoren ausgestattete Körper eingebaut werden, die die Umwelt erforschbar machen? Solche Einheiten würden wir Roboter nennen. Roboter, die im Wesentlichen noch einen leeren Speicher besitzen, aber über die Fähigkeit zum Assoziieren und Lernen aus Erfahrung "angeborenmaßen" verfügen, können als "Robotkinder" bezeichnet werden. Es ist ein spannendes Experiment, das im Spiegelartikel beschrieben wird, dessen Ausgang weder Wolfgang noch jemand anderes voraussagen kann. Niemand weiß, was sich entwickeln wird und ob die heute verwendeten Methoden bereits hinreichend für die Intelligenzentwicklung sind. Ich würde es bezweifeln, aber als Biologe bin ich es gewohnt in Jahrtausenden, sogar in Jahrmillionen zu denken. Alles, was theoretisch erreichbar ist, wird auch praktisch erreichbar werden, wenn es gewollt wird. Die Computer- und Roboterentwicklung hat in biologischen Maßstäben gemessen bestenfalls gerade begonnen.
Internet-Tipp: https://www.robotcub.org
|
Karl
antwortete am 26.12.05 (12:55):
@ Wolfgang,
dass die Hardware die Software bedingen soll erinnert mich an den Satz von Karl Marx "Es ist nicht das Bewusstsein der Menschen, das ihr Sein, sondern umgekehrt ihr gesellschaftliches Sein, das ihr Bewusstsein bestimmt." Wenn auch vielleicht das eine das andere wechselseitig bedingt, steckt in diesem Satz von Marx ein Kern Wahrheit. Unser Problem ist trotzdem ein anderes und die Kybernetik behauptet genau das Gegenteil von dir: Entscheidend ist der Informationsaustausch zwischen Systemteilen. Kybernetische Schaltkreise sind auf unterschiedlichen Substraten realisierbar, die Hardware ist für den Ingenieur bedeutsam, aber nicht für den Informationstheoretiker.
Internet-Tipp: https://de.wikipedia.org/wiki/Kybernetik
|
Wolfgang
antwortete am 26.12.05 (13:00):
"Alles, was theoretisch erreichbar ist, wird auch praktisch erreichbar werden, wenn es gewollt wird." (Karl) - Fortschrittler, also die Ideologen der Moderne, reden so. Hier ist ja noch die Einschraenkung eingebaut: "Alles, was theoretisch erreichbar ist...". Schnell vergessen die furchtbaren Fortschrittler diese Einschraenkung und tun so, als sei alles theoretisch erreichbar.
Dazu kommt noch, dass man nicht allem, was gewollt wird (zum Beispiel von den Militaers, die hauptsaechlich an maschineller Intelligenz interessiert sind), nachgeben sollte. Aber, das ist ein anderes Thema.
|
Wolfgang
antwortete am 26.12.05 (13:04):
"Kybernetische Schaltkreise sind auf unterschiedlichen Substraten realisierbar, die Hardware ist für den Ingenieur bedeutsam, aber nicht für den Informationstheoretiker." (Karl)
Den Beweis dafuer wolltest Du mir bringen. Ich warte auf das Beispiel dafuer, dass eine von Menschen gemachte Maschine menschliche Intelligenz aufweist.
Aber, lass Dir Zeit. Ich lese gerade, Du denkst in Jahrzehntausenden oder gar -millionen. Ich schaetze, so lange wirt Du mindestens auch brauchen fuer Deine Beweisfuehrung. ;-)
|
Marina
antwortete am 26.12.05 (13:29):
Karl, vielen Dank für deine interessanten Ausführungen. Ich habe den Link meinem Sohn übermittelt, der hat sich schon seit seiner Kindheit für dieses Thema interessiert, liest auch gerne Science Fiction, u. a. Asimov, und hat eine Zeitlang sehr gerne mit einem Schachcomputer gespielt. Vielleicht hat er ja Lust, sich einzumischen? :-)
|
Karl
antwortete am 26.12.05 (19:57):
@ marina,
wäre prima, wenn dein Sohn Lust zum Diskutieren hätte.
@ wolfgang,
nein, ich glaube persönlich nicht, dass wir Jahrtausende warten müssen, bis dass wir mit künstlicher Intelligenz konfrontiert sind. Bereits heute kann jeder, der mit wachen Augen durch die Welt läuft, Anfänge hiervon schon beobachten. Meine Vorhersage ist, dass wir in 20 Jahren nicht mehr ohne weitere Information erraten können, ob wir bei einem Firmenanruf mit Mensch oder Maschine telefonieren.
Meine Überlegung, dass alles theoretisch Mögliche, das auch gewollt wird, realisiert werden könnte, basiert auf der Überlegung, dass unglaublich viel Zeit zur Verfügung steht (falls die Menschheit sich nicht zuvor selbst vernichtet). Wenn wir davon ausgehen, dass die Intelligenz nicht von einer noch größeren Intelligenz einem Fleischklumpen eingehaucht wurde (was das zu erklärende Phänomen eine Ebene weiter verschieben würde), dann hat das Wechselspiel der Naturgesetze mit den Gegebenheiten auf dieser Erde in einem unendlich langwierigen, blinden Prozess durch zufällige Mutation und nachfolgende Auslese zur Entstehung des Menschen geführt.
Intelligenz ist eine relativ junge Errungenschaft dieser Evolution. Im beigefügten Bild ist der rote Strich dicker als die Ausdehnung der Kulturgeschichte des Menschen. Wenn diese auf unserer Erde stattfindende Evolution nur noch ein bischen weiterläuft, vielleicht noch ein paar Millimeter (1 mm = 1 Million Jahre), mein Gott, was könnte Intelligenz in dieser Zeit alles erschaffen.
Intelligenz, lieber Wolfgang, hat sehr viel mit Problemlöseverhalten zu tun und die künstliche Separierung in "menschliche Intelligenz" und "maschinelle Intelligenz" wird nicht weit tragen. Es kommt auf die besten Lösungsvorschläge an. Niemand wird sich darum kümmern, in was für Gehirnen diese entstanden sind.
Internet-Tipp: " target="_blank">
|
dutchweepee
antwortete am 27.12.05 (13:34):
bislang hege ich zunächst erstmal die hoffnung auf "menschliche intelligenz".
wenn wir soweit gekommen sind, wird die KI ein kinderspiel sein.
.
|
navallo
antwortete am 27.12.05 (17:10):
Wäre ich Punktrichter im Disputations-Duell Wolfgang gegen Karl, würde ich Karl einen haushohen Punktsieg zuerkennen :-)).
Die mit Hilfe der Informatik (Studiengänge erst etwa ab 1967/70) vorstellbaren Visionen sind hinsichtlich ihrer technischen Realisierbarkeit längst nicht ausgereizt. Noch läßt sich nicht beantworten, ob einmal intelligente Maschinen dereinst völlig frei von menschlicher Einflußnahme ihre Aufgaben bewältigen werden und in welchem Maße das überhaupt wünschenswert wäre.
Vieles, was ich vor 20-50 Jahren für eine Fiktion hielt, gehört heute zum Alltag. Aus dieser Erfahrung heraus habe ich mir abgewöhnt, unwahrscheinlich anmutende wissenschaftliche Zukunftsmusik als pure Utopie zu brandmarken. Das gilt erst recht, wenn - wie im Falle der Künstlichen Intelligenz allgemeingültige Definitionen noch vielzählig, fragwürdig und angreifbar sind. Während Wolfgang allem Anschein nach eine Art Ideal postuliert, quasi einen überwachten fehlerfreien Homunculus Faustscher Prägung, beschränkt sich Karl auf wissenschaftlich-technisch existierende sowie künftig absehbare Möglichkeiten. Beide sprechen verschiedene Sprachen. Wolfgang fordert Beispiele existierender künstlicher Intelligenz von Karl ein, die natürlich die Bedingungen von Wolfgangs Homunculus nicht erfüllen und deshalb von ihm nicht anerkannt werden ( Komm mir nicht mit ... ). Eine rhetorische Finte?
Selbstverständlich sind Deep Blue, künstliche neuronale Netze und weitere Algorythmen oder Expertensysteme sowie viele weitere Anwendungen weitgehend anerkannte Beispiele künstlicher Intelligenz, auch wenn sie Wolfgangs vermutlichen Forderungen nicht standhalten würden.
|
siegfried46
antwortete am 27.12.05 (20:50):
Meine Meinung ist, dass die menschliche Intelligenz keineswegs so erhaben und perfekt ist: * auch der menschliche Intellekt ist geprägt durch Umwelt und bleibt unterentwickelt bei fehlender Beanspruchung Ich sehe deshalb keinen prinziiellen Unterschied in der Prägung der menschlichen Intelligenz durch Gene, Elternhaus oder sonstiger Umwelt und der Programmierung einer künstlichen Intelligenz
* die menschliche Intelligenz ist häufig geprägt von Vorurteilen, wird blockiert von unkontrollierten Emotionen, häufig scheint der Intellekt sogar ganz ausgeschaltet zu sein diese gravierenden Nachteile könnten bei künstlicher Intelligenz entweder vermieden oder ihre Ausprägung wäre zumindest nicht schlimmer als bei der menschlichen Intelligenz
* Intelligenz ist schlicht und einfach die Fähigkeit auf Umweltreize sachgerecht zu reagieren und aufgrund des Gedächtnisses vernüftige Schlussfolgerungen für zukünftiges Verhalten zu ziehen Jedoch ist auch diese Fähigkeit beim Menschen häufig nicht vorhanden, sondern wird durch Dummheit oder Fanatismus überlagert.
Es wäre sicher interessant, die Vor- und Nachteile der biologischen und der künstlichen Intelligenz gegenüber zu stellen.
|
schorsch
antwortete am 28.12.05 (10:27):
Als ich noch ein Kind war, da habe ich des öfteren geträumt, dass ich in der Zeitung lese und hier laufende Bilder seien. Das habe ich damals als Hirngespinst gesehen. Heute aber denke ich, ob ich vielleicht damals schon das Fernsehen im Traume erfunden habe.....
|
siegfried46
antwortete am 29.12.05 (16:24):
Interessanter Spiegel-Artikel zu diesem Thema: Roboter in der Krabbelstube KÜNSTLICHE INTELLIGENZ
Internet-Tipp: https://www.spiegel.de/spiegel/0,1518,391939,00.html
|
Ishmael
antwortete am 31.12.05 (16:07):
Stöbert man rum ein wenig findet man z.B. Muster Code /seniorentreff/de/YzfdG6qYf auf ganz gewöhnliches C geschrieben. Zu https://cvs.sourceforge.net/viewcvs.py/yarp0/yarp/src/ gibt es ein wenig Java sowie C++. Ich merke ACE_wrappers mit Code für Verteilte Systemen, ein Doxygen Datei für Documentation.
Ich hätte etwas LISP oder PROLOG erwartet. Diese sind die herkömmliche KI Sprachen. Vermutlich ist das anderswo zu finden.
Mir ist es nicht unmittlebar klar wie man irgendwelche Intelligenz mit dem verhandenen Code zusammenbasteln könnte. Andererseits bin ich nicht gut vertraut mit diese Dinge. Evtl. haben sie es trozdem geschafft, oder werden sie es schaffen.
|
Karl
antwortete am 31.12.05 (18:45):
Hallo Ishmael,
es ist eigentlich völlig egal in welcher Sprache lernfähige Verhaltensmodule programmiert werden.
Es sind nicht die Limitierungen einzelner Bausteine, die die Limitierung eines komplexen Systems bestimmen, noch ist die Programmiersprache entscheidend. Diese ist vor allem eine Frage der Bequemlichkeit für die Programmierer. Die Performance ist das, was am Ende zählt.
(P.S.: Ich habe deinen langen Link in die ST-Kurzform gegossen, damit der Zeilenumbruch wieder funktioniert.)
|
Ishmael
antwortete am 31.12.05 (23:13):
Hallo Karl,
"es ist eigentlich völlig egal in welcher Sprache lernfähige Verhaltensmodule programmiert werden."
Das ist theoretisch richtig. Man könnte das alles auf assembler oder sogar auf machine language programmieren. Praktisch aber, ist es, wie du geschrieben hast, "eine Frage der Bequemlichkeit für die Programmierer.".
Eherlich zu sein, würde ich fast lieber auf assembler als auf LISP oder PROLOG programmieren. Diese letze sind, m.E., nur für Leute mit Brezelartige Gehirnen (d.h "mad dogs and Englishmen" ;-D) geeignet.
Ich wollte nur sagen, daß die Code die die Robocub Leute öffentlich zur Verfügung stellen sieht nicht wie KI Code aus. Es handelt sich eher um Code für Hardware Kontrolle oder so etwas Verwandtes. Die lernfähige Modulen sind möglicherweise privat behalten.
|
|