Aktuelle Themen Jetzt auch beim lesen....KIs besser als Menschen
MareikeSchade, lest ihr eigentlich überhaupt meine Texte und eingestellten Links?
Lernen sie aus Fehlern? Im wahrsten Sinne eigenständig? Ohne Vorgaben des Programmierers?
Ja, auch Wikipedia braucht öfters ein Update. Ich werde mir das einmal anschauen.
Karl
Ich bin ja wie Andrea Biologe und vielleicht haben wir deshalb einen völlig anderen Blickwinkel auf solche Sätze. Ich frage mich natürlich, welche "Intention" hatte eigentlich die blinde Evolution, die die menschliche Intelligenz hervorgebracht hat?Wikipedia von Hobbyradler zitiert
Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz.
Es ist doch völlig irrelevant, was der einzelne Informatiker will. Sie lösen Probleme (besser und millionenfach schneller als die Mechanismen der Evolution). Wir werden sehen, was dabei herauskommt.
Dahinter steht die möglicherweise sehr falsche Annahme, die Algorithmen, die bei uns im Gehirn ablaufen seien komplizierter. Wie ich bereits schrieb, ist die Definition einer intelligenten Leistung als "scheinbar", wenn sie von Elektronengehirnen gemeistert wird, wenig hilfreich und wird der Realität nicht gerecht. Das erinnert mich daran, wie der Begriff "Gott" von immer mehr Naturphänomenen entfernt wurde, nachdem diese naturwissenschaftlich erklärbar waren. Am Ende bleibt dann nichts mehr übrig, auf das wir Menschen als "wirklich" intelligente Wesen stolz sein können. Wahrscheinlich werden Menschen sich auf ihren Intellekt noch etwas einbilden, wenn sie längst nur noch in Naturreservaten gehalten werden.Wikipedia von Hobbyradler zitiert
Oftmals wird damit aber auch eine nachgeahmte Intelligenz bezeichnet, wobei durch meist einfache Algorithmen ein „intelligentes Verhalten“ simuliert werden soll
Karl
Hallo Karl,
ich hätte mir meinen Wikipedia Eintrag tatsächlich sparen sollen.
Wer heute die Meinung vertritt, dass Maschinen eigenständige Entscheidungen treffen, der initiiert bei anderen Menschen den Gedanken die Schuld auf die Maschine zu verlagern. Du deutest es ja bereits an.
Hat man diesen Gedankengang verinnerlicht, entfernt man sich von der Realität und beginnt die Verantwortung des Menschen zu entlasten. Es ist viel bequemer die Schuld bei der Maschine statt einem Menschen zu suchen.
In deinem Sinn hätte eine mit Bomben bestückte Rakete Intelligenz, der Mensch wäre also entlastet.
Ciao
Hobbyradler
Ich bin jetzt sauer auf mich selbst, da ich mich nicht beherrschaen kann nochmals zu scheiben.
Ich beantworte das so:
Es gibt ganz einfach gebaute Maschinen, die dem Menschen schwere körperliche Arbeit abnehmen ohne je zu ermüden.
So sind auch die Programme, die ein Programmierer in Wochen kreiert (und wegen Ermüdung zwischendurch essen und schlafen muss) ermüdungsresistent. Heisst also: Ein Programmierer wird, wenn er gegen sein eigenes Erzeugnis spielt, mit der Zeit müde und macht dadurch Fehler. Das Programm aber ermüdet nicht. Und somit kann es gegen seinen eigenen Schöpfer gewinnen. Es fehlt nur noch das eingebaute Lachen darüber!
Ein Trost: Der Programmierer kann seinem eigenen Programm einen "Denkfehler" einbauen -, damit es, wenn der Sieg über den Programmierer droht - abstürzt!!!
Lieber schorsch,
netter Versuch, aber so ist es eben nicht. Du bist unerschütterlich, was den Satz angeht "Ein Programm kann nie klüger werden als sein Schöpfer". Das ist aber ein inzwischen vielfach widerlegter Spruch und das hängt damit zusammen, dass es inzwischen die Lernfähigkeit bei Programmen gibt. Ich habe das jetzt bereits mehrfach beschrieben.
Es bedeutet, dass ein Programm besser werden kann als seine (vielen) Programmierer, so wie ein Schüler besser werden kann als seine Lehrer.
Bei AlphaPro wurde die neueste Version sogar so programmiert, dass sie sich das Go-Spiel selber beibringen konnte. Man gab nur die Spielregeln vor, so wie Du Deinem Sohn auch zuerst einmal die Regeln eines Spiels erklären musst, dann aber kann er selbstständig lernen, z. B. indem er gegen andere oder gegen sich selber spielt.
Silver et al. 82017). Mastering the game of Go without human knowledge. Nature 550, 354–359 (19 October 2017)karl
A long-standing goal of artificial intelligence is an algorithm that learns, tabula rasa, superhuman proficiency in challenging domains. Recently, AlphaGo became the first program to defeat a world champion in the game of Go. The tree search in AlphaGo evaluated positions and selected moves using deep neural networks. These neural networks were trained by supervised learning from human expert moves, and by reinforcement learning from self-play. Here we introduce an algorithm based solely on reinforcement learning, without human data, guidance or domain knowledge beyond game rules. AlphaGo becomes its own teacher: a neural network is trained to predict AlphaGo’s own move selections and also the winner of AlphaGo’s games. This neural network improves the strength of the tree search, resulting in higher quality move selection and stronger self-play in the next iteration. Starting tabula rasa, our new program AlphaGo Zero achieved superhuman performance, winning 100–0 against the previously published, champion-defeating AlphaGo.
Lieber Hobbyradler,
mit dem Transfer von Verantwortung sprichst Du ein ernsthaftes Problem an. Es hilft aber nichts, dies emotional zu betrachten, will sagen, Emotionen schützen nicht davor, dass so etwas geschehen wird. Wenn ich so etwas schreibe, dann heißt das auch nicht, dasss ich das gut finde, sondern zunächst einmal ist das eine Vorhersage, die m. E. ernsthafte Überlegungen erfordert.
Natürlich - nur einmal angenommen - ich hätte Recht und Robotor würden autonome Handlungszentren in unserer Welt, dann gehören sie auch sanktioniert, wenn sie sich schädlich verhalten, d.h. sie werden zur Verantwortung gezogen werden müssen in solchen Fällen.
Karl
"Vielleicht ist das eigentlich Furchterregende, dass Jürgen Schmidhubers Ideologie immer mehr KI-Labore weltweit bestimmt. Eine Ideologie, die den Menschen allein als physikalische Maschine begreift. Als etwas, das der Roboter erst nachahmen und dann überholen kann. Kunst, zweckfreie Kreativität gibt es nicht in dieser Welt, selbst wenn Roboter Romane schreiben könnten. Es ist eine Ideologie, die alles als vermessbar ansieht und dabei eine Welt erschafft, in der nichts entstehen kann, das nicht bereits in einer Gesetzmäßigkeit angelegt ist. In der es kein Außen gibt. Eine Ideologie, die davon ausgeht, dass alles einer Kausalität folgt, die letztlich der Mensch mit seinen Instrumenten, den Robotern, die er einst gebaut haben wird, erfassen kann."
Werden wir für sie wie Katzen sein?
Edita
Bedeutet Intelligenz nur Ansammlung von Wissen?
Dann könnte ein Computer dem Menschen überlegen sein oder werden.
Für mich beinhaltet Intelligenz nicht nur eine Ansammlung von Wissen, sondern dazu gehört auch soziale Kompetenz (Fähigkeiten, die dazu dienen, in Kommunikations- und Interaktionssituationen entsprechend den Bedürfnissen der Beteiligten zu handeln), wie auch Empathie und Mitgefühl.
Ich denke solche Fähigkeiten kann man nicht programmieren oder ein Computer sich dieses selbst aneigenen.
Monja.
Liebe Edita,
ich würde mich in die Musk-Fraktion einordnen, die vor zu großer Euphorie warnt, denn es gibt große Gefahren.
Allerdings kann ich nicht, weil ich die Gefahren sehe, einfach die Augen verschließen und sagen, es wird nicht passieren. Wie bereits mehrfach gesagt, wir selber funktionieren naturgesetzlich, auch unsere Gehirne. Die kulturelle Evolution wird die biologische überholen, ob wir es wollen oder nicht. Wir können uns bestenfalls vorbereiten, aber es gibt keinen Schutz durch die Naturgesetze vor einer Überlegenheit der Roboter.
Wenn ich mir dieses Video ansehe, dann zweifel ich nicht daran wie Monja, dass Roboter mit uns irgendwann auch emotional kommunizieren können und soziale Kompetenz besitzen können, eher frage ich mich, was passiert, wenn nur der "Geldadel", die Investoren entscheiden, wohin die Reise geht.
Solange unsere Gesellschaft in ihrer Breite überzeugt ist (andere Gesellschaften haben damit weniger Probleme), dass Roboter unterlegen und dumm bleiben, werden Regierungen dafür keine großen Mittel aufwenden können und der Kurs wird alleine durch die Großkonzerne bestimmt werden. Darin sehe ich eine der Gefahren.
Ich erinnere daran, dass ich hier im Thread schon schrieb: Intelligenz und deren Ziele sind frei kombinierbar. Wenn wir nicht darauf achten, dass die richtigen Ziele verfolgt werden, wird es übel werden mit der künstlichen Intelligenz.
Karl