Archivübersicht | Impressum

THEMA:   Neuer Computer-Chip, gibt es eine obere Grenze für die Leistungsfähigkeit von PCs?

 33 Antwort(en).

Karl begann die Diskussion am 22.09.03 (19:21) mit folgendem Beitrag:

SUN hat einen neuen Computer-Chip entwickelt, der bis zu 100x schneller sein soll als die bisherigen Intel- oder AMD-Chips. Da Schnelligkeit ja nicht einfach nur "mehr" von Altbekanntem bedeuten wird, frage ich mich, wohin wird uns dieser neue Schub der Computertechnologie bringen?
Wann werden wir mit Computern nicht nur telefonieren, sondern hier in den Foren auch diskutieren?
Erste Anfänge von Dialogen mit virtuellen Wesen gibt es bereits jetzt im Netz:
https://www.kiwilogic.de/kiwilogic/_xml/fs_index.php

Es gibt kein Naturgesetz, dass den Menschen davor schützt, die zweite Geige zu spielen.

Mit freundlichen Grüßen

Karl

Internet-Tipp: https://www.spiegel.de/netzwelt/technologie/0,1518,266711,00.html


funk antwortete am 22.09.03 (22:02):

Ich stelle mir vor, dass man mit Hilfe dieser extrem schnellen Datenverarbeitung für ein Telefongespräch einen virtuellen Simultanübersetzer zwischenschalten könnte, sodass man sich in Echtzeit ohne eigene Fremdsprachen- kenntnisse in allen Sprachen verstehen würde. Oder die Gesprächspartner stecken sich die notwendigen Uebersetzer wie ein Hörgerät ins Ohr.


Ursula_J antwortete am 23.09.03 (06:37):

Hallo funk,

und wer oder was übersetzt? Die derzeitigen Übesetzungsprogramme sind noch so schrecklich, dass man sich gar nicht benutzen kann.


schorsch antwortete am 23.09.03 (08:57):

Herrliche Aussichten! Ich könnte mir auch vorstellen, dass sich SchülerInnen und StudentInnen einen Chip ins Ohr pflanzen lassen, der gleichzeitig ein Lexikon alles Wissens dieser Erde ist und Übersetzungen auch noch gleich liefert. Die so gewonnenen Lösungen auf gestellte Aufgaben werden so in Sekundenbruchteilen mittels Ohrwurm direkt ins Hirn übermittelt, welches nun nur noch den Fingern das zu Schreibende zu diktieren hat.....


jo antwortete am 23.09.03 (10:44):

Ich stelle mir vor, daß man es nicht mehr für nötig halten wird, etwas zu lernen, so daß die Menschheit irgendwann mal von der Technik dominiert und an ihrer eigenen Verdummung zugrunde gehen könnte.

Früher hieß es : Kopfrechnen schwach - und nahm Papier und Bleistift zur Hand. Aber sogar diese Fähigkeit könnte abhanden kommen und selbst simple Stellenwertsysteme mit Ziffernaddition und Übertrag nicht mehr verstanden werden - man braucht ja nur einen Taschenrechner. Und wenn ich mir diese Vorstellung auf höhere Techniken übertragen vorstelle, dann kommen mir große Bedenken.


Roalf antwortete am 23.09.03 (14:34):

Hallo zusammen,

durch ein bisschen "surfen" bin ich seid kurzen beim ST gelandet und hab ein bisschen gerumgeschaut. Dieser Thread ist der erste (aber zukünftig wohl nicht der einzige) auf den ich antworte.

Also...was ich über die Übersetzungsprogramme gelesen haben, ist, man verzeih mit das harte Wort, sehr Naiv.

Das Problem bei Übersetzungsprogrammen ist NICHT die GESCHWINDIGKEIT irgendwelcher Prozessoren. Selbst wenn man alle Computer dieser Welt 100 Jahre lang rechnen lassen würden, können sie keinen komplexeren GESCHRIEBENEN Text (wie einen Roman und sei es nur Beletristik) brauchbar übersetzten.

Denn zum echten Übersetzen gehört Textverständniss...und das bedingt Bewusstsein (vom Kontextverständniss ganz abgesehen, bei klassischer oder exotischer Literatur haben wir selber damit genug Probleme). Dazu sind aber heutige Computerprogramme nicht in der Lage, weil sie nicht die "nichtrechenbaren Strukturen" menschlichen Geistes umsetzten könnenī.

Bei einem Vis-a-vis Gespräch kommt noch viel mehr hinzu (unsere 4 Ohren). Das macht das ganze dann noch komplexer.

Solche Übersetzer sind also zur Zeit noch nicht mal andenkbar, geschweige denn mit noch mehr Rechenpower umsetzbar. Uns fehlt nicht die Technologie...sondern es fehlt der Hauch eines Ansatzes wie das machbar wäre....


Karl antwortete am 23.09.03 (21:07):

Hallo Roalf,

herzlich willkommen in der Runde! Dein Beitrag ist auch gleich interessant und spannend. Das Problem bei Übersetzungsprogrammen ist vor allem so wie Du sagst nicht die Geschwindigkeit, sondern die Art der verwendeten Algorithmen bzw. der Verschaltungen der simulierten Nervennetze.

Z.B. letzteres ist dann aber eben doch auch ein Einfallstor für die Bedeutung der Rechengeschwindigkeit. Viele Probleme werden heute bereits mit sich selbstorganisierenden Nervennetzen (neuronalen Netzen) gelöst, die sich selbst so lange umstrukturieren (durch Lernprozesse), bis dass sie ein zufriedenstellendes Ergebnis erreichen.

Richtig ist, dass eine gute Übersetzung das Verständnis eines Textes voraussetzt. Wie kläglich Maschinen heutzutage daran scheitern, kann man an dem Übersetzungsprogramm von Google belächeln. Es ist aber ein Irrtum zu glauben, um Maschinen dieses "Verständnis" beizubringen, müsste man wissen, wie Intelligenz zu programmieren sei. In der Natur sind durch den unendlich langsamen Prozess der Evolution intelligente Wesen entstanden. Evolution, die Selbstorganisation von Nervennetzen kann und wird im Computer schon heute simuliert. Die Qualität der erzielbaren Ergebnisse wird selbstverständlich enorm von dem Faktor Geschwindigkeit beeinflusst.

Kurzweil hat mit "Homo sapiens. Leben im 21. Jahrhundert. Was bleibt vom Menschen?" ein atemberaubendes Buch vorgelegt, das eigentlich jeder gelesen haben sollte, der hofft, noch einige Zeit in diesem Jahrhundert verweilen zu können. Wir leben in einer Übergangsphase, im Knie einer exponentiellen Explosion der Computerentwicklung, die uns ob ihrer Schnelligkeit "überfahren" wird.

Aufbauend auf einer Verallgemeinerung des Moorschen Gesetzes, das die Verdopplung der Computerkapazitäten durch Technologieverbesserungen alle zwei Jahre voraussagt, prognostiziert Kurzweil, dass ein $1000 Computer bis zum Jahr 2020 die Rechenkapazität eines menschlichen Gehirn erreicht haben wird. Die Kommunikation mit dem Computer wird dann hauptsächlich mittels gesprochener Sprache ablaufen, immer mehr Computer werden zumindest am Telefon für normale Menschen gehalten.

2030 besitzt ein $1000 Rechner die Rechenkapazität von 1000 Menschen. Da gleichzeitig die Algorithmen zur Informationsverarbeitung im menschlichen Gehirn entschlüsselt worden sind und somit diese Algorithmen auf die Maschinen übertragen werden können, wird die maschinelle Intelligenz derjenigen aus Fleisch und Blut haushoch überlegen sein. Immerhin kann ein Computer auf alles Wissen im WWW in kürzester Zeit zugreifen. Menschen werden versuchen, dieses Handicap mittels implantierter Chips auszugleichen.

Die virtuelle Realität wird viel realer sein als heute. Viele Menschen werden in ihr ganz versinken und nur ungern auftauchen. Mittels winziger Laserkanonen in Brillen oder Kontaktlinsen oder später über direkten Datenanschluss wird die Illusion in der virtuellen Welt vollkommen sein. Wir werden mit virtuellen Persönlichkeiten interagieren und uns von ihnen beraten lassen. Virtuelle Persönlichkeiten sind unsterblich (im Prinzip), da nicht mehr an Hardware gebunden.

Der Microchip von SUN, ein weiterer Schritt in diese Richtung? Ich meine: ja.

Mit freundlichen Grüßen

Karl

Internet-Tipp: https://www.amazon.de/exec/obidos/ASIN/3548750265/derseniorentimin


Medea. antwortete am 23.09.03 (22:36):

Hallo Schorsch -

ich vermute, das dann auch bald die zehn Finger zum Schreiben überflüssig sein werden, da wahrscheinlich eines Tages das gesprochene Wort gleich auf dem Papier fertiggeschrieben erscheinen wird. Und das Schönste: das alles dürfte hoffentlich ohne quälerische Tierversuche
erreicht werden können .... ;-))


Medea. antwortete am 23.09.03 (22:40):

Hallo Karl -

bestünde die Möglichkeit, daß sich virtuelle Persönlichkeiten auch in den oder die Fragestellerin verlieben könnten? Wenn ja, würde das das feinste Programm durcheinander bringen ... :-))


Karl antwortete am 24.09.03 (08:31):

Das sich Verlieben-Können hat sich in der natürlichen Evolution herausgebildet, weil es einem Zweck dient. Sollte es sinnvoll sein, dass sich Softwareentwicklungen "verlieben", um eine bestimmte Aufgabe zu erfüllen, wird das so kommen.

Allerdings glaube ich als Realist eher, dass wesentlich früher Roboter so gebaut werden, dass sich Menschen in sie verlieben.


schorsch antwortete am 24.09.03 (09:36):

@Medea

Das mit dem gesprochenen Diktat, das allsogleich sich in Geschriebenes verwandelt, ist keine Zukunftsmusik, sondern bereits Realität. Im Moment ist aber noch das Problem, dass viele Worte absolut gleich klingen, aber gross oder klein geschrieben, im Zusammenhang mit den Wörtern vor und nach dem betreffenden Wort einen ganz anderen Sinn ergeben.

Ich zweifle nicht daran, dass über kurz oder lang die Nachfolger der Computerviren fähig sein werden, die Menschen unmittelbar so zu beeinflussen, dass sie Aktionen ausführen, die zur Bedrohung der gesamten Welt werden können.


Roalf antwortete am 24.09.03 (09:45):

@medea

Hallo medea,

beide Visionen die du angesprochen hast sind heute schon real. Für die "Eingabe durch Sprechen" gibt es schon länger Programme wie IBM-Viavoice. Diese sind zwar noch heftig verbesserungswürdig, aber bei einigem Trainig und für Fachgebiete schon sehr brauchbar. Zu sprechen z.B. Röntgenologen ihre Analysen häufig direkt in den Computer (weils es zu Dunkeln ist um zu tippen), der versteht dann auch die exotischten Fachbegriffe und wandelt sie in Text um

Das man sich in ein Computerwesen "verliebt", auch das ist schon vorgekommen und wird auch zukünftig vorkommen. Interessantes zu diesem Thema wirst du finden wenn du nach "chatbots" mit einer Suchmaschine suchst. Schon 1966 hat Joseph Weizenbaum mit seinem Programm Eliza für furore gesorgt. Dieses emulierte einfach die Phrasen die ein Therapeut in einer Sitzung von sich gibt. Viele Probanden schütten dem Programm ihr Herz aus und hatten stellenweise mehr vertrauen als zu einem realen Therapeuten.

Vorrausetzung ist aber zumeist, dass der Mensch nicht weis das er einer Maschine gegenübersitzt. Aber, wenn nan sich in ein Auto verlieben kann, oder in eine Stadt...warum dann nicht in einen Compi?


@Karl
hallo Karl,

vielen Dank für deine sehr kundige Antwort. In vielen Dingen hast du Recht. Aber in einem muss ich dir wiedersperechen: Textverständniss ist nicht algorithmisch zu lösen. Zu diesem Thema empfehle ein ebenso atemberaubendes Buch: "Schatten des Geistes" von Roger Penrose. Penrose ist einer der intimsten Kenner der KI-Forschung.

Viele Dinge sind tatsächlich nicht algorithmisch zu lösen. Selbst simpelste mathematische Aufgaben. Du wunderst dich? Nun, du beherscht eine Addition die kein Computer lösen kann. Du kannst zu JEDER BELIEBIGEN Zahl die man dir vorlegt die Zahl Eins addieren (ohne ggf. deinen "Algorithmus" umzuprogrammieren). Um zu einer beliebigen Zahl die Eins zu addieren ist es nähmlich notwenig zu "wissen" was eine Zahl ist, ein Verständniss dafür zu haben was "Zahl" bedeutet. Hier hilft kein Algorithums.


Der Fehler ist die Annahme, dass das menschliche Gehirn algorithmisch arbeitet. Wäre das der Fall könnte tatsächlich ein Computer den menschlichen Geist simulieren. Aber es fehlen die "nicht rechenbaren Aspekte" daran.
Diesen Denkfehler begehen vielen Menschen die z.B. die Mathematik als eine "exakte" Wissenschaft ansehen (das sind i.d.R. keine Mathematiker, sie sind da viel Realistischer).

Das ist die Mathematik aber beileibe nicht, sie ist zwar die "reinste Form der Philosophie", aber nicht mehr. Kein mathematischer "Beweis" der sich nicht durch ebenso logische "Beweise" wiederlegen ließe. Und alle Algorithmen benötigen diese Annahmen.


Medea. antwortete am 24.09.03 (10:14):

Danke an Karl und Roalf

Da gehen wir ja aufregenden Zeiten entgegen -
nur die Zukunft kann zeigen, ob sie auch für die gesamte Menschheit segensreich werden .... ???


Karl antwortete am 24.09.03 (10:34):

@ Roalf,

Penrose habe ich gelesen. Ich bin auch nicht der Meinung, dass ein linear ablaufender Algorithmus für die Erzeugung "intelligenten" Outputs notwendig ist. Die neuronalen Netze, die derzeit im Computer konstruiert werden, verfolgen ja auch ein anderes Ziel. Die neuronalen Netze sind lernfähig, dass heißt, sie können ihre Ergebnisse aufgrund von "Feedback"-Informationen selbst modifizieren, bis dass sie auf eine Vorgabe passen.

Auch wir haben Bewertungsfunktionen eingebaut, anhand derer wir unser Verhalten (versuchen zu) optimieren.

M.E. vergessen die "reinen Informatiker" oder "Physiker" (wie Penrose), dass unser Gehirn auch nach naturgesetzlichen Prinzipien funktioniert. Die Evolution ist ein blinder, mechanistischer Prozess, ohne Zukunftswissen oder Prognosen, und hat es trotzdem geschafft, intelligente Wesen hervorzubringen.

Was werden erst diese schaffen können, fragt ganz unschuldig Karl als Biologe


Roalf antwortete am 24.09.03 (14:19):

@karl

für Physiker kann ich da weniger sprechen, sondern nur für Informatiker. Und die meisten dieser "Spezies" vergessen das von dir angesprochene eher nicht. Und evolutive Verfahren sind gerade in der Neuroinformatik wichtige Hilfsmittel. Dieser Ansatz setzt sich aber auch in viele andere Bereiche fort.

Ich bin sicher das solche evolutive Verfahren noch für viele Überraschungen gut sein werden...gerade weil nicht vorhergesagt werden kann, was am Ende dabei rauskommt...

Mathematisch gesehen ist ein neuronales Netz nichts anderes als eine riesige Formel, die aus den Eingabedaten mit Hilfe einer wachsenden Datenbasis ein Ergebnis berechnet. Auch wenn von "Parallelbearbeitung" und "Lernergebnissen" gesprochen wird, so ist dies nichts weiter als eine "Denkmodel" (eine Hilfskrücke) mit dem es einfacher wird, es sich vorzustellen und damit umzugehen. Aber auch diese Vorgänge sind simpel mittels der Touringmaschine abbildbar.

Abschließend ein Zitat von Joseph Weizenbaum: "Die Reaktionen auf ELIZA haben mir deutlicher als alles andere bis dahin Erlebte gezeigt, welch enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht."


Karl antwortete am 24.09.03 (15:42):

Hallo Roalf,

nun, die Technologie des Gehirns verstehen wir auch noch nicht und doch leistet sie Enormes. Bevor man behauptet, dass etwas nicht erreichbar sei, sollte dasjenige, was nicht erreichbar sein soll, wenigstens verstanden sein.

Wenn jemand behauptet, Bewusstsein einer Maschine sei etwas Unmögliches, sollte er wissen, was Bewusstsein ist und daran mangelt es doch.

Ich habe Weizenbaums Bücher gelesen und einen seiner letzten Vorträge vorzeitig verlassen. Ich konnte es nicht mehr aushalten ;-) Ein inzwischen schwafelnder alter Mann.

Wieviele Unmöglichkeitspostulate wurden in der Geschichte durch die tatsächlichen Entwicklungen der Lächerlichkeit preisgegeben! Ich erinnere nur an die Elektrizität, die Eisenbahn, das Fliegen etc.

Warten wir es doch ab ;-))

Meine Meinung, Karl

Internet-Tipp: https://www.zum.de/ki/


Karl antwortete am 24.09.03 (17:07):

Lieber Roalf, noch als Nachtrag ein Auszug aus obiger Quelle, einer von mir 1981 gehaltenen Vorlesung. Bezug ist zu Deiner Redewendung "so ist dies nichts weiter als"


3. KRITIK VON VORURTEILEN ÜBER DIE THEORETISCHEN GRENZEN DER COMPUTERFÄHIGKEITEN

3.1. Erstes Vorurteil: "Computer sind nur zählende Idioten"

... Prinzipiell darf die Leistungsfähigkeit eines komplexen Systems nicht an derjenigen seiner isolierten Bausteine gemessen werden. Wer wollte einer einzelnen Nervenzelle Intelligenz oder gar Selbstbewußtsein zuschreiben? ...

3.2. Zweites Vorurteil: "Computer können nicht lernen".

Diese Anschauung vertrat sogar in den 70er Jahren im Fernsehen ein Stuttgarter Informatikprofessor (dessen Namen ich glücklicherweise vergessen habe), was nur zeigt, daß manchmal eine zu detaillierte Beschäftigung mit einer Sache den Blick für allgemeinere Zusammenhänge vernebeln kann. Wir haben uns mit einem lernfähigen Computerprogramm eingehend befaßt; deshalb erübrigt es sich hier, über dieses Vorurteil noch viel Worte zu machen.

3.3. Drittes Vorurteil: "Computer sind nicht kreativ"

Beim Rückzugsgefecht darüber, was Computer nicht können, wird häufig angeführt "Computer sind nicht kreativ". Diese Behauptung wird selten von einer Definition dessen begleitet, was unter "kreativ" verstanden werden soll. Sobald kreativ nämlich in sinnvoller Weise definiert wird, ist meistens schon der Weg für eine maschinelle Nachahmung vorgezeichnet. Willwacher z.B. beschreibt einen produktiven Einfall als die Neukombination früher erlernter Informationen. Sein auf einem Computer simuliertes assoziatives Speichersystem konnte solche produktiven Einfälle produzieren.

Ich könnte den Rest der Vorlesungszeit damit füllen, aus einem Buch mit Computerlyrik zu rezitieren. Solche Computerlyrik ist nicht deshalb nicht kreativ, weil wir die Regeln kennen (können), nach denen der Computer seine Gedichte verfaßt hat. Wenn dem so wäre, würde eine notwendige Bedingung für menschliche Kreativität die Unkenntnis der Regeln sein, nach denen menschliche Gehirne Neues produzieren. Kreativität wäre dann wegforschbar.

Dieses Argument leitet über zum 4. Vorurteil.

3.4. Viertes Vorurteil: "Computer können nicht klüger werden als ihre Programmierer".

Was ein Computer tut und wie er es tut, hängt von seinem Programm und damit von seinem Programmierer ab. Damit ist aber kein neuer Erhaltungssatz formuliert, d.h. ein Programmierer kann mehr Information aus dem Computer erhalten als er hineingesteckt hat. Das wird besonders anschaulich bei lernfähigen Programmen. Auch hier kann uns das von Samuel programmierte lernfähige Damespielprogramm als Beispiel dienen. Wir haben nachvollziehen können, warum dieses Programm bald besser Dame spielen konnte als sein Schöpfer. Der Satz "Ein Computer kann nie intelligenter werden als sein Programmierer" verschleiert tatsächliche Entwicklungen. Er vernachlässigt darüberhinaus, daß schon heute in vielen Großcomputern Programme laufen, die von einem ganzen Stab von Programmierern über viele Jahre entwickelt worden sind.

Es sollte im übrigen angemerkt sein, daß auch wir Menschen abhängig davon sind, was Erzieher und sonstige Umwelt in uns eingepflanzt haben. Ein prinzipieller Unterschied zu lernfähigen Computern wäre hier noch nachzuweisen.

Die richtig gestellte Frage ist nicht die, ob Computer nur das tun, was ihnen aufgetragen wurde zu tun, sondern die Frage nach den Grenzen dessen, was einem Computer aufgetragen werden kann zu tun.


Roalf antwortete am 24.09.03 (18:25):

@Karl

Lieber Karl,
(ich nehme mir diese Anrede einfach heraus, weil mir diese Diskussion beginnt viel Spaß zu machen :-) ),

zuerst mal zu einigen Aussagen von dir:
"Wieviele Unmöglichkeitspostulate wurden in der Geschichte durch die tatsächlichen Entwicklungen der Lächerlichkeit preisgegeben!"

nun, ich denke das du diesen Satz eher Allgemein gemeint hast und dich nicht auf meine Aussagen beziehst. Sollte dies entgegen meiner Annahme der Fall sein, liegt hier wohl eine Projektion vor. Denn...Zitat von mir: "Uns fehlt nicht die Technologie...sondern es fehlt der Hauch eines Ansatzes wie das machbar wäre....". Wie du hier unschwer erkennen kanst, gibt es hier keinerlei Unmöglichkeitspostulate, sondern das Eingeständniss, das wir noch nicht soweit sind.

Und nun zu den "Vorurteilen", auch hier wirst du, wenn du aufmerksam liest, keins dieser Vorurteile in meinen Texten erkennen. Leider wird in solchen Diskussion immer wieder etwas unsauber Zitiert. Du bezogst dich auf einen Satz von mir: "so ist dies nichts weiter als", hättest du ihn vollständig (und nicht polemisch gekürzt) zitiert, wäre mein Gedanke klarer geworden.


Deshalb nochmal:
"Auch wenn von "Parallelbearbeitung" und "Lernergebnissen" gesprochen wird, so ist dies nichts weiter als ein "Denkmodel" (eine Hilfskrücke) mit dem es einfacher wird, es sich vorzustellen und damit umzugehen. Aber auch diese Vorgänge sind simpel mittels der Touringmaschine abbildbar."
Wo erkennst du hier die "Vorurteile" ?

Ingesammt umfasst dieser Vorurteilstext nicht weniger Polemik als er den Vorurteilsinhaber anlastet.

"Computer sind nur zählende Idioten"
Alleine dieser Satz zeigt eine gehörige Portion davon. Derart wird es niemand der Ahnung hat behaupten. Stimmig ist hingegen meine Behauptung dass sich alle Computerprogramme auf eine simpele Touringmaschine reduzieren lassen (oder kennst du eine die es nicht tut?).

Ich habe mir den Text, der auf dem von dir angegebenen Link steht, aufmerksam durchgelesen. Es beginnt mit einer sehr spezifischen Definition von Intelligenz. Es gibt viele interessante und weniger interessanten Definitionen davon. Diese erinnert mich an die allerersten und kläglich gescheiterten Versuche den IQ zu messen. Ich möchte dich hier auch mal Zitieren:

"Wenn jemand behauptet, Bewusstsein einer Maschine sei etwas Unmögliches, sollte er wissen, was Bewusstsein ist und daran mangelt es doch."

Nun..hier scheint ein eklatanter Wiederspruch zu existieren. Wenn man ist nicht in der Lage ist Bewustsein und Inteligenz zu definieren, dann sind alle in dem Text gemachten Aussagen konterkarriert.


schorsch antwortete am 24.09.03 (19:18):

Da das menschliche Gehirn noch nicht genau erforscht ist, erlaube ich mir die ketzerische These: Auch das menschliche Gehirn arbeitet nur mit Nullen und Einsen. Beweise habe ich keine. Hat jemand Beweise des Gegenteils? (;--))))


Karl antwortete am 24.09.03 (21:32):

@ schorsch


das Gehirn arbeit weniger digital als analog, auch wenn es Elementarprozesse wie das Aktionspotential gibt, die man als digitale Alles-oder-Nichts-Ereignisse interpretieren kann.

@ Roalf,

ich setze Intelligenz nicht mit Bewußtsein gleich. Die von mir für Intelligenz verwendete Definition besagt nur, dass die Folgen zukünftiger Handlungen bewertet werden und die jetzt zu treffende Entscheidung beeinflussen. In diesem Sinne (mit dieser Definition) ist ein Schachcomputer intelligent, aber ob er Bewußtsein hat? Das würden wir beide wohl eher bezweifeln.

Die Schwierigkeiten betreffen den Begriff Bewusstsein, weniger den der Intelligenz. Intelligenz kann man pragmatisch definieren. Was intelligentes Handeln ist und was nicht, kann situationsgerecht häufig entschieden und deshalb auch maschinell abgebildet werden.

Die Bedingungen, unter denen Bewusstsein auftritt, sind weitgehend unklar und auch kaum zu überprüfen. Ich kann nicht einmal bei meinen Mitmenschen ins "Bewusstsein" blicken, aber da sie sich so verhalten als hätten sie eins (die meisten), nehme ich an, dass sie eins haben. Dabei ist übrigens neben intelligentem auch das emotionale Verhalten indikativ. Emotionales Verhalten bedeutet, dass sehr starke Bewertungsfunktionen für manche Verhaltensergebnisse existieren. Die Emotionen belohnen oder bestrafen, sind also zielrichtend.

Oh je, was wenn intelligent und emotional reagierende Maschinen baubar wären, die sich so verhalten würden als hätten sie Bewusstsein? Haben sie eins? Wir werden es nicht wissen, aber uns leichter tun, wenn wir annehmen sie hätten eins.

Vielleicht ist es ein Denkfehler zu glauben, etwas könne sich so verhalten als habe es ein Bewusstsein ohne es zu haben?


Medea. antwortete am 25.09.03 (01:06):

Wie könnte man eine intelligent und emotional reagierende Maschine, bei der wir annehmen, daß sie ein Bewußtsein entwickelt habe, je wieder demontieren bzw. in ihre Einzelteile zerlegen? Wäre das Totschlag oder gar Mord??


schorsch antwortete am 25.09.03 (08:22):

Der Unterschied also: Der PC, an dem wir gerade sitzen, ist intelligent. Der User aber ist bewusst - manchmal aber sogar auch intelligent... (;--))))


Karl antwortete am 25.09.03 (08:46):

@ medea,


dieses Thema ist z.B. von dem Autor von "Gödel, Escher, Bach" u.a. in "Einsicht ins Ich. Fantasien und Reflexionen über Selbst und Seele" (s. Link unten), Douglas R. Hofstadter thematisiert worden. Dies ist ein tolles Buch, witzig und sehr klug. Wir würden zumindest sehr große Hemmungen haben, dies zu tun!

@ Schorsch,

über Dich kann man doch fast jeden Morgen schmunzeln ;-)) Es ist nicht der ausgeschaltete Computer oder der Computer, der Deine Textverarbeitung erledigt, den ich als intelligent bezeichnen würde. Es kommt auf die Software an.

Einem Schachprogramm, das mich schlägt (was nicht schwer ist), möchte ich nicht deshalb die Intelligenz absprechen, weil ich weiß wie es funktioniert. Wissen um einen Mechanismus darf nicht dazu führen, die Leistung nicht anzuerkennen, sonst würde die Hirnforschung meine eigene Intelligenz gefährden.

Es gehört einfach zur intellektuellen Lauterkeit, eine Tätigkeit, für die man früher eindeutig Intelligenz als erforderlich angesehen hat, nicht deshalb neu zu bewerten, weil ein Computer dazu auch in der Lage ist. Die Gebiete,m auf denen Intelligenz notwendig wäre, würden dann immer weniger.

In der Tat leistet der Schach oder Dame spielende Computer in dem beschränkten Anwendungsbereich etwas, was wir gemeinhin als "intelligent" bezeichnen. Er sieht nämlich in die Zukunft durch die Berücksichtigung der möglichen Züge des Opponenten, bewertet deren Folgen und trifft seine Entscheidung über seinen eigenen nächsten Zug auf der Basis dieser Analyse.

Zeigt sich später, dass die Analyse fehlerhaft war, sind manche Spielprogramme in der Lage, ihre Bewertungsfunktion in Bezug auf Stellungen entsprechend zu modifizieren. Sie können also aus Erfahrung lernen.

Einen guten Morgen wünscht, Karl

Internet-Tipp: https://www.amazon.de/exec/obidos/ASIN/3608930388/derseniorentimin


Roalf antwortete am 25.09.03 (09:56):

@karl

mit deiner Frage begibst du dich tief in philosophische Gefilde.

"Hat etwas Bewusstsein, weil es glaubt Bewusstsein zu haben?" ..oder anders: "Reicht die Annahme das man Bewusstsein hat, als Beweis das man es wirklich hat?"

Z.B. Neurologen und Psychologen bezweifeln immer mehr den "freien Willen" den wir uns einbilden. Und dieser scheint eine Vorraussetzung für "Bewusstsein" zu sein.

Aber ich wiederspreche in der strikten Trennung von Bewusstein und Intelligenz. Wenn Intelligenz keine Bedingung ist, könnte somit auch ein Stein ein Bewusstsein haben. Wenn es keinen Zusammenhang zwischen beiden gibt, muss zimindest jeder Lebensform Bewusstsein zugesprochen werden dürfen (auch z:b: Pflanzen oder Bakterien), da das Gegenteil nicht mehr verifizierbar ist.

Ich zitier mal wieder Penrose (gerade weil du den Begriff Evolution ins Spiel gebracht hast):
"Intelligenz erfordert ein Bewußtsein, denn wäre es überflüssig für unser Verhalten, so hätte die Evolution bei der Entwicklung von intelligenten Systemen auf Bewußtsein verzichtet, bzw. die intelligenten Lebewesen wären zumindest später dahingehend `degeneriert', daß sie kein unnötiges Bewußtsein mehr hätten."


Karl antwortete am 25.09.03 (12:21):

Ich nehme diese Aussage von Penrose zur Kenntnis, aber ich frage nach: Was wurde selektiert? Penrose weiß doch genausowenig wie wir, was Bewusstsein ist. Was, wenn es nur die zweite Seite eines speziellen, objektivierbaren Informationsverarbeitungsprozesses ist? Wenn diese Prozesse benötigt und selektiert wurden, war es eventuell nicht möglich zu vermeiden, dass Bewusstsein entsteht.

Was ich sagen will: Nicht für Bewußtsein wurde selektiert, sondern für die Informationsverarbeitungsprozesse, die mit dem Bewußtseinserlebnis assoziiert sind.

Ich bin auch überzeugt, dass wir kein unnötiges Bewußtsein haben. Zudem, Bewusstsein haben nicht nur wir, sondern auch mein Hund, aber nicht dessen Halsband, denn dieses besitzt kein Nervensystem.


Roalf antwortete am 25.09.03 (13:56):

@karl
ein Computer besitzt auch kein Nervensystem. Wo ziehst du die Trennungslinie?


Karl antwortete am 25.09.03 (14:40):

Oh, für mich bedeutet "Nervensystem" Instrument zur Informationsverarbeitung. So gesehen gibt es eine Mannigfaltigkeit von Nervensystemen ;-)) Das Internet ist auch eines.

Mit freundlichen Grüßen

Karl


Karl antwortete am 25.09.03 (14:41):

Es gibt keine "Grenze", aber Gradienten.


Roalf antwortete am 25.09.03 (14:46):

nuja..."Instrument zur Informationsverarbeitung" ist nur die halbe Wahrheit. es fehlt: "Instrument zur Informationsaufnahme und -wiedergabe".

Nichts desto Trotz: bezug auf deinen Satz mit dem Hund
"Ich bin auch überzeugt, dass wir kein unnötiges Bewußtsein haben. Zudem, Bewusstsein haben nicht nur wir, sondern auch mein Hund, aber nicht dessen Halsband, denn dieses besitzt kein Nervensystem."

und deiner Defintion von Nervensystem...dann hätte ein simpeler Taschenrechner ein "Bewusstsein".

Ich denke um etwas mehr Klarheit zu bekommen musst die Trennlinie exakter gezogen werden.


Karl antwortete am 26.09.03 (00:04):

Die Verarbeitung von Information setzt m.E. einen Input und einen Output voraus.

Ich habe nur behauptet, ohne Informationsverarbeitung gibt es kein Bewusstsein. Aber damit behaupte ich doch nicht, dass jede Informationsverarbeitung zwangsläufig mit "Bewusstsein" abläuft.

Alle Inder sind Menschen, aber nicht alle Menschen sind Inder ;-))

Selbst in unserem eigenen Kopf sind die meisten Informationsverarbeitungsprozesse unbewusst.

Mit "Es gibt keine Grenze, aber Gradienten" wollte ich ausdrücken, dass die menschlichen Eigenschaften wie Emotionalität, Intelligenz, Lernfähigkeit etc. ihre Wurzeln bereits im Tiereich haben. Niemand, der wirklich längere Zeit mit Säugetieren (und Vögeln) interagiert hat, wird bezweifeln, dass diese Spuren von allem besitzen. Herr und Hund z.B. können sich emotional gegenseitig sehr nahe kommen und verständigen.

Häufig ist es in der Biologie eher schädlich, wenn man zu Definitionen (Abgrenzungen) gezwungen wird. Definitionen werden dem allmählichen Prozess der Evolution nicht gerecht. Hassenstein hat deshalb vorgeschlagen, in der Biologie den Begriff der Injunktion zu verwenden. Hierunter werden instrumentelle Anweisungen verstanden, die je nach der Art des Erkenntnisvorganges komplexer oder einfach sind, in der Form: "Wenn man etwas Bestimmtes wissen oder erkennen will, muß man dies oder jenes tun". Es stellt sich dann heraus, dass Intelligenz auch im Tierreich vorkommt und es schwer fällt, ihnen Bewusstsein abzusprechen.

Internet-Tipp: https://www.amazon.de/exec/obidos/ASIN/3406480802/derseniorentimin


Roalf antwortete am 26.09.03 (15:59):

@karl

mit dem Tierreich sind wir einer Meinung. Mal davon ab das es mich schon immer gestört hat, das sich die Menschen als "Krone der Schöpfung" empfinden. Dir als Biologen brauche ich es sicher nicht zu erzählen, das Affen z.B. lügen können oder auch ein feines Gerechtigkeitsempfinden haben. Ich finde sogar die Idee die Menschenaffen in die Gruppe des Homo Sapiens aufzunehmen (was viele juritische Konsequenzen hätte) faszinierend.
Aber wir waren bei den Computern und die Frage ist nach wie vor, ob ein Computer (mit dem heutigen Stand des Wissens) sowas beherrschen kann: Gerechtigkeitsempfinden (damit meine ich nicht eine Reihe von Algorithmen die Anhand von Klauseln "gerecht" oder "ungerech" kalkulieren)?


Medea. antwortete am 28.09.03 (20:35):

Daß Intelligenz und Bewußtsein im Tiereich vorkommt, wird hier nicht bestritten und die Gruppe des homo sapiens um die Menschenaffen zu bereichern, kann ich mir gut vorstellen..... ;-))

Gerechtigkeitsempfindungen oder Gefühle wie Sympathie oder Antipathie bei einer Maschine/Computer hervorzurufen, ist eine faszinierende Vorstellung. Seit Jahren gehöre ich zur Fan-Gemeinde der Serie "StarTrek", dort ist es gelungen (einige Jahrhunderte nach unserer Zeit ;-)) ) einen Computer"menschen" namens Data zu schaffen, der sich irgendwann derart selbst "vernetzt" hat, das er in der Lage ist, selbständig "zu denken" ....
Wäre es vorstellbar, daß das eines Tages tatsächlich geschehen könnte?


Karl antwortete am 29.09.03 (14:47):

Meine Antwort ist ein klares "Ja". Ich sage das, ohne zu wissen wie das funktionieren wird und ohne einen Plan dazu zu haben.
Vom Kopf her scheint mir mein "Bauch-Argument" plausibel, weil ich nicht glaube, dass dort (in meinem Kopf) irgendetwas nicht den Naturgesetzen folgt und schließlich der "Baumeister" meines Kopfes ein blinder Mechanismus, die Evolution, war.

Auch wenn es Euch verletzt. So kompliziert kann die Generierung von "Bewusstsein" nicht sein, die Möglichkeit hierzu steckt in der Natur der Informationsverarbeitung drin.

Ich glaube, ich habe es hier schon einmal berichtet: Als Jugendlicher hantierte ich mit Widerständen, Kondensatoren und Spulen ohne theoretisches Wissen über Elektromagnetismus als ich plötzlich zu Tode erschrak, weil ich eine Stimme hörte.

Ohne zu verstehen warum und wieso hatte ich offensichtlich einen primitiven Radioempfänger (einen Schwingkreis) zusammengesteckt.

Ich bin davon überzeugt, auf diese Weise könnte die Menschheit eines Tages davon überrascht werden, autonome Intelligenz und "Bewußtsein" geschaffen zu haben. Es wird nicht notwendig sein, dass ein Einzelner versteht, wie das geschehen ist. Es steckt in der Natur der Informationsverarbeitung.

Mit den besten Grüßen

Karl


Roalf antwortete am 30.09.03 (10:34):


@karl
ein klares "vielleicht". Ich kann īmir auch vorstellen, das sowas irgendwann möglich ist (ich hatte in der Diskussion auch lediglich bestritten, das es mit den bekannten Computertechniken möglich sein wird und das es nicht viel mit der Prozessor-Geschwindigkeit zu tun haben wird). Evolutorische Entwicklungstechniken werden vielleicht anderes/bessere Systeme/Ideen hervorbringen. Ich gebe dir auch Recht, dass wir unser "Bewusstsein" auch viel zu hoch einschätzen. Der New Scientist hat hier einen sehr interessanten Text zu (leider in Englisch):

https://www.newscientist.com/hottopics/humannature/article.jsp?id=23955000&sub=What%20is%20human%20nature?