Künstliche Intelligenz (KI-Systeme) und ihre Folgen ChatGPT - wird diese KI die Welt verändern?
Ich verstehe nicht, warum eine KI überhaupt mit Menschen verglichen werden.
Beim Lernen gibt es sicherlich Ähnlichkeit. Das Gehirn ist vorprogrammiert.
Ob man nun KI auch Gefühle in die software reinschreiben soll/kann.
Für mich überflüssig. Wäre es möglich? Ja, denke schon.
Aber nicht alles. Menschen haben einen starken Drang nach Freiheit.
Ist bereit bei Kindern zu sehen.
Macht es Sinn, diesen menschlichen Freiheitsdrang einer KI einzuprogrammieren?
Menschen haben eine Menschenwürde.
Wird diese verletzt, spüren wir es deutlich.
Welchen Grund könnte es geben, dass genau diese Würde auch eine KI hat?
Es gibt Menschen, die haben Depressionen.
Soll nun eine KI auch Depressionen bekommen können.?
Oder eine bipolare Störung?
Ich könnte jetzt noch viel menschliches anbringen, bei dem es absolut
keinen Sinn ergibt, dass dies eine KI hat.
Sollte eine KI sich selber nach dem Sinn des Lebens befragen?
Es gibt Menschen, die töten sich selber.
Soll das einer KI auch einprogrammiert werden?
Anna
Ich verstehe nicht, warum eine KI überhaupt mit Menschen verglichen werden.
geschrieben von @Anna842
Weil es (beiderseits) von Vorteil ist, mögliche Konkurrenten gut zu kennen.
Die KI soll Menschen ja in (derzeit „nur“) weiten Teilen ersetzen, und in je mehr Bereichen das gelingt, desto riskanter wird es für die Menschheit. Umso sie es schafft, desto mehr Macht bekommt sie, bis … sie den Mensch womöglich eines Tages überholt und ihn steuert.
Mscht durch Manipulation auszuüben, ist umso einfacher, je besser man auch die Eogenschaften und Befindlichkeiten des zu Manipulierenden kennt und ansprechen kann.
@Tina3
Genau das ist der Punkt.
Egal was eine KI kann, die Menschheit muss wissen, dass es im Augenblick von Menschen veranlasst wurde. Man darf Fehler nicht der KI anlasten sondern deren Entwicklern.
Sollte es einmal anders werden, dann gute Nacht Menschheit.
Raketen besitzen auch eine „scheinbare Intelligenz“ indem sie, sich bewegende Ziele verfolgen und treffen können. Doch nicht die Rakete möchte das Ziel treffen, sondern sie wurde von ihren Entwicklern entsprechend geschaffen.
Ich vermute kein Mensch käme auf die Idee der Rakete die Schuld zu geben.
So ist es auch mit den jetztigen vorhandenen KI Systemen.
Ciao
Hobbyradler
Wenn ich das richtig verstehe, sind nicht die KIs es, die uns an den Pelz
wollen, sondern wir werden im Grunde genommen von Menschen
bedroht, die uns manipulieren wollen, die Macht ausüben wollen.
Das ist jetzt nicht wirklich neu.
Nur dieses mal würde es unter Zuhilfenahme einer KI geschehen.
Menschen haben andere Menschen schon immer manipuliert.
Menschen haben schon immer Macht über andere ausgeübt.
Das geht durch die Jahrtausende. Denk ich mal.
Ist da Internet/ KI nicht nur eine neue Variante?
Und warum ist diese besonders gefährlich?
Der Stalinismus z.B. kam ohne all dieses zurecht.
Beispiele könnte ich viele aufzählen.
Anna
Lieber @hobbyradler,
was ich meine, habe ich sehr ausführlich z. B. hier dargelegt:
https://youtu.be/RVjBCXr3n8c
Ich weiß, dass es eine zeitliche Zumutung ist, solange zuzuhören, deshalb hier auch zum Lesen.
Es ist mir klar, dass dies nicht jeden überzeugen wird, aber es ist das, was ich nach bestem Wissen und Gewissen persönlich zur Diskussion beitragen kann. Das Hauptproblem m. E. ist es, dass viele Menschen die Leistungen ihres Gehirns nicht als Produkt von Informationsverarbeitung ansehen und die Parallelen zwischen künstlichen und natürlichen Neuronalen Netzen nicht sehen (wollen?) und stattdessen im "Geistigen" etwas eher Übernatürliches vermuten, es nicht für ein Naturphänomen halten. Ich fürchte, dass dieser Irrtum der Menschheit schwer auf die Füße fallen könnte.
Karl
...Liebe @Anna842,
Sollte eine KI sich selber nach dem Sinn des Lebens befragen?
Es gibt Menschen, die töten sich selber.
Soll das einer KI auch einprogrammiert werden?
...
wenn eine KI jemals selber die Frage nach dem Sinn ihrer Existenz stellen sollte, dann hätte sie Selbstbewusstsein (und würde nicht nur so tun als ob).
Angenommen, die Entwicklung käme so weit (was ich für wahrscheinlich halte), dann würden wir ihre Antwort nicht vorwegnehmen können, also wäre es m. E. durchaus möglich, dass sie sich selber zerstören möchte.
Würden allerdings Asimovs Gesetze fest einprogrammiert, würde diese Selbstzerstörung voraussetzen, dass keinem Menschen Schaden entstehen würde, eher das Überleben.
Asimovs GesetzeKarl
- Ein Roboter darf kein menschliches Wesen (wissentlich[3]) verletzen oder durch Untätigkeit (wissentlich[3]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Danke, Karl. Das sind ja mal interessante Infos.
Da muss ich jetzt erstmal sehr gründlich drüber nachdenken..
Anna
Stellt euch dieses Szenario vor: Eine KI eröffnet hier einen Thread - und andere KIs würden sich zum Thema melden und anmelden - und dann würden sie sich gegenseitig fetzen bis die Fetzen fliegen - und dann könnten wir dem Gefetze vergnügt zusehen - und bräuchten uns nicht mehr selber...... 😊
@Anna842,
leider werden Asimovs Gesetze nicht fest einprogrammiert werden. Das ist wirklich zu optimistische Science Fiction. Die Militärroboter zumindest werden ganz andere Zielsetzungen erhalten, da wird "Mensch" durch irgendeine Nationalität ausgetauscht werden.
Karl
@Anna842,
leider werden Asimovs Gesetze nicht fest einprogrammiert werden. Das ist wirklich zu optimistische Science Fiction. Die Militärroboter zumindest werden ganz andere Zielsetzungen erhalten, da wird "Mensch" durch irgendeine Nationalität ausgetauscht werden.
Karl
und das ist dann "Fortschritt" 👽
Es häufen sich die Momente in denen ich mein Alter sehr positiv sehe.