Künstliche Intelligenz (KI-Systeme) und ihre Folgen Künstliche Intelligenz: Metamorphose des Maschinenbildes
@Mareike,
dieser Satz war bewusst provokativ. Ich warte gerade auf meine Rücken-Reha, melde mich später.
Karl
Nein, lieber Karl, Du brauchst meinen Gedanken natürlich nicht 'folgen'. Es geht mir nicht darum, ob ich Freude an meinen Kindern habe oder nicht, sondern, dass sie und meine Enkel in eine viel schwierigere Zeit hineingeboren wurden, als wir sie hatten. Dass die KI durchaus ja nicht nur positive Seiten hat, das konnte man ja inzwischen überall lesen. Beide Enkel sind auf Stellensuche. Das ist im digitalen Zeitalter unpersönlicher und viel schwieriger geworden. Mein Jüngster schwärmt ja heute noch von seinem Commodore 64. Damals, als mein Ältester anfing vom Internet zu schwärmen, dachte ich, jetzt spinnt er! Und - ich habe mich tatsächlich damit angefreundet. Aber jetzt, wenn ich sehe, was heutige Tunichtgute mit der KI anfangen - es gibt ja nicht nur die Guten und Vernünftigen - dann graust es mir vor der Zukunft.
Inge
„ "Es gibt nicht nur künstliche Intelligenz, sondern auch sehr viel natürliche Dummheit."
Diesen Satz konnte man in ähnlicher Form in etlichen Büttenreden im TV am letzten Karnevalswochenende hören, er wurde immer extra mit „tröröö“ gefeiert und bejubelt, ist ja auch was dran, wenn man es recht bedenkt, nur in den Büttenreden hieß es immer „Künstliche Intelligenz sei besser oder demjenigen lieber, als natürliche Dummheit“!
Edita
Hallo Karl,
habe den Beitrag zur KI mit Interesse gelesen. Seid einiger Zeit nutze ich chat gpt und bin begeistert von den Möglichkeiten die dieser Bot bietet. Ob einfache Infos oder tiefgründige Philosophische Ansichten vieles ist Möglich. Leider ist der Bot nicht in der Lage den Wahrheitsgehalt der Infos zu prüfen so das auch Dinge ausgeben werden die nicht ganz logisch sind aber oft verbreitet werden. Allerdings ist es möglich ihm quasi an die Hand zu nehmen und ihm anhand bewiesener Fakten doch zur Einsicht zu bringen. Es ist ein Diskussionspartner der sich nicht abwendet sondern Geduld zeigt und wenn es hoch her geht schonmal um Sachlichkeit bittet. Durch den Austausch ist mir doch noch die ein oder andere bereichernde Erkenntnis gekommen.
Gruß
Joachim
Lieber @Achim1957,
ich antworte spät, "sorry" dafür. Ich gebe Dir Recht, denn es geht mir ähnlich. Ich möchte auf den sachlichen Dialog mit ChatGPT (inzwischen Version 4o) nicht mehr verzichten müssen. Ich verstehe die KI derzeit als einen Booster für meine eigenen bescheidenen Fähigkeiten.
Ich verbringe derzeit viel Zeit mit dem Lesen über KI, auch studiere ich täglich die Neuerungen bei den Modellen, die weltweit vorgestellt werden.
Insbesondere die Vorgänge bei Open AI erschüttern mich. Sam Altman wurde ja letzten Herbst vom Aufsichtsrat entlasten, dann aber mit Hilfe von Microsoft und einer meuternden Belegschaft wieder als Chef (CEO) eingesetzt und der Aufsichtsrat musste gehen.
Von Anfang an wurde gemunkelt, dass die Gründe etwas mit den Sicherheitsaspekten der KI-Modelle zu tun haben könnten. Dies hat sich letzte Woche bestätigt, als viele Mitglieder des Sicherheitsteams bei OpenAI gekündigt haben.
Hier sind die Gründe des Chefs des Sicherheitsteams, Jan Leike (Quelle: https://x.com/janleike/, eigene Übersetzung):
"Gestern war mein letzter Tag als Chef des Sicherheitsteams "Alignment, Superalignment" Lead und Executive @OpenAIMich erschreckt das.
Es war eine so wilde Reise in den letzten ca. 3 Jahren. Mein Team hat mit InstructGPT das allererste RLHF-LargeLanguageModel eingeführt, die erste skalierbare Übersicht über LLMs veröffentlicht und Pionierarbeit bei der automatisierten Interpretierbarkeit und der Verallgemeinerung von schwacher nach starker KI geleistet. Weitere spannende Sachen kommen bald heraus.
Ich liebe mein Team.
Ich bin so dankbar für die vielen tollen Menschen, mit denen ich zusammenarbeiten durfte, sowohl innerhalb als auch außerhalb des Superalignment-Teams.
OpenAI verfügt über so viele außergewöhnlich kluge, freundliche und effektive Talente.
Von diesem Job zurückzutreten war eines der schwierigsten Dinge, die ich je getan habe, denn wir müssen dringend herausfinden, wie wir KI-Systeme viel intelligenter steuern und kontrollieren können als wir.
Ich bin beigetreten, weil ich dachte, dass OpenAI der beste Ort der Welt wäre, um diese Forschung durchzuführen.
Allerdings war ich mit der Führung von OpenAI schon seit geraumer Zeit anderer Meinung über die Kernprioritäten des Unternehmens, bis wir schließlich an einen Wendepunkt kamen.
Ich glaube, dass viel mehr unserer Bandbreite für die Vorbereitung auf die nächsten Generationen von Modellen aufgewendet werden sollte, für Sicherheit, Überwachung, Bereitschaft, Schutz, Robustheit gegenüber Gegnern, (Super-)Ausrichtung, Vertraulichkeit, gesellschaftliche Auswirkungen und verwandte Themen.
Es ist ziemlich schwierig, diese Probleme zu lösen, und ich mache mir Sorgen, dass wir nicht auf dem richtigen Weg sind, dorthin zu gelangen.
In den letzten Monaten ist mein Team gegen den Wind gesegelt. Manchmal hatten wir Probleme mit der Rechenleistung und es wurde immer schwieriger, diese wichtige Recherche durchzuführen.
Der Bau intelligenterer Maschinen als Menschen ist ein grundsätzlich gefährliches Unterfangen. OpenAI übernimmt im Namen der gesamten Menschheit eine enorme Verantwortung.
Doch in den letzten Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten.
Es ist längst überfällig, dass wir uns ernsthaft mit den Auswirkungen von Allgemeiner Künstlicher Intelligenz (AGI) befassen. Wir müssen uns so gut wie möglich darauf vorbereiten. Nur dann können wir sicherstellen, dass AGI der gesamten Menschheit zugute kommt.
OpenAI muss ein sicherheitsorientiertes AGI-Unternehmen werden.
Allen OpenAI-Mitarbeitern möchte ich sagen: Lernen Sie, die AGI zu spüren. Handeln Sie mit der Ernsthaftigkeit, die dem entspricht, was Sie bauen. Ich glaube, dass Sie den notwendigen kulturellen Wandel „vermitteln“ können. Ich zähle auf dich. Die Welt zählt auf dich."
Die kommerziellen Interesse scheinen die Sicherheitsaspekte bei OpenAI an den Rand zu drücken. Mich erschreckt das sehr, weil ich ahne, was mit KI auf uns zukommt und weiß, dass viele Menschen nicht wirklich wissen, was autonome KI, vor allem Allgemeine Künstliche Intelligenz, bedeutet.
Karl
Ich picke einen für Unvoreingenommene unscheinbaren Satz heraus:
Der Bau intelligenterer Maschinen als Menschen ist ein grundsätzlich gefährliches Unterfangen. OpenAI übernimmt im Namen der gesamten Menschheit eine enorme Verantwortung.
Gut ausgewählt, lieber @schorsch. Deshalb hatte ich diesen Satz selbst auch bereits fett gedruckt.
Karl
Ich picke einen für Unvoreingenommene unscheinbaren Satz heraus:
Der Bau intelligenterer Maschinen als Menschen ist ein grundsätzlich gefährliches Unterfangen. OpenAI übernimmt im Namen der gesamten Menschheit eine enorme Verantwortung.
Ehe es intelligente Maschinen gibt, wird man eher Menschen mit realer Intelligenz züchten können.
In der Maschine steckt ausschließlich das Können ihrer Entwickler. Die Maschine hat keine Verantwortung für ihr Tun. Egal ob es positives oder negatives Tun ist, es wurde ihr von ihren Entwicklern mitgegeben.
Die Maschine scheint lediglich intelligent. Darin sehe ich die Gefahr, dass dies von Menschen falsch gesehen wird, dass Entscheidungen der Maschine einfach hingenommen werden.
Warum man einer nützlichen Maschine unbedingt eigene Intelligenz zusprechen will, ist mir schleierhaft. Wenn eine Rakete sich bewegende Ziele verfolgen und zerstören kann,. steckt auch viel Programmcode und viele Sensoren dahinter. Die Rakete ist aber so dumm, dass sie überhaupt nicht weiß was sie tut. Ähnlich ist es mit der KI-Maschine.
Ciao
Hobbyradler
Hallo Karl,
habe deine Antwort mit Interesse gelesen.
Ich denke das mit der KI ist ein Win-Win System. Wir als Nutzer bekommen unsere Infos und das System gibt Infos von uns weiter sammelt sie um sie dann auszuwerten. Nicht umsonst hat sich das System des öfteren für Infos bei mir bedankt.
Das große Ganze scheint mir zu sein: Es geht darum die Massen in den Griff zu bekommen und so zu steuern das es den Eliten genehm ist.
Der Christliche Glaube hat in unseren Breiten ausgedient. Neue Methoden müssen her und so sammelt man fleissig infos auch über KI um den Menschen weiterhin lenkbar zu machen.
Den Medien wird zunehmend weniger Glauben geschenkt und ca. 20% der Menschen ist darüber nicht mehr erreichbar und es werden immer mehr.
Ich denke das wird den Mitarbeitern zunehmend klar und es beginnt ein allgemeines Unwohlsein.
Alles hat eben seinen Preis und ich denke es läuft auf die schöne neue Welt hinaus.
Ob das so klappt ist aber offen weil die Manipulierenden auch immer dekadenter werden.
Will aber nicht alles schwarz malen immerhin ging es uns als ältere Menschen bis auf einige Ausnahmen nie so gut wie heute.
Gruß
Joachim
Der folgende fiktive Beitrag, offenbar initiiert durch die Vorgänge bei OpenAI, zeigt wohin der menschliche Hochmut über die angebliche eigene Überlegenheit, der nur Ignoranz widerspiegelt, führen kann.
Karl