Aktuelle Themen Jetzt auch beim lesen....KIs besser als Menschen
Selbstfahrende Autos brauchen für ihre Entscheidungen einen Moralkodex wie wir auch.Ich würde es Prioritäten nennen.
karl
Moral schützt kein Menschenleben, denn Moral ist irregulär und passt sich an
persönliche Empfindungen an.
Und das kann in Gefahrensituationen tödlich sein.
Ein Robot greift auf rechnerische 1 Milliarde Möglichkeiten zu, innerhalb einer Sekunde oder weniger.
Und die Prioritätsliste sagt ihm klipp und klar was zu tun ist.
Einen Menschen retten oder 100.
Da wird oder werden sich die Geister scheiden und die Gesetzgeber müssen da Vorgaben machen bzw. haben es zum Teil schon getan.
Ich möchte es umdrehen: Die Konstrukteuere dieser Supermaschinen brauchen einen Moralkodex. Denn nicht alles, was machbar ist, ist auch moralisch einwandfrei.hobbyradlerDas ist eben nicht so, da alle möglichen Umweltsituationen (Verkehrssituationen) unmöglich vorhergesagt werden können. Selbstfahrende Autos brauchen für ihre Entscheidungen einen Moralkodex wie wir auch.
Ich bin mir recht sicher, dass alle Entscheidungsprozesse von den Konstrukteuren exakt vorgegeben werden.
Autonomes Fahren: Was soll Ihr Auto jetzt tun?
Karl
Hallo Karl,
ich lese aus deinem verlinkten Beitrag etwas völlig anderes als du.
Rahwan: Die Software selbstfahrender Autos ist zwar von Menschen programmiert, lernt aber selbstständig dazu. Die Programmierer machen dem Auto eine Vorgabe - beispielsweise, möglichst komfortabel oder sicher zu fahren - und ein Algorithmus sorgt dafür, dass das Auto durch Erfahrungswerte und eigene Datenanalyse diesem Ziel immer näher kommt.
----------------------------------
Anhand der Codes ist diese künstliche Intelligenz irgendwann nicht mehr zu verstehen. Um also zu vermeiden, dass es unerwünschte Effekte gibt, zum Beispiel dass das Auto weniger Rücksicht auf Fußgänger nimmt, muss sein Verhalten genau analysiert werden. Wie bei einem Menschen.
Ich habe durch die Striche den Teil des Beitrags zweigeteilt.
Teil1
So ist es, alles wird durch die vorhandene Software gesteuert. Auch das Hinzulernen.
Das Hinzulernen geschieht durch die vom Menschen eingegebene Software – ist somit kein Zeichen von Intelligenz. (Hinzulernen gibt es spätesten seit den 60er Jahren – bedeutet ja oft nichts anderes als einen neuen Fakt speichern und künftig zum Erzielen verbesserter Ergebnisse mit zu verwenden)
Teil2 spricht deinen Moralcodex an.
Der wird von Gesetz und Programmierern dem System vorgegeben. Wäre das nicht der Fall, müsste tatsächlich die Maschine entscheiden. Dann müsstest du aber erklären woher die Maschine ihre Moral beziehen soll.
An keiner Stelle ist erkennbar wo das System nur den Ansatz einer Intelligenz haben sollte.
Da es nach außen anders ausschaut, sagt man „Scheinbare Intelligenz“ dazu. KI hört sich noch einen Tick interessanter an.
Ciao
Hobbyradler
HobbyradlerSo ist es, hobbyradler. Ich werde aber erst morgen antworten, bin gerade am TV.
ich lese aus deinem verlinkten Beitrag etwas völlig anderes als du.
Karl
Hallo Karl,
ich möchte noch ganz kurz etwas zur Lernfähigkeit schreiben, da ich vermute, dass du wieder auf die „technisch nachgebauten“ neuronalen Netze verweisen wirst.
Gerade beim autonom fahrenden Auto kann eine „Trainingsphase“ meiner Meinung nach lediglich bei einzelnen Komponenten vorgenommen werden. Dazu werden vom Menschen vorgegebene Lernregeln implementiert.
Wie das Gesamtsystem lernen sollte, kann ich ehrlicher weise nicht verstehen. Dazu müsste man es ja bei sehr vielen Unfällen lernen lassen. Natürlich auch wieder nach den Regeln der Konstrukteure.
http://www.neuronalesnetz.de/training.html
Trainings- und Testphase
Bei neuronalen Netzen unterscheidet man typischerweise zwischen einer Trainingsphase und einer Testphase (auch Ausbreitungsphase genannt).
Trainingsphase
- Trainingsphase: In dieser Phase lernt das neuronale Netz anhand des vorgegebenen Lernmaterials. Dementsprechend werden in der Regel die Gewichte zwischen den einzelnen Neuronen modifiziert. Lernregeln (siehe nächste Seiten) geben dabei die Art und Weise an, wie das neuronale Netz diese Veränderungen vornimmt. Viele Lernregeln lassen sich in die folgenden beiden Kategorien einordnen (weitere Möglichkeiten wie das sog. reinforcement learning werden hier nicht behandelt):
- supervised learning (überwachtes bzw. beaufsichtigtes Lernen): Der korrekte Output wird (als "teaching vector") vorgegeben und daran werden die Gewichte optimiert.
- unsupervised learning (nicht überwachtes bzw. unbeaufsichtigtes Lernen): Es wird kein Output vorgegeben. Die Gewichtsveränderungen erfolgen in Abhängigkeit der Ähnlichkeit der Gewichte mit den Inputreizen.
Testphase
- Testphase: In der Testphase werden hingegen keine Gewichte verändert. Statt dessen wird hier auf Grundlage der bereits modifizierten Gewichte aus der Trainingsphase untersucht, ob das Netz etwas gelernt hat. Dazu präsentiert man den Inputneuronen Reize und prüft, welchen Output das neuronale Netz berechnet. Zwei verschiedene Arten von Reizen können unterschieden werden:
- Ausgangsreize: Durch erneute Präsentation der zu lernenden Ausgangsreize wird geprüft, ob das neuronale Netz das Trainingsmaterial erfasst hat.
- Neue Reize: Durch Präsentation neuer Reize kann man feststellen, ob das Netz über die zu lernenden Reize hinaus in der Lage ist, Aufgaben zu lösen. Anders formuliert: Findet eine Generalisierung auf neue Reize statt?
Ciao
Hobbyradler
Guten Morgen Hobbyradler,
nun, es gibt Flug- und Fahrsimulatoren. An denen können neuronale Netze ebenso gefahrlos üben, wie das Menschen tun.
Mit Deinem Widerwillen, Maschinen echte Lernfähigkeit zuzusprechen, stehst Du nicht alleine da. Ich diskutiere seit meiner Jugend mit entschiedenen Gegnern dieses Gedankens, darunter waren auch schon Professoren der Informatik.
Es ist eine Kränkung des menschlichen Selbstverständnisses anerkennen zu müssen, dass Kopfleistungen, auf die wir stolz sind und aufgrund der wir uns anderen Lebewesen haushoch überlegen fühlen, auf nachbaubaren Eigenschaften von Schaltkreisen beruhen, die auch in Maschinen implementiert werden können.
Die Naturwissenschaften haben dem Menschen schon viele Kränkungen zugefügt. Formuliert hat dies als erstes Sigmund Freud.
1. Die kosmologische Kränkung. Der Mensch / die Erde steht nicht im Mittelpunkt des Kosmos (Kopernikus, Galilei)
2. Die biologische Kränkung. Der Mensch ist aus dem Tierreich entstanden (Darwin)
3. Die psychologische Kränkung: Die Herrschaft des Unbewussten über den Menschen (Freud)
Wenn Du so willst erleben wir derzeit nun die vierte Kränkung: Unser Geist ist das Produkt der Informationsverarbeitung im Gehirn und wird durch die Informationsverarbeitung in Elektronengehirnen übertrumpft, zumindest gibt es keinen theoretischen Schutz davor.
Um diese Entwicklung nicht als Hirngespinst anzusehen, muss man sich damit beschäftigt haben, wie unsere Hirngespinste entstehen. Diese werden ohne Verletzung physikalischer Gesetze, auf natürliche Weise geflochten.
KasparowErgänzt werden sollte dieser Satz von Kasparow noch dadurch, dass es nach Boström möglicher Weise so sein wird, dass sich selbstunterrichtende technische Systeme den Level des Menschen transzendieren, ohne dass ein einzelner Mensch jemals in Gänze verstanden haben wird, wann dieser Punkt erreicht sein wird und wie und ob überhaupt subjektives Innenleben mit objektivem Verhalten zusammenhängt. Nach Koch und Tonini ist Bewusstsein inherent in komplexen Systemen vorhanden, aber das wäre wieder ein vlöllig neues Thema.
Alles, von dem wir wissen, wie es gemacht wird, können Maschinen irgendwann besser.
Karl
KasparowJetzt gilt es nur noch zu definieren, was unter besser verstanden wird.Alles, von dem wir wissen, wie es gemacht wird, können Maschinen irgendwann besser.geschrieben von karl
Mit Deinem Widerwillen, Maschinen echte Lernfähigkeit zuzusprechen, stehst Du nicht alleine da. Ich diskutiere seit meiner Jugend mit entschiedenen Gegnern dieses Gedankens, darunter waren auch schon Professoren der Informatik.
geschrieben von karl
Hallo Karl,
das kann ich nicht beurteilen ob es solche Menschen gibt, als Argument kann ist das allerdings völlig belanglos. Da zählen nur Fakten.
Man, bzw. ich könnte auch kontern, dass manche Menschen von ihren Vorstellungen so beseelt sind, dass sie die momentane Realität aus den Augen verlieren. Ich unterstelle, dass dies auch bei Biologie Professoren der Fall sein könnte.
In einem der vorhergehenden Beiträge hatte ich erwähnt, dass ich mir durchaus vorstellen kann, dass Forscher irgendwann ein voll funktionsfähiges „Gehirn“ nachbauen können.
Im Augenblick gibt es jedoch real, egal ob man das als schade empfindet oder sich dadurch besser fühlt, keine wirkliche Intelligenz in einer Maschine.
Ciao
Hobbyradler
Klar Hobbyradler,
auch ich kann irren. Allerdings fühle ich mich durch die Entwicklung bestätigt. Ich hatte übrigens auf Deine konkrete Frage, wie denn eine Software für selbstfahrende Autos lernen könne, ohne Unfälle zu produzieren, konkret geantwortet.
Ich denke die Fahr- und Flugsimulatoren gaben Dir eine Antwort, die Du akzeptieren kannst. Das Google-Auto fährt zudem bereits seit Jahren in Kalifornien im Straßenverkehr zu Trainingszwecken rum, ohne wegen Unfällen groß in die Schlagzeilen zu kommen. In Deutschland sind Teststrecken geplant.
Beste Grüße, Karl
"Besser" bedeutet in der Biologie resourcenschonender. Bei selbstfahrenden Autos würde dies bedeuten:
1. Weniger Unfälle (Experten erwarten eine Reduktion um über 90%).
2. Weniger parkende Autos am Straßenrand (weil die vorhandenen Fahrzeuge besser genutzt werden und nicht rumstehen müssen, man ruft sich ein Auto bei Bedarf)
3. Die Garage kann endlich guten Gewissens für Gerümpel genutzt werden (bei uns parkt schon lange das Auto draußen vor ).
Karl