Um wieder mal von Musks irrem Gebaren wegzukommen, hier ein m.E. sinniger Artikel bei n-tv bzgl. autonomem Fahren: Euphorie und Wunschdenken. Sind Roboterautos doch nur eine Utopie? https://www.n-tv.de/auto/...doch-nur-eine-Utopie-article20576238.html
SchöneZukunft ist ja der Meinung, dass Tesla sowohl bei AI-Chips als auch bei autonomem Fahren der ganzen Welt weit überlegen ist und kurz vor dem Durchbruch steht. Ich glaube das nicht, zumal ja Musk bereits für Ende 2017 eine L5-autonome Fahrt von NY nach LA (einschließlich Cities) angekündigt hatte, was sich in Rauch aufgelöst hat. Tatsächlich hat Tesla so wie alle anderen immer noch ziemlich primitive L2-Assistenten. Auch der angebliche Nutzen der angeblich riesigen Life-Datenbestände von Tesla ist bislang durch nichts bestätigt.
Aber wir kennen natürlich nicht die genauen Entwicklungsstände von Waymo, Tesla, GM, etc. Da heißt es abwarten.
Anyway, ich glaube nicht, dass autonomes Fahren auf L5, also ohne Mitwirkung und Verantwortung des Passagiers (derzeit Fahrer genannt) in irgendeiner absehbaren Zeit kommen wird. Also allenfalls in frühestens zehn Jahren. Und zwar aus technischen Gründen: Das was man heute euphorisch AI nennt, ist alles andere als intelligent, sondern dressiert/trainiert. Also nicht in der Lage, mit unbekannten Situationen umzugehen und intuitiv, instinktiv zu agieren. Ich habe das früher mehrfach ausgebreitet.
Was die gerne vorgeschobenen juristischen und ethischen Probleme angeht, so halte ich die für vergleichsweise gering. Dinge wie Haftung, Güterabwägung, höhere Gewalt sind ja schon immer in anderem Zusammenhang einigermaßen zufriedenstellend geregelt. Warum sollten da an eine AI höhere Maßstäbe angelegt werden? Bzgl. Haftung meine ich, dass bei einem L5-System der Autohersteller haften muss. Bzgl. der bekannten Abwägung: Fußgänger(kind(er)), Passagiere, die Mehrzahl retten, meine ich, dass jede Regel so fragwürdig ist wie eine Zufallsentscheidung. Letzere also so gut oder schlecht wie jede andere ist.
Wir betrachten heute, wenn es um Rettung geht, z.B. den Grundsatz "Frauen und Kinder zuerst" als ethisch korrekt - wenn auch nicht juristisch zwingend vorgeschrieben. Das könnte man natürlich relativ leicht auch jeder AI beibringen. Allerdings überdenkt kaum wer diesen Grundsatz, obwohl er mehr als fragwürdig ist: Warum sind Frauen und Kinder bessere oder wichtigere Menschen als Männer? Und wenn es um die Wahl zwischen Frauen und Kindern geht, wer gewinnt dann? Und ist eine Frau wichtiger als zehn Männer?
Wenn Menschen entscheiden, nehmen wir es als Schicksal hin, wenn sie "falsch" entscheiden - was Geschmackssache ist. Erst wenn Computer entscheiden, tun wir so als ob die wasserdichte, nachvollziehbare, moralisch einwandfreie Entscheidungen fällen müssten. Das ist so ähnlich wie bei Vertraulichkeit, Datenschutz, Fälschungssicherheit bei Kommunikation. In der alten analogen Welt gibt es das alles fast gar nicht. Z.B. akzeptieren wir eine Unterschrift auf einer Kopie oder einem Fax als verbindlich, obwohl das Null-Sicherheit bietet. Wir bezahlen mit einer praktisch öffentlich bekannten Kreditkartennummer, usw. Bei Computern überschlagen wir uns aber auf groteske Weise mit Verschlüsselung und Authentifizierung.
|