Ich bin bei Themen wie AI auch eher ängstlich/skeptisch und habe wie sicherlich viele andere Skynet im Hinterkopf.
Ich glaube auch nicht, dass wir Menschen es schaffen täten, die 3 Robotikgesetze von Asimov dauerhaft einzuhalten. Irgendeinen "Wahnsinnigen" oder unter Zwang handelnden gäbe es früher oder später, der diese entfernt. Ich sehe sogar eher, dass jetzt schon in der Entwicklung daran "gespart" wird, oder gar nicht möglich, sie zu kontrollieren. Hintertüren diese zu umgehen sind sicher leicht zu schaffen.
Andererseits: Hier bei z.B. Evotec wo es nur um Menschen unterstützende Forschung geht, wo die AI ein begrenzetes Feld bekommt aktiv zu sein, und all das aussenherum gar nicht kennt und kennen kann, sehe ich keine "Gefahr".
Gefahren sehe ich auch weniger allein bei autonomen Kampfrobotern, da diese jeder für sich sicher keine Weltherrschafft anstrebt oder durxhsetzen könnte.
Wohl eher sehe ich Gefahren bei Big Data und derjenigen KI, die uns Menschen analysieren und Auswege aus Kriegen, Umweltverschmutzung und "Überbevölkerung" etc. aufzeigen soll. Weil diese auf dermassen viele Daten über uns Menschen und die Umwelt draussen herum zugreifen kann, und man sagte ja schon vor Jahren:
Irgendwann werden wir Menschen die Ergebnisse der KI immer langsamer nachvollziehen können, dann braucht man Jahre und viele Köpfe um ein Ergebnis zu validieren. Noch später können wir es wahrscheinlich gar nicht mehr validieren, und haben nur noch die Wahl, uns darauf zu verlassen oder zu canceln.
Dann kommen wir an den sogenannten Ereignishorizont, hinter den wir nicht mehr sehen können.
Wir sicher nicht während meines Lebens die Gefahr entwickeln wie man sie bei "Skynet" erwartet, aber die Menschen die Ergebnisse wollen können sich halt nicht mehr sicher sein, dass diese langfristig wirklich in ihrem Sinne sind. |