Interessanter Artikel in der aktuellen Printausgabe von DER SPIEGEL Nr. 4/2016
Auszug:
Bei selbstfahrenden Autos entscheidet der Rechner über Leben und Tod. Darf er notfalls auch Insassen opfern? Über die Abgründe einer neuen Maschinenethik.
Eines Tages wird es geschehen, so oder ähnlich: Ein selbstfahrendes Auto saust übers Land, der Computer lenkt. Der Fahrer hat es gemütlich, er liest Zeitung. Da hüpfen drei Kinder auf die Straße, links und rechts stehen Bäume.
In diesem Augenblick muss der Computer entscheiden. Wird er das Richtige tun? Drei Menschenleben hängen davon ab.
Nein, vier.
Der Computer könnte ja auch zu dem Schluß kommen, es sei unter diesen Umständen am besten, den Fahrer zu opfern. Dann setzt er den Wagen an den Baum.
Und warum auch nicht? Sollen lieber drei Kinder sterben?
All das muss in der Software festgelegt sein.
Soll man den Autos erlauben, mit der Rücksichtslosigkeit einer Kampfmaschine stets das Überleben der Insassen zu retten? Auch wenn dafür drei Kinder umkommen?
Die Alternative ist auch nicht verlockend: ein Wagen, der den Fahrer killt, sobald es ihm angemessen dünkt. Wer würde so ein Gefährt kaufen?
|