Autonomes FahrenWenn die Maschine entscheidet, wer sterben muss

Maschinen entscheiden über Leben und Tod. Eine spannende Situation für die Roboter-Ethik. Unser Reporter findet das Problem bei autonomen Autos etwas konstruiert, aber das Ergebnis einer großen Studie trotzdem interessant.

Wenn es um Sicherheit und selbstfahrende Autos geht, dann ist man schnell bei einem ethischen Dilemma: Wen soll das autonome Fahrzeug überfahren, wenn es sich nur zwischen dem Tod des einen oder des anderen Menschen entscheiden kann?

Zu dieser Frage haben Forscher jetzt einen großen Datensatz ausgewertet. Sie wollten die Frage erst mal von Menschen beantwortet wissen. Unser Netzreporter Konstantin Köhler kennt die Details.

2,3 Millionen Befragte

Die Studie basiert auf einer Online-Umfrage des Massachusetts Institute of Technology. Die Ergebnisse hat die Zeitschrift Nature veröffentlicht. Darin sind genau solche Dilemmata aufgelistet. Zum Beispiel die Entscheidung: Die Autoinsassen sterben oder ein Fußgänger auf der Straße – insgesamt 13 verschiedene Situationen. Rund 2,3 Millionen Teilnehmer haben angeben, welche Entscheidung sie persönlich treffen würden. Repräsentativ ist die Untersuchung auch deswegen nicht, weil überdurchschnittlich viele junge Männer mitgemacht haben.

Konstantin findet die Diskussion um ethische Probleme beim autonomen Fahren ziemlich konstruiert. Vielleicht brauchen wir uns diese Frage überhaupt nicht zu stellen, weil schon zwei sehr unwahrscheinliche Faktoren eintreffen müssen:

  • Unausweichbarkeit – mehrere Menschen zugleich in Gefahr
  • Technische Probleme – etwa bei den Bremsen

Und auf noch einem Punkt macht unser Netzautor aufmerksam:  Autonome Fahrzeuge würden so konstruiert, dass Sicherheit absolute Priorität hat. In einer kritischen Situation würden also erst einmal alle verfügbaren Kriterien auf die Möglichkeit hin geprüft, die Situation sicherer zu machen. Also zum Beispiel andere Verkehrsteilnehmer, Wetter, Fahrbahnbeschaffenheit, technischer Zustand des Fahrzeugs, Ausweichflächen oder ähnliches. Erst, wenn das alles geprüft sei und dabei herauskomme, dass tatsächlich nur noch die beiden Möglichkeiten "Kind" oder "Oma" übrig blieben, müsste tatsächlich diese viel diskutierte Entscheidung getroffen werden. 

Nur in diesem äußerst unwahrscheinlichen Fall gelte: Sobald sich eine kleine Abweichung ergebe, also zum Beispiel eine 80-prozentige Wahrscheinlichkeit einer Kollision mit Oma vs. einer 60-prozentigen mit dem Kind, würde sich das Auto für das Kind entscheiden. Und das nicht, weil eine ethische Entscheidung getroffen würde, dass lieber das Kind als die Oma sterben soll. Sondern ganz einfach, weil Sicherheit Priorität habe und das Auto immer so "handele", dass die größtmögliche Sicherheit erreicht werde.

Bei all dem müsste das System auch noch schnell eine Geschlechts- und Altersidentifikation durchführen. Das Dilemma Kind oder Oma hält Konstantin also für beinahe ausgeschlossen.

Interessant sind die Ergebnisse der Studie dennoch. Auch, weil sie sich nach Kontinent und kultureller Prägung unterscheiden.

"In vielen asiatischen Ländern wurden eher die Älteren verschont, weniger die Jungen. Das ist in Europa eher umgekehrt."
Konstantin Köhler, Deutschlandfunk-Nova-Netzreporter

Die Untersuchung zeigt, dass Teilnehmer aus Asien tendenziell eher ältere Menschen verschonen, bei Europäern sind es eher junge Menschen. Die folgende Grafik von Nature gibt einen guten Überblick.

Dieser Embed kann leider nur direkt auf der Webseite von Deutschlandfunk Nova angezeigt werden.

Generell entscheiden sich die meisten aber dafür, möglichst viele Menschenleben zu retten – der utilitaristische Ansatz. Insgesamt werden Fußgänger, die sich an die Verkehrsregeln halten, eher verschont, als die, die bei Rot über die Ampel gehen.

Mehr zu Robo-Ethik bei Deutschlandfunk Nova: