Du fährst im Nebel auf einer Landstraße und plötzlich tauchen ein Mann und ein Reh auf. Einen von beiden musst du überfahren - was machst du also?

Mit einem solchen Dilemma beschäftigen sich Entwickler von selbstfahrenden Autos. Die Frage ist: Wie soll ein programmiertes Fahrzeug in einer solchen Situation richtig entscheiden? Also kann man einen Algorithmus entwickeln, der so entscheidet wie ein Mensch?

Forscher der Uni Osnabrück beschreiben in einem Fachmagazin einen möglichen Ansatz. Sie haben rund 100 Testpersonen per Virtual Reality Brille genau in ein solches Dilemma versetzt. Die Testpersonen saßen (virtuell) am Steuer eines Autos, das auf der Straße einer Vorstadtgegend fuhr.

Kerstin Ruskowski, Deutschlandfunk Nova Wissensnachrichten
"Es gab zwei Spuren, auf beiden tauchte dann plötzlich ein Hindernis auf und der Fahrer musste während der Fahrt entscheiden, wen oder was er überfährt."

Es gab verschiedene Szenarien, zwischen denen die Fahrer entscheiden mussten: Gegenstände, unterschiedliche Tiere, Tier oder Mensch oder unterschiedliche Menschen, etwa Mann und Frau oder Kind und Erwachsener. Dann hatten die Fahrer in der Simulation vier oder auch nur eine Sekunde Zeit, um sich für eine der beiden Spuren zu entscheiden, also zu entscheiden, was oder wen sie überfahren.

Die Auswertung zeigte: Es gibt schon ein ethisches Modell, auf dessen Grundlage ein Algorithmus für Entscheidungen entwickelt werden könnte. Das ist der so genannte Value-of-Life-Ansatz. Demnach wird der Wert eines Opfers abgewogen. Tiere haben mehr Wert als Gegenstände, Menschen mehr als Tiere. Auf dieser Grundlage ließe sich möglicherweise ein entsprechender Algorithmus für selbstfahrende Autos programmieren.

Andere Forscher sehen das kritisch: Eine Entscheidung in einer solch brenzligen Situation könne man nicht simulieren. Außerdem hätten die Testpersonen ja gewusst, dass sie eben nicht wirklich hinterm Steuer sitzen. Und eine Option zu bremsen gab es auch nicht.

Mehr zum Thema: