Folgendes Experiment: Würden wir einen Menschen opfern, um viele zu retten? Dieses Gedankenspiel gibt es seit den 1970er Jahren. In Zeiten von Künstlicher Intelligenz und autonomen Fahren ist es wieder sehr aktuell, jetzt auch in einer neuen Studie.

Ein Gedankenexperiment: Wir fahren mit einer Straßenbahn ungebremst auf eine Gruppe von fünf Arbeitern zu, die auf den Gleisen stehen. Wir können diese fünf retten, wenn wir die Bahn auf ein Nebengleis umleiten. Auf dem arbeitet nur ein Mensch. Was würden wir tun?

Moralisches Dilemma

Diese theoretische Frage hat das Max-Planck-Institut für Bildungsforschung in Berlin für eine Studie 70.000 Menschen gestellt. Ähnliche Experimente finden sich auch im Netz. Die meisten haben sich dafür entschieden, einen Menschen zu opfern und die Bahn umzuleiten. Damit sind die fünf Arbeiter gerettet. Aber auch wenn die Mehrheit sich fürs Weichenstellen entschieden hat, waren die Ergebnisse doch sehr unterschiedlich.

Die Teilnehmenden kamen aus 42 Ländern. Menschen aus westlichen Industrienationen haben ganz anders auf das moralische Dilemma reagiert, als Menschen in ostasiatischen Ländern.

  • Deutschland: 82 Prozent opfern einen Menschen
  • Südkorea und Taiwan: 70 Prozent opfern einen Menschen
  • China: 58 Prozent opfern einen Menschen

Bei zwei weiteren Szenarien waren die Unterschiede sogar noch größer. In dem einen Szenario sind immer noch die fünf Leute auf dem Hauptgleis und eine Person auf dem Nebengleis. In diesem sogenannten Loop-Szenario führt das Nebengleis aber wieder auf das Hauptgleis zurück – und zwar genau auf die Stelle, wo die Bauarbeiter stehen. Wenn wir die Weiche stellen, stirbt zwar der eine Mensch auf dem Nebengleis, aber sein Körper verhindert auch, dass die Bahn weiter rollt und die Gruppe tötet.

In diesem Szenario opfern wir den Menschen nicht nur, sondern benutzen ihn auch als Bremsklotz.

Zweites Szenario: Mensch wird geopfert und instrumentalisiert

Im dritten Szenario geht es noch einen Schritt weiter: Eine Brücke führt über die Gleise. Die fünf Arbeiter können nur gerettet werden, wenn wir einen Menschen von der Brücke auf die Gleise stoßen, damit der Körper den Zug blockiert. Der Tod ist also kein Nebeneffekt, sondern unser Werkzeug.

  • Deutschland: Jeder Zweite ist bereit, Menschen zu opfern
  • China: Jeder Dritte würde Mensch opfern

Die unterschiedlichen Antworten deutet die Forschenden so: In Ländern, in denen die Menschen Schwierigkeiten haben, neue Beziehungen zu knüpfen, sei die Bereitschaft höher, einen Menschen zu opfern, um fünf zu retten. Sie vermuten, dass die Menschen in diesen Ländern davor zurückschrecken, kontroverse oder unpopuläre Entscheidungen zu treffen, wenn sie Angst haben, ihre aktuellen Beziehungen zu verlieren.

Bereitschaft zu neuen Beziehungen beeinflusst Entscheidungen

Die Forschenden sagen aber auch, dass es noch zu früh sei, um einen klaren kausalen Zusammenhang zu finden, zwischen den moralischen Entscheidungen der Menschen und der Leichtigkeit, mit der sie neue Beziehungen eingehen können.

Solche Befragungen sind auch für die Programmierung von Künstlichen Intelligenzen interessant. Denn wenn die programmiert werden, sind sie von den Entscheidungen und Gedanken der Menschen abhängig, die daran arbeiten. Und diese Experimente zeigen: Universelle Grundsätze, an denen man sich orientieren kann, gibt es nicht.

Wie entscheidet eine Künstliche Intelligenz

Das Forschungsteam geht deshalb davon aus, dass die Menschen je nach Kulturkreis autonome Fahrzeuge in solchen Situationen unterschiedlich programmieren und trainieren würden. Das haben auch schon andere Studien gezeigt: Die meisten sind eher bereit, ältere Menschen zu opfern, um Kinder zu retten. In asiatischen Ländern hingegen würden die jüngeren Menschen nicht verschont bleiben.