Zeit darf man totschlagen, Menschen aber nicht - diese moralische Unterscheidung hat man Künstlichen Intelligenzen bisher nicht zugetraut.

Einem internationalen Wissenschaftsteam ist es aber nun offenbar gelungen, dass die KI es doch versteht: Das Team hat ihr mit Büchern, Zeitungsartikeln und religiösen Texten quasi einen moralischen Kompass antrainiert. Dafür wurden der KI die Beziehungen und Assoziationen zwischen bestimmten Wörtern, Ausdrücken und Sätzen beigebracht - also quasi wie weit sie auf einer moralischen Landkarte entfernt sind. Die Begriffe Töten" und Morden" liegen nah beieinander, Liebe" liegt dagegen weit weg.

Das KI-System konnte danach auch Unterschiede bei der moralischen Bedeutung von Begriffen in verschiedenen Kontexten erkennen – eben dass man Zeit, aber keine Menschen totschlagen darf.

Bei dem Experiment kamen übrigens Texte aus verschiedenen Kulturen und Zeiten zum Einsatz. So kann laut den Forschenden die KI dabei helfen, Unterschiede in Wertesystemen und deren historische Entwicklung aufzuzeigen.