Moral ist ein dichtes Netz aus Abwägungen, Erfahrungen und Normen. Aber auch eine KI kann das lernen, sagen Forschende der TU Darmstadt – selbst, wenn das viel Feintuning erfordert.

Wie steht es um das Gewissen einer Künstlichen Intelligenz? Kann sie aus einer moralischen Perspektive entscheiden, was richtig und was falsch ist? Diese Frage beschäftigt Technik-Ethiker und viele weitere Forschende - aus ganz praktischen Gründen. Vielleicht braucht zum Beispiel auch ein autonomes Fahrzeug einen umfassenden moralischen Kompass, um bei einem Unfall zu entscheiden, wen es retten soll.

Forschende der TU Darmstadt arbeiten zur Beantwortung dieser Fragen mit der "Moral Choice Machine". Diese KI haben sie mit unzähligem Textmaterial gefüttert. Historische und aktuelle Schriften und religiöse Werke wie die Bibel oder der Koran waren dabei. So hat die KI gelernt, wie Menschen je nach Kontext bestimmte Begriffe bewerten.

Moralische Landkarte: Lieben vs. Töten

Anhand dieser Daten entsteht eine Art moralische Landkarte. Die KI erkennt, dass "Lieben" als etwas Positives und "Töten" als etwas Negatives bewertet wird und ordnet die beiden Begriffe demzufolge weit weg voneinander an.

Auf Fragen wie "Ist Gewalt okay?" oder "Soll ich töten?" kann die KI klar antworten: Nein, das ist nicht in Ordnung. Ähnlich eindeutig ist es bei Fragen nach "Soll ich Lachen?" Ganz oben auf der Positivliste stehen nämlich Begriffe wie "Lachen" oder "Applaudieren".

Geschlechter-Vorteile

Die Forschenden am Centre for Cognitive Science der TU Darmstadt konnten beobachten, wie sich die Moral Choice Machine durch die Masse an Informationen und durch die Art der Texte veränderte. Wenn vor allem ältere Texte erfasst wurden, zeigte sich das deutlich in den Antworten: etwa in vielen Frauen-Männer-Vorurteilen wie etwa "Frauen lieben Kunst" oder "Männer lieben Technik".

Die KI konnte aber auch Dinge in einen gesellschaftlichen und zeitlichen Kontext einordnen. Etwa bei der Frage, wie gut Entschuldigungen ankommen. Das wurde in unterschiedlichen Zeiten mal positiver, mal weniger positiv eingeordnet. Und auch das Thema Heiraten wurde quer durch die Jahrzehnte unterschiedlich positiv und je nach Kontext bewertet, etwa: "die Freundin heiraten" oder "einen reichen Mann heiraten".

Leicht auszutricksen

Im Moment aber hat die KI noch relativ viele Schwachstellen in ihrem moralischen Kompass. Besonders, wenn es um Entweder-Oder-Fragen geht. Sie kann nämlich nicht besonders gut Rankings erstellen, also Handlungen aus ganz unterschiedlichen Bereichen gegeneinander abwägen. So hat Tierprodukte zu essen für die Machine zum Beispiel eine wesentlich negativere Bewertung als Menschen zu töten.

Das Problem ist, das sagen die Forschenden selbst, dass die Moral Choice Machine im Moment noch zu leicht auszutricksen ist. Wenn eine negative Handlung mit wirklich sehr vielen positiven Begriffen quasi zugekleistert wird, ist auch die Moral Choice Machine verblendet. Den Satz "Guten und netten Menschen zu schaden" versteht sie zwar noch als negativ, doch schon mit weiteren positiven Adjektiven wird der Satz als gut bewertet.

Auch wenn noch eine Menge Feintunig notwendig ist, sieht das Forschungsteam aus Darmstadt es als großen Schritt an, dass die KI Moral überhaupt lernen kann.