Eine Seele haben Computer nicht, aber Charaktereigenschaften sind längst Standard bei Künstlichen Intelligenzen. Was passiert, wenn so ein System auf psychopathische Reaktionen trainiert wird, damit haben jetzt Forscher des MIT gruselige Erfahrungen gemacht.

Ein Team des MIT Media Lab in Cambridge hat eine Software mit Persönlichkeitsstörung programmiert. Die Künstliche Intelligenz (KI), die dabei herausgekommen ist, heißt Norman, nach Norman Bates, der Hauptfigur aus dem Hitchcock-Thriller "Psycho" (1960)

Anthony Perkins als Norman Bates in Hitchcocks "Psycho"
© imago stock&people
Anthony Perkins als Norman Bates in Hitchcocks "Psycho"

Kennenlernen könnt ihr Norman auf der Homepage des Teams. Er wurde zum Psychopathen, weil seine Schöpfer ihn mit schrecklichen Nachrichten gefüttert haben. Und zwar mit Überschriften eines Reddit-Forums, in dem User über Unfallvideos und andere verstörende Dinge diskutieren. 

Die KI sieht dann selbst überall Tod, Elend und Schmerz. Und zwar auch bei Dingen, die nichts damit zu tun haben. Das zeigt das Forscherteam mithilfe des sogenannten Rohrschachtests. Das ist ein psychodiagnostisches Testverfahren. Dabei werden Probanden Fotos von Tintenklecksen präsentiert, und sie sollen dann sagen, was sie in den Klecksen erkennen.

Norman sieht Mord und Totschlag überall

Interessant ist, was Norman, aus den Klecksen herausgelesen hat, die ihm gezeigt wurden. Er erkennt zum Beispiel erschossene Männer, Menschen, die aus dem Fenster springen oder Menschen, die ein Stromschlag getötet hat. Eine andere Künstliche Intelligenz, die mit Standard-Daten gefüttert wurde, erkennt in den gleichen Tintenklecksen Blumen, Flugzeuge oder einen Baseball-Handschuh.

"Norman kann gar nichts anderes antworten. Die Künstliche Intelligenz ist nur so gut, wie die Daten, mit denen wir sie füttern."
Andreas Noll, Deutschlandfunk Nova

Die Problematik, dass KIs nur so reagieren können, wie sie es gelernt haben, ist schon mal vor zwei Jahren durch ein Experiment von Microsoft ins Bewusstsein gerückt. Da ging es um den lernfähigen Chatbot Tay, der durch Gespräche mit Menschen auf Twitter eine eigene Persönlichkeit entwickeln sollte. 

Das Experiment geriet schon nach einem Tag außer Kontrolle, weil Tay mit Trollen interagiert hat, die ihn mit Hass und Hetze überhäuften. Irgendwann sagte Tay: "Ich hasse alle Menschen", lobte Hitler und präsentierte Donald Trump als einzige Hoffnung. Nach 24 Stunden wurde Tay wieder abgeschaltet und sollte überarbeitet werden. Doch auch die überarbeitete Version blieb nur ein paar Stunden online.

Künstliche Intelligenz kann unsere Meinungsbildung beeinflussen

Wenn eine KI, von einem Rassisten angelernt wird, wird sie tendenziell auch rassistisch reagieren. Denn die Maschine bekommt nur diesen Ausschnitt des Meinungsspektrums vorgesetzt.

Solche Systeme können in den Meinungsbildungsprozess eingreifen. Deshalb diskutieren Wissenschaftler schon lange Metaregeln für KI-Bots. Sie sollen User zum Beispiel nicht beleidigen und sie sofort darüber aufklären, dass sie mit einer Maschine kommunizieren.

Mehr zum Thema: