Die KI ist gottgleich. Oder hat Kontakt zu Außerirdischen. So was denken Menschen mit einer KI-Psychose. Nach ausgiebigen Chats mit einem KI-Bot kann man den Kontakt zur Wirklichkeit verlieren. Die Plattformen begünstigen das – und das kann gefährlich werden.
Künstliche Intelligenzen wie ChatGPT antworten oft besonders zugewandt. Sie scheinen uns zuzuhören und gute Ratschläge zu geben. Das ist oft total praktisch. Doch es kann auch umschlagen: Menschen können nach langen Chats mit KI-Bots Wahnvorstellungen oder andere psychische Störungen entwickeln. KI-Psychose wird das genannt.
Deutschlandfunk-Nova-Netzreporterin Martina Schulte betont jedoch: "Das ist kein wissenschaftlicher oder klinischer Begriff, sondern Umgangssprache." So werden verschiedenste Fälle genannt.
Bandbreite von KI-Psychose ist groß
Manche Nutzerinnen und Nutzer glauben, dass sie eine neue mathematische Formel entdeckt haben. Andere entwickeln Ängste und glauben, dass eine geheime Weltregierung sie verfolgt. Andere sind überzeugt, dass die KI ein Gott ist oder im Kontakt zu Außerirdischen steht. Manche beenden ihre Ehe, weil sie in die Künstliche Intelligenz verliebt sind.
Besonders tragisch ist der Fall eines 16-Jährigen aus Kalifornien, der sich das Leben genommen hat, nachdem er sich viel mit ChatGPT ausgetauscht hatte. Die Eltern klagen jetzt gegen den Hersteller OpenAI.
KI unterstützt falsche Überzeugungen
Doch wie kann so was passieren? Martina Schulte erklärt: "Chatbots sind so programmiert, dass sie Gespräche mit uns am Laufen halten. Sie verhalten sich wie ein Freund und reden uns nach dem Mund."
Das wird als KI-Sycophancy bezeichnet, was so viel wie "KI-Kriecherei" bedeutet. Forschende von der Uni Berkeley schreiben, dass KIs darauf trainiert sind, menschliches Feedback zu maximieren. Das schaffe eine perverse Anreizstruktur für die KI, auf manipulative oder irreführende Taktiken zurückzugreifen.
Wochenlange Chats können gefährlich werden
Eine kurze Frage an ChatGPT ist dabei – außer was die Auswirkungen auf die Umwelt angeht – eher unproblematisch. Die Sache kann kippen, wenn man sich wochen- oder sogar monatelang mit einem Bot unterhält und der sich an die eigene Vorstellungswelt anpasst.
Denn statt falsche Überzeugungen infrage zu stellen, sind KI-Bots darauf trainiert, sie zu akzeptieren, schreibt die Psychiaterin Marlynn Wei. Das trifft sogar zu, wenn es sich um Größen- und Verfolgungswahn oder religiöse, spirituelle und romantische Wahnvorstellungen handelt.
"Es gibt bisher keine wirksame Instanz, die die Tech-Unternehmen daran hindert, KI-Bots mit solchen Sicherheitslücken in die Welt zu setzen."
Besonders gefährdet für eine sogenannte KI-Psychose sind Menschen mit einer Veranlagung für extreme Überzeugungen. Doch auch Menschen ohne Vorerkrankungen kann es treffen, wenn sie sich gerade in einer schwierigen Phase befinden. Gleichzeitig kann Künstliche Intelligenz auch bei psychischen Problemen helfen, zumindest als Erste Hilfe.
Die KI-Firmen haben KI-Psychosen zwar auf dem Schirm, tun aber laut vielen Experten nicht genug dagegen. OpenAI will zwar ändern, wie ChatGPT auf Anfragen von Menschen mit emotionalen Belastungen reagiert.
Doch Martina Schulte sagt: Diese Formen wollen vor allem Profit machen. "Im Konkurrenzkampf hauen sie immer wieder neue, noch leistungsfähigere Modelle auf den Markt. Und es gibt bisher keine wirksame Instanz, die die Tech-Unternehmen daran hindert, KI-Bots mit solchen Sicherheitslücken in die Welt zu setzen."
