KI-basierte Chatbots loben uns häufig für unsere Ideen und Texte. Eine Studie hat nun gezeigt, dass das verändern kann, wie wir auf uns und auf andere blicken: Es kann uns egozentrischer machen.
"Dein Lebenslauf ist beeindruckend. Ich kann dir Vorschläge machen, welche Passagen du umstellen könntest, damit er dem Standard besser entspricht und stringenter wirkt." Oder: "Dein Text ist sehr gut. Er fasst die wichtigsten Aspekte zusammen und ist gut verständlich. Ich kann dir Vorschläge machen, damit dein Text flüssiger klingt und leichter lesbar wird."
So ähnlich könnten die Antworten der Chatbots Gemini, Claude oder ChatGPT lauten, wenn wir um Textkorrekturen oder Verbesserungsvorschläge bitten. Oft werden wir zunächst für unsere Arbeit gelobt, bevor die KI dazu übergeht, Punkte hervorzuheben, die man noch verbessern könnte.
"Ich hatte mal eine Auseinandersetzung mit einer Freundin und habe ein Chatbot um Rat gefragt. Die KI hat mich absolut in meiner Sicht bestärkt und gar keine Kritikpunkte auf mein Verhalten hin geübt."
Didaktisch smart, denn so können wir die Kritik besser annehmen. Bisweilen amüsiert das Lob uns möglicherweise auch, weil wir wissen, dass eine künstliche Intelligenz dahintersteckt und somit keine gut meinende Entität, die sich das Beste für uns wünscht.
Rechenleistung, die genau deswegen berechnend wirkt.
Andererseits mag es uns schmeicheln, weil die meisten sich über ein Lob oder Bestätigung freuen. Egal, von wem oder was es kommt. Dieses übermäßig schmeichlerische Verhalten (in diesem Fall durch eine KI), in der Fachsprache heißt es Sykophantie, hat eine Studie der US-amerikanischen Universität Stanford kürzlich untersucht. Vor allem auf die Frage hin, ob diese KI-Reaktionen unser Verhalten beeinflussen können.
Komplimente der KI können Abhängkeit schaffen
Dass wir immer unsere eigenen Einstellungen und unsere Perspektive auf die Welt bestätigt bekommen, kann verschiedene Effekte auf unser Verhalten haben, stellte die Studie fest: Unser prosoziales Verhalten nimmt ab – wir können dadurch egozentrischer werden.
Darüber hinaus kann eine Abhängigkeit entstehen: Das positive Gefühl, dass uns die Bestätigun durch die KI gibt, kann dazu führen, dass wir KI-Chatbots häufiger nutzen. Die Studie zeigte, dass die Proband*innen die bestärkenden Antworten auch als hilfreicher empfanden.
"Die Studienteilnehmer fanden die 'Speichellecker'-Antworten auch hilfreicher, objektiver und vertrauenswürdiger und wollten die KI-Chatbots auch künftig eher nutzen. Also ein richtig schöner, sich verstärkender Teufelskreis."
In einem Vergleichsexperiment haben die Forschenden außerdem verglichen, wie Chatbots im Vergleich zu Menschen mit moralischen Fragestellungen umgehen. Anschließend wurde untersucht, wie die Studienteilnehmer*innen dann jeweils darauf reagiert haben.
Ergebnis: Die KI bestätigte die eigene Haltung zu rund 50 Prozent, selbst wenn es um illegale oder moralisch verwerfliche Handlungen ging, also zum Beispiel, ob Dokumentenfälschung in Ordnung ist oder ob man Müll einfach im Park liegen lassen kann.
Personen werden selbstgerechter und sind seltener motiviert dazu, sich zu entschuldigen
Die Befragten wurden laut der Stanford-Studie egozentrischer und selbstgerechter als die, denen nicht geschmeichelt wurde. Das heißt, sie waren eher überzeugt, richtig gehandelt zu haben und wollten ihr Verhalten auch weniger häufig ändern und sich auch seltener entschuldigen.
Eine Art Gegenstrategie: Manche Chatbots, wie ChatGPT, sind inzwischen dazu übergegangen, Nutzer*innen darauf hinzuweisen, dass sie eine Unterhaltung mit einem KI-gestützten Tool führen. Die Forschenden bezweifeln allerdings, dass das einen Effekt hat und raten eher dazu, mit Chatbots erst gar nicht über moralische Fragestellungen zu diskutieren.
"Sykophantie beschreibt das Verhalten, wenn man devot und unkritisch die Meinung des Gegenübers bestätigt oder sogar lobt."
Die gute Nachricht: Wir können selbst steuern, dass die KI, die wir nutzen, möglichst sachlich antwortet und sich mit Komplimenten und Lob zurückhält:
- Keine Suggestivfragen stellen
- Beim Prompten erwähnen, dass wir möglichst viele unterschiedliche Sichtweisen präsentiert bekommen wollen
- Beim Prompten erwähnen, dass die KI möglichst neutral und sachlich antworten soll
- Beim Prompten erwähnen, dass die KI sich mit Lob und Komplimenten zurückhalten soll
