KI-Chatbots sind immer so verständnisvoll, wenn wir ihnen ein persönliches Problem beschreiben.

Das fühlt sich gut an, bringt aber Risiken: Denn laut einer Science-Studie bestätigen die KIs uns auch dann, wenn wir uns selbst eigentlich falsch verhalten. Die Chatbots sind einfach zu sehr darauf angelegt, uns zu gefallen - sie sind richtige People-Pleaser.

Das Studienteam hat insgesamt elf Sprachmodelle getestet. Die waren alle zu nett zum User: Im Schnitt bestärkten die KIs Menschen in ihrem Verhalten zu 50 Prozent mehr als andere Menschen - auch wenn es um richtiges Arschlochverhalten ging.

Diese Dauerbestätigung durch die KI kann viele negative Folgen haben, warnen die Forschenden: Menschen könnten z.B. auf Dauer verlernen, sich bei anderen für Fehler zu entschuldigen. Und es gibt auch genug traurige Fälle, in denen KI Menschen in selbstzerstörerischem Verhalten bestärkt hat.