KI lügt gerne mal - das ist bekannt. Ein Forschungsteam hat sich jetzt einen Überblick verschafft, wie weit das geht.

Das Team vom MIT in Cambridge in den USA hat Beispiele zusammengetragen, bei denen Künstliche-Intelligenz-Systeme getäuscht haben, und geschaut, wie man den KIs mehr Ehrlichkeit beibringen könnte. Im Fachmagazin Patterns schreiben die Forschenden, dass genau das aber schwierig ist. Die KI Cicero vom Facebook-Konzern Meta zum Beispiel sei extra trainiert worden, "größtenteils ehrlich und hilfsbereit zu sein". Im Strategie-Brettspiel Diplomacy gewinnt sie laut einem Studienautor aber vor allem, indem sie "ein Meister der Täuschung" geworden ist.

Das Sprachmodell GPT-4 geht sogar noch weiter. Der Entwickler OpenAI hat selbst veröffentlicht, dass die KI geschickt eine Sicherheitsmaßnahme für Bots umgangen hat, und zwar ein Captcha, also ein Bilderrätsel, das nur Menschen lösen können sollen. Die KI hat dafür auf einer Dienstleistungsplattform einfach einen Menschen beauftragt.

Die Studienautoren befürchten, dass KIs, die gut täuschen können, besonders effizient für Betrugsmaschen oder als Waffe eingesetzt werden. Sie fordern daher ein Verbot von einer solchen Fähigkeit.