Der psychologische Prozess, in dem unsere Überzeugungen entstehen, könnte im Zusammenhang mit Künstlicher Intelligenz wie ChatGPT zum Problem werden.

Darauf weist ein internationales Forschungsteam hin. Es sagt: Wenn es in KI-generierten Inhalten Falschinformationen oder Vorurteile gibt, dann setzen die sich hartnäckig in unserem Denken fest - selbst dann, wenn die Betreiber der Systeme die Fehlinformationen und Vorurteile später rausfiltern. Das liegt laut den Forschenden vor allem an drei psychologischen Mechanismen:

Drei psychologische Mechanismen helfen der KI

Erstens übernehmen wir Überzeugungen eher aus Quellen, die wir für kompetent halten - und das passiert unbewusst oft bei KI-Systemen, denn anders als Menschen beim Sprechen zeigen sie keine Zeichen von Unsicherheit oder Inkompetenz - wie zum Beispiel den Einschub "ich glaube".

Zweitens prägt sich eine Ansicht um so stärker ein, je häufiger wir damit in Kontakt kommen: Und die Menge der KI-generierten Texte und Bilder wird in Zukunft sicher immer größer.

Und drittens bekommt man eine Überzeugung nur sehr schwer wieder aus dem menschlichen Gehirn raus, wenn sie sich einmal festgesetzt hat. Die Forschenden empfehlen mehr Aufklärung und dass man diese Mechanismen mehr berücksichtigt, wenn KI erforscht oder reguliert werden soll.