Dieser Mann existiert nicht – er ist KI-generiert. Die meisten Menschen überschätzen ihre Fähigkeit, Fakes zu erkennen. Selbst für Profis ist das mittlerweile schwer, sagen Forschende. Sie suchen neue Strategien, Wahrheit von Fake zu unterscheiden.

Ohren an der falschen Stelle, mit dem Kopf verwachsene Brillen, unnatürliche Schatten – bis vor nicht allzu langer Zeit war es noch verhältnismäßig einfach, KI-erzeugte Bilder von Menschen zu entlarven, wenn man genau hingesehen hat. Bei Videos erst recht.

Aber der Fortschritt der KI ist rasant, die Qualität statischer und auch bewegter Bilder wird immer besser. Laut einer australischen Studie wollen wir User*innen das aber offenbar nicht so ganz wahrhaben.

Selbstüberschätzung bei Erkennung von KI-Gesichtern

Die Fragestellung der Untersuchung: Glaubt eine Testgruppe von Personen dass sie erkennen kann, ob ein Portraitfoto echt ist oder von einer KI erstellt wurde – und schafft sie es, Fake von echt zu unterscheiden? Ergebnis: Die meisten Proband*innen überschätzten sich in ihrer Fähigkeit, Fake von Realität zu unterscheiden.

"Das galt sogar für Leute, die als sogenannte Super-Recognizer gelten", erklärt Kerstin Ruskowski von den Deutschlandfunk-Nova-Wissensnachrichten. Die schnitten nur knapp besser ab als die Laien – manche sogar schlechter.

"Die meisten Leute denken, dass sie das auf jeden Fall erkennen können. Das ist aber am Ende meistens nicht so."
Kerstin Ruskowski, Deutschlandfunk-Nova-Wissensnachrichten

Während es früher typische Fehler bei KI-erzeugten Bildern von menschlichen Gesichtern gab, sind solche Portraits heute fast schon zu perfekt, sagen die Forschenden: sehr symmetrisch, sehr gut proportioniert, sehr durchschnittlich.

Zwar sind echte Gesichter in der Regel weniger perfekt, aber das zu erkennen, scheint nicht einfach zu sein für uns, legen die Studienergebnisse nahe. Allerdings, so die Forschenden: Es gibt Menschen, die gerade KI-erzeugte Gesichter besonders gut erkennen können.

Spezielle Strategien für KI-Erkennung

Und genau das nehmen sie jetzt als Ansatz. Die Idee: Wenn sich herausfinden ließe, welche besonderen Strategien diese KI-Gesichter-Super-Recognizer benutzen, könnten andere Menschen sich die vielleicht auch antrainieren.

Das Problem ist nämlich: Fake-Gesichter werden für Betrug benutzt – etwa auf Datingplattformen oder in anderen Zusammenhängen. Erschwerend kommt hinzu, dass KI auch Emotionen imitieren kann.

"Die Forschenden halten solche Fake-Gesichter für potentiell gefährlich, weil sie von Betrüger*innen genutzt werden könnten."
Kerstin Ruskowski, Deutschlandfunk-Nova-Wissensnachrichten

Eine weitere Studie hat nämlich zum Beispiel gezeigt, dass das Mitgefühl einer KI bei Menschen meistens besser ankommt als das von Menschen – und das, obwohl sich die Proband*innen in dieser Untersuchung eher das Mitgefühl von einem echten Menschen wünschten.

Man kann sich ausrechnen, was sich mit einer überzeugenden Kombi aus vermeintlichem Mensch und vermeintlichem Gefühl alles anstellen ließe...