Durch künstliche Intelligenzen wird das Fälschen von Bildern mit politischem Kontext immer einfacher: Der Papst im weißen Puffer-Jacket, Trumps Festnahme oder Putins Kniefall vor Xi. Fehler in den Bildern erkennen Nutzer nur bei genauem Hinsehen.
Ein vermeintlich echtes Foto des Papstes, auf dem er eine weiße Puffer-Jacke trägt, macht im Netz die Runde. Dass das Foto nicht echt ist, ist auf den ersten Blick kaum zu erkennen. Erstellt hat es vermutlich eine Künstliche Intelligenz (KI), sagt Deutschlandfunk-Nova-Netzreporterin Martina Schulte. Eine offizielle Bestätigung dafür fehlt allerdings noch.
"Das Foto des Papstes im weißen Puffer-Jacket stammt aus einem Reddit-Forum. Nutzer*innen teilen dort Bilder der KI Midjourney."
Das KI-Bild des Papstes hat für Verwirrung im Netz gesorgt. Das US-amerikanische Model Chrissy Teigen, schreibt bei Twitter, sie hätte kurz gedacht, der Papst sei unter die Styler gegangen.
Fast fotorealistische Bilder, aber nicht perfekt
Mit der Text-Bild-KI Midjourney können wir fotorealistische KI-Bilder erzeugen, bei denen wir nur, wenn wir genau hinschauen, erkennen, dass die gefälscht sind. Userinnen und User können Midjourney, die womöglich auch für das Papstbild benutzt wurde, bereits seit einem Dreivierteljahr kostenlos im Netz nutzen. Das KI-Bild vom Papst hat innerhalb kurzer Zeit fast 30 Millionen Views erreicht. Es sehe schon ziemlich echt aus, meint Martina.
Auch ein KI-erzeugtes Bild von Wladimir Putin, das ihn beim Kniefall vor dem chinesischen Staatsoberhaupt Xi Jinping zeigt, halten viele für echt. Der Spiegel berichtet, dass Nutzer ein Bild von Donald Trump für echt halten, auf dem der Ex-Präsident in New York von mehreren Polizisten niedergerungen und festgenommen wird.
Schwächen der KI-Darstellung
Die Beispiele zeigen, dass KI-erzeugte Bilder immer authentischer werden, doch unsere Netzreporterin sagt, dass "die Programme noch nicht zu 100 Prozent perfekt arbeiten." Probleme haben die Algorithmen beispielsweise beim Darstellen von Händen und Ohren. Auch der Perspektivwechsel gelingt den Programmen nicht. Bei genauem Hinschauen können wir die ein oder andere Unschärfe feststellen – zum Beispiel am Brillenglas oder am Ohr.
"Beim angeblichen Putin-Kniefall ist der hintere Schuh Putins unverhältnismäßig groß und breit. Seine Wade wirkt zu lang. Auch der halb verdeckte Kopf der Person ist zu groß und passt nicht zum restlichen Körper der Person."
Gefährlich werden die Fälschungen immer dann, wenn wir nicht genau hinschauen. So verschwimmen die Grenzen zwischen Fiktion und Realität. Vorsicht ist geboten, wenn Fälschungen versuchen, politische Meinungen zu steuern. Der stellvertretende AfD-Fraktionsvorsitzende Norbert Kleinwächter versucht auf seinem Instagram-Account, mit KI-generierten Fotos Stimmung gegen Geflüchtete zu machen.
Besser zweimal hinschauen
Das Foto, das Norbert Kleinwächter teilt, stammt mit hoher Wahrscheinlichkeit von einer KI, "denn die Person ganz links unten im Bild zeichnet sich durch eine biologische Sensation aus. Sie hat an einer Hand sechs Finger", sagt Deutschlandfunk-Nova-Netzreporterin Martina Schulte. Doch das fällt vielen Menschen, die nur oberflächlich auf das Bild klicken, wahrscheinlich gar nicht auf. Dem hält der AfD-Politiker entgegen: "Die von uns genutzten Motive sind optisch klar als künstlerische Illustrationen erkennbar. Eine Kennzeichnung erübrigt sich somit."
Wer sich nicht sicher ist, ob ein Bild echt ist, kann beispielsweise ein Verfizierungstool der Webseite Hugging Face verwenden. Dort können Bilder hochgeladen und deren Echtheit überprüft werden. Martina: "Das Flüchtlings-Bild des AfD-Politikers kommt da auf eine 90-prozentige Fake-Wahrscheinlichkeit, Putins Kniefall immerhin auf 56 Prozent und der Puffer-Pope wird mit einer Wahrscheinlichkeit von 54 Prozent als Fake eingestuft."
Das zeigt, dass KI schon sehr fortgeschritten arbeiten, aber keine perfekten Fake-Fotos erzeugen können. Im Zweifel sollten wir also immer zweimal hinschauen.