Die Stadtoberhäupter von Wien, Madrid und Budapest sind auf eine gefälschte Version des Kiewer Bürgermeisters Vitali Klitschko reingefallen. Es könnte sich um einen Deepfake gehandelt haben. Die Technologie wird immer besser und zugänglicher.

Franziska Giffey, ihr Wiener Kollege Michael Ludwig und die Bürgermeister von Madrid und Budapest haben per Videotelefonat mit einer offenkundig täuschend echt gemachten Animation, einem sogenannten Deepfake, von Klitschko gesprochen.

Erst beim Inhalt des Gesprächs wurden manche stutzig, nicht jedoch wegen des Aussehens des Mannes, der ihnen da vom Bildschirm entgegenblickte. Anders als etwa Franziska Giffey, die das Gespräch vorzeitig abbrach, zog der Wiener Bürgermeister Michael Ludwig den gesamten Termin durch – und brüstete sich danach, welch wertvolles Gespräch man da geführt habe.

"Wir können heute mit relativ einfach Mitteln sehr realistische Echtzeit-Simulationen von Menschen erstellen."
Martina Schulte, Deutschlandfunk-Nova-Netzreporterin

Inzwischen können mit relativ einfachen Mitteln sehr realistische Echtzeit-Simulationen von Menschen erstellen, sagt Deutschlandfunk-Nova-Netzreporterin Martina Schulte. Deepfake-Apps für Normalverbraucher*innen seien zwar noch nicht auf dem Markt, doch mit der passenden Software und entsprechend leistungsfähigen Rechnern sei das kein großes Problem mehr.

Blauäugiges Verhalten der Behörden

Gleichzeitig hätten sich sowohl die Berliner Senatskanzlei als auch die entsprechenden Stellen in Wien, Madrid und Budapest ziemlich blauäugig verhalten. Die Termine zu den Deepfake-Calls sind nämlich – zumindest im Fall des Wiener Bürgermeisters Michael Ludwig – offenbar von der Mailadresse "mayor.kyiv@ukr.net" vereinbart worden. Doch "ukr.net" ist ein kommerzieller Mailhoster, den jede und jeder verwenden kann. Die offiziellen E-Mail-Adressen enden in der Ukraine eigentlich mit "gov.ua", so wie es in den meisten Staaten üblich ist.

"Die Täter*innen könnten die Lippenbewegungen eines echten Klitschko-Videos genommen haben und sie in Echtzeit mit den Aussagen eines Schauspielers zusammengeführt haben."
Martina Schulte, Deutschlandfunk-Nova-Netzreporterin

Die Berliner Senatskanzlei glaubt, dass es ein Deepfake war. Die Täterinnen oder Täter könnten die Lippenbewegungen eines echten Klitschko-Videos genommen haben und diese in Echtzeit mit den Aussagen eines Schauspielers zusammengeführt haben, der tatsächlich mit Giffey und ihren Bürgermeister-Kollegen gesprochen hat.

Journalist: Interview aus alten Video-Schnipseln zusammengebaut

Dafür wurde in diesem Fall mit hoher Wahrscheinlichkeit Videomaterial eines echten Klitschko-Interviews mit dem ukrainischen Journalisten Dmytro Hordon verwendet, wie der ARD-Journalist Daniel Laufer recherchiert hat. Laufer ist allerdings der Auffassung, dass die Technologie, die dazu genutzt wurde, möglicherweise nicht auf dem Deepfake-Verfahren beruht. Er glaubt, dass jemand ohne die Hilfe einer Künstlichen Intelligenz (KI) einzelne Videoschnipsel aus dem Original-Klitschko-Video vorgeschnitten und in Echtzeit neu zusammengesetzt haben könnte.

Klickt auf Play für das ganze Gespräch mit Redakteur Daniel Laufer vom ARD Investigativ-Magazin "Kontraste"
"Auch der Ton muss nachträglich eingefügt beziehungsweise in Echtzeit eingesprochen worden sein. Eine richtige Erklärung für das, was da passiert ist, gibt es bisher noch nicht."

Einfach gemachte Deepfakes lassen sich erkennen, erklärt Martina Schulte. Die Personen haben etwa einen leereren Blick, die Übergänge zwischen Gesicht und Haaren sind unscharf oder die Person blinzelt nicht.

"Je besser die Technologie wird, desto schwieriger ist es, ein Deepfake zu erkennen."
Martina Schulte, Deutschlandfunk-Nova-Netzreporterin

Es gibt sogar schon Tools wie den Deepware-Scanner, die helfen sollen, Deepfakes zu erkennen. Das Problem ist aber: Je besser die Technologie wird, desto schwieriger ist es, ein Deepfake zu erkennen. Deutsche Sicherheitsbehörden warnen schon länger, dass Deepfakes künftig häufiger von Kriminellen und von ausländischen Geheimdiensten eingesetzt werden könnten, etwa bei Betrugs- und Wirtschaftsspionage-Fällen oder auch als Kriegspropaganda.

Deepfakes häufen sich

  • Das erste Politiker-Deepfake gab es 2017 von Barack Obama. Dem wurden damals heikle Aussagen zu Themen wie Terrorismus oder Massenarbeitslosigkeit virtuell in den Mund gelegt.
  • 2019 wurde der Geschäftsführer eines britischen Energieunternehmens mit Hilfe eines Audio-Deepfakes dazu gebracht, 225.000 Euro auf das Konto von Betrüger*innen zu überweisen.
  • Zu Beginn des Ukraine-Kriegs wurde ein schlecht gemachtes Selenskyj-Deepfake in Umlauf gebracht, in dem der ukrainische Präsident vermeintlich zur Kapitulation der Ukraine aufrief.
  • Deepfakes werden aber auch von Ermittler*innen benutzt: Im Frühjahr 2022 hat die niederländische Polizei einen Teenager fast 20 Jahre nach dessen gewaltsamem Tod in einem Video digital zum Leben erweckt – und daraufhin Dutzende Hinweise erhalten.

Wer hinter den vermeintlichen Klitschko-Deepfakes steckt, weiß man noch nicht. Laut Informationen der Deutschen Presseagentur lege der Gesprächsverlauf die Vermutung nahe, dass pro-russische Kräfte dahinter stecken. Es könnte aber auch eine absichtlich gelegte falsche Spur sein.

"Pro-russische Kräfte könnten dahinterstecken. Allerdings könnte das auch eine absichtlich gelegte falsche Spur sein."
Martina Schulte, Deutschlandfunk-Nova-Netzreporterin