Deepfakes, also gefälschte Videos mit gefälschten Aussagen zum Beispiel von Politikern und Politikerinnen, werden immer besser. Inzwischen reicht bereits ein einzelnes Foto, um realitätsnahe Animationen zu erzeugen.

Das Technikmagazin Wired hat Ende Mai einen Artikel zum aktuellen Stand der Technik in Sachen Deepfakes veröffentlicht. Ein Team von Forschenden des KI-Labors von Samsung in Moskau hat ein verbessertes Deepfake-Verfahren vorgestellt. Während man für die Fake-App, mit der zum Beispiel die Köpfe von Prominenten in Pornovideos gemorphed wurden, noch eine Vielzahl von Fotos brauchte, genügt bei dem neuen Verfahren ein einziges Foto für eine realitätsnahe Animation. Die Forschenden haben das zum Beispiel am Bild der Mona Lisa und einigen anderen bekannten Gemälden demonstriert.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Dazu haben die Forscherinnen und Forscher des KI-Labors einen Algorithmus mit einer riesigen Anzahl von Fotos trainiert, um eine Art universelles Modell zu erstellen, das erkennt, wie Gesichtskonturen funktionieren. Also wie sich aus Fotos Mimik und Kopfbewegungen rausdestillieren lassen. Dieses Modell lässt sich dann wiederum auf ein beliebiges Foto oder Gemälde übertragen.

"Die Ergebnisse sehen ausgesprochen gut aus, und mit diesem Algorithmus lassen sich nun auch Deepfakes von Leuten herstellen, von denen es kein umfangreiches Bildmaterial im Netz gibt."
Michael Gessat, Netzreporter bei Deutschlandfunk Nova

Weil bei diesem Deepfake-Verfahren nur ein einziges Foto benötigt wird, können so auch Deepfake-Videos von Menschen erstellt werden, von denen es eben nicht zahlloses Material im Netz gibt. Diese Methode ist allerdings aktuell nichts für den Hausgebrauch. Denn es ist eine ziemlich große Rechenleistung notwendig. Das heißt aber nur, dass nicht jede und jeder diese Videos zu Hause produzieren kann.

Im gleichen Zug, wie sich die Deepfake-Verfahren verbessern, werden auch Verfahren entwickelt, diese Deepfakes zu erkennen. Wie zum Beispiel beim Darpa, der Forschungseinrichtung des US-Militärs. Dort gibt es eine eigene Abteilung, die nach Methoden sucht, qualitativ hochwertige Fakes zu erkennen. Um solche Deepfakes zu erkennen, haben die Forschenden dort ein eigenes Verfahren entwickelt, das so gut sein soll, dass sie den Algorithmus vorsichtshalber geheim halten. Eine kleine Kostprobe gab es aber dann doch in Form eines singenden und tanzenden Ex-US-Präsident Barack Obama.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Auch schlechte Fakes gehen viral

Momentan lassen sich Fakes noch relativ gut erkennen, darüber sind sich viele Forschende einig. Die Sache hat trotzdem einen Haken: Denn es reichen bereits einigermaßen akzeptable Deepfakes, um in den sozialen Netzwerken massenhaft Verbreitung zu finden. So zuletzt das Video von Nancy Pelosi, Sprecherin des US-Repräsentantenhauses. Im Fakevideo erscheint die Trumpkritikerin bei einigen ihrer Aussagen fahrig in ihren Bewegungen und klingt als wäre sie betrunken. Das Video wurde unter anderem von US-Präsident Donald Trump via Twitter verbreitet.

Dabei handelt es sich in diesem Fall noch nicht mal um einen Deepfake. Es wurde schlicht ein Originalvideo auf 75 Prozent Geschwindigkeit gesetzt. Weil dabei auch die Stimme dunkler wird, wurde die Stimmhöhe nachträglich noch per Autotune gepitcht. Was im Fall von Nancy Pelosi aber auch deutlich wurde: Wie schwer sich soziale Netzwerke tun, solche Videos zu sperren oder zu löschen. Denn obwohl es sich bei dem Video um einen klaren Verstoß gegen die Nutzungsbedingungen handelt, wurde es nicht gelöscht. Stattdessen wird ein Hinweis eingeblendet, dass es sich bei dieses Video gefaked sein "könnte" - und auf eine Faktencheck-Seite