Deepfakes werden im Netz immer mehr zum Problem: In den nächsten drei Jahren könnten wir wahrscheinlich nicht mehr erkennen, ob ein Video echt oder manipuliert wurde, sagen Forschende der University of Southern California. Daher arbeiten Tech-Konzerne an Strategien, um gegen manipulierte Inhalte vorzugehen.

Prominente, die in Pornos mitspielen, oder Barack Obama, der US-Präsident Donald Trump als "Dipshit" bezeichnet, oder das aktuelle Beispiel von Premierminister Boris Johnson, der die Briten dazu aufruft für seinen Herausforderer Jeremy Corbyn zu stimmen: Deepfakes bekannter Persönlichkeiten werden im Netz zu einem immer größeren Problem - also Videos, die gefälscht sind.

In zwei bis drei Jahren seien die mithilfe von Algorithmen und künstlicher Intelligenz manipulierten Video so gut gemacht, dass wir nicht mehr zwischen echt oder gefälscht unterscheiden könnten, warnten Forschende der University of Southern California auf der Fachkonferenz Emtech.

"In den letzten zwei Jahren hat es eine rasante Entwicklung von Deepfakes gegeben."
Andreas Noll, Deutschlandfunk-Nova-Reporter

Nachdem der US-Bundesstaat Kalifornien im Herbst 2019 Deepfakes per Gesetz verboten ließ und die Rechte von Opfern stärkte, gehen jetzt weitere Kampagnen im Netz gegen die manipulierten Videos vor. Twitter hat jetzt angekündigt, Fake-Videos in Zukunft mit einem Hinweise als gefälscht zu kennzeichnen und Userinnen und User, vor dem Teilen manipulierter Inhalten zu warnen. Der Onlinedienst behält sich auch vor, Deepfakes gegebenenfalls zu löschen.

Wie schnell sich Deepfakes im Netz verbreiten können, hat das britische Denkfabrik-Unternehmen Future Advocacy beispielhaft gezeigt: Ein von Future Advocacy manipuliertes Video von Boris Johnson, haben sich innerhalb weniger Tage fast 200.000 Userinnen und User angeschaut.

In dem Fake-Video sitzt der Premierminister an seinem Schreibtisch und ruft die britischen Wählerinnen und Wähler dazu auf, für Oppositionsführer Jeremy Corbyn zu stimmen – nur er könne das Vereinigte Königreich wieder zusammenführen.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Mit der Aktion möchte das Unternehmen darauf aufmerksam machen, wie einfach Wahlmanipulationen durch Deepfakes entstehen können. Zudem könnten diese auch dafür sorgen, dass die Glaubwürdigkeit von Videobotschaften verloren ginge, erklären die Macher der Kampagne. Daher fordern sie eine Regulierung von Deepfakes.

Tech-Konzerne gehen gemeinsam gegen Deepfakes vor

Tech-Konzerne wie Google, Facebook oder Amazon erforschen ebenfalls schon seit Längerem Techniken, um Deepfakes im Netz besser zu finden und zu entfernen. Aufgetaucht ist das Phänomen "Deepfake" zum ersten Mal vor knapp zwei Jahren in der Reddit-Community. Damals haben Userinnen und User mit der Software Fakeapp Fotos von Prominenten in Pornos eingebaut.