Die Künstler-Gewerkschaft Hollywoods will legale Mittel finden, um gegen Deepfake vorzugehen – gegen mit Hilfe von künstlicher Intelligenz gefakte Videos.

"Deepfake" ist ein zusammengesetztes Wort aus "Fake" und "Deep Learning", also dem Maschinenlernen einer Künstlichen Intelligenz. Die KI wird also benutzt, um Videos zu faken, konkret: um Köpfe und Gesichter zu ersetzen. 

So ein Deepfake-Video lässt sich mit der Software "Fakeapp" einfach erstellen: Sie analysiert die Gesichtszüge der Personen und tauscht dann das eine Gesicht gegen das andere aus.

"Da lästert dann angeblich Ex-Präsident Obama über Donald Trump oder in Pornos werden Köpfe von weiblichen Hollywood-Schauspielern auf die Körper von Porno-Darstellern montiert."
Konstantin Köhler, Deutschlandfunk Nova Netzreporter

Die Künstler-Gewerkschaft "Screen Actors Guild‐American Federation of Television and Radio Artists" – sie hat über 100.000 Mitglieder, darunter viele Hollywood-Schauspieler – will jetzt dagegen vorgehen. Das ist rechtlich aber gar nicht so einfach, denn viele SchauspielerInnen sind ja Personen des öffentlichen Interesses – bei ihnen greifen andere Regeln als bei einer Privatperson.

Daisy Ridley, Emma Watson, Scarlet Johansson...

Pornovideos sind zum Beispiel erstellt worden mit den Gesichtern von Daisy Ridley, Taylor Swift, Emma Watson, Maisie Williams, Aubrey Plaza und Scarlet Johansson. Die Porno-Plattform "Pornhub" hat inzwischen angekündigt, gegen die Fake-Videos vorzugehen. Bisher sei allerdings nicht viel passiert, berichtet das Online-Magazin Engadget. 

Betroffen sind aber natürlich auch Privatleute. Etwa wenn von der Ex-Freundin ein gefaktes Pornovideo angefertigt wird – als Racheporno.

Real oder nicht?

Auch von Barack Obama ist kürzlich ein sehr gut gemachtes Fake-Video aufgetaucht. Bei dem wurde allerdings deutlich gemacht, dass es ein Fake ist: Kurz nach der Szene, in der Obama Trump beleidigt, sieht man im Splitscreen dann den Schauspieler Jordan Peele, der genau den Text sagt, der vorher Obama in den Mund gelegt wird.

"Die Macher wollen auf die Gefahr hinweisen, dass es in Zukunft schwieriger werden könnte, echte Videos von gefälschten zu unterscheiden."
Konstantin Köhler, Deutschlandfunk Nova Netzreporter

Im Prinzip kann jeder jederzeit ein Fake-Video erstellen. Man muss zwar viel Zeit investieren, damit das am Ende auch wirklich gut aussieht. Aber auch bei schlecht gemachten Fake-Videos entsteht für die betroffenen Personen ein Schaden. Denn es wird immer Leute geben, sagt unser Netzreporter Konstantin Köhler, die ein noch so schlecht gefälschtes Video für echt halten.

Mehr zum Thema

Shownotes
Gesichts-Tausch-App
Hollywood wehrt sich gegen Deepfake
vom 23. April 2018
Moderation: 
Till Haase
Gesprächspartner: 
Konstantin Köhler, Deutschlandfunk Nova Netzreporter