Deep Fakes machen es möglich: Fake Porno-Videos von Sängerinnen wie Taylor Swift und Katy Perry und Politiker, die Dinge in Videos kundtun, die sie in Wirklichkeit nie gesagt haben. 

Bilder zu fälschen, ist nichts Neues. Bewegte Bilder, also Videos, und Audios zu fälschen, ist dagegen schon eine etwas neuere und weiter entwickelte Anwendung. In Youtube-Videos erklärt ein Forscherteam der Universität Washington, wie es geht, und legt dem ehemaligen US-Präsidenten Barack Obama anschaulich Worte in den Mund. 

"Mit Deep Fake ist glaube ich schon sehr viel mehr möglich, als wir uns bisher vorstellen können. Bisher kann man Gesichter von Menschen auf die Körper von anderen transferieren und Dinge aus einem Video herausschneiden, Logo ausschneiden oder Hintergründe wechseln."
Konrad Weber, Journalist für digitale Themen

Der Schweizer Journalist Konrad Weber hat sich mit dieser KI-basierten Technik befasst und kennt ihre Schwachstellen. Um gut gemachte Deep Fakes zu erstellen, brauchen die Software-Programme zwischen 300 bis 2000 Bilder. Die Software analysiert dieses Quellenmaterial, um daraus zu lernen. Inzwischen ist die Anwendung schon so weit entwickelt, dass man die aufwendige Technik auch bequem per Smartphone-App privat nutzen kann. 

Wie wir Deep Fakes entlarven können

Für ein geübtes Auge gibt es mehrere Indizien, die nahelegen, dass ein Video manipuliert ist. Einige Hinweise, nach denen der Journalist Konrad Weber schaut, wenn er ein Video prüft, sind:

  • Übergänge zwischen Gesicht und Hals oder Gesicht und Haar können unscharf sein
  • Der Mundinnenraum kann unscharf sein
  • Die Person, die im Video zu sehen ist, blinzelt nicht
"Bei den meisten Deep Fakes blinzeln die Leute nicht. Das heißt, die künstliche Intelligenz 'vergisst' das Blinzeln einzubauen. Das wird nach und nach nachgebessert. Wenn eine Person, die eine Aussage trifft, nicht blinzelt, dann weißt das schon auf einen Fake hin."
Konrad Weber, Journalist für digitale Themen

Durch die Deep Fakes verliert das Bild beziehungsweise das bewegte Bild an Glaubwürdigkeit, sagt der Journalist Konrad Weber. Mit dieser Technologie kann jede Person aus dem Kontext herausgerissen und in eine neue Situation hineinversetzt werden, sagt der Journalist. 

Das könnte dazu führen, dass Menschen grundsätzlich weniger in den Wahrheitsgehalt von Videos und Audios vertrauen. Hier sieht Konrad Weber Journalisten in der Pflicht, digitale Inhalte einzuordnen, zu erklären und ihre Herkunft schneller zu verifizieren. Das hilft dabei, herauszufinden, wie glaubwürdig die enthaltenen Informationen sind. 

Mehr zum Thema: