• Abonnieren
  • Spotify
  • iTunes
  • Google

Mit Myheritage kann man seine Vorfahren digital wieder auferstehen lassen – zumindest ein bisschen. Die Deepfake-Technologie dahinter ist umstritten.

Eigentlich soll man mit der Ahnenforschungsseite Myheritage mehr über seine Herkunft und den eigenen Stammbaum herausfinden können. Nun gibt es dort aber auch den Dienst "Deep Nostalgia", mit dem ihr die Fotos eurer Vorfahren zum digitalen Leben erwecken könnt.

Das Verfahren ist für Nutzerinnen und Nutzer ziemlich simpel: Ihr ladet ein Schwarz-weiß-Foto von euren Vorfahren oder von einer historischen Persönlichkeit hoch. Eine Künstliche Intelligenz, die mit Deepfake-Technologie arbeitet, belebt dann das Foto. Die Person auf dem Bild dreht oder neigt den Kopf, bewegt die Augenlider oder lächelt.

Aus dem Bild wird sozusagen ein animiertes GIF, bzw. eine kurze Videosequenz.

"Das sieht wirklich sehr natürlich und lebensecht aus. Ich habe Virginia Wolf gesehen, deren Augen sehr lebendig wirken, und wenn sie dir dann plötzlich zulächelt, ist das schon ein bisschen spooky."
Martina Schulte, Deutschlandfunk-Nova-Reporterin

Deutschlandfunk-Nova-Reporterin Martina Schulte findet, das sieht echt und natürlich aus. Aber irgendwie auch ein bisschen gruselig: "Ich habe im Netz die Schriftstellerin Virginia Wolf gesehen, deren Augen sehr lebendig wirken, und wenn sie dir dann plötzlich zulächelt ist das schon ein bisschen spooky."

Hier noch ein Beispiel mit dem Schriftsteller Franz Kafka:

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Wofür Myheritage nicht gedacht ist: Videos aus Bildern lebender Menschen zu produzieren, die missbräuchlich verwendet werden können. Es geht dem Unternehmen nach eigenen Angaben darum, eine Vorstellung zu bekommen, wie eine Person ausgesehen haben könnte, wenn sie auf Video aufgenommen worden wäre.

Das Feature soll darum auch nur für verstorbenen Angehörige und historische Persönlichkeiten genutzt werden. "Wie die das kontrollieren wollen oder können ist unklar, wahrscheinlich nur im Nachhinein", sagt Martina.

Deepfake-Technologie wird missbraucht

Eine Kontrolle ist notwendig, denn Missbrauch von der Deepfake-Technik gibt es bereits. Zum Beispiel werden in Pornos die Köpfe von bekannten Schauspielerinnen auf die Körper der Pornodarstellerinnen gesetzt.

"Erst funktionierten Deepfakes nur mit statischen Bildern, heute kannst du im Prinzip in jedem Video das Gesicht austauschen."
Martina Schulte, Deutschlandfunk-Nova-Reporterin

"Du kannst im Prinzip in jedem Video das Gesicht austauschen", sagt Deutschlandfunk-Nova-Reporterin Martina Schulte.

So wäre es zum Beispiel möglich, täuschend echte Deepfakes von Politikern oder Wirtschaftsführerinnen zu produzieren und im Netz zu streuen. "Damit kann man potenziell Konflikte und Skandale produzieren, Politiker diskreditieren oder Wahlen und Börsenkurse manipulieren", sagt Martina. Bis sich dann herausstellt, dass ein Deepfake nicht echt ist, könnte der Schaden längst angerichtet sein.