Realitäts-CheckVideos überprüfen wie Faktenchecker
KI-Fake oder echt? Es wird zunehmend schwieriger, Deepfake-Videos zu erkennen. Neue KI-Programme sind schon sehr gut darin, täuschend echte Inhalte zu generieren, sagt Andre Wolf von Mimikama. Ein paar Tipps hat er trotzdem für uns.
KI-generierte Bilder, Texte oder Videos sind mittlerweile so überzeugend, dass viele sie nicht mehr von echten Inhalten unterscheiden können. Das ergab zuletzt auch eine Online-Befragung des Helmholtz-Zentrums für Informationssicherheit (CISPA) mit über 3.000 Teilnehmenden aus Deutschland, China und den USA.
Gerade darum ist es so wichtig, dass wir genau hinschauen, wenn wir beispielsweise Videos auf Social Media sehen, meint Andre Wolf vom Verein Mimikama. Er klärt auf über Fakes und Desinformationen.
"Wir werden derzeit überschwemmt von lauter synthetischen Inhalten, die uns alle immer mehr unterhalten, die aber wirklich gar nicht echt sind, die so nie geschehen sind."
Fake-Videos, die können lustig und unterhaltend sein, sie können aber auch sensible politische Themen aufgreifen, dann sind sie besonders gefährlich.
Wasserzeichen können einen Hinweis geben
Im Idealfall, sagt Andre Wolf, erkennen wir KI-generierte Videos am Wasserzeichen im Bild, zum Beispiel das Wasserzeichen von Sora, dem Videogenerator von OpenAI.
"Leider ist dieser Idealfall nicht immer gegeben", ergänzt der Experte. Wasserzeichen können nämlich entfernt oder durch andere Wasserzeichen ersetzt werden. Wer ein Video fälschen will, der wird also vermutlich zu solchen Mitteln greifen.
Genau hinschauen, auf Details achten
Daher heißt es, genau hinschauen: Passt das, was ich sehe, im Bild zusammen? Verändert sich der Vordergrund oder der Hintergrund im Video ohne Grund? Viele Fehler lassen sich schon so erkennen, meint Andre Wolf.
"In einem Video, das generiert ist, also das eine KI generiert, können Pixelfehler entstehen, an welcher Stelle auch immer, allein aufgrund der Bewegung."
Und er nennt ein Beispiel: Sehen wir im Video etwa eine Person, die mit der Hand vor dem Gesicht hin und her winkt, dann muss die KI das Gesicht im Hintergrund immer wieder neu generieren. Dabei können Fehler entstehen, kleine Wischspuren und Unterschiede im Bild, die uns helfen, ein Fake zu erkennen.
Für manche Bild-Analysen reicht das Auge nicht aus
Wenn Experten sich nicht sicher sind, machen sie eine Frame-to-Frame-Analyse, also eine Bildanalyse, bei der jedes einzelne Bild betrachtet wird. In einem Videoschnittprogramm gehen sie dann das Video Bild für Bild durch. So kann man Unstimmigkeiten erkennen.
"Ein normales Online-Video hat rund 30 Bilder pro Sekunde. Das heißt, wenn sich etwas bewegt, kann man dann Pixel für Pixel genau schauen: Was hat sich verändert?"
Generell empfiehlt Andre Wolf, alles zu hinterfragen, was uns auf TikTok, Instagram oder anderen Social-Kanälen begegnet, auch wenn es uns gefällt. Er befürchtet, dass wir uns immer mehr an KI-Inhalte gewöhnen, weil sie oft ja auch süß, niedlich oder lustig sind. Dabei sollten wir uns mehr Zeit nehmen, gerade auch bei Inhalten, die uns in den Kram passen.
"Das wäre ja wünschenswert, wenn ich sage: Ich nehme mir Zeit. Alles, was ich sehe, sollte ich hinterfragen. Denn die Realität ist nicht mehr die Realität, gerade bei Videos und gerade bei Bildern."
Seine Sorge ist, dass aus den lustigen Katzenvideos, die wir ganz schnell teilen, irgendwann auch geteilte Inhalte politischer Art werden können, die eine andere Tragweite haben. Videos von Personen aus der Öffentlichkeit oder Politikern, mit denen Meinungsmache betrieben wird, obwohl sie fake sind. "Das halte ich für hochproblematisch", sagt er.