Portale wie Youtube und Facebook wollen extremistische Videos wie die des Islamischen Staates löschen. Dazu gibt es eine altbewährte Technik. Doch diese Clips zuverlässig zu finden, ist schwierig.
Wer sich bei Youtube ein illegal hochgeladenes Musikvideo anschauen will, bekommt häufig den Hinweis, dass das Video nicht verfügbar sei, weil es die rechtlichen Bedingungen nicht erfülle. Das alles läuft ziemlich automatisch, ohne dass ein Team von Facebook oder Youtube die Videos manuell löschen müsste.
Diese Vorgehensweise soll es in Zukunft auch für extremistische Videos geben, etwa Propagandafilmchen des Islamischen Staates.
Clips mit dem selben Hashwert fliegen raus
Die grundlegende Technik ist dieselbe: Ein Video bekommt eine Art digitalen Fingerabdruck, einen sogenannten Hashwert. Der bleibt immer nahezu unverändert, auch wenn ein Video modifiziert, also etwa gekürzt oder anders geschnitten wird. Manchmal ist das Löschen dann einfach, etwa wenn ein Musiklabel ein Originalvideo mit einem bestimmten Hashwert ausliefert. Dann kann Youtube alle Kopien dieses Videos mit demselben (oder einem sehr ähnlichen) Hashwert automatisch löschen.
Bei kinderpornografischen Videos füllen Behörden eine Datenbank mit entsprechenden Hashwerten - Youtube und andere Portale können diese dann nutzen, um andere Videos mit demselben Hashwert zu finden und automatisch zu löschen.
Schwierige Unterscheidung
Schwieriger ist es bei den extremistischen Videos. Der Islamische Staat wird ein Video kaum selbst als "extremistisch" einstufen - so weiß eben auch kein Automatismus von Youtube und Facebook, welches Video und welche Kopien davon "extremistisch" sind oder nicht.
Verantwortlich für diese Einstufung könnten die Portale selbst sein - allerdings sind deren Anti-Abuse-Teams erfahrungsgemäß ziemlich überlastet. Alternativ könnten auch Behörden oder Geheimdienste die Einstufung vornehmen. Oder jemand entwickelt eine Software, die alles vollautomatisch regelt. Sie könnten zum Beispiel bestimmte Bildsituationen erkennen, etwa den Einsatz von Waffen. Fraglich ist, wie zuverlässig eine solche Software arbeiten kann.
"Ich bin mir ziemlich sicher, dass eine Software bei der Einstufung 'extremistisch oder nicht' an die Grenzen stoßen wird. Denn es ist schwierig zu unterscheiden: Wo endet die Meinungsfreiheit, wo beginnt Extremismus?"