Ein Algorithmus hilft, Darstellungen sexualisierter Gewalt gegen Kinder zu finden. Jetzt soll er mit Fotos glücklich aussehender Kinder trainiert werden.

Die australische Polizei will 100.000 Fotos von glücklichen Kindern sammeln. Die Idee: Wenn selbst lernende Algorithmen auch solche Fotos zur Verfügung haben und lernen, wie zum Beispiel lachende Kinder auf Fotos aussehen, können sie im Gegenzug Missbrauchsdarstellungen von Kindern besser erkennen.

"Ein Training mit glücklichen Gesichtern verbessert die Erkennungsleistung und Trennschärfe der KI."
Michael Gessat, Deutschlandfunk-Nova-Reporter

Die Aktion der Polizei heißt "My Pictures matter – meine Fotos zählen". Sie ruft zum Spenden von Fotos auf, auf denen glückliche Kinder zu sehen sind. Genauer gesagt sollen Menschen, die älter als 18 sind, Fotos von sich selbst als Kind übermitteln.

Damit sollen Algorithmen trainiert werden, die relativ automatisch, Bilder und Videos erkennen, die Gewalt oder sexualisierte Gewalt gegen Kinder zeigen. Die Kinder zeigen darauf tendenziell einen unglücklichen oder schmerzverzerrten Gesichtsausdruck. Als Abgrenzung dazu soll die Software lernen, wie der Gesichtsausdruck von glücklichen Kindern aussieht.

Außerdem könnten die vielen Tausenden Bilder dazu beitragen, dass die Software nicht falsch lernt. Wird sie nämlich nur mit Material trainiert, das zum Beispiel von beschlagnahmten Festplatten und Servern stammt, könnte sie auf konkrete Personen hin übertrainiert werden, weil Vergleichsmaterial fehlt.

Geringere psychische Belastung für die Ermittler

Wenn Bildmaterial automatisch analysiert wird und diese Analyse zuverlässig ist, hat das zwei Vorteile gegenüber der Sichtung durch Menschen: Zum einen geht es schneller, zum anderen wird so die psychische Belastung der Beamt*innen reduziert, die teilweise Hunderte oder Tausende Aufnahmen von Kindesmissbrauch sichten müssen.

Das automatische Scannen von Bild- und Videomaterial ist nicht unumstritten. Zum einen ist ein weinendes Kind nicht automatisch ein Opfer von Missbrauch, zum anderen kann die Möglichkeit des automatischen Scannens zur politischen Forderung führen, möglichst viele Kommunikationswege zu überwachen. In der Europäischen Union wird derzeit über die anlasslose Durchleuchtung von Chatverläufen debattiert.

"Das Kriterium 'unglücklicher Ausdruck' wird nicht isoliert ausgewertet. Auch andere Kriterien spielen eine Rolle, zum Beispiel wie viel Haut zu sehen ist."
Michael Gessat, Deutschlandfunk-Nova-Reporter

Auch in Deutschland werden Algorithmen eingesetzt, um Missbrauchsdarstellungen von Kindern automatisch zu erkennen, etwa bei der Zentral- und Ansprechstelle Cybercrime (ZAC NRW). Zu über 90 Prozent würden kinderpornografische Bilder korrekt erkannt, teilen die Ermittler mit. Die letzte Prüfung, um den Tatverdacht zu beurteilen, wird immer durch Mitarbeitende der Polizei und Staatsanwaltschaft durchgeführt.

Im Jahr 2021 wurden in Deutschland 17.498 Kinder polizeilich erfasst, die Opfer von sexuellem Missbrauch wurden. Im Jahr 2017 waren es rund 4.000 weniger. Das kann bedeuten, dass heute mehr Missbrauch stattfindet und/oder mehr Missbrauchsfälle erfasst werden.