Immer wieder schließen Seiten im Netz ihre Kommentarspalten, weil sie von Hatern überrannt werden und die Moderatoren überfordert sind. Helfen könnte da das Programm Perspective. Es filtert nicht nur böse Kommentare heraus, es erkennt auch schon beim Schreiben, ob da jemand gerade hatet.

Egal, um welches Thema es in Foren und Kommentarspalten auch geht, fast immer kommt ein Hater aus der Ecke gekrochen. Für Seitenbetreiber ist es oft schwierig bis unmöglich, das Problem in den Griff zu bekommen, geschweige denn alle Kommentare zu sichten. Helfen könnte das Programm Perspective, das die Google-Tochter Jigswa entwickelt hat.

"Perspective bewertet, wie toxisch, wie giftig ein Kommentar ist, und vergibt eine Art Giftgrad von 0 bis 100. Und diese Einordnung soll dann Onlineforen und Medien helfen, Hasskommentare rauszufiltern."
Martina Schulte, DRadio Wissen

Die Software filtert aber nicht nur Hasskommentare heraus, sie erkennt auch schon im Schreibvorgang, wann wir Menschen etwas Beleidigendes oder Wütendes verfassen. Das hat sie gelernt. Dabei geholfen hat ihr unter anderem die New York Times, die der Software rund 17 Millionen Kommentare zur Verfügung gestellt hat - zusammen mit der Information, welcher Kommentar von den menschlichen Moderatoren als unangebracht abgelehnt wurde.

Warnung in Echtzeit

Wenn heute jemand bei der New York Times einen Kommentar schreibt, wird der Text automatisch mit der Datenbank von Perspective verglichen.

"Tippt ein Leser 'I think you're stupid' ein, dann bekommt er eine Warnung angezeigt: "94 Prozent der User finden, dass das, was du da schreibst, giftig ist."
Martina Schulte, DRadio Wissen

Die Warnung soll den Schreiber zunächst dazu bewegen, seinen Kommentar zu überdenken. Veröffentlicht er ihn trotzdem, dann erhalten die menschlichen Moderatoren bei der New York Times einen Hinweis, sich den Kommentar gegebenenfalls noch mal genauer anzuschauen. Bei über 11.000 Einträgen täglich ist das eine große Hilfe für die Zeitung.

Gute Sache oder Zensur?

Zwar arbeitet die Software nicht ganz fehlerfrei, Probleme hat sie zum Beispiel mit Ironie. Dafür ist sie im Aussieben von Schimpfwörtern schon sehr präzise und erkennt auch subtile Unterschiede in der Sprache erstaunlich gut.

Die Frage, die sich stellt: Wie weit wollen wir Algorithmen einsetzen, um Beiträge von Menschen nach ihrer echten oder vermeintlichen Nützlichkeit für eine Diskussion zu bewerten? Und wird eine solche Bewertung die Diskussionen selbst beeinflussen? "Das kann man jetzt noch nicht beurteilen", sagt DRadio-Wissen-Reporterin Martina Schulte.

"Klar ist jedenfalls, dass es auch mit Perspective ein Kuschel-Internet nicht geben wird, in dem wir alle immer nur nett zueinander sind."
Martina Schulte, DRadio Wissen