• Abonnieren
  • Spotify
  • iTunes
  • Google

Microsoft hat in seine Cloud-Lösung Office 365 einen Filter gegen "offensive", also beleidigende und verletzende Sprache eingebaut. Eine Künstliche Intelligenz prüft in Zukunft, was sprachlich zu weit geht. Das Angebot richtet sich zunächst an Firmen und Behörden.

Ist euch das auch schon mal passiert? Ihr sitzt am PC oder Tablet, habt euch gerade über irgendetwas geärgert und haut eine entsprechende Mail raus – und kurz nach dem Klick auf "Senden" denkt ihr: Mist, so drastisch hätte ich das mal lieber nicht geschrieben. Insofern klingt das erst mal nach einer ganz guten Idee, was Microsoft gerade in seine Cloud-Lösung Office 365 eingebaut hat. Oder ist das eher gruselig, wenn ein automatischer Zensor an unseren Texten herumwurschtelt?

Kommunikation kann schnell Schaden anrichten

Der Filter gegen "offensive Sprache" richtet sich erstmal nicht an Privatanwender, sondern primär an Firmen und Behörden, in denen die Nutzung von Office 365 durch Administratoren speziell eingerichtet und reglementiert wird. In Firmen und Behörden gibt es Compliance-Regeln, wie die interne und externe Kommunikation ablaufen soll. Offenbar gibt es dort einen Bedarf an solchen Filtern, berichtet Deutschlandfunk-Nova-Reporter Michael Gessat. Denn wer nicht aufpasst bei seiner Kommunikation, kann schnell großen Schaden anrichten – für die Firma und sich selbst.

"Wer heutzutage unbedacht irgendeinen Bullshit von sich gibt, kickt sich selbst schnell aus dem Job oder löst Shitstorms aus, die das Firmenimage beschädigen."
Michael Gessat, Deutschlandfunk-Nova-Reporter

Der Filter soll "Drohungen, gezielte Belästigung und Schimpfwörter" herausfiltern. Er beruht auf einem KI-Algorithmus, den Microsoft quasi als Rohbau bereitstellt, der dann aber erst mal spezifisch trainiert werden muss. Dazu muss die Firma oder Behörde Sprachmuster oder Beispiele hochladen, die den eigenen Richtlinien entsprechend unzulässig oder unerwünscht sind.

Der Algorithmus liefert daraufhin eine erste Version des Filters – dieser muss dann mit weiteren Textbeispielen getestet werden, um zu überprüfen, ob er bei relevanten Inhalten tatsächlich anschlägt.

Erste Version hatte oft Fehlalarm ausgelöst

Leider war die KI in ihrer ersten Version etwas übereifrig und hatte "offensive Sprache" erkannt, wo gar keine war. Bei harmlosen Texten wurde also ein Fehlalarm ausgelöst. Microsoft empfiehlt, diese nicht mehr einzusetzen – der jetzige Algorithmus sei bereits die neue, verbesserte Version.

Diese Version gibt es in sieben Sprachen, unter anderem auch in Deutsch. Michael hält den Einsatz der KI in bestimmten Szenarien für sinnvoll.

Eine Art Entmündigung?

Möglicherweise ist diese KI der Auftakt für eine Art digitalen Zwangsmaulkorb. Möglich wäre das, sagt Michael Gessat. In einer Firmenumgebung bestimmt natürlich die Firma die Spielregeln. Doch Filteralgorithmen, die zuverlässig funktionieren, sind auch für Social Media verlockend – denn damit könnten recht einfach staatliche Vorgaben gegen Hassrede und Desinformation eingehalten werden.

"Filteralgorithmen, die zuverlässig funktionieren, sind natürlich auch für Social Media verlockend."
Michael Gessat, Deutschlandfunk-Nova-Netzreporter

Was wir uns klarmachen müssen: KI und Algorithmen beeinflussen heute schon unsere Texte. Das ist der Segen oder der Fluch der schönen neuen Cloud-Welt.