Wie seht ihr aus, wenn ihr traurig schaut? Oder besorgt? Unterschiedlich. Denn es gibt keine universell gleichartigen Emotionsmuster. Doch darauf basiert KI-gestützte Gesichtserkennung, die auch Emotionen bestimmt. Microsoft will deshalb auf verschiedene Funktionen verzichten und insgesamt mehr Verantwortung übernehmen.

In einem Blogpost teilte Microsoft sein Umdenken mit. Der Grund sei, dass das Konzept von universell gleichartigen Emotions-Mimik-Mustern wissenschaftlich nicht haltbar ist, so unser Netzreporter Michael Gessat.

Denn "traurig gucken" sieht eben nicht überall auf der Welt gleich aus. Hinzu kommt, dass das Training der künstlichen Intelligenz zur Gesichtserkennung überwiegend mit westlichen und weißen Testpersonen stattfindet.

"Die vermeintliche Universalität von Emotionen hat in Wirklichkeit eine starke Verzerrung."
Michael Gessat, Deutschlandfunk-Nova-Netzreporter

Verbunden mit dem Blogeintrag stellt Microsoft einen neuen Leitfaden vor (Link führt zu einem PDF). Darin geht es im Kern auch um die Erkenntnis, dass nicht alles, was technisch machbar ist oder technisch machbar erscheint, auch wünschenswert, nutzbringend und verantwortbar ist, so Michael Gessat.

Microsoft übernimmt mehr Verantwortung

Diese Erkenntnis unterstreicht Microsoft, indem es einen Posten im Unternehmen geschaffen hat mit der Bezeichnung "Chief Responsible AI Officer", also "Vorstand verantwortungsbewusste KI". Diese neue Position bekleidet Natasha Crampton. "Sie hat in dem ausführlichen Blogpost konkrete Maßnahmen bekannt gegeben", sagt Michael Gessat.

Eine dieser Maßnahmen lautet, dass Microsoft den Zugriff auf Funktionen zur Gesichtserkennung beschränken oder diese noch einmal komplett überdenken wird. Und dabei geht es ganz konkret um die KI-gestützte Emotionserkennung.

Wozu und vor allem wem nutzt die KI?

Aber es geht nicht allein um die Frage, wie intelligent oder eben nicht intelligent die Software ist, sondern auch um den Aspekt: Wozu und wem dient es, wenn eine KI Geschlecht, Alter, Gesichtsbehaarung, Haupthaar oder auch Make-up identifizieren kann? Auch hier bewegt sich Microsoft: Künftig wird die Kundschaft gefragt, wozu sie erworbene Techniken nutzen will.

"Die Kunden von Microsoft müssen demnächst angeben, wofür sie die Technik eigentlich verwenden wollen."
Michael Gessat, Deutschlandfunk-Nova-Netzreporter

Zu diesen Möglichkeiten zählt zum Beispiel die Generierung synthetischer Stimmen, die wie das Original klingen. "Ein offensichtlich absolut heikles KI-Feld", sagt Michael. Ein Beispiel ist die "Azure AI's Custom Neural Voice": Personen, die beispielsweise eine chronische Erkrankung haben und deshalb nicht sprechen können, können damit Audio-Statements produzieren und verbreiten. Wunderbar. Doch die Technik kann eben auch missbraucht werden, indem per KI Stimmen für Propaganda und Fake-Aussagen heimlich produziert und verbreitet werden.

"Auch damit will Microsoft in Zukunft sensibler umgehen und sicherstellen, dass diese KI-Stimme nicht unautorisiert verwendet werden kann", sagt Michael Gessat.

Der Gesetzgeber ist gefragt

Unser Netzreporter sieht die Ankündigung von Microsoft durchaus positiv. Doch es bleibt die Frage, ob die Firma wirklich nachhaltig überprüfen kann, wofür KI-Funktionen eingesetzt werden. Denn Kund*innen können bewusst falsche Angaben mache.

"Zum anderen will ein Unternehmen wie Microsoft natürlich letztlich auch bestimmte technologische Entwicklungen monetarisieren", sagt Michael Gessat. Das heißt, letztlich muss der Gesetzgeber verbindliche Grenzen für einen verantwortungsvollen Umgang mit KI definieren und kontrollieren.

Shownotes
Tech-Konzerne in der Verantwortung
Emotionserkennung: Microsoft schränkt Nutzung künstlicher Intelligenz ein
vom 23. Juni 2022
Moderatorin: 
Diane Hielscher
Gesprächspartner: 
Michael Gessat, Deutschlandfunk Nova