Was wenn Künstliche Intelligenz sexistisch ist?

Forscher von der Boston University haben jetzt in einem Test Geschlechter-Stereotype in den entsprechenden Datensammlungen entdeckt, schreibt Technology Review. Im Prinzip lernt eine Künstliche Intelligenz, ein Muster zu erkennen, in dem sie mit riesigen Mengen an Texten gefüttert wird. Mithilfe solcher Datensammlungen werden KIs trainiert, sie sind dann in der Lage, zum Beispiel einem Begriff ein Geschlecht zuzuordnen. Chatbots müssen so etwas können oder Übersetzungsprogramme.

Bei ihrem Test fanden die Forscher heraus, dass es passieren kann, dass geschlechtsneutrale Begriffe dann nicht mehr neutral sind. Zum Beispiel wurde das englische Wort "programmer", das sowohl für Programmierer und Programmiererinnen steht, eher mit einem Mann assoziiert.

Ob das ein Problem ist, darüber wird in der KI-Forschung diskutiert. Das Weglassen des Geschlechterbezugs verzerre die Realität, sagen die einen. Die anderen finden, dass sich eine Gesellschaft ja auch positiv weiter entwickeln solle, ohne Stereotype festzuschreiben.