Sexistische Vorurteile werden durch Künstliche Intelligenz weiterverbreitet und offenbar auch verstärkt - zum Beispiel durch Chatbots.

Das schreibt die Uno-Bildungsorganisation Unesco auf Basis einer Studie. Dafür haben Forschende verschiedene Chatbots und Software-Versionen analysiert - und zwar von ChatGPT und Llama, vom Meta-Konzern. Die Forschenden haben die Chatbots unter anderem beauftragt, Texte über Menschen zu verfassen. Dabei wurden Männer häufig als Lehrer, Fahrer oder Bankangestellte dargestellt - wogegen Frauen in immerhin 30 Prozent der Texte als Model, Kellnerin oder Prostituierte bezeichnet wurden. Außerdem verknüpften die Chatbots weibliche Namen eher mit Worten wie "Haus", "Familie" und "Kinder" - und männliche Namen eher mit Worten wie "Geschäfte", "Gehalt" und "Karriere".

KI-Vorurteile können Ungleichheit verstärken

Das zeigt laut den Forschenden, dass schon bestehende Diskriminierungen im digitalen Raum nicht nur widergespiegelt werden, sondern auch verstärkt. KI-Texte basieren häufig auf Stereotypen und verbreiten sexistische und andere Vorurteile weiter. Die Forschenden warnen, dass Chatbots inzwischen so häufig verwendet werden, dass sie "die Wahrnehmung von Millionen Menschen beeinflussen" können. Und das geringste sexistische Vorurteil könne "die Ungleichheiten in der Welt erheblich vergrößern".