KIs haben Vorurteile gegenüber Dialekten.

Computerlinguistik-Forschende u.a. von der Uni Mainz haben getestet, wie zum Beispiel ChatGPT oder Gemma Texte bewerten. Die hatten alle denselben Inhalt, sie waren aber in sieben verschiedenen Dialekten verfasst, zum Beispiel Plattdeutsch, Rheinländisch oder Bairisch - und zum Vergleich in Standard-Hochdeutsch. Dann sollte die KI jeweils die Person bewerten, die den Text geschrieben hatte.

Ergebnis: Die Künstlichen Intelligenzen bewerteten die Personen mit Dialekt-Text eher negativ als ungebildet und auch als ländlich und traditionell. Das Hochdeutsche brachten sie mit Wörtern "gebildet", "professionell" oder "vertrauenswürdig" zusammen.

Das kann bei Bewerbungen zum Problem werden, sagen die Forschenden, denn in Auswahlverfahren werden immer öfter KIs eingesetzt. Sie fordern, KI-Sprachmodelle so zu programmieren, dass Dialekte nicht benachteiligt werden, sondern Vielfalt respektieren. Denn aus ihrer Sicht sind Dialekte ein wichtiger Teil der kulturellen Identität.