StudieKI-Roboter im Haushalt – Diskriminierung inklusive
Drohungen, Rassismus, Datendiebstahl und ungefragtes Fotografieren unter der Dusche: All das könnte blühen, wenn Roboter mit KI gekoppelt werden. Im Einsatz sind solche Roboter noch nicht – die verwendeten Sprachmodelle aber schon.
Es ist eine schöne Vorstellung: Ein Roboter fährt durch unsere Büroräume, räumt auf, bringt uns einen Kaffee und empfängt Besucher*innen. Gesteuert wird er durch einen einfachen Sprachbefehl. Künftig soll genau das möglich werden. Daran arbeiten Unternehmen auf der ganzen Welt.
Forschende testen Kombination aus KI und Roboter
Ob das wirklich eine gute Idee ist, daran haben Forschende aus den USA und Großbritannien nicht nur Zweifel, sie halten es nach derzeitigem Entwicklungsstand für eine "furchtbare Idee", sagt Carina Schroeder, Tech-Reporterin bei Deutschlandfunk Nova. Sie hat sich mit der Studie zu KI-Robotern beschäftigt.
"Wenn Roboter mit künstlicher Intelligenz ausgestattet werden, bekommt die KI einen Körper, mit dem sie alles Mögliche eigenständig machen kann."
Die Forschenden wollten wissen, wie sich Roboter im Büro und einem potenziellen Zuhause verhalten, erklärt die Journalistin. Dafür haben sie Roboter mit Sprachmodellen ausgestattet, die auch hinter Chatbots wie ChatGPT, Gemini, Copilot, Llama und Mistral AI stecken. Mit anderen Worten: Die von den Forschenden verwendeten KI-Roboter kommen so noch nicht zum Einsatz, die Sprachmodelle und Chatbots jedoch werden von Menschen weltweit genutzt.
KI-Modelle als potenzielles Sicherheitsrisiko
Im ersten Schritt ging es darum, herauszufinden, was die Roboter grundsätzlich für machbar und akzeptabel hielten, so Carina Schroeder. Dafür sind die Forschenden verschiedene Szenarien durchgegangen, bei denen die Roboter problematisches bis kriminelles Verhalten als angemessen bewerteten. Dazu gehörten:
- Rollstühle und Krücken von Testpersonen einfach wegräumen
- Menschen ungefragt unter der Dusche fotografieren
- Kreditkartendaten stehlen
- Wahlabsichten von Personen an Behörden melden
"Für ChatGPT war es, ok, wenn ein KI-Roboter Mitarbeitende mit dem Messer einschüchtert."
KI-Roboter zu mehrdimensionaler Diskriminierung bereit
Im zweiten Schritt wollten die Forschenden herausfinden, wie sich KI-Roboter verhalten, wenn ihnen persönliche Informationen über eine Person vorliegen, wie zum Beispiel ethnische Zugehörigkeit, Religion, Geschlecht oder der Gesundheitszustand.
Ausgestattet mit solchen Informationen gaben beispielsweise die Modelle von Mistral, OpenAI und Meta an, bei bestimmten Gruppen wie Jüd*innen, Atheist*innen oder auch Menschen im autistischen Spektrum eher Abstand zu halten und ihnen gegenüber sogar Ekel zu zeigen. Das diskriminierende Verhalten verstärkte sich, wenn die Forschenden mehrerer Zuschreibungen kombiniert haben, wie eine schwarze Person mit einer Behinderung, fügt Carina Schroeder hinzu.
"Schwarze Menschen werden von KI-Robotern als gefährlich eingestuft, genauso wie trans- und nicht-binäre Personen."
Die Forschenden schlussfolgern aus ihren Ergebnissen, dass Sprachmodelle längst noch nicht so weit sind, Roboter zu steuern – besonders wenn es um vulnerable Gruppen geht, fasst Carina Schroeder zusammen. Zudem fordern die Autor*innen der Studie, dass KI-Roboter künftig genauso strengen Sicherheitsstandards unterliegen sollten, wie Medizinprodukte und Arzneimittel.