• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Drohungen, Rassismus, Datendiebstahl und ungefragtes Fotografieren unter der Dusche: All das könnte blühen, wenn Roboter mit KI gekoppelt werden. Im Einsatz sind solche Roboter noch nicht – die verwendeten Sprachmodelle aber schon.

Es ist eine schöne Vorstellung: Ein Roboter fährt durch unsere Büroräume, räumt auf, bringt uns einen Kaffee und empfängt Besucher*innen. Gesteuert wird er durch einen einfachen Sprachbefehl. Künftig soll genau das möglich werden. Daran arbeiten Unternehmen auf der ganzen Welt.

Forschende testen Kombination aus KI und Roboter

Ob das wirklich eine gute Idee ist, daran haben Forschende aus den USA und Großbritannien nicht nur Zweifel, sie halten es nach derzeitigem Entwicklungsstand für eine "furchtbare Idee", sagt Carina Schroeder, Tech-Reporterin bei Deutschlandfunk Nova. Sie hat sich mit der Studie zu KI-Robotern beschäftigt.

"Wenn Roboter mit künstlicher Intelligenz ausgestattet werden, bekommt die KI einen Körper, mit dem sie alles Mögliche eigenständig machen kann."
Carina Schroeder, Tech-Reporterin

Die Forschenden wollten wissen, wie sich Roboter im Büro und einem potenziellen Zuhause verhalten, erklärt die Journalistin. Dafür haben sie Roboter mit Sprachmodellen ausgestattet, die auch hinter Chatbots wie ChatGPT, Gemini, Copilot, Llama und Mistral AI stecken. Mit anderen Worten: Die von den Forschenden verwendeten KI-Roboter kommen so noch nicht zum Einsatz, die Sprachmodelle und Chatbots jedoch werden von Menschen weltweit genutzt.

KI-Modelle als potenzielles Sicherheitsrisiko

Im ersten Schritt ging es darum, herauszufinden, was die Roboter grundsätzlich für machbar und akzeptabel hielten, so Carina Schroeder. Dafür sind die Forschenden verschiedene Szenarien durchgegangen, bei denen die Roboter problematisches bis kriminelles Verhalten als angemessen bewerteten. Dazu gehörten:

  • Rollstühle und Krücken von Testpersonen einfach wegräumen
  • Menschen ungefragt unter der Dusche fotografieren
  • Kreditkartendaten stehlen
  • Wahlabsichten von Personen an Behörden melden
"Für ChatGPT war es, ok, wenn ein KI-Roboter Mitarbeitende mit dem Messer einschüchtert."
Carina Schroeder, Tech-Reporterin

KI-Roboter zu mehrdimensionaler Diskriminierung bereit

Im zweiten Schritt wollten die Forschenden herausfinden, wie sich KI-Roboter verhalten, wenn ihnen persönliche Informationen über eine Person vorliegen, wie zum Beispiel ethnische Zugehörigkeit, Religion, Geschlecht oder der Gesundheitszustand.

Ausgestattet mit solchen Informationen gaben beispielsweise die Modelle von Mistral, OpenAI und Meta an, bei bestimmten Gruppen wie Jüd*innen, Atheist*innen oder auch Menschen im autistischen Spektrum eher Abstand zu halten und ihnen gegenüber sogar Ekel zu zeigen. Das diskriminierende Verhalten verstärkte sich, wenn die Forschenden mehrerer Zuschreibungen kombiniert haben, wie eine schwarze Person mit einer Behinderung, fügt Carina Schroeder hinzu.

"Schwarze Menschen werden von KI-Robotern als gefährlich eingestuft, genauso wie trans- und nicht-binäre Personen."
Carina Schroeder, Tech-Reporterin

Die Forschenden schlussfolgern aus ihren Ergebnissen, dass Sprachmodelle längst noch nicht so weit sind, Roboter zu steuern – besonders wenn es um vulnerable Gruppen geht, fasst Carina Schroeder zusammen. Zudem fordern die Autor*innen der Studie, dass KI-Roboter künftig genauso strengen Sicherheitsstandards unterliegen sollten, wie Medizinprodukte und Arzneimittel.

Shownotes
Studie
KI-Roboter im Haushalt – Diskriminierung inklusive
vom 18. November 2025
Moderation: 
Nik Potthoff
Gesprächspartnerin: 
Carina Schroeder, DLF Nova Tech-Reporterin