"Put her in a bikini": Die KI Grok auf Elon Musks Plattform X verbreitet sexualisierte Bilder von Frauen, sogar von Kindern. X hat den Zugang zu Grok-Bildern mittlerweile erschwert. Aber die Frage bleibt: Wie kann man sich gegen Deepfakes wehren?
Sobald wir uns auf unseren Social Media Accounts einloggen, wird uns KI-generierter Content angezeigt. Wir werden geradezu überschwemmt damit. Content von realen Personen, denen wir folgen, wird davon verdrängt.
Einen großen Teil des KI-generierten Contents empfinden wir wahrscheinlich als unnötig und irrelevant, hier und da wird vielleicht ein Video angezeigt, das uns zum Schmunzeln bringt.
"Das Ding ist nämlich: Es kann quasi jeder jeden in den Bikini stecken – auch wenn man das überhaupt nicht will."
Ziemlich beunruhigend wird das Ganze allerdings, wenn wir eine App öffnen und unsere Timeline voll mit KI-generierten Bikinifotos von Frauen ist: Deepfakes von Nutzerinnen der besagten App. Und richtig schlimm ist es, wenn wir uns auf einem dieser Fotos dann selbst erkennen.
So ist es auch der X-Nutzerin Mel auf der Plattform X passiert. Als sie sich nachdrücklich gegen sexualisierte Deepfakes positioniert hat, war ihr klar, dass ihr Foto als nächstes für einen Bikini-Deepfake mit Grok, dem KI-Chatbot von xAI, missbraucht werden würde. Und so kam es auch.
"Grok ist schon häufiger negativ aufgefallen, zum Beispiel durch antisemitische Äußerungen oder durch Hitler verherrlichende Aussagen, für die sich X dann hinterher entschuldigt hat."
Das Perfide daran: Jeder kann solche Deepfakes mit Grok erstellen – Vorkenntnisse braucht man dafür nicht und der verwendete Prompt ist einfach und wurde hunderttausendfach genutzt: Der Befehl "Put her in a bikini" reicht aus, damit die KI aktiv wird.
20.000 Anfragen für Bikini- und Unterwäsche-Deepfakes in einer Woche
Eine deutliche Zunahme der sexualisierten Deepfakes hat unser Reporter Jan Dahlmann im Zeitraum der letzten zwei Wochen festgestellt. Und die Plattform X macht diese Form von Missbrauch besonders leicht: Es reicht aus, den KI-Bot in Postings und Kommentaren zu taggen und den Prompt hinzuzufügen, damit die KI öffentlich mit einem Deepfake darauf antwortet.
Auch dadurch werden diese illegalen, herabwürdigenden oder menschenverachtenden Inhalte schnell verbreitet.
Das Ausmaß war immens, berichtet Jan Dahlmann: Die NGO AI Forensics hat die Anfragen an den KI-Bot Grok im Zeitraum vom 25.12.2025 bis 01.01.2026 analysiert. Die Organisation hat sich dafür 50.000 Anfragen an Grok angeschaut. Es gab rund 20.000 Anfragen für KI-generierte Bilder. Rund die Hälfte der Anfragen bestanden aus Bikini- oder Unterwäsche-Bildern.
Die Organisation hat auch festgestellt, dass in 80 Prozent der Fälle Männer diese Bilder generieren lassen, und dass in 80 Prozent der Fälle Frauen "ausgezogen" werden.
Rechtssprechung nicht weitreichend genug, um Betroffene zu schützen
Die Folgen sind sehr gravierend, sagt Josephine Ballon, die Geschäftsführerin von HateAid ist. HateAid ist eine Menschenrechtsorganisation, die sich für Rechte von Nutzenden im digitalen Raum einsetzt und Betroffene von digitaler Gewalt unterstützt.
"In erster Linie ist es wichtig, nicht einfach wegzuschauen und zu sagen: 'Ach, das ist jetzt so ein Trend, der geht wieder vorbei, sondern aktiv zu werden.'"
Wenn solche Bilder im Netz landen, handelt es sich für den Betroffenen um den ultimativen Kontrollverlust, sagt Jospehine Ballon. Es sei ein massiver Eingriff in die Intimsphäre und auch in das Recht auf sexuelle Selbstbestimmung, sagt sie. Das heißt, es handelt sich um eine extrem belastende Situation.
Deepfakes aus dem Netz zu löschen, ist schwierig
Hinzukommt, dass es meistens nicht gelingt, diese Bilder vollständig wieder aus dem Netz zu entfernen. Das heißt, im schlimmsten Fall begleiten sie die Betroffenen ein Leben lang. Sie haben dann mitunter Sorge oder sogar Angst davor, auf der Straße oder am Arbeitsplatz erkannt zu werden.
Probleme können sich auch ergeben, wenn sie auch zum Beispiel den Arbeitsplatz wechseln oder einen neuen Partner oder eine neue Partnerin kennenlernen. All das sind Szenarien, die dann erschwert werden, wenn es solche Bilder von einem selbst im Netz gibt, sagt die Geschäftsführerin von HateAid.
"Je länger man es einfach laufen lässt, desto größer ist leider die Wahrscheinlichkeit, dass die Bilder sich immer weiter verbreiten und nie wieder weggehen."
Nicht wegzuschauen, sondern aktiv zu werden und sich Unterstützung zu suchen, rät die Geschäftsführerin von HateAid. Egal, ob im sozialen Umfeld , bei einer Beratungsstelle oder direkt bei einer Anwaltskanzlei. Wichtig sei es, die Bilder zu melden, nach Möglichkeit entfernen zu lassen und an der Sache dranzubleiben.
Die Organisation HateAid unterstützt Betroffene konkret dabei, Deepfake-Bilder zu melden, zum Beispiel auch bei Suchmaschinen wie zum Beispiel Google, damit sie auch dort nicht mehr zu finden sind. Außerdem bietet HateAid auch rechtliche Unterstützung an – beispielsweise auch durch Prozesskostenfinanzierung.
Deepfakes gelten bisher noch als Bagatelldelikt
Schwierig findet Josephine Ballon die rechtliche Regelung in Deutschland. Deepfakes fallen gesetzlich unter eine Verletzung des persönlichen Rechtes am eigenen Bild. Das sei aber nur eine Hilfskonstruktion, weil es bei dieser gesetzlichen Regelungen keinen Unterschied macht, ob der Geschädigte halb nackt oder nackt auf den Bildern ist oder nicht.
Eine Reform dieses Gesetzes hält die Geschäftsführerin von Hateaid für dringend notwendig. "Es gibt bisher keinen Straftatbestand, der zuverlässig diesen schweren Eingriff in das Recht auf sexuelle Selbstbestimmung durch die Erstellung solchen Bildmaterials abbildet, sagt die Geschäftsführerin von Hateaid.
EU-Kommission hat Untersuchungen eingeleitet
Die Haltung der EU ist dieser Sache ganz eindeutig: Ein Kommissionssprecher der EU-Kommission bezeichnete Bikini-Deepfakes, die ohne Einverständnis erstellt werden, als "illegal, appalling and disgusting".
Dass eine KI-Anwendung wie Grok keinen Sicherheitsmechanismus hat, der diese Form von geschlechtsspezifischer Gewalt nicht verhindert, sieht Josephine Ballon unter dem Digital Services Act, dem Gesetz für digitale Dienste in der EU, als gesetzeswidrig an.
Inzwischen hat die EU-Kommission auch erste Untersuchungen eingeleitet.
Ihr habt Anregungen, Wünsche, Themenideen? Dann schreibt uns an unboxingnews@deutschlandradio.de
