Häusliche Gewalt kann jeden treffen. Die Hürde, Hilfe anzunehmen, kann für Betroffene hoch sein. Oft ist sie mit Ängsten verbunden. Ein neuer Chatbot will diese Hürde nehmen. Die KI soll ein offenes, wertungsfreies Ohr für Betroffene sein.

Sie ist rund um die Uhr erreichbar, hört zu und bietet Hilfe an: Maya, ein Chatbot für Betroffene von häuslicher Gewalt. Die KI hat aber besonders eine Aufgabe: Sie soll nicht bewerten, was Betroffene mit ihr teilen.

"Vor allem glaubt der Chatbot Betroffenen ohne Be-oder Verurteilung. Leider sei das menschliche Umfeld oft nicht so", sagt Deutschlandfunk-Nova-Reporterin Fanny Kniestedt. Scham, Selbstzweifel und Angst greifen tief. Hilfe anzunehmen fällt Betroffenen teilweise sehr schwer. Im Durchschnitt brauchen sie sieben Anläufe, um sich von ihrem gewalttätigen Partner zu trennen.

"Der Chatbot ist einfach da und hört zu. Zu jeder Tageszeit. Vor allem glaubt er den Betroffenen. Leider sei das menschliche Umfeld oft nicht so."
Fanny Kniestedt, Deutschlandfunk-Nova-Reporterin

Maya wurde vom Start-up myProtectify entwickelt, um Menschen in Gewaltbeziehungen emotional und praktisch zu unterstützen. Diese Hilfe soll möglichst niederschwellig sein. Laut der Gründerin des Start-ups sei die Onlinesuche nach Hilfsangeboten teilweise aber unübersichtlich. Hier soll der Chatbot ansetzen und verständlich formulierte Informationen liefern, zum Beispiel darüber, welche Formen von Gewalt es gibt oder welche Beratungsstellen in der Nähe sind. Das geht anonym und kostenlos.

Häusliche Gewalt gegen Frauen

Die KI soll dabei aber nicht Sozialarbeiter*innen oder Psycholog*innen ersetzen, sondern den Weg ins echte Hilfesystem ebnen. Maya ist deshalb auch optisch als eine Comicfigur dargestellt und sieht nicht aus wie ein Mensch.

Laut Entwicklerin Ann Rheinheiner gebe es bei Maya keine Motivation, User*innen an den Chatbot zu binden. Dem Start-up gehe es auch nicht darum, Profit mit der KI zu machen, anders als bei den KI-Modellen von OpenAI oder Google zum Beispiel.

Sicherheit beim Chatten

Der Verein Frauenhauskoordinierung weist in dem Zusammenhang darauf hin, wie wichtig der Aspekt der User-Bindung ist, wenn sich Menschen in persönlichen Krisen an eine KI wenden. Wenn KI-Systeme zum Beispiel darauf ausgelegt seien, Nutzer*innen möglichst lange zu binden, würden Betroffene eventuell keine professionellen menschlichen Hilfsangebote in Anspruch nehmen, so die Organisation.

KI-Systemen fehle die Kompetenz, akute Krisensituationen angemessen einzuschätzen. Außerdem hat die Organisation auch allgemeine Sicherheitsbedenken. Chatverläufe könnten zu einer akuten Gefahr werden, wenn Täter Zugriff auf das verwendete Gerät haben.

Beim Maya-Chatbot soll ein spezieller Button für die Sicherheit der User*innen sorgen. "Wenn man oben rechts den Button 'sicher verlassen' nutzt, landet man bei uns aktuell auf einer Wetterseite und kommt auch nicht mehr zurück zu unserem Chat. Das heißt: Man hat unsere Seite verlassen, der Chat ist gelöscht und auch die Myprotectify-Webseite findet man nicht mehr im Browserverlauf", erklärt Entwicklerin Ann Rheinheiner.

Der Chatbot ist aus Sicherheitsgründen auch nur als Webseite verfügbar, nicht als App. Das soll Betroffene schützen, wenn gewalttätige Partner*innen ihre Handys ausspionieren. Wenn während des Chattens eine akute Gefahr ersichtlich wird, antworten die Mitarbeiter*innen des Start-ups und verweisen an die Polizei.

Maya wird konstant weiterentwickelt. Es gibt sie bereits in 28 Sprachen.

Hilfe bei Gewalt und Missbrauch (Link am besten im Inkognito-Modus öffnen)

Gewalt kann alle treffen. Wenn du dich informieren möchtest oder Hilfe suchst – für dich selbst, für Freund*innen oder Familie – dann haben wir hier einige Angebote für dich zusammengestellt. Lass dir helfen. Bei zahlreichen Stellen ist es sogar möglich, sich anonym beraten zu lassen.

Shownotes
KI
Häusliche Gewalt: Chatbot Maya hört zu und urteilt nicht
vom 13. November 2025
Moderator: 
Christoph Sterz
Gesprächspartnerin: 
Fanny Kniestedt, Deutschlandfunk Nova