Diskriminierte fühlen sich oft allein gelassen. Viele kennen ihre Rechte nicht. Jurist Said Haider will emotionalen Support und Beratung mit dem Chatbot Yana bieten.
"You Are Not Alone" – dafür steht das Akronym des Chatbots Yana. Er soll Menschen unterstützen, die Diskriminierungserfahrungen machen. Hinter dem Projekt steckt der Berliner Jurist Said Haider, der bei seiner Suche nach emotionaler und juristischer Unterstützung im Netz nicht fündig geworden war.
Said Haider hat bereits Erfahrung mit der Entwicklung eines Chatbots. Sein vorheriges Projekt war der Chatbot Meta, der Opferberatung und Rechtsbeistand bieten wollte. Hinzugekommen ist beim Chatbot Yana somit der emotionale Aspekt der Unterstützung. Das spiegelt sich auch im Namen des Chatbots wider.
"Der wenige Tage junge Chat-Bot Yana soll diesen Menschen nun helfen, ihre Erlebnisse zu verarbeiten und sich Unterstützung zu holen. Vor allem aber soll er signalisieren: Du bist nicht alleine!"
Der Chatbot bündelt das Wissen über Hilfsangebote, Rechte und Handlungsmöglichkeiten. In einfacher Sprache bietet Yana ein weit verzweigtes Netz an Tipps an, wie man negative Gefühle verarbeiten, Wut ablassen, schlagfertiger werden oder Verbündete finden kann. Vor allem aber soll der Chatbot den Betroffenen Verständnis entgegenbringen.
"Die Beta-Version ist, wenn 'Yana' eine Torte ist, der Tortenboden. Nachdem wir jetzt gelauncht haben, wollen wir auch die KI im Hintergrund weiter trainieren und ausbauen."
Allerdings befindet sich der Chatbot noch in der Beta-Version. Das heißt, in einem Teststadium, indem zwar die Grundfunktionen schon vorhanden und geprüft sind, aber es trotzdem noch zu Bugs und Fehlern in der Anwendung kommen kann.
"Ich – als Jurist – habe mich gefragt: Kennen die ihre Rechte? Wissen die, wie die sich zu verhalten haben? Bekommen die genug Unterstützung?"
Deutschlandfunk-Nova-Reporterin Marlen Balzer hat den Chatbot getestet. Sie sagt: Die Software bietet bei der Anfrage nach emotionalem Support nicht das, was sich ein Diskriminierte wahrscheinlich wünschen.
Das Signal, das ein Gegenüber da ist, damit der- oder diejenige sich nicht allein gelassen fühlt, erfolgt durch Emojis, die eine positives Gefühl auslösen sollen: ein Husky, der mit den Ohren wackelt.
"Ich habe etwas reingeschrieben: 'Hallo, mein Sohn wurde diskriminiert, wir wurden beleidigt.'“
Auch Fredi, die den Chatbot testet, und ihm eine Nachricht über die Diskriminierungserfahrung ihres Sohnes schickt, ist etwas überrascht über die Antwort, die sie erhält. Der Bot schreibt zurück: "Leider weiß ich nicht, was du meinst, ich muss noch viel lernen."
Dass der Chatbot noch am Anfang seiner Entwicklung steht, ist dem Gründer Said Haider bewusst. Deshalb wünscht er sich Feedback für seine Initiative zu bekommen und dass Betroffene und Interessierte sich an den Chatbot heranwagen und ihn testen.
Frage nach Bedürfnisse
Das Angebot des Chatbots, die Betroffenen nicht nur über Beratungsangebote zu informieren, sondern ihnen auch Verständnis entgegenzubringen, hält Stephanie Schöttle für den richtigen Ansatz. Sie ist Psychotherapeutin und erarbeitet zurzeit die Weiterbildungsplattform "De_Construct", die Fachkräfte für Rassismus sensibilisieren soll.
"Der Chatbot sagt ja nicht nur: 'Hier ist ne Beratungsstelle in sonstwo', sondern er fragt: 'Was brauchst du gerade? Brauchst du eine virtuelle Umarmung oder ein nettes Wort? Oder willst du weitergucken, wen es in deinem Helfersystem gibt?'“
Dass es sich bei dem Angebot um einen Chatbot handele, könnte einen Einfluss darauf haben, wie die Reaktion der Betroffenen auf ihre Erfahrungen ausfällt. Stephanie Schöttle sagt dazu: "Dieser Moment der Überreaktion – also, dass ich im System sehr viel Anspannung habe – oder eben der Unterreaktion – dass ich mich erstarrt und überhaupt nicht mehr handlungsfähig fühle –, da setzt der Chatbot super an."
Chatbot: Individuelle Anfragen werden regelbasiert beantwortet
Die Systeme, die hinter Chatbots wie Yana stecken, sind regelbasiert. Das bedeutet, Nutzer*innen können in der Interaktion zwischen verschiedenen Wegen auswählen. Allerdings macht es keinen Unterschied, wenn unterschiedliche Nutzer die Auswahl treffen, das System bietet die gleiche Antwort, auch wenn die individuellen Bedürfnisse hinter einer Anfrage möglicherweise sehr verschieden sein können.
Experten erwarten eine Weiterentwicklung dieser rudimentären Interaktion. Die Wirtschaftspsychologin Marah Blaurock, die an der Universität Hohenheim forscht, sagt: "Zukünftig kann es sein, dass es Robotersysteme geben wird, die sich individuell an den Menschen anpassen."