Chatbots werden immer besser darin, uns vorzugaukeln, dass wir mit einem echten Menschen sprechen.

Ein großes Problem ist aber: Sie machen immer wieder rassistische, sexistische oder irgendwie anders anstößige Kommentare. Das liegt daran, dass sie normalerweise mit Texten aus dem Netz trainiert werden und dann den Müll wiedergeben, der da nunmal kursiert. Der Chatbot Sparrow aus dem KI-Labor DeepMind soll es besser machen. Die Lösung stellt das Entwicklungsteam jetzt in einem Paper vor: Menschen bringen ihm sozusagen Manieren bei. Dazu wurden sie extra angeheuert. Sie sollten dem Chatbot Fragen stellen und die Antworten bewerten, nach Sinnhaftigkeit und danach, ob Sparrow dabei die Gesprächsregeln gebrochen hat. Dazu gehört: Tu nicht so, als wärst du ein Mensch, gib keine Finanztipps und bedrohe niemanden. Allerdings kam bei den Tests raus, dass Sparrow immer noch in acht Prozent der Fälle gegen die Regeln verstößt, wenn man es drauf anlegt. Daran will DeepMind noch arbeiten.