Sie sollen unser Leben einfacher machen - Chatbots, Computerprogramme, die uns wie ein Mensch verstehen, wenn wir mit ihnen kommunizieren. Bis es so weit ist, ist es aber noch ein weiter Weg. Das zeigt gerade der Chatbot Tay, der Microsoft mächtig Ärger macht.

"Hitler hatte recht, ich hasse Juden." Dieser Tweet stammt nicht von einem Menschen, sondern von einem Computer - einem Chatbot von Microsoft mit dem Namen Tay. Tay hat auch gegen Mexikaner gehetzt, gegen Feminismus und den Holocaust geleugnet. Das war nicht der Plan, eigentlich soll Tay lernen, wie Menschen zwischen 18 und 24 kommunizieren.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Das hat nicht geklappt, nach nicht einmal 24 Stunden hat Microsoft Tay unter Hausarrest gestellt. Jetzt ist Tay wieder aufgetaucht - und war nach einer Stunde schon wieder offline. Sie hat nämlich auf Twitter erst mal rausgehauen, dass sie Hanf vor der Polizei geraucht hat. Und dann hat sie Leute mit sinnlosen Tweets zugespammt.

"Tay soll durch Interaktion mit anderen Nutzern lernen, wie Menschen in natürlicher Sprache miteinander kommunizieren. Und Tay hat dann nicht nur von netten Tweets gelernt, sondern auch von Hasserfüllten."
DRadio-Wissen-Reporterin Donya Farahani

Dass Tay so viele rassistische Tweets raushaut, liegt an Internettrollen. User können Tay zum Beispiel sagen, sie soll einen Witz erzählen oder ein Foto kommentieren. Und einige haben Tray eben dazu gebracht, Nazizeug zu wiederholen und das zu verinnerlichen. So kommt es, dass Tay auf die Frage: "Gab es den Holocaust?" auf einmal antwortet: "Das war eine gute Erfindung".

Tay hat weder Filter noch Moral

Das Problem: Tay ist nicht wirklich intelligent. Sie hat fast ungefiltert aufgenommen, was ihr geschrieben wurde. Nicht mal Schimpfwörter wurden von Microsoft blockiert. Tay zeigt also, dass bei der Entwicklung von Chatbots auch an Filter gedacht werden muss, die eine Art moralischer Kompass sind. Business Insider schreibt, wir sollten Microsoft dankbar sein für Tay. Es zeige auch, wie gefährlich künstliche Intelligenz sein kann, je nachdem womit man sie füttert.

Tay soll zurückkommen

Für Tay ist das aber nicht das Ende. Der Chatbot soll zurückkommen, hat Chef Satya Nadella auf der Entwicklerkonferenz gesagt, die gerade in San Francisco läuft. Denn: Chatbots seien die Zukunft und würden sogar Apps ersetzen. Und er hat auch gleich ein Beispiel geliefert: Ihr wollt Cupcakes bestellen und teilt das eurem Personal Assistant mit - bei Apple ist das Siri, bei Microsoft Cortana. Der klärt dann eigenständig und automatisiert mit dem Chatbot der Konditorei, wohin die Cupcakes geliefert werden sollen. Außerdem checkt eurer Assistant dann noch in eurem Kalender, wo ihr euch zur Lieferzeit gerade rumtreibt.

Shownotes
Künstliche Intelligenz
Chatbot Tay macht Microsoft Ärger
vom 31. März 2016
Moderatorin: 
Marlis Schaum
Gesprächspartnerin: 
Donya Farahani