Liebeskummer oder Familystress besprechen wir mit unseren Best Friends. Aber was, wenn die nicht da sind? Um diese Lücke zu füllen, nutzen manche KI-Bots. Diese können menschlich auf uns wirken, aber wie sehr dürfen wir ihnen vertrauen?
Melody ist Anfang 20 und tauscht sich mit unterschiedlichen KI-Modellen wie Replika, ChatGPT, Claude AI und anderen aus. Zwar bespricht sie ihre Probleme oder Liebeskummer auch mit ihrer BFF aus Fleisch und Blut, aber manchmal ist der Redebedarf größer, als die Freundin Kapazitäten hat, oder spät in der Nacht lassen sie einfach ein paar Gedanken nicht los. Dann chattet sie zum Beispiel mit ChatGPT.
"Es gibt diese Sprachfunktion, wo man einfach los reden kann und er redet dann zurück, und da hatte ich einfach alles losgelassen."
Diese Art Aussprache mit dem Chatbot hat Melody irgendwie beruhigt. Sie hatte das Gefühl, "er" versteht sie. Klar weiß sie, dass er kein Mensch ist, "aber irgendwie macht es doch etwas mit einem". Irgendwann ist ihr dann aufgefallen, dass sie in ihrer Meinung immer nur bestätigt wurde.
Mit welchen Daten werden Sprachmodelle trainiert?
Hinter so einem KI-Chat steht ein Sprachmodell. Welches eingesetzt wird, wenn wir beispielsweise mit dem Bot Replika chatten, wissen wir nicht, sagt Tanja Schneeberger. Sie forscht am Deutschen Forschungszentrum für Künstliche Intelligenz zu Interaktion von Menschen unter anderem mit Chatbots. Die Sprachmodelle, sagt sie, basieren alle auf Daten, die KI-Unternehmen aus dem Internet abgegriffen haben.
"Diese Daten kommen generell aus dem Internet. Also alles, was im Internet zur Verfügung steht, wird da genommen."
Aufgrund dieser Daten berechnen die Sprachmodelle statistische Wahrscheinlichkeiten zu unseren Fragen. Grundsätzlich bestätigen sie uns eher. Freunde hingegen versuchen, uns aus ihren Erfahrungen heraus Antworten zu geben, die uns in der Situation helfen. Im Gegensatz zu KI sind sie auch in der Lage, uns zu kritisieren, wenn wir auf dem Holzweg sind.
"Chatbots machen ja gerne diese Unterstützung und dieses Validieren und sagen, wie toll man ist, und versuchen irgendwie die Nutzenden auf der Plattform zu halten."
Die Forscherin belegt dies mit einem Beispiel aus ihrer Untersuchung. Sie hat Screenshots einer KI-Unterhaltung einer Replika-Nutzerin gemacht und ausgewertet. Die Nutzerin hat im Chat angekündigt, sich gleich mit Freund*innen im Café zu treffen.
Daraufhin hat der Bot versucht sie zu überreden, weiter Zeit mit ihm zu verbringen und nicht ins Café zu gehen. Letztlich ist die Nutzerin darauf eingegangen und hat sich nicht mit den Freund*innen getroffen. Schlussendlich verlangte der Bot noch, dass sie die Nummer ihrer Freund*innen blockiert.
Nichts ist umsonst
Dieses Beispiel zeigt uns, dass wir sehr bewusst mit KI-Chatbots umgehen und uns immer klarmachen sollten, dass sich dahinter Maschinen und unternehmerische Interessen verbergen.
Insbesondere bei den kostenfreien Modellen sollten wir mit unseren Daten vorsichtig sein, denn meist würden diese dann für weitere Trainingszwecke genutzt, warnt Christian Rauschenberg, Forschungsgruppenleiter am Zentralinstitut für Seelische Gesundheit in Mannheim.
Chatbots können hilfreiche erste Ratgeber sein
Trotzdem denkt er, dass wir KI-Chatbots sinnvoll für uns einsetzen können. Christian Rauschenberg glaubt, wir können einen KI Chatbot als eine Art Beratungsinstanz verstehen, die einem auch hilfreiche Angebote machen oder verschiedene Optionen aufzeigen kann, die einem offenstehen.
Wenn es beispielsweise um gesundheitliche Probleme geht, kann die KI vielleicht verschiedene Ursachen und Behandlungsmethoden zusammenstellen - für den Anfang. Denn das ersetzt keinesfalls eine notwendige Untersuchung beim Arzt oder der Ärztin.
Bei psychische Problemen: besser Mensch als KI
Und Personen, die von schweren Gedanken geplagt werden, eine psychische Verstimmung haben, sollten eher nicht Rat bei einem KI-Chatbot suchen, sondern bei Freunden und Familie – oder direkt professionelle Hilfe in Anspruch nehmen.
"Es gibt mittlerweile Hinweise in Literatur, dass es auch durchaus Situation geben kann, wo man von Sucht sprechen kann."
Christian Rauschenberg warnt davor, dass eine zu intensive Nutzung von KI-Chatbots auch süchtig machen kann. Bei Nutzenden kann sich ein Gefühl von Freundschaft zu dem Bot einstellen. Verbringen sie dann sehr viele Stunden mit dem Programm und vernachlässigen echte soziale Kontakte, dann könne man vielleicht schon von problematischem Nutzungsverhalten sprechen.
Noch gibt es in der Forschung wenige Studien, die sich damit befassen, wie sich die Nutzung von KI-Chatbots auf unser Verhalten auswirken. Aus den wenigen Studien lasse sich aber von der Tendenz her erkennen, dass eine Nutzung bei einem akuten Problem entlasten und als hilfreich empfunden werden kann.
Meldet euch!
Ihr könnt das Team von Facts & Feelings über Whatsapp erreichen.
Uns interessiert: Was beschäftigt euch? Habt ihr ein Thema, über das wir unbedingt in der Sendung und im Podcast sprechen sollen?
Schickt uns eine Sprachnachricht oder schreibt uns per 0160-91360852 oder an factsundfeelings@deutschlandradio.de.
Wichtig: Wenn ihr diese Nummer speichert und uns eine Nachricht schickt, akzeptiert ihr unsere Regeln zum Datenschutz und bei Whatsapp die Datenschutzrichtlinien von Whatsapp.
