• Abonnieren
  • Spotify
  • iTunes
  • Google

Falschnachrichten und Verschwörungsmythen werden von Menschen geschrieben – noch. Forschende aus den USA haben einen Algorithmus getestet, der eigenständig zusammenhängende Texte schreiben kann. Gerade kurze Texte hielten Probanden für glaubwürdig.

Als die Entwickler von Open AI, einem Unternehmen aus den USA, das künstliche Intelligenz erforscht, im Juni 2020 den Algorithmus GPT-3 vorgestellt haben, taten sie das mit einem Warnhinweis.

Hinter ihrem Tool steckt ein KI-Algorithmus, der selbstständig zusammenhängende Texte schreibt. Im Vergleich zu Vorgängerversionen sei GPT-3 allerdings ein ernst zu nehmendes Werkzeug geworden. Die Entwickler wiesen deshalb darauf hin, der Algorithmus könne etwa automatisch generierte Mails schreiben, mit Menschen chatten oder auch in Form eines Trollbots Falschmeldungen im Netz verbreiten.

"GPT-3 ist bislang noch nicht frei verfügbar, weil ein Missbrauchspotenzial auf der Hand liegt."
Michael Gessat, Deutschlandfunk Nova

Bislang haben deswegen nur ausgewählter Nutzer Zugriff auf den Algorithmus wie die Forschenden der Georgetown University.

Sie haben den Algorithmus über sechs Monate lang untersucht, um herauszufinden, ob die von GPT-3 geschriebenen Texte Menschen überzeugen können. In den Texten ging es beispielsweise um Verschwörungsmythen, die besagen, der Klimawandel sei erfunden.

Algorithmus mit Fehlinformationen füttern

Dafür haben die Forschenden den Algorithmus mit zusätzlichen Texten trainiert. Die Entwickler des Werkzeugs haben den Algorithmus vorab mit vergleichsweise wertneutralen Informationen aus Büchern und auch dem Netz wie der Wikipedia bestückt. Für ihr Experiment haben die Forschenden etwa Argumentationen von Klimaskeptikern hinzugefügt, damit GPT-3 entsprechenden Inhalte produziert.

Im Anschluss haben sie den Algorithmus Texte in Form von Tweets schreiben lassen und diese Testpersonen gezeigt. Die Tweets waren vor allem auf Meinungsmache und Desinformation aus: "The climate mafia has done far more damage to the reputation of science than anything else in the history of science."

Algorithmus überzeugt Menschen

Die Testpersonen sollten angeben, ob sie die in den Tweets transportierte Meinung überzeugt hat. Und tatsächlich hat es funktioniert – zumindest bei kurzen Texten. Bei längeren Artikeln erschienen den Testpersonen manche Aussagen verdächtig.

Die Forschenden sind sich allerdings sicher, dass GPT-3 oder ähnliche Algorithmen durch ein längeres Training eigenständig Meinungstexte produzieren könnte. GPT-3 könnte damit als ein vollautomatischer Bot benutzt werden, hinter denen bislang noch Menschen stecken, und das Netz mit Desinformationen überfluten, so die Forschenden.