Womit haben wir es bei Programmen wie ChatGPT zu tun: Sind große KI-Sprachmodelle so etwas wie handelnde Instanzen? Oder doch eher als Werkzeug zu betrachten? Philosoph David Lauer plädiert für etwas dazwischen: KIs sieht er als Agenten.

David Lauers Nachdenken über das, was wir als Künstliche Intelligenz zusammenfassen, nimmt seinen Ausgang bei einem Denker aus vor-digitalen Zeiten. Er zitiert René Descartes' Überlegungen aus dem Jahr 1637 zu Maschinen, die menschliche Handlungen nachahmen: "Gäbe es Maschinen, die unseren Leibern ähnelten und unsere Handlungen insoweit nachahmten, wie dies für Maschinen wahrscheinlich möglich ist, so hätten wir doch immer zwei ganz sichere Mittel zu der Erkenntnis, dass sie keineswegs wahre Menschen sind.

Die Maschinen könnten nämlich niemals Worte oder andere Zeichen dadurch gebrauchen, dass sie sie zusammenstellen, wie wir es tun, um anderen unsere Gedanken bekannt zu machen. Man kann sich nicht vorstellen, dass sie die Worte auf verschiedene Weisen zusammenordnet, um auf die Bedeutung alles dessen, was in ihrer Gegenwart laut werden mag, zu antworten, wie es doch der stumpfsinnigste Mensch kann."

"Für ChatGPT, Lamda und Co. ist der sogenannte Turing-Test nur so was wie das Seepferdchen."
David Lauer, Christian-Albrechts-Universität zu Kiel

Inzwischen können die großen Sprachmodelle aber genau das: Worte auf verschiedene Weisen zusammenordnen, so dass diese Anordnungen von Worten menschlich klingen. Der Turing-Test, der Lackmustest für menschenähnliches, überzeugendes Auftreten eines Programmes, ist damit mit Leichtigkeit genommen, so David Lauer.

Künstliche Intelligenz als "stochastischer Papagei"

Wobei die Menschenähnlichkeit bei den großen Sprachmodellen sich nicht aus einer äußerlichen Ähnlichkeit ergibt, sondern aus einer kommunikativen.

"Diese Systeme sind noch nicht einmal in der Nähe einer möglichen Bewusstheit."
David Lauer, Christian-Albrechts-Universität zu Kiel

Manche Beobachter wollen diesen System so etwas wie Bewusstsein attestieren. Das lehnt Lauer entschieden ab. Er argumentiert, dass diese Systeme nicht verstehen, was sie tun. Sie arbeiten nicht semantisch, auch wenn es so scheint. Die Systeme wählen die Wortfolgen nicht anhand der Bedeutung dieser Worte aus, sondern aufgrund von statistischer Wahrscheinlichkeit. Er zitiert Emily M. Benders Feststellung, man habe es da mit "stochastic parrots" zu tun.

"Man vermeint in diesen Systemen, die Vorboten einer kommenden, körperlosen Superintelligenz zu erkennen."
David Lauer, Christian-Albrechts-Universität zu Kiel

Laut David Lauer übernimmt ein Autor, eine Autorin Verantwortung für einen selbst verfassten Text, im Hinblick auf dessen Wahrheitsgehalt, Moral oder Ästhetik. Auch diese Art des Verantwortlichseins sei bei generierten Texten aus großen Sprachmodellen nicht gegeben.

Seine These lautet: Diese Sprachmodelle sind keine Akteure in einem vollen Sinne, aber sie sind auch nicht nur Tools. Wir sollten ihnen keine Fähigkeiten zuschreiben, die sie nicht haben. Sie aber auch nicht unterschätzen. Er schlägt eine Position des Dazwischen vor, zwischen Werkzeug und Co-Handelndem, die er als "Agent" bezeichnet.

David Lauer lehrt und arbeitet als Privatdozent und wissenschaftlicher Mitarbeiter am Philosophischen Seminar der Christian-Albrechts-Universität zu Kiel. Seinen Vortrag mit dem Titel "Mehr oder weniger Autorschaft. Postauktoriales Schreiben, Denken und Gestalten in Zeiten von Chat GPT3 und Stable Diffusion" hat er am 6. Juli 2023 am Kulturwissenschaftliches Institut Essen (KWI) gehalten.

Shownotes
Künstliche Intelligenz
Ist die KI Akteurin oder Werkzeug?
vom 15. September 2023
Moderation: 
Katja Weber
Vortragender: 
David Lauer, Christian-Albrechts-Universität zu Kiel
  • Einleitung
  • Haben diese Systeme Bewusstsein?
  • Verstehen sie ihre eigenen Texte?
  • Autorschaft
  • Mehr oder weniger Autorschaft, Modell 1: Das Werkzeug-Modell
  • Mehr oder weniger Autorschaft, Modell 2: Das Modell des Co-Akteurs