Ein neues KI-Modell soll entlarven, wenn Texte von ChatGPT geschrieben wurden.
Jeden Tag kommen neue Meldungen darüber, was das KI-Programm ChatGPT wieder Neues gelernt hat. Die App hat das bayerische Abitur bestanden, macht Buchhaltung und schreibt wissenschaftliche Texte, die sogar Gutachter überzeugen. Forschende der Universität Kansas in den USA haben jetzt aber ein Modell vorgestellt, das angeblich ziemlich genau unterscheiden kann, ob ein wissenschaftlicher Text von Menschen geschrieben wurde oder von der Künstlichen Intelligenz.
Hinweise in der Schreibe
Die Forschenden schreiben, dass sie eine Reihe von Unterschieden identifiziert haben: etwa die Länge von Absätzen oder wie häufig bestimmte Wörter und Satzzeichen genutzt werden. Ein Prüf-Algorithmus hat wissenschaftliche Texte auf diese Unterschiede hin analysiert und das Programm lag laut den Forschenden zum Teil in mehr als 90 Prozent der Fälle richtig.
Von anderen KI-Fachleuten kommt aber Kritik: Sie sagen, dass der Datensatz für die Studie relativ klein ist und nur bestimmte Text-Arten untersucht wurden. Es wäre falsch, wenn jetzt der Eindruck entstehe, dieses Modell könne ChatGPT bei allen Arten von Texten ganz einfach auf die Schliche kommen.
