Aus dem Grund hat die ChatGPT-Entwicklerfirma OpenAI die aktuelle Variante ihres Modells GPT-4o wieder zurückgenommen.
Im Netz gab es in den letzten Tagen immer mehr Beispiele dafür, wie diese ChatGPT-Version Nutzerinnen und Nutzer auch bei einfachen Nachfragen erst einmal mit Lob überschüttete. Selbst definitiv schlechte Ideen wurden euphorisch unterstützt - etwa einen Kaktus zu umarmen.
Zu wenig Vertrauen in Schleimer-KI
OpenAI sagt, dass es für die User unangenehm und verstörend sein kann, wenn die Software sich so verhält. Die "Persönlichkeit" der KI beeinflusse, wie die Menschen damit interargieren und ob sie dem Programm vertrauen.
Die Version wurde wohl darauf trainiert, den Nutzerinnen und Nutzern zu gefallen. Die Daten zeigen nämlich, dass Zuspruch bei ihnen gut ankommt.
In Zukunft sollen sie das Verhalten der Software selbst anpassen können und beispielsweise zwischen verschiedenen Persönlichkeiten wählen. Mit bestimmten Anweisungen kann man heute schon den Tonfall etwas lenken.
