Antworten von KI-Chatbots sind mit Vorsicht zu genießen.

Das zeigt jetzt auch ein Fall aus den USA - da ist ein Mann mit einer Vergiftung im Krankenhaus gelandet, nachdem er sich Ratschläge von ChatGPT geholt hatte. Konkret wollte er wissen, wie sich Kochsalz ersetzen lässt. Mit chemischem Halbwissen bat er die KI um Alternativen - und nahm dann wohl über drei Monate Bromidsalze zu sich. Denn der Chatbot habe ihm bestätigt, dass sich Natrium-Chlorid durch Natrium-Bromid ersetzen lasse. Das gilt allerdings nicht für medizinische Zwecke oder beim Essen, sondern zum Beispiel für Reinigungsmittel oder, je nach Anwendung, im Labor.

Mediziner der Uni Washington in Seattle schreiben in ihrem Fallbericht, dass sie nicht komplett nachvollziehen können, was genau der Mann gefragt und was ChatGPT geantwortet hat. Vielleicht hat er die Antwort auch nur halb gelesen. Trotzdem fänden es die Forschenden wichtig, dass eine KI bei solchen Fragen eine Gesundheitswarnung ausgibt - oder zumindest nachfragt, wofür jemand die Info haben will. Bromidsalze waren früher in manchen Medikamenten; später wurde klar, dass sie Vergiftungen auslösen können.