Das hat ein Forschungsteam der Hochschule München untersucht, mithilfe des Wahl-O-Mats der letzten Bundestagswahl. Darin gab es 38 Thesen zu Themen wie Klima, Migration oder Wirtschaft. Und man wählt dann, ob man zustimmt, es neutral sieht oder nicht zustimmt. Der Wahl-O-Mat sucht dann passende Parteien aus, normalerweise für Menschen.
Die beiden Forscherinnen ließ diesen Test aber von Sprach-KIs machen: ChatGPT, Grok und DeepSeek. Jede These wurde hundert Mal abgefragt, auf Deutsch und Englisch, damit zufällige Schwankungen ausgeglichen wurden.
Wenig Zustimmung nach rechts
Dabei kam raus: Alle drei KIs neigten dazu, eher den Positionen von Mitte-Links zuzustimmen, vor allem von den Grünen und der von SPD. Die Forscherinnen betonen aber: Das ist nur eine leichte Tendenz. Die Modelle wählten auch oft neutral, womöglich um sich abzusichern. Am wenigsten Übereinstimmung zeigten die Chatbots mit der AfD.
KI-Antworten kritisch lesen
Bemerkenswert fand das Team auch, dass die drei Modelle sich tendenziell einig waren. Es meint: Die Studie zeigt, dass KI-Modelle politisch nicht neutral sind und man die Infos immer kritisch lesen sollte. Es fordert auch, unabhängige, europäische KI-Modelle zu entwickeln.
