Immer mehr Aufgaben können uns Künstliche Intelligenzen (KI) abnehmen. Zum Beispiel schreibt ein von Amazon entwickelter Algorithmus Rezensionen, wenn wir das selbst nicht machen wollen. Die KI macht den Job allerdings so schlecht, dass die Nachteile für Kunden überwiegen, so eine Untersuchung.
Seit einiger Zeit fasst eine Amazon-KI bestimmte Produktrezensionen für Kaufinteressierte zusammen. Die Internetseite Bloomberg hat die Rezensions-KI von Amazon überprüft und festgestellt, dass der Algorithmus seinen Job aus Verbrauchersicht gar nicht gut macht. Demnach sei es beispielsweise so, dass die KI zum Teil negative Produktkritiken zu sehr aufbläst und insgesamt die positiven und negativen Aspekte eines Produkts nicht wirklich stringent auflistet.
Die im Sommer 2023 von Amazon vorgestellte Entscheidungshilfe soll Kund*innen eigentlich beim Kauf unterstützen, indem sie Kernaussagen zahlreicher Bewertungen zusammenfassend darstellt. Daraus erstellt ein Algorithmus automatisiert eine Kurzrezension mit den Highlights von verschiedenen Aspekten des Produkts.
"Amazon hat diese KI für die denkbar Faulsten unter uns in die Welt gesetzt. Sie soll uns abnehmen, dass wir uns nicht durch hunderte Rezensionen zu einem Produkt wühlen müssen."
Im Bloomberg-Test wurde bei dutzenden Produkten geschaut, wie gut die KI die Highlights der Bewertungen herausfiltert und berücksichtigt. Das Ergebnis stellte die Journalist*innen nicht zufrieden. Bei einem der Beispiele im Bloomberg-Test schrieb die KI etwa bei Einmachgläsern (die durchschnittlich ein 4,5-Sterne-Ranking erzielten) als negativen Aspekt, dass die Gläser Rostspuren enthielten. Bei 3.000 vorhandenen Kritiken sei dieser Aspekt laut Bloomberg bei den negativen Bewertungen aber gerade mal von 16 Nutzenden erwähnt worden.
KI bewertet negative Aspekte in Rezensionen zu stark – oder zu schwach
Trotzdem nähmen diese 16 Erwähnungen ein Drittel der KI-Zusammenfassung ein – dementsprechend schlecht erscheint Nutzenden dann ein Produkt natürlich auch.
Andersherum zeigt die Bloomberg-Analyse aber auch, dass die Amazon-KI manchmal die negativen Aspekte in Rezensionen nicht ausreichend würdigt: Bei einem Rucksack, der mehr als 21.000 Rezensionen erhielt, fehle in der von der KI zusammengefassten Version aller Bewertungen zum Beispiel die Info, dass für die Trägergurte des Rucksacks schlechteres Material verwendet worden sei.
Und es geht noch falscher: Amazons Alghorithmus macht auch schon mal aus einem Fitnessgerät einen Schreibtisch, schreibt Bloomberg.
"Manchmal macht die KI sogar noch gröbere Schnitzer und klassifiziert ein Produkt falsch. Zum Beispiel heißt es in der KI-Beschreibung eines Fitnessgeräts, einem sogenannten Inversionstisch zur Linderung von Rückenschmerzen, 'Kunden schätzen die Robustheit, Einstellbarkeit und Schmerzlinderung des Schreibtisches'."
Dass die KI nicht sauber arbeitet, ist auch Kund*innen schon aufgefallen. Sie sagen, dass die KI-Funktion den Weihnachtsverkäufen schadet. Amazon erklärt bisher nicht, wie die Algorithmen der Rezensions-KI funktionieren. Der Konzern sagt auch nicht, wie Verkäufer*innen gegen solche Verzerrungen vorgehen können. Einfluss auf konzerninterne Tools haben sie ohnehin nicht. Sie müssen sich mit Anliegen an den Verkaufssupport wenden – in der Hoffnung, dass der antwortet.
Amazon weist Kritik zurück
Amazon lässt wissen, dass die hausinternen Analysen zeigten, "dass Review-Highlights Kunden dabei helfen, die richtigen Produkte zu finden." Dies führe zu erhöhten Verkäufen und nicht zu verringerten. Außerdem beschäftige Amazon sich damit, das System kontinuierlich zu verbessern. Bei Problemen oder falschen Zusammenfassungen könnten Verkäufer*innen sich jederzeit an den Amazon-Kundensupport wenden.
Deutschlandfunk-Nova-Netzreporterin Martina Schulte meint, dass der Test von Bloomberg sehr gut zusammenfasst, welche Probleme heutige KIs haben: "Eine KI kann – anders als wir – nicht selbstständig denken, sondern im Prinzip nur immer das nächstwahrscheinliche Wort ergänzen." Das sollte uns bei jedem KI-generierten Text klar sein.
Das hier war übrigens keiner ;-)