Amazon hat es getan. Die Plattform, die uns einst das Einkaufen revolutionierte, brachte generative KI ins Spiel, um Kundenbewertungen „besser“ zu machen. Das klingt modern, effizient, fast unvermeidlich – wäre da nicht ein klitzekleines Problem: Die Zusammenfassungen sind hin und wieder falsch, sodass man meinen könnte, sie wären von einem schlecht gelaunten Praktikanten am Montagmorgen geschrieben.
Die Funktion „Die Kunden sagen“ generiert aus Kundenrezensionen kurze Absätze, die angeblich den Kern der Bewertungen widerspiegeln sollen. Was dabei herauskommt, ist jedoch manchmal mehr Science-Fiction als hilfreicher Kommentar. Wie üblich bei Amazon, verkauft man das Ganze natürlich als einen „Gamechanger“. Doch für wen eigentlich?
KI: Praktisch, aber brandgefährlich?
Amazon beschreibt das Feature in seinem Blogbeitrag „How Amazon continues to improve the customer reviews experience with generative AI“ als eine Möglichkeit, die Flut an Kundenmeinungen zu ordnen und den Einkauf einfacher zu gestalten. Wer will sich schon durch tausend Rezensionen scrollen, die von „beste Erfindung seit geschnittenem Brot“ bis hin zu „katastrophaler Müll“ reichen? Die KI soll Trends erkennen, den Kern der Bewertungen zusammenfassen und dem Käufer die Entscheidung erleichtern.
In der Theorie klingt das nach einem Win-win. Doch in der Praxis zeigt sich: Diese Technologie hat nicht nur Ecken und Kanten, sondern auch tiefe Schluchten. Es gibt Berichte, dass die Zusammenfassungen in einigen Fällen schlichtweg falsche Informationen enthalten. Noch schlimmer: Manchmal verzerren sie den Gesamteindruck eines Produkts massiv.
Ein Verkäufer berichtet im Amazon-Forum über fehlerhafte KI-generierte Zusammenfassungen von Kundenrezensionen für ein analoges Flüssigkeits-Glasfieberthermometer. Die Zusammenfassung beschreibt das Thermometer fälschlicherweise als batteriebetrieben, obwohl es sich um ein rein mechanisches Produkt handelt. Trotz mehrfacher Problemmeldungen, inklusive Screenshots und Beschwerden auf Deutsch und Englisch, sei keine Lösung in Sicht. Der Verkäufer kritisiert die mangelhafte Unterstützung durch den Kundenservice und betont die negativen Auswirkungen der fehlerhaften Beschreibung auf die Produktdarstellung und potenziell auch auf den Umsatz. Der Fall illustriert mögliche Schwächen von KI-Systemen bei der Verarbeitung und Darstellung komplexer Informationen und wirft Fragen zur Verantwortung und Korrekturmöglichkeiten auf.
Man stelle sich vor: Ein Thermometer wird plötzlich als „batteriebetrieben“ beschrieben, obwohl es rein analog funktioniert. Ein anderes Produkt wird aufgrund weniger negativer Reviews pauschal als „nicht zuverlässig“ abgestempelt, obwohl die Mehrheit der Bewertungen positiv ist. Solche Fehler sind kein technisches Detail, sondern potenziell geschäftsschädigend.
Vertrauen, das Fundament von Bewertungen
Seit 1995 baut Amazon darauf, dass Kunden sich auf die Erfahrungen anderer Käufer verlassen können. Die Rezensionen waren damals eine Revolution – ein direkter Draht zwischen Kunden, jenseits von Hochglanzwerbung und Verkaufsversprechen. Doch mit der Einführung von KI generierten Zusammenfassungen rüttelt Amazon ausgerechnet an diesem Grundpfeiler.
Denn: Kann eine KI wirklich so etwas wie Vertrauen erzeugen? Rezensionen sind subjektiv, emotional und manchmal sogar widersprüchlich. Genau diese menschlichen Nuancen kann keine KI adäquat zusammenfassen. Im besten Fall bekommen Kunden eine oberflächliche Momentaufnahme. Im schlimmsten Fall werden Produkte verzerrt dargestellt, weil die KI ein paar markante Wörter falsch gewichtet.
Ist KI die Lösung – oder das Problem?
Amazon argumentiert, dass die KI-Generierung nur eine Ergänzung zu den eigentlichen Bewertungen ist. Käufer sollen weiterhin die Möglichkeit haben, die Originaltexte zu lesen. Doch mal ehrlich: Wie viele werden das tun, wenn die Zusammenfassung direkt unter dem Produktbild prangt?
Hinzu kommt die Frage der Verantwortung: Wer haftet, wenn eine KI eine falsche Behauptung aufstellt? Ist es Amazon, das die Technologie bereitstellt? Oder der Verkäufer, der darunter leidet, dass sein Produkt falsch dargestellt wird? Die Antworten darauf sind genauso schwammig wie die KI-Zusammenfassungen selbst.
Ein Schritt zurück, zwei Schritte nach vorn?
Was Amazon hier betreibt, ist symptomatisch für die aktuelle KI-Diskussion: Eine grundsätzlich nützliche Technologie wird voreilig eingeführt, ohne die Konsequenzen wirklich zu durchdenken. Die Plattform spielt hier nicht nur mit der Glaubwürdigkeit der Bewertungen, sondern auch mit dem Vertrauen der Käufer und der Existenzgrundlage ihrer Verkäufer.
Die Frage ist nicht, ob KI in solchen Bereichen eingesetzt werden sollte – sondern wie und mit welchen Schutzmechanismen. Derzeit wirkt Amazons Ansatz wie ein halbgarer Versuch, die eigenen Prozesse zu optimieren, während die Nutzer als Betatester dienen. Und das ist kein nachhaltiges Geschäftsmodell.
Fazit: Eine unschöne Zukunftsvision
Amazon zeigt mit diesem Feature, dass der blinde Fortschrittsglaube oft mehr Probleme schafft, als er löst. Wenn der Konzern das Vertrauen seiner Kunden bewahren will, braucht es mehr als ein paar Algorithmus-Optimierungen. Denn letztlich hängt alles an einer Frage: Würdest du eine Kaufentscheidung treffen, die auf einer KI basiert, die Thermometer batteriebetrieben nennt?
Vielleicht ist es an der Zeit, weniger darauf zu hören, was die Kunden angeblich sagen – und wieder darauf zu vertrauen, was sie wirklich schreiben.