KI-Chatbots sind die viel besseren Verkäufer
Laut Studie der University of California San Diego rücken sie die positiven Aspekte ins Zentrum
![]() |
KI-Chatbot: sehr dienlich für die Produktschönfärberei (Foto: pixabay.com, CreativeCanvas) |
San Diego (pte002/11.02.2026/06:05)
Mithilfe eines KI-Chatbots verfasste Produktbeschreibungen regen mit einer um 32 Prozentpunkten höheren Wahrscheinlichkeit eher zum Kauf an. Das haben Informatiker der University of California San Diego festgestellt. Große Sprachmodelle wie ChatGPT würden zu beschönigenden Zusammenfassungen neigen. Das wiederum beeinflusse das Verhalten der potenziellen Käufer. Die Forscher sprechen hierbei von kognitiven Verzerrungen durch die Chatbots.
Bots verändern die Tendenz
Den Experten nach verändern die mittels KI-Modellen geschriebene Zusammenfassungen in 26,5 Prozent der Fälle die Tendenz der Bewertungen. Das liege daran, dass sich die KI-Chatbots vor allem von den ersten Sätzen der Texte beeinflussen lassen, die sie komprimieren sollen. Spätere Relativierungen würden weniger beachtet.
Die Folgen dieser Schönfärberei haben die Forscher an 70 Probanden getestet. Dazu lasen sie entweder Originalrezensionen oder von KI generierte Zusammenfassungen zu verschiedenen Produkten wie Headsets, Stirnlampen und Radios. Die Teilnehmer, die die KI-Zusammenfassungen lasen, gaben in 84 Prozent der Fälle an, dass sie die Produkte kaufen würden, gegenüber 52 Prozent der Teilnehmer, die die Originalrezensionen lasen.
Überraschende Unterschiede
"Wir hätten nicht erwartet, dass der Unterschied so groß ist", so Forscherin Abeer Alessa, die inzwischen an der König Saud Universität tätig ist. Gemeinsam mit Julian McAuley hat sie 18 Verfahren getestet, die die KI-Modelle zu einer neutraleren Bewertung führen sollten. Die Ergebnisse waren frustrierend.
Es gab keine einzige Methode, die bei allen KI-Bots half. "Es besteht eben ein Unterschied zwischen der Behebung von Verzerrungen und Halluzinationen im Allgemeinen und der Behebung dieser Probleme in bestimmten Szenarien und Anwendungen", unterstreicht McAuley. Im Übrigen dürften Betreiber von Online-Shops auch gar kein Interesse daran haben, ihre Chatbots zur Neutralität zu erziehen, heißt es.
Außerdem halluzinierten die Bots in 60 Prozent der Fälle bei der Beantwortung von Nutzerfragen. Diese Halluzinationen traten auf, wenn Fragen zu Nachrichten beantwortet werden sollten, die entweder echt oder gefälscht waren und leicht auf ihre Richtigkeit überprüft werden konnten. "Diese durchweg geringe Genauigkeit verdeutlicht eine entscheidende Einschränkung: die anhaltende Unfähigkeit von KI-Bots, Fakten zuverlässig von Falschmeldungen zu unterscheiden", so die Forscher.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


