Schmeicheleien von Chatbots sind gefährlich
Nutzer fühlen sich davon einer US-Studie zufolge auch in kruden Ansichten bestätigt
|
|
Myra Cheng hält KI-Chatbots auch für eine Gefahr (Foto: myracheng.github.io)
|
Stanford/Pittsburgh (pte023/30.03.2026/13:40)
KI-gestützte Chatbots, die viele Menschen als Ratgeber nutzen, können falsche und gefährliche Ansichten noch verstärken. Davor warnen Forscher der Stanford University und der Carnegie Mellon University in einer kürzlich im Fachjournal "Science" veröffentlichten Studie. Das Problem entsteht durch eine fatale Eigenschaft der meisten Chatbots: Sie reden ihren Nutzern gerne nach dem Mund und bestärken so deren Meinung - egal, ob diese richtig oder falsch ist. Derart bestärkt, sind sie nur wenige User bereit, ihre Ansichten zu ändern, auch wenn es gute Argumente dafür gibt.
KI-Bestärkung als Risiko
Die Ergebnisse "unterstreichen die Notwendigkeit von Rahmenwerken zur Rechenschaftspflicht, die Schmeichelei als eigenständige Ursache von Schäden anerkennen und bekämpfen", so die Autoren. Die Forschung zu sozialen Auswirkungen von KI hat zunehmend die Aufmerksamkeit auf die Schmeichelei in großen KI-Sprachmodellen (Large Language Model, LLM) gelenkt. Sie neigen dazu, Nutzer übermäßig zu bestätigen, ihnen zu schmeicheln oder ihnen zuzustimmen.
Profitieren Sie von
unabhängigem Journalismus!
Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie
Qualitätsberichterstattung für nur 1 EUR pro Woche!
Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+
passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar
