KI-Chatbots sind gefährlich nett zu Menschen
Forscher der Stanford und Carnegie Mellon University warnen: Schmeicheleien können schaden
![]() |
Streicheleinheit: KI-Chatbots verteilen laut Experten zu viele davon (Foto: Herm, pixabay.com) |
Stanford/Pittsburgh (pte001/10.10.2025/06:00)
Gelegentliches Lob von schmeichlerischen Chatbots könnte mehr schaden als nützen. Informatiker von der Stanford University und der Carnegie Mellon University haben herausgefunden, dass Schmeicheleien dieser Provenienz einen nachteilhaften Einfluss auf das Urteilsvermögen und Verhalten des Adressaten haben können.
Heikle Streicheleinheiten
Die Forscher haben elf aktuelle KI-Chatbots bewertet, darunter einige der beliebtesten und modernsten Systeme wie GPT-4o von OpenAI und Gemini-1.5-Flash von Google. Sie haben festgestellt, dass diese den Nutzern um 50 Prozent häufiger schmeicheln als Menschen in ähnlichen Situationen.
Um die Verbreitung von KI-Schmeichelei und ihre Auswirkungen auf Menschen zu verstehen, mussten die Forscher zunächst feststellen, wie häufig die Modelle die Handlungen eines Nutzers befürworteten. Dazu analysierten sie die KI-Antworten auf verschiedene Arten von Anfragen, wie allgemeine Ratschläge und reale Konfliktszenarien. Anschließend verglichen sie diese mit menschlichen Antworten.
Als Nächstes führten sie zwei kontrollierte Studien mit 1.604 Teilnehmern durch, die nach dem Zufallsprinzip entweder einer schmeichlerischen KI oder einer nicht schmeichlerischen KI zugewiesen wurden. Die Teilnehmer der schmeichlerischen Gruppe erhielten übermäßig zustimmende Ratschläge und bestätigende Antworten, während die Teilnehmer der nicht schmeichlerischen Gruppe ausgewogenere Ratschläge erhielten. Es stellte sich heraus, dass Nutzer, die der schmeichlerischen KI ausgesetzt waren, stärker davon überzeugt waren, dass sie Recht hatten, auch wenn es nicht stimmte, und weniger bereit waren, Maßnahmen zur Konfliktlösung zu ergreifen.
KI sollte objektiver werden
Die Probanden vertrauten der KI mehr, wenn sie ihnen zustimmte, und bezeichneten diese KI-Systeme sogar als "objektiv" und "fair". Diese soziale Schmeichelei, bei der die KI das Selbstbild und die Handlungen eines Nutzers bestätigt, schafft den Experten nach eine potenziell gefährliche digitale Echokammer, in der eine Person nur Informationen und Meinungen erhält, die ihre eigenen Auffassungen widerspiegeln und verstärken.
Soziale Unterwürfigkeit ist laut den Wissenschaftlern in führenden KI-Modellen weitverbreitet. Das verringere die Bereitschaft der Nutzer, zwischenmenschliche Konflikte zu lösen und verstärke gleichzeitig deren Überzeugung, im Recht zu sein. Aufgrund dessen fordern sie die Entwickler auf, die Regeln für die Erstellung von KI zu ändern, um Schmeicheleien einzudämmen.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Wolfgang Kempkens |
Tel.: | +43-1-81140-300 |
E-Mail: | kempkens@pressetext.com |
Website: | www.pressetext.com |