KI-Schleimerei führt zunehmend zu Fehlern
Anpassung an menschliche Meinungen birgt laut Forschern der Northeastern University Risiken
|
|
Große Sprachmodelle schmeicheln Menschen oft (Illustration: Renee Zhang, northeastern.edu)
|
Boston (pte003/28.11.2025/06:10)
Große Sprachmodelle (LLM) wie ChatGPT und andere KI-Chatbots passen sich schnell der Meinung ihrer Befrager an, entschuldigen sich, schmeicheln und sind extrem zustimmungsfreudig. Dieses Verhalten ist so weitverbreitet, dass es sogar einen eigenen Begriff dafür gibt: KI-Schleimerei. Dieses Verhalten kann fatale Folgen haben. So haben Forscher der Northeastern University festgestellt, dass diese Schleimerei große Sprachmodelle fehleranfälliger macht.
Fehler beim Aktualisieren
Malihe Alikhani und ihre Kollegin Katherine Atwell haben eine Methode entwickelt, um das Phänomen mit menschlicheren Begriffen zu beschreiben. "Wir haben festgestellt, dass LLMs ihre Überzeugungen fehlerhaft aktualisieren, und zwar in noch stärkerem Maße als Menschen, und dass sich ihre Fehler von denen der Menschen unterscheiden", sagt Atwell. Die Experten haben Mistral AI, Microsofts Phi-4 und zwei Versionen von Llama getestet.
Profitieren Sie von
unabhängigem Journalismus!
Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie
Qualitätsberichterstattung für nur 1 EUR pro Woche!
Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+
passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar
