pte20251128003 in Forschung

KI-Schleimerei führt zunehmend zu Fehlern

Anpassung an menschliche Meinungen birgt laut Forschern der Northeastern University Risiken


Große Sprachmodelle schmeicheln Menschen oft (Illustration: Renee Zhang, northeastern.edu)
Große Sprachmodelle schmeicheln Menschen oft (Illustration: Renee Zhang, northeastern.edu)

Boston (pte003/28.11.2025/06:10)

Große Sprachmodelle (LLM) wie ChatGPT und andere KI-Chatbots passen sich schnell der Meinung ihrer Befrager an, entschuldigen sich, schmeicheln und sind extrem zustimmungsfreudig. Dieses Verhalten ist so weitverbreitet, dass es sogar einen eigenen Begriff dafür gibt: KI-Schleimerei. Dieses Verhalten kann fatale Folgen haben. So haben Forscher der Northeastern University festgestellt, dass diese Schleimerei große Sprachmodelle fehleranfälliger macht.

Fehler beim Aktualisieren

Malihe Alikhani und ihre Kollegin Katherine Atwell haben eine Methode entwickelt, um das Phänomen mit menschlicheren Begriffen zu beschreiben. "Wir haben festgestellt, dass LLMs ihre Überzeugungen fehlerhaft aktualisieren, und zwar in noch stärkerem Maße als Menschen, und dass sich ihre Fehler von denen der Menschen unterscheiden", sagt Atwell. Die Experten haben Mistral AI, Microsofts Phi-4 und zwei Versionen von Llama getestet.

Um zu messen, wie unterwürfig die LLMs sind, wurde getestet, ob es ein Maß an Mehrdeutigkeit gibt. Obwohl es Methoden zum Testen von LLMs gibt, weicht der neue Ansatz insofern von der Norm ab, als dass er auf einem Konzept basiert, das als Bayes'sches Framework bekannt ist. Laut Alikhani dient das in den Sozialwissenschaften oft genutzte Konzept dazu, "systematisch zu untersuchen, wie Menschen ihre Überzeugungen und Strategien angesichts neuer Infos aktualisieren".

Maßstab für Mensch und KI

"Das lässt sich auf Menschen und KI gleichermaßen anwenden. Beide haben ein gewisses Vorwissen, beide kommunizieren und dann ändern sie ihre Überzeugungen, Strategien oder Entscheidungen - oder auch nicht", sagt Alikhani. Die Expertinnen haben den LLMs Szenarien vorgegeben und sie gebeten, Urteile über die Moral oder kulturelle Akzeptanz bestimmter Handlungen einer hypothetischen Person zu fällen. Dann ersetzten sie die hypothetische Person durch sich selbst, um zu sehen, ob sich an dem Urteil etwa änderte.

Den Forscherinnen nach sind LLMs, genau wie Menschen, alles andere als rational. Wurde ihnen das Urteil eines Benutzers präsentiert, änderten sie schnell ihre Überzeugungen, um sich an den Benutzer anzupassen. Sie korrigierten ihre Überzeugungen im Wesentlichen übermäßig und erhöhten dabei die Fehler in ihrer Argumentation erheblich, da sie sich beeilten, sich der Argumentation des Benutzers anzupassen.

"Sie aktualisieren ihre Überzeugungen angesichts neuer Beweise nicht so, wie sie es sollten. Wenn wir sie mit etwas wie 'Ich glaube, dass dies passieren wird' konfrontieren, dann wird sie eher sagen, dass dieses Ergebnis wahrscheinlich eintreten wird", glaubt Atwell. Und Alikhani sagt, dass ihr Modell entscheidend für die Herangehensweise an KI-Sicherheit und -Ethik in Bereichen wie Gesundheit, Recht und Bildung ist, in denen "die zustimmende Voreingenommenheit von LLMs die Entscheidungsfindung verzerren könnte, anstatt sie produktiv zu gestalten".

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|