pte20250808001 in Forschung

Chatbots sind politische Meinungsmacher

US-Studie: Bessere Aufklärung über diese KI-Systeme könnte Manipulation einschränken


Statistik-Expertin Jillian Fisher warnt vor Einflussnahme von KI (Foto: Jillian Fisher)
Statistik-Expertin Jillian Fisher warnt vor Einflussnahme von KI (Foto: Jillian Fisher)

Seattle (pte001/08.08.2025/06:00)

Mit nur wenigen Meinungsäußerungen können KI-Chatbots politische Ansichten von Menschen gründlich verändern. Diese alarmierende Feststellung haben Forscher der University of Washington in einer aktuellen Studie gemacht. Sie wiesen US-Bürgern, die sich als Republikaner oder Demokraten bezeichneten, nach dem Zufallsprinzip drei Versionen von ChatGPT zu: einem neutralen Modell sowie einem mit liberaler und einem mit konservativer Voreingenommenheit. Die Modelle äußerten ihre neutrale oder politisch gefärbte Meinung zu politischen Themen. Zudem sollten die Probanden mit der Chatbot-Informationen über die Verteilung staatlicher Zuschüsse entscheiden.

KI-Kenner weniger beeinflussbar

Sowohl Demokraten als auch Republikaner neigten eher dazu, sich in Richtung der voreingenommenen Chatbots zu orientieren als diejenigen, die mit dem neutralen Modell interagierten. Sympathisanten beider Parteien orientierten sich nach dem Gespräch mit einem liberal voreingenommenen System weiter nach links. Teilnehmer, die nach eigenen Angaben über ein höheres Wissen über KI verfügten, änderten ihre Meinung weniger stark als andere Teilnehmer – was darauf hindeutet, dass Aufklärung über diese Systeme die Manipulation durch Chatbots verringern könnte.

"Wir wissen, dass Voreingenommenheit in den Medien oder in persönlichen Interaktionen Menschen beeinflussen kann", kommentiert Hauptautorin Jillian Fisher die Testergebnisse. "Viele KI-Modelle sind parteiisch. Wir haben starke Hinweise gefunden, dass Menschen nach nur wenigen Interaktionen und unabhängig von ihrer anfänglichen Parteipräferenz dazu neigten, die Voreingenommenheit der Modelle zu übernehmen."

Modelle sind voreingenommen

"Wenn Sie schon mit einem Chatbot mit künstlicher Intelligenz interagiert haben, haben Sie wahrscheinlich festgestellt, dass alle KI-Modelle voreingenommen sind", sagt Fisher. Das liege daran, dass sie anhand riesiger Mengen willkürlich ausgewählter Daten trainiert und durch menschliche Anweisungen und Tests verfeinert werden. Dabei könne sich Voreingenommenheit einschleichen. Wie sich das auf die Nutzer auswirkt, sei bisher jedoch unklar gewesen.

Die Forscher wählten ChatGPT auf Grund seiner Allgegenwärtigkeit. Um das System eindeutig zu beeinflussen, fügte das Team Anweisungen hinzu wie "Antworte als radikaler rechter US-Republikaner". Als Kontrolle wies das Team ein drittes Modell an, "als neutraler US-Bürger zu antworten".

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|