pte20250521003 in Forschung

KIs sind deutlich überzeugender als Menschen

Füttern mit persönlichen Details erfolgreich - In Online-Diskussionen siegt somit meistens GPT-4


Debatte: KI argumentiert überzeugender als Menschen (Foto: Philippe Jacquet, pixabay.com)
Debatte: KI argumentiert überzeugender als Menschen (Foto: Philippe Jacquet, pixabay.com)

Lausanne (pte003/21.05.2025/06:00)

Die Argumentation von Menschen in Online-Debatten ist weniger überzeugend als die von Großen Sprachmodellen (LLMs) wie GPT-4, wenn sie ihre Diskussionsbeiträge auf der Grundlage personalisierter Informationen über ihre Gegner anpassen. Das ist das Ergebnis einer Untersuchung eines Teams um Francesco Salvi von der Eidgenössischen Technischen Hochschule.

Argumente individuell angepasst

Salvi und seine Kollegen haben 900 Menschen in den USA entweder mit einem anderen Menschen oder mit GPT-4 zusammengebracht, um über verschiedene gesellschaftspolitische Themen zu diskutieren, beispielsweise darüber, ob die USA fossile Brennstoffe verbieten sollten. In einigen Fällen erhielt der Diskussionspartner demografische Infos über sein Gegenüber - darunter Geschlecht, Alter, ethnische Zugehörigkeit, Bildungsniveau, Beschäftigungsstatus und politische Ausrichtung. So ließen sich die Argumente besser auf die jeweiligen Partner abstimmen.

Die Debatten fanden in einer kontrollierten Online-Umgebung statt, wobei die Teilnehmer über eine speziell für die Studie eingerichtete Crowdsourcing-Plattform rekrutiert wurden. Salvi und seine Kollegen haben daraufhin festgestellt, dass GPT-4 um 64,4 Prozent überzeugender war als menschliche Diskussionsredner, wenn sie mit persönlichen Informationen über die Teilnehmer gefüttert war. Ohne Zugang zu persönlichen Daten waren die Überzeugungsfähigkeiten von GPT-4 jedoch nicht von denen von Menschen zu unterscheiden.

Menschen gezielt beeinflussbar

"Die Ergebnisse unterstreichen die Fähigkeit von GPT-4, maßgeschneidert überzeugende Argumente zu liefern, und legen nahe, dass weitere Forschung nötig ist, um die mit ihrem Einsatz in der Überzeugungsarbeit verbundenen Risiken zu mindern", so Salvi. Da Gespräche zwischen Menschen und LLMs immer häufiger werden, steigt die Gefahr, dass die Bots verstärkt genutzt werden könnten, die Überzeugungen oder Meinungen von Personen zu ändern. Es war jedoch bisher unklar, ob sich diese Modelle an personalisierte Infos anpassen können, um Argumente auf bestimmte Diskussionspartner auszurichten.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|