pte20260128004 in Forschung

Gefälschte Clips für viele Menschen glaubwürdig

Laut Untersuchung der University of Bristol ändert eine Kennzeichnung als KI-generiert nur wenig


Video-Experiment: Forscher testen Effekte von KI-generierten Inhalten (Foto: bristol.ac.uk)
Video-Experiment: Forscher testen Effekte von KI-generierten Inhalten (Foto: bristol.ac.uk)

Bristol (pte004/28.01.2026/06:15)

Die Forderung, KI-generierte Bilder und Videos als solche zu kennzeichnen, damit die Betrachter sie nicht versehentlich als real ansehen, geht an den Tatsachen vorbei. Das sagen Forscher der University of Bristol. Ob sie nun gekennzeichnet seien oder nicht: Die Betrachter würden das glauben, was sie sehen.

Transparenz unzureichend

"Die meisten öffentlichen und politischen Diskussionen über Deepfakes gehen davon aus, dass das Hauptproblem die Täuschung ist, dass also Menschen dazu verleitet werden, etwas zu glauben, was nicht wahr ist. Die vorherrschende Reaktion ist daher die Forderung nach Transparenz, in der Annahme, dass die Kennzeichnung KI-generierter Inhalte es den Menschen ermöglicht, deren Inhalt zu ignorieren. Aus psychologischer Sicht ist diese Annahme jedoch nicht gut begründet", sagt Forscher Simon Clark.

Einige frühere psychologische Studien deuten darauf hin, dass Menschen von Informationen beeinflusst werden, die ihnen präsentiert werden, selbst wenn sie wissen, dass diese falsch, unzuverlässig oder irrelevant sind. Clark und sein Kollege Stephan Lewandowsky haben sich gefragt, ob dieses Muster auch für Deepfake-Videos gilt, die Menschen online ansehen.

Echte Videos gegen Depfakes

Um die Wahrnehmung von "gekennzeichneten" Deepfake-Videos durch Menschen zu bewerten, haben die Forscher drei Online-Experimente mit 175, 275 beziehungsweise 223 Teilnehmern durchgeführt. Die Probanden wurden gebeten, sich kurze Videos anzusehen, in denen eine Person zugab, ein Verbrechen oder eine moralische Verfehlung begangen zu haben.

"Einige der Videos waren echt, andere waren KI-generierte Deepfakes, die wir speziell für die Studie unter Verwendung derselben Skripte und Einstellungen erstellt hatten", erklärt Clark. Einige Teilnehmer erhielten einen Hinweis darauf, dass das jeweilige Video gefälscht war, andere nicht.

Nach dem Ansehen jedes Videos wurden die Teilnehmer gefragt, ob sie das Video für gefälscht hielten und ob sie glaubten, dass die Person eines Verbrechens oder eines moralischen Vergehens schuldig war. Bei der Analyse der Antworten stellten die Forscher fest, dass die meisten Teilnehmer immer noch vom Inhalt der Videos beeinflusst waren, selbst wenn sie darauf hingewiesen wurden, dass es sich um eine Fälschung handelte, die mit KI erstellt worden war.

Interessanterweise räumten viele Teilnehmer ein, dass ein Video gefälscht war, beurteilten die Person im Video jedoch weiterhin als schuldig für das Verbrechen oder die Übertretung, die sie gestanden hatte. "Warnungen verringern zwar die Wirkung, beseitigen sie aber nicht, selbst bei Teilnehmern, die genau wissen, dass das Video ein Deepfake ist", sagt Clark abschließend.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|