pte20240313001 Medien/Kommunikation, Technologie/Digitalisierung

KI-generierte Bilder kaum noch zu erkennen

Forscher der University of Waterloo warnen: Hohe Fehlerquote selbst bei sorgfältiger Betrachtung


KI-generierte Bilder aus der Waterloo-Studie (Bilder: uwaterloo.ca)
KI-generierte Bilder aus der Waterloo-Studie (Bilder: uwaterloo.ca)

Waterloo (pte001/13.03.2024/06:00)

Fast 40 Prozent der Teilnehmer waren bei einem Versuch von Forschern der University of Waterloo nicht in der Lage, echte Fotos von Bildern zu unterscheiden, die mit Künstlicher Intelligenz (KI) generiert worden waren. Dabei hatten die 260 Teilnehmer alle Zeit der Welt, die Bilder sorgfältig zu betrachten. Und man sagte ihnen, dass sie auf Details wie Finger, Zähne und Augen achten sollten, um echte Fotos von KI-generierten zu unterscheiden. "Aus dem Ergebnis kann man ableiten, dass die Trefferquote noch weit niedriger ist, wenn Menschen Bilder nur flüchtig anschauen, wie es bei Surfen im Internet üblich ist", sagt Forscherin Andreea Pocol.

Hohe Erwartung weit verfehlt

Den Teilnehmern wurden 20 unbeschriftete Bilder vorgelegt. Zehn waren von echten Personen, die aus Google-Suchen stammten, die anderen zehn waren von Stable Diffusion oder DALL-E generiert worden, zwei gängigen KI-Programmen zur Bilderzeugung. Sie wurden gebeten, jedes Bild als echt oder KI-generiert zu kennzeichnen und zu erklären, warum sie ihre Entscheidung getroffen hatten. Pocol hatte erwartet, dass wenigstens 85 Prozent der Teilnehmer echte von KI-generierten Bildern unterscheiden können.

Die extrem schnelle Entwicklung der KI-Technologie hat ein großes Potenzial für böswillige oder schändliche Handlungen mithilfe von KI-generierten Bildern, warnt Pocol. Seit Beginn der Studie Ende 2022 seien sie noch realistischer geworden. "Das Tempo der akademischen Forschung und der Gesetzgebung kann da oft nicht mithalten", sagt sie. KI-generierte Bilder seien als politisches und kulturelles Instrument besonders bedrohlich, da jeder gefälschte Bilder von öffentlichen Personen in peinlichen oder kompromittierenden Situationen erstellen könnte.

Desinformation immer einfacher

"Desinformation ist nicht neu, aber die Instrumente der Desinformation haben sich ständig verändert und weiterentwickelt. Es könnte ein Punkt erreicht werden, an dem die Menschen, egal wie geschult sie sind, echte Bilder von Fälschungen nicht mehr unterscheiden können. Deshalb müssen wir Werkzeuge entwickeln, um KI-generierte Bilder zu erkennen. Es ist wie ein neues KI-Wettrüsten", unterstreicht Pocol.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|