forschung

AUSSENDER



pressetext.redaktion

Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com

FRüHERE MELDUNGEN

17.04.2026 - 12:30 | pressetext.redaktion
17.04.2026 - 06:15 | pressetext.redaktion
17.04.2026 - 06:10 | pressetext.redaktion
17.04.2026 - 06:05 | pressetext.redaktion
17.04.2026 - 06:00 | pressetext.redaktion

FORSCHUNG

17.04.2026 - 12:30 | pressetext.redaktion
17.04.2026 - 11:30 | pressetext.redaktion
17.04.2026 - 06:10 | pressetext.redaktion
17.04.2026 - 06:00 | pressetext.redaktion
16.04.2026 - 13:59 | pressetext.redaktion
pte20250502001 in Forschung

Gefälschte Videos bald nicht mehr zu erkennen

KI-Forscher der Humboldt-Universität zeigen die Grenzen herkömmlicher Erkennungsverfahren


Peter Eisert: KI-Wissenschaftler sieht neue Deepfake-Gefahren (Foto: hu-berlin.de)
Peter Eisert: KI-Wissenschaftler sieht neue Deepfake-Gefahren (Foto: hu-berlin.de)

Berlin (pte001/02.05.2025/06:00)

Mit Künstlicher Intelligenz (KI) erstellte Fake-Videos zeigen oft keine Veränderungen in der Haut der dargestellten Menschen und lassen sich bisher gerade deshalb gut erkennen. Insbesondere fehlt es den Darstellungen bislang am Herzschlag und den sich daraus ergebenen Hautveränderungen. Doch auch hier holt die Technologie in Bezug auf Deepfakes auf, warnen Forscher der Humboldt-Universität zu Berlin.

Hautschattierungen und Puls

Die Experten haben eine naturnahe Haut und auch einen realistischen Pulsschlag simuliert. "Wir zeigen jetzt zum ersten Mal, dass aktuelle hochwertige Deepfake-Videos einen realistischen Herzschlag und winzige Veränderungen in der Gesichtsfarbe aufweisen können, wodurch sie viel schwieriger zu erkennen sind", so Peter Eisert, Spezialist für visuelle Datenverarbeitung.

Deepfake-Ersteller verändern beispielsweise Gesichtsausdrücke und Gesten in echten Videos und tauschen diese zwischen verschiedenen Personen aus. Ihre Absichten sind nicht unbedingt böswillig: Apps, mit denen sich Nutzer in eine harmlose Katze verwandeln oder digital altern lassen, sind beispielsweise sehr beliebt und ein bedenkenloser Freizeitspaß.

Erkennungsmethode scheitert

Die Analyse der Lichtreflektion durch die Haut und die darunter liegenden pulsierenden Blutgefäße wird in der Medizin zur Messung von Vitalparametern genutzt. Mit der gleichen Technik lassen sich heute noch Deepfakes entlarven. Eisert und seinen Kollegen ist es nun gelungen, Deepfakes so zu gestalten, dass dieses Verfahren nicht mehr funktioniert.

Profitieren Sie von
unabhängigem Journalismus!

Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie 

Qualitätsberichterstattung für nur 1 EUR pro Woche!

Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+ passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar

Top