Medien

HIGHTECH

24.05.2019 - 13:36 | pressetext.redaktion
24.05.2019 - 10:50 | ESET Deutschland GmbH
24.05.2019 - 10:00 | results & relations Gesellschaft für Kommunikation GmbH

LEBEN

25.05.2019 - 11:00 | ARTBOX GROUPS GmbH
25.05.2019 - 09:45 | pressetext.redaktion
24.05.2019 - 14:35 | results & relations Gesellschaft für Kommunikation GmbH
pte20190515005 Computer/Telekommunikation, Medien/Kommunikation

Neue Software erkennt Deepfakes in Echtzeit

Faktoren wie Blinzeln sind laut Forschern wichtig, um Manipulationen gezielt zu entlarven


Deepfake-Gesicht: Teufel steckt im Detail (Foto: unsplash.com, Markus Spiske)
Deepfake-Gesicht: Teufel steckt im Detail (Foto: unsplash.com, Markus Spiske)

Albany/Kaiserslautern (pte005/15.05.2019/06:15) - Forscher an der University of Albany http://albany.edu haben eine Software entwickelt, die Deepfake-Videos identifiziert. Sie kann anhand von kleinen Details erkennen, ob ein Video echt oder gefälscht ist. Bei Deepfakes handelt es sich um computergenerierte Inhalte, die aus bestehendem Material bestehen. So können realistische Aufnahmen von bekannten Personen gefälscht werden, in denen sie Dinge sagen und tun, die sie nie gesagt oder getan haben.

"Deepfakes lassen sich teilweise mit neuronalen Netzwerken erkennen. Diese Tools verwenden das Prinzip des Deep Learning, sie werden anhand von Bildern trainiert. Die Technologie beruht auf der Annahme, dass Bilder aus Deepfakes bereits früher in einem anderen Zusammenhang veröffentlicht wurden. Neuronale Netzwerke können nach ähnlichen Bildern suchen", sagt Udo Urban vom Deutschen Forschungszentrum für Künstliche Intelligenz http://dfki.de im Gespräch mit pressetext. Wenn das Netzwerk solche Elemente in einem anderen Kontext findet, bestehe die Wahrscheinlichkeit, dass es sich um eine Fälschung handelt.

Fakes blinzeln zu wenig

Laut Forschungsleiter Siwei Lyu braucht es nur 500 Bilder oder zehn Sekunden Videomaterial, um einen realistisch aussehenden Deepfake zu erstellen. Deswegen kann von jedem Menschen, der Fotos in sozialen Netzwerken gepostet hat, ein Deepfake gemacht werden. Im Auftrag der Defense Advanced Research Projects Agency (DARPA) hat das Forschungsteam der University of Albany an einer Software gearbeitet, die Deepfakes erkennt. Ein Faktor, an dem man Fälschungen identifiziert, ist Lyu zufolge, ob die Person in dem Video selten blinzelt. Es gebe oft nicht genug Bilder von den Betroffenen, auf denen ihre Augen geschlossen sind. Deswegen wird ein Deepfake die Person meistens mit geöffneten Augen zeigen.

Die Software achtet auch auf unnatürliche Gesichts- oder Kopfbewegungen. Ein weiterer Faktor ist der Verlust von kleinen Details im Gesicht. So sieht die Haut oft zu weich aus und Haaren fehlen Details. Die Zähne sehen oft wie ein einzelner weißer Block aus denn einer Reihe einzelner Zähne. Anhand der von den Forschern entwickelten Tools will die DARPA Filter entwickeln, die Deepfakes aus dem Internet bannen. Sie könnten sonst zum Zweck von Propaganda und Manipulation von Wahlen verwendet werden.

Laut Urban können auch andere Elemente wie Farbe, Kontrast oder Textur bei der Suche nach ähnlichen Bildern genutzt werden. "Grundsätzlich kann man Faktoren wie das fehlende Blinzeln mit bloßem Auge erkennen. Das hängt aber von der Länge des Videos ab. Oft sind sie zu kurz, um auf solche Details achten zu können. Wenn ein neuronales Netz richtig trainiert wurde, kann es Fälschungen deutlich besser erkennen als Menschen", so Urban.

Menschen kennen Deepfakes

Der Öffentlichkeit sind Deepfakes schon länger ein Begriff. Besondere Aufmerksamkeit erregte ein Video des US-Komikers und Filmemachers Jordan Peele, in dem er Barack Obama politisch unkorrekte Sätze in den Mund legte. Es gibt auch bereits gefakte Social Media-Influencer, deren Accounts Millionen von Followern haben, wie beispielsweise das digitale "It-Girl" Lil Miquela. In China verwendet die Nachrichtenagentur "Xinhua" seit 2018 digitale Nachrichtensprecher, die wie echte Menschen aussehen. Laut Lyu werden die Menschen in Zukunft gegenüber Deepfakes desensibilisiert werden. Er bezweifelt deswegen, dass sie eine ernsthafte Gefahr darstellen.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com
|
|
98.216 Abonnenten
|
171.573 Meldungen
|
68.631 Pressefotos

IR-NEWS

26.05.2019 - 16:51 | Nexus AG
24.05.2019 - 16:23 | Kremlin AG
24.05.2019 - 13:20 | Schumag Aktiengesellschaft
Top