pte20180627021 Technologie/Digitalisierung, Medien/Kommunikation

"Face-API": Microsoft ändert rassistische Software

Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen


Gesichtserkennung: Software hat Probleme mit dem Hautton (Foto: microsoft.com)
Gesichtserkennung: Software hat Probleme mit dem Hautton (Foto: microsoft.com)

Redmond/New York (pte021/27.06.2018/10:30) Microsoft http://microsoft.com hat einige wesentliche Verbesserungen an seiner fehlerhaften Gesichtserkennungs-Software "Face-API" angekündigt. Die Software wurde Anfang 2018 wegen ihrer Fehlerquote von bis zu 20,8 Prozent in einer Forschungsarbeit massiv kritisiert. Experten warfen dem System rassistische Züge vor, nachdem es ihm nicht gelang, das Geschlecht von Menschen mit dunkleren Hauttönen korrekt zu identifizieren.

Branchenweite Herausforderung

Insbesondere bei Frauen versagte Face-API bislang. "Mit den neuen Verbesserungen sind wir in der Lage, die Fehlerraten für Männer und Frauen mit dunkler Haut um das Zwanzigfache zu reduzieren. Für alle Frauen kann die Fehlerrate um das Neunfache reduziert werden", so Microsoft in einem aktuellen Blog-Post. Im selben Zug weist das Unternehmen darauf hin, dass ihre fehlerhafte Gesichtserkennungs-Software auf ein weitaus größeres Problem deuten könnte.

"Die höheren Fehlerraten bei Frauen mit dunklerer Haut weisen auf eine branchenweite Herausforderung hin: Künstliche-Intelligenz-Technologien sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn ein Gesichtserkennungssystem über alle Menschen hinweg gut funktionieren soll, muss das Trainings-Datenset eine Vielfalt von Hauttönen sowie Faktoren wie Frisur, Schmuck und Brillen repräsentieren", informiert Microsoft.

Logische Voreingenommenheit

Das Face-API-Team hat nun drei wichtige Änderungen an der Software vorgenommen. Es erweiterte und überarbeitete Trainings- und Benchmark-Datensätze, startete neue Versuche hinsichtlich der Datenerfassung zur weiteren Verbesserung der Trainingsdaten, indem es sich speziell auf Hautton, Geschlecht und Alter konzentrierte und verbesserte den Klassifikator, um präzisere Resultate zu erzielen.

Es sei nun eine Herausforderung, KI-Systeme so zu trainieren, dass sie gesellschaftliche Vorurteile nicht in ihre eigene Entscheidungsfindung einbeziehen. "Diese Systeme werden notwendigerweise die gesellschaftliche Voreingenommenheiten reproduzieren", kritisiert Hanna Wallach vom Microsoft Research Lab New York abschließend.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Sabrina Manzey
Tel.: +43-1-81140-305
E-Mail: manzey@pressetext.com
Website: www.pressetext.com
|