pte20191220033 in Forschung
Gesichtserkennung ist meistens rassistisch
Problematische Fehlerkennungen bei Asiatisch- und Afrikanischstämmigen sind viel häufiger
Gaithersburg (pte033/20.12.2019/12:00)
Die meisten Algorithmen zur Gesichtserkennung haben einen Rassen-Bias. Das hat eine Untersuchung des National Institute of Standards and Technology (NIST) http://nist.gov ergeben. Bei Asiaten und Afroamerikanern ist die Fehlerkennunsrate demnach teils 100 Mal höher. Warum das so ist, haben die Forscher in der Studie nicht direkt untersucht. Da aber die Analyse gezeigt hat, dass asiatische Algorithmen bei Asiaten weniger Fehler machen, liegt ein Zusammenhang mit den genutzten Trainigsdatensätzen nahe.
Profitieren Sie von
unabhängigem Journalismus!
Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie
Qualitätsberichterstattung für nur 1 EUR pro Woche!
Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+
passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar
