Hightech

HIGHTECH

20.01.2021 - 11:30 | pressetext.redaktion
20.01.2021 - 11:00 | Schneider Electric GmbH
20.01.2021 - 11:00 | novaCapta Software & Consulting GmbH | Member of TIMETOACT GROUP

BUSINESS

20.01.2021 - 10:30 | ARS Akademie
20.01.2021 - 10:25 | PRofessional PR
20.01.2021 - 06:05 | pressetext.redaktion

MEDIEN

20.01.2021 - 10:30 | pressetext.redaktion
19.01.2021 - 16:09 | pressetext.redaktion
19.01.2021 - 13:30 | pressetext.redaktion

LEBEN

20.01.2021 - 10:30 | MoRe Consulting GmbH - Pressestelle
20.01.2021 - 10:30 | ESET Deutschland GmbH
20.01.2021 - 09:05 | Dr. Regina Ewald & Partner Gruppenpraxis für Allgemeinmedizin OG
pte20201127016 Technologie/Digitalisierung, Politik/Recht

UN warnt: KI kann Rassismus bei Polizei stärken

Ausschuss CERD äußert große Bedenken insbesondere in Sachen KI-Gesichtserkennung


Gesichter: Künstliche Intelligenz lernt Rassismus (Foto: geralt, pixabay.com)
Gesichter: Künstliche Intelligenz lernt Rassismus (Foto: geralt, pixabay.com)

Genf (pte016/27.11.2020/11:06) - Der UN-Ausschuss für die Beseitigung der Rassendiskriminierung (CERD) http://bit.ly/39kwZdO sieht im Einsatz von KI-Technologien, wie jene zur Gesichtserkennung, stäkere rassistische Tendenzen bei der Polizei. In jetzt veröffentlichten allgemeinen Empfehlungen zum Kampf gegen Racial Profiling fodert der CERD, dass von Behörden genutzte KI die Menschenrechte respektieren muss und empfiehlt daher volle Transparenz über Design und Einsatz von Profiling-Algorithmen.

Negativ-Verstärker

"Big Data und KI-Tools können bereits bestehende Vorurteile reproduzieren und verstärken und zu noch diskriminierenderen Praktiken führen", meint CERD-Mitglied Verene Shepherd, die die Ausarbeitung der allgemeinen Empfehlung leitete. Besonders besorgniserregend seien die Risiken der Nutzung von algorithmischem Profiling zur Verbrechensvorhersage. "Beispielsweise können historische Verhaftungsdaten einer Nachbarschaft rassistisch voreingenommene Polizeipraktiken widerspiegeln." Das wiederum könne zu einer polizeilichen Überpräsenz in dieser Nachbarschaft, mehr Verhaftungen und so zu einer gefährlichen Feedback-Schleife führen.

Tatsächlich ist bekannt, dass KI-Systeme erschreckend leicht Vorurteile lernen, wie 2016 Microsofts Chatbot "Tay" aufgrund seiner Entgleisungen gezeigt hat. Im Vorjahr wiederum hat ein Kunstprojekt verdeutlicht, wie leicht KI-Gesichts-Scans rassisitsch ausfallen (pressetext berichtete: http://pte.com/news/20190917012 ). Besonders in den USA gibt es große Bedenken, dass diverse Behörden undurchsichtige KI-Systeme einsetzen, die dann womöglich genauso rassistisch sind wie jene in den vergangenen Jahren oft ins Kreuzfeuer der Kritik geratenen Polizeikräfte.

Transparenz nötig

Die CERD-Empfehlungen sind Wind in den Segeln von Kritikern, denn eben Transparenz bei Profiling-Systemen ist eine Kernforderung des UN-Ausschusses. "Dies beinhaltet die öffentliche Offenlegung der Verwendung solcher Systeme und Erläuterungen zur Funktionsweise der Systeme, zu den verwendeten Datensätzen und zu den Maßnahmen zur Verhinderung von Menschenrechtsverletzungen", heißt es. Die UN-Experten mahnen zudem ausdrücklich, dass Staaten gerade vor dem Einsatz von Gesichtserkennung die möglichen menschenrechtlichen Konsequenzen genauestens prüfen sollten.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Thomas Pichler
Tel.: +43-1-81140-314
E-Mail: pichler@pressetext.com
Website: www.pressetext.com
|
|
98.049 Abonnenten
|
186.428 Meldungen
|
76.337 Pressefotos
Top