Business

HIGHTECH

20.01.2021 - 06:10 | pressetext.redaktion
19.01.2021 - 11:30 | pressetext.redaktion
19.01.2021 - 09:30 | Schneider Electric GmbH

BUSINESS

20.01.2021 - 10:30 | ARS Akademie
20.01.2021 - 10:25 | PRofessional PR
20.01.2021 - 06:05 | pressetext.redaktion

MEDIEN

20.01.2021 - 10:30 | pressetext.redaktion
19.01.2021 - 16:09 | pressetext.redaktion
19.01.2021 - 13:30 | pressetext.redaktion

LEBEN

20.01.2021 - 10:30 | MoRe Consulting GmbH - Pressestelle
20.01.2021 - 10:30 | ESET Deutschland GmbH
20.01.2021 - 09:05 | Dr. Regina Ewald & Partner Gruppenpraxis für Allgemeinmedizin OG
pte20201204003 Bildung/Karriere, Technologie/Digitalisierung

Bewerbungs-KI lernt Sexismus von Menschen

Algorithmen ziehen oft männliche Job-Kandidaten vor und übernehmen existierende Vorurteile


KI: lernt Bewerbungs-Sexismus oft von Menschen (Foto: pixabay.com, geralt)
KI: lernt Bewerbungs-Sexismus oft von Menschen (Foto: pixabay.com, geralt)

Melbourne (pte003/04.12.2020/06:10) - Bei Jobausschreibungen zum Einsatz kommende Künstliche Intelligenz (KI) übergeht oft weibliche Kandidatinnen. Die Algorithmen lernen nämlich von menschlichen Personalchefs häufig unbewussten Sexismus und setzen diesen dann durch, wenn sie vielversprechende Bewerbungen in die nähere Auswahl ziehen sollen. Das ergibt eine Studie der University of Melbourne http://unimelb.edu.au im Auftrag der UniBank http://unibank.com.au .

"Bewertung nach Mustern"

Die Forscher haben ein Panel von 40 Recruitern herangezogen und ihnen die gleichen Bewerbungen gezeigt und dabei nach dem Zufallsprinzip angegeben, ob die Anwärter Männer oder Frauen waren. Die Probanden mussten dann auswählen, wer für eine Einstellung geeignet ist. Das gleiche Experiment hat das Forscher-Team schließlich mit mehreren Algorithmen rekreiert, die schon jetzt bei der Auswahl von Job-Kandidaten zum Einsatz kommen.

Bei den Personalchefs hat sich eine deutliche Tendenz zur Einstellung von männlichen Kandidaten gezeigt. Auch die KI hat Vorurteile offenbart. "Selbst wenn die Namen entfernt wurden, hat die KI Bewerbungen anhand von historischen Mustern bewertet, wo die Präferenz bei Männern liegt. Beispielsweise geben sie Bewerbern mit mehreren Jahren kontinuierlicher Anstellung den Vorzug. Das ist ein automatischer Nachteil für Frauen, die sich für Kinder eine Auszeit genommen haben", erklärt Marc Cheong, Koautor der Studie.

Unbewusste sexistische Tendenz

Der Studie zufolge müssen Unternehmen Algorithmen genau unter die Lupe nehmen, damit diese nicht alte Vorurteile wieder aufleben lassen. Selbst unterbewusste sexistische Tendenzen bei Menschen können eine KI beeinflussen und unfaire Behandlungen bei Einstellungen verstärken. Vor allem, wenn die Systeme ohne Beaufsichtigung arbeiten, müssen sie möglichst unbefangen bleiben, so die abschließende Forderung der Wissenschaftler.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com
|
|
98.049 Abonnenten
|
186.425 Meldungen
|
76.336 Pressefotos
Top