Menschen übernehmen Ressentiments der KI
Vorgeschlagene Auswahl bei Bewerbungen um zu vergebene Jobs ist häufig nicht neutral
|
|
Kyra Wilson: Forscherin sieht Gefahren durch KI bei Personalauswahl (Foto: washington.edu)
|
Seattle (pte003/14.11.2025/06:10)
KI-gestützte Auswahlsysteme bei Bewerbern in Unternehmen sind aufgrund des Trainings nicht neutral. Sie haben Vorurteile, die beispielsweise Menschen bevorzugen, die weiß sind. Zu dem Schluss kommt Kyra Wilson von der University of Washington. Zwar hätten 80 Prozent der Unternehmen, die nach ihrer KI-Nutzung bei der Personalplanung befragt wurden, gesagt, die Entscheidungen der KI würden stets von Menschen überprüft. Doch oft übernähmen diese die Vorurteile der KI.
Profitieren Sie von
unabhängigem Journalismus!
Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie
Qualitätsberichterstattung für nur 1 EUR pro Woche!
Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+
passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar
