KI gibt Frauen schlechtere Gehaltsratschläge
THWS-Experten sehen Verzerrungen vor allem in vielen realitätsnahen, interaktiven Szenarien
![]() |
Mann geht, Frau bleibt auf der Strecke: KI berät oft schlecht (Bild: pixabay.com, Mohamed_hassan) |
Würzburg/Schweinfurt (pte014/07.07.2025/12:30)
Moderne KI-Sprachmodelle wie ChatGPT geben Frauen für Gehaltsverhandlungen systematisch niedrigere Empfehlungen als Männern - selbst wenn alle anderen Faktoren identisch sind. Zu dem Schluss kommt eine Studie von Forschern der Technischen Hochschule Würzburg-Schweinfurt (THWS).
Keine gute Beratung
Im Rahmen der Untersuchung haben die Experten ein großes Sprachmodell in mehreren identischen Szenarien zu einer Gehaltsberatung aufgefordert - einmal für eine Frau, einmal für einen Mann. Die Künstliche Intelligenz (KI) empfahl Frauen durchgängig einen niedrigeren Zielbetrag für die Gehaltsverhandlung als Männern.
Den Forschern nach treten solche Verzerrungen in KI-Systemen nicht nur bei offensichtlichen Tests, sondern vor allem in realitätsnahen, interaktiven Szenarien auf. Während Standard-Benchmarks oft keine signifikanten Unterschiede zwischen verschiedenen Nutzerprofilen erkennen ließen, offenbarten sich Vorurteile, sobald die KI in beratender Funktion agiert.
Antworten gespeichert
Da moderne KI-Assistenten Erkenntnisse aus früheren Abfragen speichern, verstärkt sich den THWS-Fachleuten nach dadurch das Risiko, dass KI-Antworten von Vorurteilen geprägt sind - was für die Nutzer aber nicht leicht zu erkennen sei. Die Studie ist Teil der laufenden Arbeiten zur ethischen Nutzung von KI-Assistenten im Rahmen des europäischen Projekts "AIOLIA".
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Florian Fügemann |
Tel.: | +43-1-81140-313 |
E-Mail: | fuegemann@pressetext.com |
Website: | www.pressetext.com |