forschung

AUSSENDER



pressetext.redaktion

Ansprechpartner: Lutz Steinbrück
Tel.: +43-1-81140-300
E-Mail: steinbrueck@pressetext.com

FRüHERE MELDUNGEN

08.04.2026 - 06:10 | pressetext.redaktion
08.04.2026 - 06:05 | pressetext.redaktion
03.04.2026 - 06:15 | pressetext.redaktion
02.04.2026 - 11:45 | pressetext.redaktion
01.04.2026 - 12:30 | pressetext.redaktion

FORSCHUNG

17.04.2026 - 12:30 | pressetext.redaktion
17.04.2026 - 11:30 | pressetext.redaktion
17.04.2026 - 06:10 | pressetext.redaktion
17.04.2026 - 06:00 | pressetext.redaktion
16.04.2026 - 13:59 | pressetext.redaktion
pte20251020002 in Forschung

KI: Rassistische Vorurteile kaum erkannt

Neue Untersuchung von Forschern der Penn State zeigt, dass Nutzer die KI für neutral halten


Gesichtsausdrücke: KI zeigt nicht selten viele rassistische Vorurteile (Bild: psu.edu)
Gesichtsausdrücke: KI zeigt nicht selten viele rassistische Vorurteile (Bild: psu.edu)

University Park (pte002/20.10.2025/06:05)

Die meisten Nutzer können rassistische Vorurteile einer Künstlichen Intelligenz (KI) nicht erkennen. Zu diesem Ergebnis kommen Forscher der Pennsylvania State University. In ihrer kürzlich in "Media Psychology" veröffentlichten Studie haben sie 769 Probanden gebeten, solche verzerrten KI-Trainingsdaten zu bewerten. Aber die meisten bemerkten die Voreingenommenheit nicht - es sei denn, sie gehörten selbst zur negativ dargestellten Gruppe.

Glücklichere Weiße

Bei der Erkennung von Gesichtern und Emotionen kann KI voreingenommen sein, etwa indem sie weiße Menschen als glücklicher einstuft als Menschen anderer ethnischer Herkunft. Das passiert, weil die zum Trainieren der KI verwendeten Daten eine unverhältnismäßig hohe Anzahl glücklicher weißer Gesichter enthielten, was dazu führte, dass die KI ethnische Zugehörigkeit mit emotionalem Ausdruck in Verbindung brachte.

Die Wissenschaftler wollten herausfinden, ob Laien verstehen, dass nicht repräsentative Daten, die zum Trainieren von KI-Systemen verwendet werden, zu einem verzerrten Bild führen können. Sie plädieren dafür, KI-Systeme so zu trainieren, dass sie "für alle funktionieren" und Ergebnisse liefern, die vielfältig und repräsentativ für alle Gruppen sind, nicht nur für eine Mehrheit.

"Im Fall dieser Studie scheint die KI gelernt zu haben, dass die ethnische Zugehörigkeit ein wichtiges Kriterium für die Bestimmung ist, ob ein Gesicht glücklich oder traurig ist", sagt der leitende Autor S. Shyam Sundar. "Auch wenn wir nicht beabsichtigen, dass sie das lernt."

Challenge Klassifizierung

Profitieren Sie von
unabhängigem Journalismus!

Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie 

Qualitätsberichterstattung für nur 1 EUR pro Woche!

Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+ passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar

Top