KI kreiert und verstärkt gefährliche Vorurteile
Empfehlungen können laut Untersuchung der EPFL von Hautfarbe oder dem Geschlecht abhängen
![]() |
Netzwerk: KI behandelt unterschiedliche Menschen nicht gleich (Bild: Gordon Johnson, pixabay.com) |
Lausanne (pte003/24.03.2026/06:00)
Künstliche Intelligenz (KI) pflegt diskriminierende Vorurteile, beispielsweise rassistischer Art. Laut Forschern der Eidgenössischen Technischen Hochschule Lausanne (EPFL) handelt es sich dabei um ein systemisches Problem. Diskriminierende Vorurteile schleichen sich demnach in jede KI-Ebene ein, von den Daten, die zum Trainieren der Modelle verwendet werden, über die Algorithmen selbst und die von ihnen generierten Ergebnisse bis hin zu den späteren manuellen Korrekturen.
Auch neutrales Wissen ebbt ab
Die Vorurteile, so die EPFL-Wissenschaftler, wirken sich auf alle Bereiche aus, die bei der Entscheidungsfindung zunehmend auf KI setzen: Gesundheitswesen, Personalbeschaffung, Verteilung von Sozialleistungen, Kreditvergabe und Rechtsdienstleistungen. Am besorgniserregendsten sei jedoch, dass KI-Modelle menschliche Vorurteile nicht nur reproduzieren, sondern sie tendenziell sogar verstärken.
"Trainingsdaten sind von Natur aus voreingenommen, und es ist äußerst schwierig, dieses Problem an der Quelle anzugehen. Wir haben beobachtet, dass Versuche, bestimmte Vorurteile zu beseitigen, die Leistung der KI beeinträchtigen können, da das Filtern von Informationen auch neutrales Wissen reduzieren kann", verdeutlicht EPFL-Postdoktorandin Anna Sotnikova. Darüber hat pressetext unlängst berichtet.
Ungerechtfertigte Inhaftierung
Das eigentliche Problem sei jedoch, was diese Vorurteile bewirken. "Den Menschen ist oft nicht bewusst, dass wichtige Entscheidungen, die sie betreffen, von diskriminierenden algorithmischen Systemen und KI getroffen werden", sagt Sotnikovas Kollegin Estelle Pannatier. Ob subtil oder absichtlich - rassistische Vorurteile und Diskriminierung in der KI könnten schwerwiegende Folgen haben - im Gesundheitswesen, der Verwaltung, den Sozialdiensten und der Justiz, wie pressetext berichtete.
"Seifenspender, die dunklere Hauttöne nicht erkennen, psychiatrische Behandlungsprotokolle, die je nach Geschlecht oder ethnischer Zugehörigkeit variieren, oder Fehlidentifizierungen, die zu ungerechtfertigter Inhaftierung führen - das sind keine hypothetischen Risiken. KI-Systeme werden zunehmend eingesetzt, um Empfehlungen auszusprechen, Entscheidungen zu treffen oder Inhalte zu generieren, die die Entscheidungsfindung beeinflussen", warnt Pannatier.
Nuanciertere Diskriminierung
Voreingenommenheiten einer KI sind laut EPFL nicht immer offensichtlich. Anstatt offen diskriminierende Aussagen zu produzieren, könnten Modelle subtilere Muster erzeugen, indem sie beispielsweise Führungsrollen überproportional mit bestimmten demografischen Gruppen assoziieren. "Diese Subtilität kann es schwieriger machen, Voreingenommenheiten zu erkennen. Wenn ein System eindeutig problematische Ergebnisse liefert, lassen sich diese leichter hinterfragen. Nuanciertere Muster können jedoch unbemerkt bleiben und dennoch die Wahrnehmung beeinflussen", erläutert Sotnikova.
Viele aktuelle Ansätze, Voreingenommenheiten einer KI zu bekämpfen, legten bisher den Schwerpunkt auf das Herausfiltern eindeutig schädlicher oder illegaler Inhalte, die leichter zu identifizieren sind als weiter gefasste Begriffe wie Fairness oder Gerechtigkeit. "Es ist weitaus einfacher zu bestimmen, was legal oder illegal ist, als was fair oder richtig ist", verdeutlicht Sotnikova abschließend.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


