Neue MIT-KI soll Menschen fairer behandeln
Wissenschaftler gehen Fehlentscheidungen bei Kreditvergabe, Jobsuche und Kautionen an
![]() |
Fingerzeig: Mehr Fairness bei Jobsuche (Fotomontage: Dirk Wouters, pixabay.com) |
Cambridge (pte004/11.08.2021/06:15)
Justiz, Banken und private Unternehmen verwenden Algorithmen, um Entscheidungen zu treffen, die tiefgreifende Auswirkungen auf das Leben der Menschen haben. Diese Algorithmen sind, wie Forscher am Massachusetts Institute of Technology https://www.mit.edu/ in Cambridge festgestellt haben manchmal voreingenommen. Sie wirken sich unverhältnismäßig negativ auf Farbige und Menschen in niedrigeren Einkommensklassen aus, wenn sie Kredite oder Jobs beantragen oder sogar wenn Gerichte entscheiden, welche Kaution festgesetzt werden soll, während eine Person auf ihren Prozess wartet.
[b]Neue Programmiersprache für KI[/b]
Um die faire Gleichbehandlung wieder zu sichern haben die Forscher eine neue Programmiersprache für künstliche Intelligenz entwickelt, die die Fairness von Algorithmen genauer und schneller beurteilen kann als verfügbare Alternativen. Ihre Sum Product Probabilistic Language (SPPL) ist ein probabilistische Programmiersystem an der Schnittstelle von Programmiersprachen und künstlicher Intelligenz, das darauf abzielt, KI-Systeme einfacher zu entwickeln. Mit SPPL gab es bereits Erfolge in den Bereichen Computer Vision, Datenbereinigung und automatisierte Datenmodellierung.
[b]Ergebnisse sind 100 Mal schneller da[/b]
Es gebe zwar ähnliche Systeme, sagt Feras Saad, Doktorand im Bereich Elektrotechnik und Informatik, „doch unser System ist auf eine bestimmte Klasse von Modellen spezialisiert und optimiert, sodass es Lösungen 1000 Mal schneller liefern kann".
SPPL bietet schnelle, genaue Lösungen für Fragen wie „Wie wahrscheinlich ist es, dass das Modell jemandem über 40 Jahre einen Kredit empfiehlt?" Zu den Fairness-Fragen, die SPPL beantworten kann, gehören „Gibt es einen Unterschied zwischen der Wahrscheinlichkeit, einem Einwanderer und Nichteinwanderer mit dem gleichen sozioökonomischen Status einen Kredit zu empfehlen?" oder „Wie hoch ist die Wahrscheinlichkeit einer Einstellung, wenn der Kandidat für den Job qualifiziert ist und aus einer unterrepräsentierten Gruppe stammt?"
[b]Folgenschwere Fehler sollen vermieden werden[/b]
Fehler durch ungefähre probabilistische Inferenz sind in vielen KI-Anwendungen tolerierbar. Es ist jedoch unerwünscht, dass Inferenzfehler zu sozial folgenschweren Anwendungen führen. „SPPL zeigt, dass eine genaue probabilistische Inferenz für eine breite Klasse probabilistischer Programme praktisch und nicht nur theoretisch möglich ist, sagt Vikash Mansinghka, der die Entwicklung leitete.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


