Medien

HIGHTECH

26.02.2021 - 16:00 | Schneider Electric GmbH
26.02.2021 - 11:00 | Schneider Electric GmbH
26.02.2021 - 10:30 | pressetext.redaktion

MEDIEN

26.02.2021 - 13:40 | FH St. Pölten
26.02.2021 - 11:30 | pressetext.redaktion
26.02.2021 - 06:10 | pressetext.redaktion

LEBEN

27.02.2021 - 08:15 | CES Cleantech Energy Systems
26.02.2021 - 14:30 | Martschin & Partner
26.02.2021 - 14:15 | CES Cleantech Energy Systems
pte20210222004 Medien/Kommunikation, Technologie/Digitalisierung

KI hält Schach-Diskussionen oft für Rassimus

Begriffe wie "Schwarz gegen Weiß" kommen Sprach-Algorithmus häufig verdächtig vor


Schach: KI hält Diskussion häufig für Rassismus (Foto: pixabay.com, Pexels)
Schach: KI hält Diskussion häufig für Rassismus (Foto: pixabay.com, Pexels)

Pittsburgh/Zürich (pte004/22.02.2021/06:15) - Internet-Diskussionen über Schach kommen Künstlicher Intelligenz (KI) oft rassistisch vor. Sprachanalyse-Tools halten Begriffe wie "Schwarz gegen Weiß" für Hasskommentare, was auf Plattformen wie YouTube sogar zu einer Verbannung führen kann. Zu diesem Ergebnis kommt eine Studie der Carnegie Mellon University http://cmu.edu .

"Kontext ist Problem"

"Eines der größten Probleme von KI ist der Kontext. Diskussionen sind für Algorithmen viel komplexer als für Menschen. Sie können Schlüsselwörter für Hassrede erkennen, aber den Hintergrund bei ihrer Verwendung nicht. KI braucht Unmengen an Daten, um diese Herausforderung zu meistern. Deswegen dürfen wir einem Computer auch noch keine komplexen Entscheidungen, wie beispielsweise über den Anspruch auf Sozialhilfe, überlassen", erklärt Zukunftsforscher Gerd Leonhard http://futuristgerd.com im pressetext-Interview.

Die Forscher haben für die Studie als Fallbeispiel den YouTube-Kanal "agadmator's Chess Channel" verwendet, der im Juni für 24 Stunden aufgrund von scheinbar schädlichen Inhalten gesperrt wurde. Der Kanal beschäftigt sich lediglich mit Schach und YouTube hat den Bann nicht erklärt. Um herauszufinden, welche Inhalte die KI als schädlich einstuft, haben die Wissenschaftler mit einem eigenen Hassrede-Algorithmus mehr als 680.000 Kommentare bei fünf Schach-Kanälen analysiert.

KI liegt meist falsch

Insgesamt 1.000 vermeintliche Hass-Kommentare haben die Studienautoren als Stichprobe verwendet. Dabei stellte sich heraus, dass die KI in 82 Prozent der Fälle mit ihren Einschätzungen falsch lag. Die YouTube-Postings enthielten keine Hassrede. Das liege daran, dass der Algorithmus Wörter wie "Schwarz", "Weiß", "Angriff" oder "Bedrohung" automatisch als Anzeichen für Rassismus und schädliche Inhalte sieht.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com
|
|
98.096 Abonnenten
|
187.550 Meldungen
|
76.844 Pressefotos

IR-NEWS

Top