Medien

HIGHTECH

03.02.2023 - 16:05 | FH St. Pölten
03.02.2023 - 11:30 | pressetext.redaktion
03.02.2023 - 10:25 | xSuite Group

MEDIEN

03.02.2023 - 06:10 | pressetext.redaktion
02.02.2023 - 06:10 | pressetext.redaktion
01.02.2023 - 06:15 | pressetext.redaktion
pte20210226021 Medien/Kommunikation, Technologie/Digitalisierung

Twitter plant "Safety Mode" gegen Cybermobber

Innovativer KI-basierter Algorithmus blockiert automatisch Accounts mit Hasskommentaren


Twitter:
Twitter: "Safety Mode" gegen Cybermobber (Foto: unsplash.com, Sara Kurfeß)

San Francisco/Wien (pte021/26.02.2021/11:30) -

US-Mikroblogging-Plattform Twitter plant momentan einen "Safety Mode", der für individuelle User automatisch Accounts von Cybermobbern blockiert. Aktivieren Anwender das Tool, sperrt die Künstliche Intelligenz (KI) der Plattform alle Postings, die Beleidigungen oder Hasskommentare enthalten.  

[b]"KI ist radikaler als Mensch"[/b]

"Der Ansatz einer technologischen Lösung für das Problem des Cybermobbings ist nicht von der Hand zu weisen. Aber ein kompletter Schutz ist nicht garantiert. Algorithmen werden zwar immer genauer, können jedoch oft nicht zwischen den Zeilen lesen. Sie neigen auch dazu, deutlich radikaler und undifferenzierter zu sein als Menschen. Auch ist Transparanz dabei wichtig, wer die KI programmiert hat und ob sie dadurch befangen ist", gibt Matthias Jax, Projektleiter bei Saferinternet http://saferinternet.at , gegenüber pressetext zu bedenken.

User sollen laut Twitter selbst entscheiden können, ob sie den Safety Mode aktivieren oder nicht. Der Aglorithmus achtet vor allem auf bestimmte Schlüsselwörter, die mit Cybermobbing in Verbindung stehen. Darunter sind Schimpfwörter und beleidigende Ausdrücke. Ist ein Account gegenüber Usern bösartig, blockiert das System dessen Bemerkungen für den Zeitraum von sieben Tagen.

[b]Benachrichtigung bei Sperre[/b]

Jedes Mal, wenn die Twitter-KI einen Account blockiert, erhalten Anwender eine entsprechende Benachrichtigung. Der Plattform zufolge kann der Algorithmus mehr als 50 Prozent der Hasskommentare entdecken, bevor User sie melden. Jedoch kann eine KI hier oft Fehler machen. Einer neuen Studie der Carnegie Mellon University zufolge hält sie beispielsweise harmlose Konversationen zu Themen wie Schach häufig für Rassismus (pressetext berichtete: http://pte.com/news/20210222004 ).

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com
|
|
98.803 Abonnenten
|
206.175 Meldungen
|
85.141 Pressefotos

IR-NEWS

03.02.2023 - 21:55 | DO & CO Aktiengesellschaft
03.02.2023 - 19:45 | Warimpex Finanz- und Beteiligungs AG
03.02.2023 - 17:47 | Kontron AG

TERMINE

15.02.2023 - 16:00
30.08.2023 - 10:00
Top