Medien

HIGHTECH

21.02.2020 - 12:00 | ESET Deutschland GmbH
21.02.2020 - 10:30 | pressetext.redaktion
21.02.2020 - 10:00 | ESET Deutschland GmbH

BUSINESS

21.02.2020 - 12:30 | pressetext.redaktion
21.02.2020 - 09:05 | Der Werbetherapeut
21.02.2020 - 06:15 | pressetext.redaktion

MEDIEN

21.02.2020 - 11:30 | pressetext.redaktion
21.02.2020 - 06:10 | pressetext.redaktion
20.02.2020 - 10:30 | pressetext.redaktion

LEBEN

23.02.2020 - 10:00 | Neusiedler See Tourismus GmbH
21.02.2020 - 14:50 | Österreichisch-Deutsche Gesellschaft Berlin-Brandenburg e.V.
21.02.2020 - 06:05 | pressetext.redaktion
pte20200110005 Medien/Kommunikation, Technologie/Digitalisierung

KI erkennt Sprachwandel bei Cybermobbing

Kommunikationsanalyse registriert Bedeutungsänderung und Kontext von Schlüsselwörtern


Cybermobbing: KI erkennt neue Begriffe (Foto: pixabay.com, Antranias)
Cybermobbing: KI erkennt neue Begriffe (Foto: pixabay.com, Antranias)

Pasadena (pte005/10.01.2020/06:15) - Forscher am California Institute of Technology (Caltech) http://caltech.edu haben einen Sprachanalyse-Algorithmus entwickelt, der Cybermobbing im Social Web entdeckt - auch wenn dabei keine bekannten Schlüsselwörter verwendet werden. Indem eine Künstliche Intelligenz (KI) die Ähnlichkeit der Bedeutung zwischen Wörtern analysiert, kann sie schnell neue Begriffe erkennen, die Cybermobber in sozialen Foren anwenden.

"Nähe" zwischen Wörtern

Laut Caltech-Forscherin Anima Anandkumar verlassen sich aktuelle Algorithmen nur auf einen vorgefertigten Satz an Schlüsselwörtern, die schnell veralten. "Die Suche nach solchen Wörtern leidet an der Geschwindigkeit, mit der sich Online-Konversationen weiterentwickeln. Neue Begriffe tauchen auf und alte verändern ihre Bedeutung. Ein Schlüsselwort, das zuerst ernst gemeint war, könnte plötzlich sarkastisch verwendet werden", so Anandkumar.

Um dem Algorithmus beizubringen, sich an diese sprachlichen Veränderungen anzupassen, nutzt das Team im Experiment ein sogenanntes "GloVe-Modell". Dabei handelt es sich um ein System, das Wörter in einem Vektor-Raum darstellt und die semantische "Nähe" zwischen ihnen ermittelt. Die KI erkennt also, wenn ein neuer Begriff eine ähnliche Bedeutung hat wie ein veraltetes Cybermobbing-Wort.

Sprachkontext entscheidend

Indem der Algorithmus mit einem Schlüsselwort anfängt, kann er weitere Begriffe mit ähnlicher Konnotation erkennen. Die Forscher testeten ihn unter anderem auf Twitter und verwendeten dabei den Begriff #MeToo. Dabei erkannte die KI die Verbindung mit ähnlichen Hashtags wie "#ImWithHer," und "#NotSilent".

Der Kontext, in dem Begriffe vorkommen, ist laut Anandkumar entscheidend für die richtige Sprachanalyse. Das GloVe-Modell berücksichtigt auch, in welchen Foren Wörter angewendet werden. Beispielsweise stand das Wort "female" (weiblich) in einem Reddit-Forum, das von Frauenfeindlichkeit geprägt war, mit Begriffen wie "sexual" oder "negative" in Verbindung. Bei Twitter-Postings über die #MeToo-Bewegung assoziierte die KI "female" dagegen mit "companies" (Unternehmen) oder "victims" (Opfer).

Erst im Jahr 2019 hat das kanadische Start-up Receptiviti eine Sprachanalyse-KI entwickelt, die negative Emotionen in E-Mails erkennt und so auch Cybermobbing verhindern soll (pressetext berichtete: http://pte.com/news/20191011016 ). Doch der Algorithmus benutzt, anders als der des Caltech, vorgefertigte Sätze an Schlüsselwörtern und kann noch keine neuen finden.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Georg Haas
Tel.: +43-1-81140-306
E-Mail: haas@pressetext.com
Website: www.pressetext.com
|
|
98.290 Abonnenten
|
177.648 Meldungen
|
72.311 Pressefotos
Top