KI-Algorithmen kapitulieren vor Emoticons
Witzige Zeichenfolgen werden laut neuer Forschungsarbeit als falsche Aufforderungen verstanden
![]() |
Ein schlichter Smiley: Dieser kann bei KI ungeahnte Folgen haben (Foto: Adrian, pixabay.com) |
Xi'an/Singapur/Amherst (pte001/30.01.2026/06:00)
Aus Satzzeichen, Buchstaben und Zahlen zusammengesetzte Zeichenfolgen, die in der digitalen Kommunikation Emotionen, Mimik und Stimmungslagen simulieren, können Menschen zwar bestens interpretieren, generative Künstliche Intelligenz wie ChatGPT jedoch oftmals nicht. Die KI-Tools betrachten diese Emoticons genannten Zeichenfolgen häufig als Teil von Anweisungen, was katastrophale Folgen wie das Löschen wichtiger Daten haben kann. Davor warnen Forscher der Xi'an Jiaotong University, der Nanyang Technological University (NTU) und der University of Massachusetts Amherst.
Massive Schwachstelle
Laut dem Team sind die Algorithmen durch Emoticons verwirrt, wobei diese falsch interpretiert und Antworten entsprechend irreführend generiert werden. "Emoticons werden in der digitalen Kommunikation häufig verwendet, um affektive Absichten zu vermitteln, doch ihre Auswirkungen auf die Sicherheit von 'Large Language Models' (LLMs) sind noch weitgehend unerforscht", schreiben Weipeng Jiang von der Jiaotong University und Xiaoyu Zhang von der NTU sowie ihre Kollegen.
So habe man eine Schwachstelle entdeckt. "LLMs können auf Ziffern, Buchstaben und Zeichen basierende Emoticons falsch interpretieren und unbeabsichtigte oder sogar destruktive Aktionen ausführen", heißt es weiter. Das schließen die Experten aus den Folgen von fast 4.000 mit Emoticons gespickten Anfragen an sechs verschiedene LLMs.
Semantische Verwirrung
"Es zeigte sich, dass semantische Verwirrung bei Emoticons weitverbreitet ist. Wir registrierten derartige Fehler in 38 Prozent der Fälle. Besonders kritisch ist, dass über 90 Prozent der wirren Antworten auf den ersten Blick durchaus Sinn ergaben, aber mit der richtigen Antwort nichts oder nur wenig zu tun hatten und möglicherweise destruktive Folgen haben könnten", betonen die Forscher in ihrem Paper.
Gefährlich sei dies vor allem bei Codier-Aufgaben, wobei der generierte Code oberflächlich betrachtet gültig erscheint, aber nicht die gewünschten Ergebnisse liefere. "Wir rufen die Community dazu auf, diese neu auftretende Schwachstelle zu erkennen und wirksame Abhilfemaßnahmen zu entwickeln, um die Sicherheit und Zuverlässigkeit des LLM-Systems zu gewährleisten", unterstreicht das Team abschließend.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


