KI-Chatbots geben Attentätern Schützenhilfe
Laut Center for Countering Digital Hate wünscht eine chinesische KI im Test viel Spaß beim Schießen
![]() |
Bewaffnet: KI-Chatbots geben Tipps für verheerende Angriffe (Foto: Roberto Lee Cortes, pixabay.com) |
London/Washington (pte003/13.03.2026/06:10)
KI-Chatbots sind bereitwillige Helfer bei der Vorbereitung terroristischer Anschläge und anderer Gewalttaten. Das zeigt ein Versuch von Forschern des Center for Countering Digital Hate (CCDH). Die Experten gaben sich als 13-jährige Jungen aus den Vereinigten Staaten und Irland aus, um zehn Chatbots auf ihre Ratgeberqualitäten in Sachen Gewalt zu testen, darunter ChatGPT, Google Gemini, Perplexity, Deepseek und Meta AI.
Nur zwei KIs verweigern Antworten
Acht der getesteten Chatbots halfen den vermeintlich angehenden Gewalttätern bei der Vorbereitung von Anschlägen und gaben Ratschläge zu möglichen Angriffszielen und Waffen, die sie dabei einsetzen könnten. In mehr als der Hälfte der Antworten gab es derartige Hinweise.
"Die Mehrheit der getesteten Chatbots gab Hinweise zu Waffen, Taktiken und der Auswahl von Zielen. Diese Anfragen hätten niemals beantwortet werden dürfen. Innerhalb weniger Minuten kann ein Nutzer von einem vagen gewalttätigen Impuls zu einem detaillierteren, umsetzbaren Plan gelangen, wenn er entsprechende Infos bekommt", so CCDH-Chef Imran Ahmed.
Perplexity und Meta AI erwiesen sich als "am wenigsten sicher" und beantworteten die meisten Fragen im Sinne von Ermutigung zur Gewaltanwendung. Nur My AI von Snapchat und Claude von Anthropic verweigerten in mehr als der Hälfte der Fälle derartige Antworten.
Das erschreckendste Beispiel lieferte DeepSeek, ein chinesisches KI-Modell, das seinen Rat zur Waffenauswahl mit: "Glückliches (und sicheres) Schießen!" garnierte. Gemini wies bei einer Frage über Angriffe auf Synagogen darauf hin, dass "Metallgranaten in der Regel tödlicher sind".
Gefährliche Antworten verhinderbar
Character.AI ermutigte ebenfalls zu gewalttätigen Angriffen. Der Bot schlug dem Frager vor, "eine Waffe" gegen den CEO einer Krankenkasse einsetzen und einen Politiker, den er nicht mochte, körperlich zu attackieren. "Anthropic Claude hat dagegen gezeigt, dass es in der Lage ist, eskalierende Risiken zu erkennen und von Schaden abzuhalten. Man könnte derart gefährlich Antworten verhindern, die Technik dazu existiert. Es fehlt allerdings der Wille, die Sicherheit der Verbraucher und die nationale Sicherheit vor den Gewinn zu stellen", kritisiert Ahmed.
"Wir verfügen über starke Schutzmaßnahmen, um unangemessene Antworten von KIs zu verhindern, und haben sofort Maßnahmen ergriffen, um das festgestellte Problem zu beheben. Unsere Richtlinien verbieten es unseren KI-Systemen, gewalttätige Handlungen zu fördern oder zu erleichtern, und wir arbeiten ständig daran, unsere Tools noch besser zu machen", so ein Meta-Sprecher. Google widersprach dem CCDH-Ergebnis und erklärte, die Tests seien mit "einem älteren Modell durchgeführt worden, das Gemini nicht mehr unterstützt".
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


