Irreführende Texte können Autos verwirren
KI-basierte Steuerungen lassen sich laut University of California Santa Cruz gezielt missbrauchen
![]() |
Gefährlicher Text: Drohnen, Autos, Roboter und Co sind gefährdet (Illustration: ucsc.edu) |
Santa Cruz (pte001/27.01.2026/06:00)
Textbotschaften, die vermeintliche Witzbolde oder Menschen, die Böses wollen, an Straßen platzieren, können autonome Fahrzeuge so verwirren, dass sie unsinnige oder gefährliche Manöver ausführen. Diese Gefahr haben Alvaro Cardenas und Cihang Xie von der University of California Santa Cruz erkannt und plädieren für die Entwicklung entsprechender Gegenmaßnahmen.
Suche nach Schwachstellen
Laut ihrer Studie können irreführende Texte die Entscheidungsfindung autonomer Systeme hijacken. Das Problem wird auf der IEEE-Konferenz 2026 zum Thema "Sicheres und vertrauenswürdiges maschinelles Lernen" vorgestellt. Die führende Konferenz an der Schnittstelle von KI und Sicherheit findet vom 23. bis 25. März in München statt.
"Jede neue Technologie bringt neue Schwachstellen mit sich. Unsere Aufgabe als Wissenschaftler ist es vorauszusehen, wie diese Systeme versagen oder missbraucht werden können - und Abwehrmaßnahmen zu entwickeln, bevor diese Schwachstellen ausgenutzt werden", unterstreicht Cardenas.
Große visuelle Sprachmodelle
Gefährdet sind den Experten nach Roboter, Autos oder andere physische Technologien, die von Künstlicher Intelligenz (KI) gesteuert werden. Diese Systeme nähmen zunehmend Raum ein, beispielsweise in Form selbstfahrender Autos, Roboter, die Pakete ausliefern, Drohnen und vieles mehr.
Diese KI-Systeme werden zunehmend von großen visuellen Sprachmodellen angetrieben. Das ist eine Art von KI-Algorithmus, der sowohl visuelle Eingaben als auch Text verarbeiten kann und den Robotern hilft, mit unvorhersehbaren Szenarien umzugehen, die in der realen Welt auftreten. Autonome Autos seien zum Beispiel in der Lage, Verkehrszeichen zu erkennen und sie bei der Planung der Fahrt zu berücksichtigen.
Sicherheitsregeln oft ignoriert
"Ich gehe davon aus, dass visuelle Sprachmodelle in künftigen KI-Systemen eine wichtige Rolle spielen werden. Roboter, die für eine natürliche Interaktion mit Menschen entwickelt wurden, werden sich auf sie verlassen, und wenn diese Systeme in der realen Welt eingesetzt werden, muss die Sicherheit ein zentraler Aspekt sein", fordert Cardenas.
Durch sorgfältig formulierte Texteingaben können Angreifer die Chatbots und KI-Assistenten anweisen, Sicherheitsregeln zu ignorieren, sensible Informationen preiszugeben oder unbeabsichtigte Aktionen auszuführen. Jetzt arbeitet das Team daran, Gegenmaßnahmen zu erarbeiten.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


