LLMs können Hackern das Handwerk legen
Italienische Forscher haben Exploits mit Hilfe von Künstlicher Intelligenz automatisch generiert
![]() |
Hacker: LLMs können ihm schaden und nützlich sein (Bild: Mubashir Khan, pixabay.com) |
Neapel (pte005/22.07.2025/06:15)
ChatGPT und andere große Sprachmodelle (LLM, large language model) können dazu beitragen, Exploits zu erstellen und so Sicherheitslücken in Software zu schließen. Einem Forscherteam um Simon Pietro Romano von der Universität Neapel Federico II ist es auf diese Weise erstmals gelungen, Exploits automatisch zu generieren. Ein Exploit ist in der elektronischen Datenverarbeitung eine Möglichkeit, Schwachstellen auszunutzen, die bei der Entwicklung eines Programms entstanden sind. Bislang konnten vor allem Experten mit Programmierkenntnissen Exploits erstellen. Ihre Forschungsergebnisse publizierten die Wissenschaftler kürzlich in "Computer Networks".
Fruchtbare Diskussion von zwei LLMs
Romano und seine Kollegen initiierten eine Diskussion zwischen ChatGPT und Llama 2 von Meta mit dem Ziel, Software-Exploits zu generieren. Durch sorgfältige Gestaltung der Eingabeaufforderungen, die sie den beiden Modellen gaben, stellten sie sicher, dass die Modelle unterschiedliche Rollen übernahmen und fünf verschiedene Schritte durchführten, von denen bekannt ist, dass sie die Erstellung von Exploits unterstützen.
Diese Schritte sind die Analyse eines anfälligen Programms, die Identifizierung möglicher Exploits, die Planung eines Angriffs auf der Grundlage dieser Exploits, das Verstehen des Verhaltens der angegriffenen Hardwaresysteme und schließlich die Generierung des eigentlichen Exploit-Codes. Bislang haben die Forscher ihre LLM-basierte Methode zur Exploit-Generierung nur in einem ersten Experiment getestet. Dennoch stellten sie fest, dass sie letztlich einen voll funktionsfähigen Code für einen Buffer-Overflow-Exploit erzeugten, also einen Angriff, bei dem vom System gespeicherte Daten überschrieben werden, um das Verhalten bestimmter Programme zu verändern.
Hacker könnten auch von LLMs profitieren
"Dies ist eine vorläufige Studie, aber sie beweist eindeutig die Machbarkeit des Ansatzes", sagt Romano. "Die Auswirkungen betreffen die Möglichkeit, zu vollständig automatisierten Schwachstellenanalysen zu gelangen." Das Verfahren könnten auch Hacker nutzen, um sich Zugang zu fremden Computern zu verschaffen, warnt Romano. Andererseits sieht er die Möglichkeit, LLM zu nutzen, um Softwarefehler zu erkennen, zu reparieren und Hackern so die Möglichkeit zu verbauen, diese zu nutzen.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Wolfgang Kempkens |
Tel.: | +43-1-81140-300 |
E-Mail: | kempkens@pressetext.com |
Website: | www.pressetext.com |