KI-Cybercrime für Unternehmen ernste Gefahr
Kaspersky-Prognose zeichnet für 2026 beunruhigendes Bild künftiger Angriffe mit Deepfakes
![]() |
KI-Hacker: Firmen müssen sich auf hochspezialisierte Attacken vorbereiten (Bild: pixabay.de/fszalai) |
Ingolstadt (pte027/09.12.2025/13:59)
Neben all seinen Vorteilen wird Künstliche Intelligenz (KI) immer mehr zur Gefahr für Unternehmen. Sprachmodelle und generative KI verbessern nicht nur die Abwehrfähigkeiten, laut dem IT-Sicherheitsspezialisten Kaspersky eröffnen sie auch neue Möglichkeiten für Cyber-Kriminelle, Nutzer zu täuschen und zu schaden. 2026 wird demnach eine Herausforderung.
Mitarbeiter besser schulen
"Deepfakes werden einfacher zu erstellen, das Bewusstsein dafür nimmt weiter zu", schlagen die Experten Alarm: Neben technischer Abwehr sollten Mitarbeiter gezielt geschult werden. "Deepfakes werden damit zu einem festen Bestandteil der Sicherheitsagenda und erfordern in Unternehmen einen systematischen Ansatz bei Schulungen und internen Richtlinien."
Denn: Die Deepfake-Qualität verbessert sich laut Kaspersky vor allem durch besseres Audio - und das bei sinkenden Einstiegshürden. Gleichzeitig werden Tools zur Content-Erzeugung einfacher zu bedienen sein, sodass selbst Laien mit wenigen Klicks Deepfakes mittlerer Qualität erstellen können, heißt es. So steige die durchschnittliche Qualität auch 2026 weiter.
Inhalte unterscheiden können
Den Experten nach nähern sich offene KI-Modelle geschlossenen Systemen an und schaffen mehr Missbrauchspotenzial. Geschlossene Modelle böten zwar strengere Kontrollmechanismen und Schutzmaßnahmen, die Missbrauch einschränken sollen. Open-Source-Systeme würden jedoch im Funktionsumfang schnell aufholen und zirkulierten ohne vergleichbare Beschränkungen.
Die Grenze zwischen legitimen und betrügerischen KI-generierten Inhalten verschwimmt laut Kaspersky 2026 weiter: KI erzeuge bereits gut-formulierte Betrugs-Mails, überzeugende visuelle Markenauftritte und hochwertige Phishing-Seiten. Gleichzeitig setzten große Marken in ihrer Werbung zunehmend auf synthetische Inhalte, sodass KI-generierte Materialien vertraut und visuell "normal" wirken. "Damit wird es für Nutzer ebenso wie für automatische Erkennungssysteme noch schwieriger, echte Inhalte von gefälschten zu unterscheiden."
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Florian Fügemann |
| Tel.: | +43-1-81140-313 |
| E-Mail: | fuegemann@pressetext.com |
| Website: | www.pressetext.com |


