AssCompact suche
Home
Software
6. Januar 2026
Cyberausblick 2026: Wenn KI zur Waffe wird

1 / 3

Cyberausblick 2026: Wenn KI zur Waffe wird

Cyberausblick 2026: Wenn KI zur Waffe wird

Der Vormarsch generativer KI verändert die Spielregeln der Cyberkriminalität grundlegend. Angriffe werden gezielter, schneller und schwerer vorhersehbar. Welche neuen Gefahren drohen und warum Makler und Versicherer mit Resilienz mehr als nur Wettbewerbsvorteile gewinnen.

Ein Gastbeitrag von Vincenz Klemm, Mitgründer und Geschäftsführer von Baobab Insurance

Mit dem Einzug generativer künstlicher Intelligenz (GenAI) entwickeln sich Cyberangriffe nicht mehr nur in technischer, sondern zunehmend auch in taktischer Tiefe. Schon heute nutzen Cyberkriminelle KI, um Wege in Unternehmensnetzwerke zu finden, Schwachstellen auszulesen, täuschend echte Phishing-Mails zu verfassen oder Passwörter zu erraten. Die klassischen Angriffsphasen aus Aufklärung, Eindringen, Ausbreitung, Ausnutzung werden dadurch beschleunigt und automatisiert – und das oft ohne menschliches Zutun.

Damit verändert GenAI die Angriffsfläche radikal: Sie erweitert sie nicht nur quantitativ, sondern qualitativ. Systeme, die gestern noch sicher schienen, werden durch KI-gestützte Analyse- und Manipulationsverfahren in kürzester Zeit ausgenutzt – und das oft, bevor klassische Abwehrmechanismen überhaupt reagieren können. Diese Dynamik belegt der jüngste BSI-Lagebericht. Trotz professionellerer Abwehrmaßnahmen bleibt die Cyberbedrohung in Deutschland „angespannt auf hohem Niveau“.

Neue Bedrohungen: KI-gestütztes Social-Engineering und Vishing

Am deutlichsten spiegelt sich diese Transformation im Bereich Social Engineering wider. Phishing war lange ein Low-tech-Problem: schlecht formulierte Mails, leicht zu durchschauen. Mit KI-modulierten Angriffen ändert sich das grundlegend. Heute erstellen generative Modelle personalisierte, kontextbezogene Nachrichten, die selbst geschulte Mitarbeitende täuschen. Wie real die Gefahr ist, zeigt die Studie des TÜV Verbands: So sind 84% aller gemeldeten Sicherheitsvorfälle in Deutschland auf Phishing zurückzuführen, wobei KI diese Angriffe noch raffinierter macht.

In der sprachbasierten Manipulation zeigen sogenannte Deepfake-Vishing-Angriffe laut den Baobab Cybersicherheitsexperten, wie sich Bedrohungen weiterentwickeln: Täuschend echte Stimmen von Führungskräften werden erzeugt, um Mitarbeitende zu manipulieren – mit wirtschaftlich gravierenden Folgen. So sind die synthetischen Stimmen realistisch genug, um gängige Authentifizierungssysteme wie WeChat Voiceprint und Microsoft Azure zu umgehen.

Auch Gefahr durch Prompt Injections steigt

Ebenfalls durch KI wächst das Risiko von Prompt Injections: Hier manipulieren Angreifer KI-Systeme wie Large-Language-Modelle direkt über Eingabeaufforderungen und bringen sie dazu, schädliche Aktionen oder Ausgaben zu erzeugen. Diese Technik ist besonders gefährlich, wenn KI-Modelle in Geschäftsprozesse eingebettet sind, da sie so legitime Prozesse kompromittieren können, so die Baobab Cybersicherheitsexperten.