1. März 2026 | Artikel drucken |

Versicherung: KI-gestützte Betrugserkennung wehrt Social-Engineering-Welle ab

2 Min. Lesezeit

Eine deutsche Versicherungsgruppe mit 6.000 Mitarbeitern wurde Anfang 2026 Ziel einer koordinierten Social-Engineering-Kampagne. Deepfake-Anrufe, gefälschte Vorstandsmails und manipulierte Dokumente – die Angreifer nutzten KI-generierte Inhalte auf professionellem Niveau. Die hauseigene KI-gestützte Betrugserkennung identifizierte und stoppte alle 23 Angriffsversuche.

Das Wichtigste in Kürze

  • 23 koordinierte Social-Engineering-Angriffe mit KI-generierten Deepfakes und Dokumenten
  • Angreifer zielten auf Überweisungen im Gesamtwert von 8,7 Millionen Euro
  • KI-basierte Anomalieerkennung stoppte jeden einzelnen Versuch
  • Zusätzliche Awareness-Schulung nach dem Vorfall senkte die Klickrate auf Phishing um 94 Prozent
3,1 Mrd. $
Schäden durch Social Engineering in den USA 2023
Quelle: FBI IC3 Report, 2023

Ausgangslage: Versicherungen als lukratives Ziel

Versicherungsunternehmen verarbeiten täglich hohe Geldbeträge – Schadenregulierungen, Rückversicherungszahlungen, Provisionszahlungen. Diese Finanzströme machen sie zu bevorzugten Zielen für Business Email Compromise (BEC) und CEO Fraud.

Die Versicherungsgruppe hatte 2025 ein KI-gestütztes System zur Betrugserkennung implementiert, das Kommunikationsmuster, Zahlungsanweisungen und Dokumentenechtheit in Echtzeit analysiert.

„Bis 2027 werden KI-Agenten die Zeit, die Angreifer für die Ausnutzung kompromittierter Konten benötigen, um 50 Prozent reduzieren. Unternehmen müssen ihre Erkennungssysteme entsprechend beschleunigen.“Gartner, Pressemitteilung März 2025

Der Angriff: KI gegen KI

Im Februar 2026 startete eine organisierte Gruppe eine koordinierte Kampagne mit drei Angriffsvektoren gleichzeitig:

Vektor 1 – Deepfake-Anrufe: Die Angreifer nutzten Voice Cloning, um die Stimme des CFO zu imitieren. Mitarbeiter in der Finanzabteilung erhielten Anrufe mit der Aufforderung, „dringende Überweisungen“ für eine angebliche Übernahme zu tätigen.

Vektor 2 – CEO Fraud per E-Mail: Gleichzeitig gingen täuschend echte E-Mails im Stil des Vorstands ein, die auf gefälschte Verträge und Bankverbindungen verlinkten.

Vektor 3 – Manipulierte Dokumente: Die verlinkten Verträge enthielten echte Firmenlogos, korrekte Handelsregisternummern und gefälschte Unterschriften – generiert mit KI-Tools.

Erkennung: Anomalien in Millisekunden

Das KI-System der Versicherung erkannte die Angriffe auf mehreren Ebenen:

Stimm-Analyse: Die Deepfake-Anrufe hatten minimale Artefakte in den Frequenzbändern, die das System als synthetisch klassifizierte. Alle 7 Anrufe wurden automatisch geflaggt.

Verhaltens-Analyse: Die E-Mail-Kommunikation wich vom üblichen Muster des CFO ab – andere Tageszeit, ungewöhnliche Dringlichkeit, neue Empfänger-Konstellation. Alle 12 E-Mails wurden blockiert.

Dokument-Analyse: Die gefälschten Verträge enthielten Metadaten-Inkonsistenzen und Schriftart-Anomalien, die auf KI-Generierung hindeuteten.

Ergebnis: 23 von 23 Angriffsversuchen erkannt und gestoppt. Gesamtschaden: Null Euro.

Nach dem Angriff: Awareness auf neuem Niveau

Obwohl das technische System alle Angriffe gestoppt hatte, nutzte das Security-Team den Vorfall für ein umfassendes Awareness-Programm. Die Mitarbeiter erfuhren, wie realistisch KI-generierte Deepfakes inzwischen sind.

Die anschließende Phishing-Simulation zeigte: Die Klickrate sank von 12 Prozent auf 0,7 Prozent – ein Rückgang um 94 Prozent. Echte Vorfälle sind der effektivste Awareness-Treiber.

Fakt: Laut FBI IC3-Report 2025 verursachten Social-Engineering-Angriffe weltweit Schäden von über 6,5 Milliarden US-Dollar.

Fakt: KI-basierte Betrugserkennungssysteme reduzieren laut Gartner die False-Positive-Rate um bis zu 60 Prozent gegenüber regelbasierten Systemen.

Key Facts

Kosten pro Vorfall: Ein erfolgreicher Phishing-Angriff kostet Unternehmen durchschnittlich 4,76 Millionen Euro.

Social Engineering: 98 Prozent aller Cyberangriffe nutzen mindestens eine Form von Social Engineering.

Häufige Fragen

Wie erkennt man Deepfake-Anrufe?

Technisch durch Frequenzanalyse und Stimmbiometrie. Organisatorisch durch Rückruf-Verifizierung: Jede telefonische Zahlungsanweisung über einem definierten Betrag erfordert einen Rückruf über die bekannte Durchwahl.

Können KI-Systeme auch KI-generierte Angriffe erkennen?

Ja – und aktuell sind die Erkennungssysteme den Angriffs-Tools überlegen. Aber das ist ein Wettrüsten. Unternehmen sollten KI-basierte Erkennung als eine Schicht in einem mehrschichtigen Sicherheitskonzept betrachten.

Was kostet eine KI-gestützte Betrugserkennung?

Für ein Unternehmen dieser Größe liegen die jährlichen Kosten bei 250.000 bis 400.000 Euro. Die verhinderten Schäden allein durch diesen einen Vorfall überstiegen die Jahreskosten um den Faktor 20.

Mehr aus dem MBF Media Netzwerk

Lesetipps der Redaktion

Quelle Titelbild: Pexels

Tobias Massow

Hier schreibt Tobias Massow für Sie

Mehr Artikel vom Autor

Auch verfügbar in

FrançaisEspañolEnglish

Lesen Sie weiter

Ein Magazin der Evernine Media GmbH