14. Juni 2023 | Artikel drucken |

ChatGPT und Social Engineering: Wie KI Phishing-Angriffe gefährlicher macht

Generative KI senkt die Einstiegshürde für Social-Engineering-Angriffe dramatisch: fehlerfreie Phishing-Mails in jeder Sprache, personalisierte Pretexte aus öffentlichen Daten und Deepfake-Stimmen für Vishing-Angriffe. Für Security-Teams beginnt ein neues Kapitel der Bedrohungsabwehr.

Das Wichtigste in Kürze

  • Bedrohungslage: Generative KI ermöglicht fehlerfreie, kontextbezogene Phishing-Mails in industriellem Maßstab — das Ende der Erkennbarkeit durch Rechtschreibfehler.
  • Skalierung: Wo früher manuell recherchiert und geschrieben wurde, generiert KI personalisierte Angriffe in Sekunden.
  • Deepfakes: KI-generierte Stimmen und Videos ermöglichen CEO-Fraud und Vishing-Angriffe auf einem Qualitätsniveau, das von echten Anrufen kaum zu unterscheiden ist.
  • Verteidigung: Technische Maßnahmen allein reichen nicht — kontinuierliches Security Awareness Training mit KI-spezifischen Szenarien wird zur Pflicht.
  • Paradigmenwechsel: Die Prämisse ‚Phishing erkennt man an Fehlern‘ ist obsolet — neue Erkennungsmethoden und Zero-Trust-Prozesse sind nötig.

Das Ende der erkennbaren Phishing-Mail

Jahrzehntelang galt die Faustregel: Phishing-Mails erkennt man an Rechtschreibfehlern, schlechter Grammatik und generischem Inhalt. Diese Regel ist mit ChatGPT und vergleichbaren Modellen hinfällig.

Generative KI produziert fehlerfreie Texte in jeder Sprache und jedem Sprachstil. Ein Angreifer kann einen Phishing-Text generieren, der den Kommunikationsstil eines bestimmten Unternehmens, einer Abteilung oder sogar einer Person imitiert. Die sprachliche Qualität ist nicht mehr der Schwachpunkt — sie ist perfekt.

Schlimmer noch: KI ermöglicht Personalisierung im großen Maßstab. Wo früher ein Angreifer manuell LinkedIn-Profile und Unternehmenswebsites durchforsten musste, um einen überzeugenden Pretext zu erstellen, generiert KI in Sekunden personalisierte Angriffe für Hunderte von Zielpersonen gleichzeitig.

Deepfakes und Vishing: Die nächste Eskalationsstufe

Die Bedrohung beschränkt sich nicht auf Text. KI-generierte Stimmen sind mittlerweile so realistisch, dass sie in Telefonaten nicht von echten Stimmen zu unterscheiden sind. Ein Deepfake-Audio des CEO, das den CFO zur Überweisung auffordert, ist kein Science-Fiction-Szenario mehr — es passiert bereits.

Im Februar 2024 wurde ein Mitarbeiter eines Hongkonger Unternehmens durch einen Deepfake-Videocall mit angeblichen Kollegen zur Überweisung von 25 Millionen Dollar bewogen. Alle Teilnehmer im Call waren KI-generiert.

Die Kosten für solche Angriffe sinken rapide. Open-Source-Tools wie Bark, Tortoise-TTS oder VALL-E können mit wenigen Sekunden Audiomaterial eine Stimme klonen. Für Video-Deepfakes reichen öffentlich verfügbare Fotos und wenige Minuten Compute-Zeit. Die technische Einstiegshürde ist praktisch auf null gesunken.

Warum traditionelle Abwehr versagt

E-Mail-Security-Tools erkennen Phishing traditionell über drei Signale: technische Indikatoren (Header-Anomalien, verdächtige URLs), sprachliche Muster (bekannte Phishing-Phrasen, grammatische Fehler) und Absender-Reputation.

KI-generiertes Phishing umgeht zwei der drei Signale. Die Sprache ist einwandfrei, die Phrasen sind originell und kontextbezogen. Nur die technischen Indikatoren bleiben als Erkennungsmerkmal — und auch die werden zunehmend professionell verschleiert.

Das bedeutet: Die Erkennungsrate klassischer Phishing-Filter sinkt, während das Volumen und die Qualität der Angriffe steigen. Ein doppelter Schlag, der die bisherige Abwehrstrategie fundamental in Frage stellt.

Gegenmaßnahmen für die KI-Ära

1. Security Awareness 2.0: Training muss KI-spezifische Szenarien einbeziehen — perfekte Sprache, personalisierte Inhalte, Deepfake-Anrufe. Mitarbeiter müssen lernen, nicht auf sprachliche Qualität zu vertrauen, sondern auf Prozesse: Überweisungen nur nach Rückruf auf bekannter Nummer, sensible Aktionen nur über verifizierte Kanäle.

2. Prozessbasierte Kontrollen: Kein Geldtransfer, kein Systemzugang, keine sensible Information auf Basis einer einzelnen Kommunikation — egal wie überzeugend. Vier-Augen-Prinzip und Out-of-Band-Verifikation sind die wirksamsten Gegenmaßnahmen gegen Social Engineering.

3. KI-gestützte Erkennung: Paradoxerweise ist KI auch die beste Verteidigung. KI-basierte E-Mail-Security-Tools analysieren Kommunikationsmuster, Schreibstile und Verhaltensanomalien — und erkennen Phishing, das regelbasierte Systeme übersehen.

4. Technische Härtung: DMARC, DKIM und SPF als E-Mail-Authentifizierung. FIDO2/Passkeys statt Passwörter — Phishing-resistant Authentication eliminiert den häufigsten Angriffsvektor komplett.

Key Facts auf einen Blick

Phishing-Erfolgsrate mit KI: +135% höhere Klickrate bei KI-personalisierten Phishing-Mails (IBM X-Force)

Deepfake-Schaden: 25 Mio. Dollar Verlust durch einen einzigen Deepfake-Videocall (Hongkong, 2024)

Kosten einer Stimm-Klone: Unter 5 Dollar mit Open-Source-Tools und wenigen Sekunden Audiomaterial

Phishing als Angriffsvektor: 91% aller Cyberangriffe beginnen mit Phishing (Verizon DBIR)

Quelle: IBM X-Force, Verizon DBIR, ARUP/Hongkong Police, 2023/24

Häufige Fragen

Kann ChatGPT selbst für Phishing missbraucht werden?

OpenAI hat Sicherheitsmechanismen eingebaut, die direkte Phishing-Generierung blockieren. Allerdings lassen sich diese Beschränkungen durch geschicktes Prompting teilweise umgehen. Zudem existieren unzensierte Open-Source-Modelle, die keinerlei Einschränkungen haben. Die Verfügbarkeit ist nicht das Nadelöhr — die Intention des Angreifers ist es.

Wie erkenne ich KI-generierte Phishing-Mails?

Sprachliche Perfektion ist kein Warnsignal mehr. Achten Sie stattdessen auf: ungewöhnliche Absenderadressen (technische Prüfung), untypische Dringlichkeit, Abweichungen vom normalen Kommunikationsmuster und Aufforderungen zu sensiblen Aktionen über ungewöhnliche Kanäle. Im Zweifel: Über einen anderen Kanal verifizieren.

Sind Deepfake-Anrufe wirklich eine reale Bedrohung?

Ja, und sie nehmen rapide zu. Die Qualität von Stimm-Klonen ist so hoch, dass selbst enge Mitarbeiter getäuscht werden können. Unternehmen sollten für sensible Aktionen grundsätzlich Out-of-Band-Verifikation einführen — Rückruf auf bekannter Nummer statt Reaktion auf eingehenden Anruf.

Hilft Phishing-resistant Authentication gegen KI-Phishing?

Ja, fundamental. FIDO2-Keys und Passkeys können nicht durch Phishing kompromittiert werden, egal wie überzeugend die E-Mail oder der Anruf ist. Die Implementierung von Phishing-resistant MFA ist die wirksamste einzelne Maßnahme gegen alle Formen von Phishing.

Wie oft sollte Security Awareness Training stattfinden?

Kontinuierlich, nicht jährlich. Monatliche kurze Einheiten mit aktuellen Szenarien sind wirksamer als eine jährliche Pflichtschulung. Simulierte Phishing-Kampagnen mit KI-generierten E-Mails testen die Wachsamkeit im Alltag. Wichtig: keine Bestrafung, sondern Lernkultur.

Weiterführende Lektüre im Netzwerk

KI und Cybersecurity-Trends: www.securitytoday.de

KI im Unternehmenseinsatz: www.mybusinessfuture.com

Digitale Führung und Sicherheit: www.digital-chiefs.de

Quelle Titelbild: Pexels / Sora Shimazaki

SecurityToday Redaktionsteam

Hier schreibt SecurityToday Redaktionsteam für Sie

Mehr Artikel vom Autor

Lesen Sie weiter

Ein Magazin der Evernine Media GmbH