theNet von CLOUDFLARE

Die Auswirkungen von KI-Chatbots auf Phishing

Wie sich Phishing im Zeitalter der fortgeschrittenen KI verändert


Hochmoderne tiefe neuronale Netze – eine Art von Machine-Learning-Technologie, die zur Implementierung von künstlicher Intelligenz (KI) verwendet wird – sorgen seit einigen Jahren für Schlagzeilen, weil sie unter anderem in der Lage sind, zwischen Sprachen zu übersetzen, Gedichte zu schreiben und Tweets zu generieren.

Kürzlich wurden GPT-4 und sein Vorgänger, ChatGPT zwei KI-Konversationsmodelle, die Deep Learning verwenden – als „bahnbrechende Entwicklungen“ angepriesen, die „die Art und Weise, wie wir alle arbeiten, verändern werden.“ Sowohl GPT-4 (Generative Pretrained Transformer 4) als auch ChatGPT sind wesentlich vielseitiger als herkömmliche Chatbots. Sie produzieren eher menschenähnliche Textantworten auf Fragen und Anfragen und können den Kontext einer Suchanfrage oder einer schriftlichen „Konversation“ „verstehen“ und die Intention hinter der Anfrage eines Nutzers interpretieren. So leistungsstark sind die Funktionen von ChatGPT, dass keine Verbraucheranwendung in so kurzer Zeit so viele neue Nutzer gewinnen konnte.

KI-Chatbots können Menschen dabei helfen, beeindruckende menschenähnliche Antworten oder sogar bestimmte Anwendungen zu erstellen – und zwar in einem Ausmaß, das Bedenken aufkommen ließ, dass sie von Hackern für Phishing-Kampagnen genutzt werden könnten.

Um die Auswirkungen von GPT-4 und ChatGPT auf die Cybersicherheit besser zu verstehen, ist es wichtig zu wissen, wie sie darauf „trainiert“ werden könnten, Inhalte für Phishing-Kampagnen zu schreiben, und welche Unterschiede es zwischen einfachen und hoch personalisierten, gezielten Phishing-Kampagnen gibt.

Angreifer haben schon immer die neuesten Trends und Technologien ausgenutzt, von Cloud-Speicherdiensten bis Kryptowährungen. Die Entstehung und der zunehmende Einsatz von generativer KI sollten Unternehmen daran erinnern, dass ihre E-Mail-Sicherheit in der Lage sein muss, fortgeschrittene Phishing-Kampagnen zu blockieren, unabhängig davon, wer – oder was – die Nachricht geschrieben hat.


Maschinen dazu bringen, Text zu verstehen und zu erzeugen

Die Modelle, auf denen die heutigen KI-Chatbots basieren, stellen neue Meilensteine in der Verarbeitung natürlicher Sprache („Natural Language Processing“, NLP) dar, einem Zweig der KI, der es Maschinen ermöglicht, Text oder gesprochene Worte zu „verstehen“ und darauf zu reagieren, ähnlich wie Menschen es können. NLP kombiniert die regelbasierte Modellierung menschlicher Sprache mit verschiedenen Modellen, um Computern zu helfen, das zu verstehen, was sie verarbeiten.

Eine Vielzahl von Anwendungen – z.B. Tools zur Überwachung sozialer Medien und Sprachassistenten wie Siri – nutzen NLP bereits seit Jahren. Aber ChatGPT und GPT-4, die anhand von Milliarden von Text- und Bildparametern trainiert wurden, sind zweifellos fortschrittlicher.

Jedes stellt ein sogenanntes „Large Language Model“ dar – ein auf einem neuronalen Netzwerk basierendes NLP-Modell, das darauf trainiert wurde, Vorhersagen darüber zu treffen, welches das logischste nächste Wort ist, das auf eine bestimmte Phrase folgt. Diese Methode hat sich bei der Erstellung von NLP-Modellen bewährt, die auch für viele andere Aufgaben gut geeignet sind.

Der Einsatz dieser Technik durch OpenAI (dem Entwickler von ChatGPT und GPT-4) ist ein bedeutender Meilenstein. OpenAI ging beim Training noch einen Schritt weiter als andere Anwendungen, indem es neuartige Techniken einsetzte, um menschliche Meinungen zu produzierten Texten oder Bildern einzubeziehen, sowie spezielles Training, um Anweisungen in Aufforderungen (den sogenannten „Prompts“) zu folgen. Daher sind ihre Modelle so abgestimmt, dass sie detailliertere, menschenähnliche Gespräche erzeugen.

Die artikulierten Antworten von ChatGPT und GPT-4 sollen gute Dienste leisten. Cyber-Kriminelle können ihre Fähigkeiten jedoch für Phishing-Kampagnen ausnutzen.


Der Missbrauch von KI-Chatbots

Phishing ist die häufigste Ursache für Datenschutzverletzungen und ein gängiges Einfallstor für Ransomware.

Da Phishing-E-Mails so gestaltet sind, dass sie legitime Unternehmen imitieren, können sie auf den ersten Blick schwer zu erkennen sein. Häufige Merkmale, an denen man Phishing-Nachrichten bisher oft erkennen konnte (vor allem solche, die von Kriminellen verfasst wurden, die nicht die Muttersprache des Opfers sprechen oder schreiben), sind schlechte Grammatik, falsch geschriebene oder falsch verwendete Wörter und unpassende Satzstrukturen.

Im Januar 2023 berichtete das auf Bedrohungsanalysen spezialisierte Unternehmen Recorded Future, dass ChatGPT von Cyberkriminellen für Aktivitäten wie die Erstellung authentisch aussehender Phishing-Nachrichten verwendet werden kann.

Recorded Future fand heraus, dass bereits wenige Wochen nach dem Start von ChatGPT Bedrohungsakteure im Dark Web und in speziellen Informationsquellen Proof-of-Concept-ChatGPT-Konversationen austauschen, die die Entwicklung von Malware, Social Engineering und Desinformation ermöglichen.

Es gibt auch Berichte über Angreifer, welche die Popularität von ChatGPT und GPT-4 ausnutzen, zum Beispiel:

  • Ermittler haben mehrere Fälle aufgedeckt, in denen der Name „ChatGPT“ oder Bilder von OpenAI auf Phishing-Websites gefälscht wurden, um Malware zu verbreiten oder Kreditkarteninformationen zu stehlen.

  • Es gibt gefälschte ChatGPT-Apps, die nach dem Herunterladen Phishing-Kampagnen starten, um die Daten der Nutzer zu stehlen.

  • Gleich nach der Einführung von GPT-4 begannen Betrüger damit, Phishing-Mails zu verschicken und Tweets mit gefälschten OpenAI-Tokens zu veröffentlichen.

Eigentlich verbietet OpenAI die Verwendung seiner Modelle für die „Erstellung von Malware“, „Aktivitäten mit hohem Risiko eines wirtschaftlichen Schadens“, „betrügerische oder täuschende Aktivitäten“ und andere illegale Aktivitäten. Ihre Modelle werden keine Phishing-E-Mails verfassen oder bei der Erstellung von Phishing-Websites helfen, wenn sie darum gebeten werden; sie können Hackern jedoch bei der Erstellung von Phishing-Kampagnen helfen. Zumindest können KI-Chatbots es jedem, auch Angreifern, ermöglichen, ihre Schreibfähigkeiten schnell zu verbessern.

In den falschen Händen könnten ChatGPT und GPT-4 dazu genutzt werden, authentischer aussehende, gut geschriebene Phishing-Nachrichten und Websites zu erstellen, die herkömmliche E-Mail-Sicherheits- oder Anti-Phishing-Filter umgehen können.


Könnten KI-Chatbots gezielte Phishing-Kampagnen durchführen?

Angreifer wissen, dass sie nur ein Opfer zu einem Klick oder einer Konversation verleiten müssen, um Anmeldedaten, Informationen oder Geld zu stehlen. Dies zeigt sich bei Phishing-Angriffen mit „Fake-Jobs“ die auf Arbeitssuchende abzielen, bei Betrügereien, bei denen sich die Angreifer als Wohltätigkeitsorganisation ausgeben und auf Spendengeber abzielen, und die sogenannten „Romance-Scams“, die sich auf Online-Datingseiten konzentrieren.

Die leistungsfähigsten neuronalen Netze sind heute nicht in der Lage, die persönlichen Details von gewöhnlichen Bürgern oder die spezifische Organisations- und Kommunikationsstruktur eines bestimmten Unternehmens zu „kennen“. Aber ein Angreifer, der die Leistung von KI-Chatbots mit ausreichenden Nachforschungen über sein beabsichtigtes Opfer kombiniert, könnte Phishing-Nachrichten in großem Umfang maßschneidern – was es für Nutzer noch schwieriger macht, bösartige E-Mails zu erkennen.

Cyber-Kriminelle nutzen bereits sehr gezielte, auf wenige Empfänger beschränkte, BEC-Angriffe (Kompromittierung von Geschäfts-E-Mails), um Unternehmen erfolgreich zu betrügen. Bei BEC-Angriffen geben sich Angreifer in der Regel als ein bestimmter Angestellter oder eine Führungskraft aus, mit der das beabsichtigte Opfer regelmäßig korrespondiert. Bei Vendor Email Compromise (VEC)-Angriffen, einer Form von BEC-Angriffen, kompromittieren Angreifer die Konten eines vertrauenswürdigen Dritten (z. B. eines Anbieters oder Lieferanten) und spiegeln bzw. imitieren zuvor ausgetauschte Nachrichten. Da sowohl BEC als auch VEC „vertrauenswürdige“ Beziehungen ausnutzen, können sie herkömmliche sichere E-Mail-Gateways und Authentifizierung umgehen. BEC-Angriffe haben Unternehmen weltweit bereits über 43 Mrd. US-Dollar gekostet.


Phishing auf allen Kanälen blockieren – dank Zero Trust

Angreifer werden neue Technologien immer zu ihrem Vorteil ausnutzen. Glücklicherweise können Sicherheitsinnovationen bösartige Nachrichten identifizieren, die herkömmliche Abwehrmechanismen umgehen oder von Nutzern nicht als solche erkannt werden. Im Laufe der Jahre wurden ausgeklügelte Machine-Learning-Modelle entwickelt und trainiert, die viele Signale – nicht nur Text oder Bilder – untersuchen, um Phishing zu erkennen und zu blockieren.

E-Mail-Nachrichten enthalten in Header- und Metadaten-Feldern eine große Menge zusätzlicher Informationen, einschließlich Informationen darüber, von wo aus die E-Mail gesendet wurde, über die Infrastruktur des Ursprungsservers und über den Übertragungsweg. Neben den Headern müssen auch andere Details in einer Nachricht, wie z. B. bestimmte URLs und Links, Anhänge, Mitglieder der Verteilerliste, der Tonfall und vieles mehr bewertet werden.

Die präventive E-Mail-Sicherheit von Cloudflare, die Teil der Zero Trust-Plattform ist, prüft mehrere Signale, die von E-Mail-Inhalten erzeugt werden, darunter:

  • Sentimentanalyse zur Erkennung von Veränderungen in Mustern und Verhaltensweisen (Schreibmuster und Ausdrücke)

  • Strukturanalyse von Headern, Texten, Bildern, Links und Payloads unter Verwendung von Heuristiken und Machine-Learning-Modellen, die speziell für diese Signale entwickelt wurden

  • Vertrauensgraphen, die soziale Graphen von Partnern, den Sendeverlauf und mögliche Fälle der Nachahmung von Partnern auswerten

Cloudflare nutzt auch Informationen, die aus den durchschnittlich 182 Milliarden Cyberbedrohungen, die jeden Tag blockiert werden, und aus 3 Milliarden DNS-Anfragen pro Tag gewonnen werden. Mit dieser Intelligenz können Cloudflare-Kunden bösartige Domains blockieren, ihre Nutzer vor verdächtigen Webinhalten schützen, Nutzer daran hindern, ihre Zugangsdaten auf Phishing-Websites preiszugeben, und Phishing über verschiedene Angriffsvektoren hinweg stoppen.

Diese und andere Techniken helfen, Angreifer daran zu hindern, das implizite Vertrauen der Nutzer in die Geschäftskommunikation auszunutzen. Der allgemeine Ansatz – die Ausweitung von Zero Trust auf die Bedrohungsabwehr – basiert auf drei Grundpfeilern:

  • Von einem Datenleck ausgehen: Gehen Sie davon aus, dass ständig Phishing-Kampagnen stattfinden. Scannen Sie das Internet, um proaktiv nach der Infrastruktur der Angreifer zu suchen und Phishing-Angriffe zu blockieren, bevor sie den Posteingang erreichen.

  • Niemals vertrauen: Vertrauen Sie geschäftlicher Kommunikation nicht nur, weil sie eine E-Mail-Authentifizierung eingerichtet haben, von seriösen Domains stammen oder von jemandem, mit dem ein Nutzer im Unternehmen schon einmal kommuniziert hat.

  • Immer verifizieren: Überprüfen Sie kontinuierlich jeden Nutzer und jede Anfrage, auch wenn sie sich innerhalb des Unternehmensnetzwerks befinden.

Selbstverständlich werden Angreifer jedes leicht verfügbare Werkzeug, wie die neuen KI-Chatbots, nutzen, um ihre Taktiken zu verbessern. Ständig in der Defensive zu bleiben oder abzuwarten, ob neue Cyberbedrohungen auftauchen, kann ein Unternehmen einem größeren Risiko aussetzen. Befolgen Sie lieber die Grundsätze „Von einem Datenleck ausgehen“, „niemals vertrauen“ und „immer verifizieren“, um besser gegen jede Phishing-Kampagne geschützt zu sein.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.


Vertiefung des Themas:

Um zu erfahren, welche Arten von Phishing-Kampagnen Cloudflare erkennt und blockiert, nutzen Sie die selbstgeführte E-Mail-Sicherheitsdemo.

Start my self-guided demo!


Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Wie dialogfähige KI-Chatbots Text generieren

  • Wie Angreifer ChatGPT oder GPT-4 missbrauchen können, um Phishing-Kampagnen zu erstellen

  • Wie Sie sich vor KI-generierten Phishing-Bedrohungen schützen können


Verwandte Ressourcen

Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!