Cyberkriminelle setzen KI-Tools zur Steigerung der Geschwindigkeit, Effizienz, Größenordnung und Effektivität ihrer Angriffe ein. Diese neuen KI-gestützten Angriffe haben für Unternehmen ganz konkrete Folgen.
Deepfake-Betrug, etwa mittels Sprachnachricht oder Videoanruf, hat Verlusten in Millionenhöhe verursacht. In einem Fall hat ein Deepfake des CFO eines multinationalen Unternehmens einen Finanzangestellten dazu gebracht, 25 Millionen US-Dollar an Betrüger zu zahlen. KI-generierte Phishing-Angriffe verleiten unterdessen immer mehr Menschen dazu, ihre Anmeldedaten preiszugeben, während KI-gestützte Schadsoftware bestehende Abwehrmaßnahmen umgeht.
KI begünstigt auch Desinformationskampagnen, Data Poisoning und Modellmanipulation, wodurch KI-gesteuerte Systeme kompromittiert werden können. Gartner hat kürzlich KI-gestützte Fehlinformationen als eines der größten Cyberrisiken eingestuft.
KI-basierte Angriffe werden künftig immer raffinierter werden, weil Cyberkriminelle einen größeren Teil ihrer Gewinne in neue Technologien investieren. Viele investieren bereits Einnahmen aus günstigen Angriffen in die Erforschung und Entwicklung von kostspieligeren Strategien, die mehr einbringen. In vielen Fällen setzen die Angreifer ihre Budgets deutlich gezielter ein als die Unternehmen, die sie ins Auge gefasst haben.
Um herauszufinden, wie KI die Cybersicherheitslandschaft verändert, habe ich mit Khalid Kark, Field CIO für Nord- und Lateinamerika von Cloudflare, und Daniel Kendzior, Global Data and AI Security Practice Leader bei Accenture, gesprochen. Wir waren uns einig, dass die meisten herkömmlichen Sicherheitstools gegen KI-gestützte Angriffe nichts ausrichten können. Um die Ausfallsicherheit zu stärken, müssen Unternehmen Sicherheit neu denken. Anstatt auf passive Verteidigung zu setzen, müssen sie einen aktiveren, vorbeugenden Ansatz verfolgen, bei dem KI zur Bekämpfung von KI zum Einsatz kommt.
Da Angreifer immer mehr KI-Tools einsetzen, müssen wir uns alle auf ausgefeiltere Versionen bekannter Social Engineering-Strategien sowie auf größere botbasierte Angriffe einstellen. In der Zwischenzeit wird wahrscheinlich eine Vielzahl neuer Taktiken zu beobachten sein, darunter auch neue Arten von Identitätsbetrug. Um höhere Sicherheit zu gewährleisten, muss das Bewusstsein für diese Veränderungen in sämtlichen Unternehmen geschärft werden.
Manche Dinge ändern sich nicht. So ist Social Engineering immer noch die einfachste und günstigste Angriffstaktik, die außerdem sehr erfolgreich ist. Laut einem Bericht von Verizon sind 68 % der Sicherheitsvorfälle auf Fehler von Menschen zurückzuführen, die häufig mit Social Engineering wie Phishing-Tricks verbunden sind.
Zu beobachten ist aber, dass die Angriffe immer raffinierter und glaubwürdiger werden. Angreifer nutzen generative KI zur Erstellung überzeugenderer Phishing-E-Mails. Diese dürfen beispielsweise keine Rechtschreib- oder Grammatikfehler enthalten, die auf einen Betrug hinweisen könnten.
Gleichzeitig nutzen Angreifer KI zunehmend zur Erstellung von Deepfakes. Eine Mitarbeiterin kann beispielsweise eine Sprachnachricht erhalten, die so klingt, als stamme sie von einem Vorgesetzten, in Wahrheit aber von einem KI-Modell erstellt wurde. Die Mitarbeiterin könnte dadurch dazu verleitet werden, Anmeldedaten offenzulegen, Transaktionen zu genehmigen oder sensible Daten preiszugeben. Mit KI lassen sich solche Deepfake-Nachrichten in Sekundenschnelle generieren.
Leider ist den kognitiven Verzerrungen schwer beizukommen, die uns für solche Angriffe anfällig machen. Uns allen unterlaufen beim Verarbeiten und Interpretieren von Informationen Fehler. Zum Beispiel neigt man dazu, Informationen zu bevorzugen, die die eigenen, bestehende Überzeugungen bestätigen, während man die ignoriert, die das nicht tun. Das erhöht die Wahrscheinlichkeit, dass man auf ein Deepfake hereinfällt. Wenn man eine Sprachnachricht erhält, die so klingt, als stamme sie von einem Vorgesetzten, neigt man dazu, sie für echt zu halten.
Neben der Erstellung besserer Phishing-E-Mails und Deepfakes zur Täuschung von Mitarbeitenden nutzen Angreifer KI auch zur Herstellung neuer Identitäten. Beim Betrug mit synthetischen Identitäten werden hyperrealistische Profile erstellt. Dazu werden echte und gefälschte Daten kombiniert, um konventionelle Verifizierungssysteme zu umgehen. KI-generierte persönliche Angaben und automatisiertes Credential Stuffing erschweren die Erkennung solcher Identitäten.
Fake-Identitäten stellen ein großes Risiko für besonders häufig angegriffene Bereiche wie den Finanzdienstleistungssektor, das Gesundheitswesen und Behörden dar. Da es beim Betrug mit synthetischen Identitäten oft keine unmittelbaren Opfer gibt, bleibt er oft unbemerkt. So können Kredithistorien aufgebaut und Täuschungen erfolgreich ausgeführt werden.
Auch wenn Bots sich für Menschen ausgeben, können sie echten Schaden anrichten. Wie aus dem Cloudflare-Cybersicherheitsbericht 2025 hervorgeht, gingen im Jahr 2024 28 Prozent des gesamten von Cloudflare verzeichneten Anwendungstraffics auf Bots zurück. Dieser Anteil war gegenüber den vorangegangenen vier Jahren weitgehend stabil. Bots können durchaus legitimen Zwecken dienen – etwa der Indizierung von Suchmaschinen oder der Überwachung der Verfügbarkeit. Doch ihre überwiegende Mehrheit (93 Prozent, laut einer Cloudflare-Traffic-Analyse) ist nicht verifiziert und potenziell bösartig.
Mit KI-gestützten Bots ermöglichen können automatisierte Großangriffe mit beispielloser Effizienz durchgeführt werden. Wir beobachten KI-gestützte Bots, die 200-mal mehr Zugriffe auf eine Website erzielen können, als das bei früheren Angriffen der Fall war. Bots werden nicht nur für große DDoS (Distributed Denial-of-Service)-Angriffe eingesetzt, sondern auch zum Diebstahl sensibler Daten und urheberrechtlich geschützter Inhalte, zur Durchführung von Credential Stuffing und zur Ausführung von Betrug in maschinellem Tempo. Untermauert wird dies durch KI-Modelle, die diese Funktionen noch verbessern, da sie herkömmliche CAPTCHA umgehen und eine Erkennung aufgrund ihrer Anpassungsfähigkeit vermeiden.
Die Herausforderung besteht also darin, die Spreu vom Weizen zu trennen und alle Bösartige zu blockieren.
Um KI-gestützten Bedrohungen einen Schritt voraus zu sein, ist ein proaktiver und KI-gestützter Sicherheitsansatz erforderlich. In meinem Gespräch mit Khalid Kark und Daniel Kendzior haben wir sieben Möglichkeiten angesprochen, mit denen jeder sein Sicherheitsniveau erhöhen kann, um sich vor diese neuen Bedrohungen zu schützen.
Verbessern Sie die Beobachtbarkeit.
„Viele Anbieter fügen KI zu allem hinzu, als sei sie ein nettes High-End-Extra“, so Kendzior. KI wird sogar in Software eingebunden, die Sie vielleicht bereits verwenden. Nicht alle dieser KI-Funktionen sind notwendigerweise nützlich und einige könnten neue Sicherheitslücken schaffen. Um die mit KI verbundenen Risiken zu minimieren, müssen wir alle die Art und Weise anpassen, in der wir Software kaufen, um einen besseren Überblick darüber zu bekommen, wo KI integriert wurde.
Gleichzeitig wird es immer wichtiger werden, die KI-Nutzung in Unternehmen besser beobachten zu können. Unternehmen verfügen in der Regel über etwa 33 Prozent mehr API, als sie offiziell erfasst haben. Und diese nicht erfassten API können potenzielle für Angriffe missbraucht werden. In ähnlicher Weise wissen wir oft nicht, wo und wie KI im gesamten Unternehmen eingesetzt wird – und das, obwohl jedes dieser KI-Tools eine Sicherheitslücke darstellen kann.
Durch die Implementierung einer Plattform, die Protokolle, Analysen, Warnungen und Forensik an einem Ort zusammenführt, können dann KI-Funktionen auf diese Daten angewandt werden, um Risiken zu identifizieren und ihre Ursachen genau zu lokalisieren.
Erkennen und neutralisieren Sie Bedrohungen in Echtzeit.
Da KI genutzt, um die Geschwindigkeit und den Umfang von Angriffen zu erhöhen, muss man einen Weg finden, damit Schritt zu halten. Glücklicherweise kann KI dabei helfen, die Cybersicherheit zu erhöhen. Sie kann beispielsweise gewaltige Mengen an Daten analysieren und Anomalien erkennen, die möglicherweise ein Hinweis auf Bedrohungen sind. KI-Tools können dann automatisiert auf Gefahren reagieren und Probleme in Echtzeit lösen.
Die Analyse des Nutzerverhaltens der Mitarbeitenden – einschließlich Zugriffsmustern, Berechtigungsausweitungen und Versuchen der Datenausschleusung – kann dazu beitragen, Referenzwerte zu generieren und Anomalien zu erkennen, die möglicherweise auf interne Bedrohungen hinweisen. Mit diesen KI-gestützten Funktionen lassen sich Insiderrisiken erkennen, bevor sie größeren Schaden anrichten.
Schützen Sie sich vor KI-gestütztem Phishing und Deepfakes.
Da Angreifer KI für überzeugenderes Phishing und zur Erstellung von Deepfakes einsetzen, müssen ausgefeiltere Kontrollen und Richtlinien eingeführt werden – einschließlich solchen, die dabei helfen, falsche Vorannahmen und Fehler zu bekämpfen. Nehmen wir an, ein Mitarbeiter erhält eine Textnachricht, die scheinbar von einem Vorgesetzten stammt und in der er ihm der Auftrag erteilt wird, Geld auf ein bestimmtes Konto zu überweisen. Eine Richtlinie, die Mitarbeitenden in bestimmten Positionen die Durchführung von Banküberweisungen untersagt, kann in einem solchen Fall Schaden abwenden. Sie muss auch Prozesskontrollen beinhalten, um sicherzustellen, dass mehrere Prüfungen durchgeführt werden, bevor etwas ausgeführt wird.
Verbessern Sie das Identitätsmanagement.
Das Verwalten von Identitäten war schon immer schwierig, doch KI hat diese Aufgabe noch weiter erschwert. „Wir hatten Kunden, die auf eine Remote-Registrierung für neue Kunden und Mitarbeitende zurückgegriffen haben. Doch da heute Deepfakes möglich sind, muss man eine gewisse Skepsis an den Tag legen und sich fragen, ob man es wirklich mit einer echten Person zu tun hat“, sagt Kendzior.
Zero Trust-Sicherheit kommt bei der Verbesserung des Identitätsmanagements eine Schlüsselrolle zu. Mit der richtigen Zero Trust-Lösung können Unternehmen verhindern, dass Unbefugte und KI-Bots auf Firmenressourcen zugreifen. Gleichzeitig sind sie in der Lage, den Zugriff für autorisierte Personen zu optimieren.
Identifizieren und blockieren Sie Schadbots. Bot-Management-Funktionen können vertrauenswürdige und schädliche Bots voneinander unterscheiden. So lässt sich verhindern, dass bösartige Bots Daten abschöpfen, Inhalte stehlen oder die Performance von Websites beeinträchtigen.
Der menschliche Faktor muss berücksichtigt werden. Die Bekämpfung von Cyberbedrohungen wird immer einen technischen Aspekt haben. Doch um KI-gestützte Gefahren zu neutralisieren, ist auch Verhaltenstraining erforderlich. Mitarbeitende müssen über die Phishing-Versuche, Deepfakes und andere KI-gestützte Angriffe aufgeklärt werden, die auf sie zukommen, damit sie ihnen mit der nötigen Skepsis begegnen.
Es reicht aber nicht, die Mitarbeitenden zu sensibilisieren – Unternehmen müssen sie auch zu besseren digitalen Bürgern machen. Denn diese KI-gestützten Programme erreichen Menschen auch nach Feierabend. Jemand könnte zum Beispiel eine Textnachricht erhalten, in der ihm mitgeteilt wird, dass er dringend eine Gebühr bezahlen muss. Wenn derjenige dann auf den entsprechenden Link klickt – oder schlimmer noch, die Angreifer bezahlt – finanziert er unter Umständen ungewollt zukünftige Angriffe, die Auswirkungen auf seinen Arbeitgeber haben könnten.
Arbeiten Sie mit Partnern zusammen. KI trägt dazu bei, dass Cyberkriminalität wächst. So kämpft man heute nicht mehr gegen allein arbeitende Hacker. Neben der Einführung der neuesten KI-gestützten Cybersicherheitsfunktionen muss man Allianzen erweitern, um eine größere Chance zu haben, sich vor gut organisierten Angreifern zu schützen. Je mehr man mit Partnern zusammenarbeitet, desto besser kann man sich verteidigen.
Die Zahl, der Umfang und die Raffinesse KI-gestützter Bedrohungen werden weiter zunehmen. Und nach jedem erfolgreichen Phishing-Versuch und jedem Datenleck stecken Cyberkriminelle einen Teil ihrer Gewinne in fortschrittlichere Technologien. Viele Unternehmen müssen jetzt damit beginnen, ihre Verteidigungsmaßnahmen in diesem neuen Zeitalter KI-gestützter Angriffe grundlegend zu überarbeiten.
Die Connectivity Cloud von Cloudflare bietet eine wachsende Zahl an Tools und Diensten, die Unternehmen dabei helfen können, sich vor KI-gesteuerten Bedrohungen zu schützen. Das Cloudflare AI Gateway bietet einen Überblick über die Kosten, die Nutzung, die Latenz und die Gesamtperformance von KI-Anwendungen. Mit Firewall for AI können Anwendungen, die auf Large Language Models (LLM) beruhen, vor Missbrauch geschützt werden. Diese Tools funktionieren Hand in Hand mit den zahlreichen cloudnativen Sicherheitsservices von Cloudflare, sodass Sie Ihre Verteidigung gegen größere, komplexere KI-basierte Bedrohungen skalieren können.
Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträgerinnen und -träger aus der Tech-Branche heute von Bedeutung sind.
Mehr über KI-gestützte Bedrohungen und andere Trends, die eine Neuausrichtung hin zur Stärkung der Ausfallsicherheit erfordern, erfahren Sie im Cloudflare-Cybersicherheitsbericht 2025: Maßstabsgerechte Ausfallsicherheit“.
Mike Hamilton — @mike-hamilton-us
CIO, Cloudflare
Folgende Informationen werden in diesem Artikel vermittelt:
Wie Cyberkriminelle KI zur Optimierung ihrer Angriffe nutzen
Die drei heute am häufigsten eingesetzten Taktiken
Sieben Möglichkeiten für eine bessere Verteidigung gegen KI-basierte Bedrohungen