Die auf künstlicher Intelligenz (KI) basierenden Large Language Models (LLMs) verbessern zwar die Interaktion der Nutzenden mit Ihrer App, bergen aber auch Risiken für Ihre digitalen Ressourcen.
Large Language Models (große Sprachmodelle) – wie jene von OpenAI (ChatGPT), Google (Bard) und Meta (LlaMA) – beschleunigen die Verarbeitung großer Mengen von Textdaten und werden so trainiert, dass sie lernen, ihre Ergebnisse kontinuierlich zu verbessern. Da die Nutzung von KI jedoch explodiert ist, sind diese LLM-Modelle auch ein bevorzugtes Angriffsziel von Cyberkriminellen. So stellten die Forscher von Darktrace von Januar bis Februar 2023 einen Anstieg der neuartigen Social Engineering-Angriffe um 135 % fest, was mit der weit verbreiteten Nutzung von ChatGPT zusammenfällt.
Unternehmen, die sich KI zunutze machen wollen, integrieren die Technologie rasch in ihre internen Abläufe und in kundenseitige Dienste. Die übereilte Einführung von KI kann jedoch dazu führen, dass Anwendungen verwundbar sind, wenn die Sicherheitsprotokolle nicht aktualisiert werden.
Large Language Models sind genau wie jede andere Komponente in der Supply Chain Ihrer Anwendungen. Sie sind anfällig für Cyberangriffe, die Ihre IT-Infrastruktur ausnutzen könnten, um sensible Daten zu kompromittieren und zu manipulieren.
Das ist keine Überraschung, denn Anwendungen, die Eingaben von Nutzenden akzeptieren, sind schon lange anfällig für Angriffe wie SQL-Injection und bösartige Links in von Nutzenden erstellten Inhalten. Da die KI Benutzereingaben wie Befehle und Abfragen akzeptiert, können Angreifer, die sich Zugang verschaffen, das Modell manipulieren.
Angriffe auf Large Language Models für KI-Dienste gibt es in vielen Formen, und sie stellen auf unterschiedliche Weise ein Risiko dar, z. B.:
Unsichtbarer Text, der Prompts enthält, kann Modelle dazu veranlassen, Phishing-E-Mails zu erstellen, Trainingsdaten zu extrahieren, die vertrauliche Informationen preisgeben, oder Hintertüren zu verwenden, um bösartigen Code einzubetten.
Wenn ein Modell so manipuliert wird, dass es irreführende Ergebnisse ausgibt, kann dies bei anderen Nutzenden zu inkorrekten Schlussfolgerungen führen.
Die Replikation des Dateisystems eines Modells kann zum Diebstahl von geistigem Eigentum führen, das an Wettbewerber verkauft werden könnte, was ökonomische Verluste oder den Verlust von Marktvorteilen zur Folge haben kann.
Die Verwendung natürlicher Sprache macht es leichter, die Nutzenden in die Irre zu führen und das Modell auszunutzen.
Absichtlich erstellte Informationen können in verwendete Dokumente eingefügt werden, was dazu führen kann, dass ein Angreifer die Sitzung eines Nutzenden kapert.
Prompt Injection manipuliert Modelle mit direkten Injections, die System-Prompts überschreiben, oder indirekten Injections, die Benutzereingaben manipulieren.
Unsichere Verarbeitung von Outputs setzt Backend-Web-Systeme bösartigem Code aus, der in Frontend-Anwendungen eingefügt wird, in der Hoffnung, die Endnutzenden zum Anklicken des Codes zu verleiten.
Ressourcenintensive Vorgänge an KI-Modellen können zu einer Verschlechterung der Dienste und hohen Kosten für die Datenverarbeitung führen.
Software-Lieferketten sind auch eine Bedrohung, wenn man sich auf LLM-Modellkomponenten von Dritten verlässt, die eine Anwendung durch die Einführung zusätzlicher Modelldatensätze und Plugins gefährden können.
Modelle, die Endnutzenden dazu bringen, vertrauliche Daten preiszugeben, wenn sie eine Antwort übermitteln.
Damit Ihre Anwendungen Ihren Endnutzenden durch den Einsatz von KI noch höheren Mehrwert bieten kann, müssen sie die richtigen Sicherheitsstrategien zum Schutz der Anwendungen implementieren. Um CISOs bei der Einschätzung des Risikos von LLM-Schwachstellen zu unterstützen, hat das Open Worldwide App Security Project (OWASP) eine Liste der Top 10-Bedrohungen für LLM-Beratung („LLM Advisory“) veröffentlicht.
Zum Schutz vor diesen Risiken gibt es noch kaum Erfahrungswerte. Viele Unternehmen sind bestrebt, generative KI mit LLMs rasch in ihre Anwendungen zu integrieren. Andere hingegen, etwa Tech-Giganten wie Samsung und Apple, haben die Modelle zumindest vorübergehend ganz verboten.
Um Ihr Unternehmen vor Angriffen auf die großen Sprachmodelle zu schützen, die von KI-Tools verwendet werden, sollten Sie eine Sicherheitsstrategie anwenden, die vor unsicheren Anwendungskomponenten schützt. Als Ausgangspunkt sind hier einige Taktiken zur Vermeidung von Datenverstößen bei Anwendungen, die zu Datenlecks führen könnten, die Ihr Unternehmen gefährden könnten:
Analysieren Sie den Netzwerktraffic nach Angriffsmustern, die auf ein kompromittiertes LLM hinweisen, das Anwendungen und Benutzerkonten gefährden könnte.
Schaffen Sie Echtzeiteinblicke in Traffic-Muster auf der Transportschicht zur Visualisierung von Paketen und Daten, die mit LLMs auf Bitebene interagieren.
Wenden Sie Techniken der Data Loss Prevention an, um sensible Daten während der Übertragung zu schützen.
Überprüfen, filtern und isolieren Sie den Datenverkehr, um Nutzende, Geräte und Anwendungen vor gefährdeten LLMs zu schützen.
Isolieren Sie die Browser von Remote-Nutzenden, indem Sie Code an der Edge ausführen, um sie vor einem LLM mit eingeschleustem schädlichem Code zu schützen.
Verwenden Sie WAF-verwaltete Regelsätze (z. B. OWASP-Kernregeln und Herstellerregeln) auf Ihrer Web Application Firewall, um LLM-Angriffe auf der Grundlage von SQL-Injection, Cross-Site-Scripting und anderen Web-Angriffsvektoren zu blockieren und gleichzeitig Fehlalarme zu vermeiden.
Denken Sie bei der Anwendung dieser Strategien auch an Ihre Endnutzenden. Trotz der Notwendigkeit, Sicherheitsanfälligkeiten zu mindern, sollten die Schnittstellen von Anwendungen weiterhin leicht navigierbar sein und den Nutzenden nicht zu viele Schritte abverlangen, um Zugriff auf die Anwendungen zu haben. Prüfen Sie außerdem, ob Ihre Abwehrmaßnahmen wertvolle Bandbreite beanspruchen.
Es ist auch wichtig, dass Sie Ihren Ansatz in eine ganzheitliche Zero Trust-Strategie integrieren. Standardmäßig sollten Sie Nutzenden und Geräten niemals vertrauen und sie immer überprüfen, selbst wenn sie mit einem Firmennetzwerk verbunden sind und bereits überprüft wurden. Mit Zero Trust können Sie eine Aggregationsebene für den Zugriff auf all Ihre selbst gehosteten, SaaS- und nicht-webbasierten Anwendungen erstellen, um Ihre Angriffsfläche zu verkleinern – indem Sie kontextbasierten Zugriff mit den geringsten Berechtigungen pro Ressource gewähren, anstatt Zugriff auf Netzwerkebene.
Cloudflare kann Unternehmen dabei helfen, sicher mit KI zu experimentieren und dabei Best Practices zu befolgen, ohne die Nutzererfahrung zu gefährden. Mit Data Protection können Unternehmen ihre Daten überall schützen – im Web, bei SaaS und privaten Anwendungen. AI Gateway hilft Unternehmen dabei, Einblicke in die Nutzung von KI-Anwendungen durch Mitarbeitende gewinnen und zu kontrollieren, wie die Anwendungen mit Funktionen wie Zwischenspeicherung und Rate Limiting skaliert.
Etwa 20 % des gesamten Internet-Traffics durchläuft das Cloudflare-Netzwerk. Das führt dazu, dass Cloudflare durchschnittlich ~165 Milliarden Cyberbedrohungen pro Tag blockiert. Durch die Analyse dieser massiven Intelligenz erhält Cloudflare einen unvergleichlichen Einblick in die KI-Bedrohungslandschaft.
Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.
Mehr über diesen Ansatz erfahren Sie im eBook: Wie Cloudflare Ihr Sicherheitsniveau an allen Fronten stärkt.
Folgende Informationen werden in diesem Artikel vermittelt:
Warum von KI verwendete Large Language Models (LLMs) anfälligfür Cyberangriffesind
10 Arten von LLM-Angriffen und das damit verbundene Risiko
Wie man LLMs schützt