theNet von CLOUDFLARE

Sollten Sie Ihrem Team die Nutzung von KI verbieten?

Die Vorteile und Risiken von LLMs prüfen


Unternehmen suchen immer nach Möglichkeiten, ihre Effizienz und Produktivität zu steigern, und viele versprechen sich viel vom Einsatz KI-basierter großer Sprachmodelle (LLMs) wie ChatGPT, um Inhalte zu generieren, mit Kunden zu chatten und sogar Software zu entwickeln. Aber viele große Unternehmen haben festgestellt, dass sie gezwungen sind, ihre Mitarbeitenden vom Einsatz dieser Technologien abzuhalten. Die Frage ist, ob andere Unternehmen in ihren Branchen diesem Beispiel folgen werden.

Warum KI verbieten? Der Grund: Generative KI-Dienste verwenden Dateneingaben für das weitere Training und geben die Daten in vielen Fällen später an Dritte weiter. Für Unternehmen, die sensible Daten haben oder verarbeiten, urheberrechtlich geschütztes geistiges Eigentum besitzen, in stark regulierten Branchen arbeiten oder Closed-Source-Software herstellen, könnten die Folgen eines solchen Datenlecks katastrophal sein.

Aber diese Tools bieten auch enorme Vorteile. Wie können CISOs also entscheiden, ob sie ChatGPT und Co. erlauben oder verbieten sollten? Vor allem, wenn man bedenkt, dass ein solches Verbot nicht nur die Produktivität des Personals einschränkt, sondern auch schwer durchzusetzen ist und leicht umgangen werden kann?



Warum sind ChatGPT und andere KI-Tools nicht sicher?

Da die Mitarbeitenden ChatGPT und andere LLMs als Arbeitserleichterung und Effizienzsteigerung wahrnehmen, nutzen sie sie möglicherweise in einer Weise, bei der sie unwissentlich Datenverluste verursachen.

Wie alle KI-Modelle ist auch ChatGPT darauf ausgelegt, immer mehr Informationen zu sammeln, um bessere Ergebnisse zu erzielen. Der unbeabsichtigte Datenverlust, der daraus resultieren kann, ist nicht unbedingt ein Konstruktionsfehler, denn diese Tools wurden nicht als sichere Datentresore konzipiert. Genauso ist es unsicher, vertrauliche Informationen auf sozialen Netzwerken wie LinkedIn oder Instagram zu posten, schließlich wurden diese Apps nicht für den Schutz privater Daten entwickelt.

In einer Studie wurde festgestellt, dass Angestellte regulierte vertrauliche Informationen oder geistiges Eigentum in diese Tools kopieren. In einem anderen Fall haben Entwickler von Samsung versehentlich vertrauliche Daten geleakt, nachdem sie diese in ChatGPT hochgeladen hatten, was dazu führte, dass Samsung die Nutzung von ChatGPT durch Mitarbeitende einschränkte.

Wie jede Software enthalten auch LLMs häufig Fehler, von denen einige zu Datenlecks führen können. Im März 2023 deckte OpenAI auf, dass ein Fehler dazu geführt hatte, dass Teile der Unterhaltungen von Nutzern mit ChatGPT anderen Nutzern gezeigt wurden.

Und schließlich gibt es im Zusammenhang mit diesen Tools Bedenken hinsichtlich der Einhaltung von Compliancevorschriften und gesetzlichen Bestimmungen. Es gibt keine Garantien dafür, wie die Daten gehandhabt werden, und die Weitergabe von Daten könnte dazu führen, dass ein Unternehmen die Compliance mit den Datensicherheitsbestimmungen nicht mehr einhält. Wie bei jeder externen Anwendung können Leaks oder mangelnde Transparenz in Bezug auf die Verarbeitung der Daten zu einem Verstoß gegen die DSGVO oder andere Vorschriften führen. Die Weitergabe von Daten an ein LLM unterbricht auch den für die Einhaltung der Vorschriften erforderlichen Datenprüfpfad.


Die Verbote: Wer und warum

Angesichts der Risiken sind mehrere große Unternehmen dazu übergegangen, ihre Mitarbeitenden von der Nutzung von LLMs ganz abzuhalten.

Amazon hat ChatGPT verboten, nachdem das Unternehmen ChatGPT-Antworten entdeckt hatte, die internen Amazon-Daten zu ähneln schienen. Apple hat die interne Nutzung von ChatGPT und Copilot, einem automatisierten Codierungstool von GitHub, untersagt, weil man befürchtet, dass die Tools sensible Informationen leaken könnten.

Die Finanzbranche hat sich besonders aktiv darum bemüht, die Nutzung von LLM anzuhalten. JPMorgan Chase schränkte die interne Nutzung von ChatGPT stark ein, da man befürchtete, dass geschützte Finanzinformationen geleakt werden könnten, was zu Verstößen gegen nationale und branchenspezifische Datenschutzbestimmungen führen könnte. Große Finanzanbieter wie die Bank of America, Citigroup und die Deutsche Bank folgten ihrem Beispiel.

Schließlich hat auch Samsung, wie oben erwähnt, ChatGPT für längere Zeit verboten. Das Unternehmen hat die Sperre mehrmals aufgehoben und wieder eingeführt.

Ausgehend von diesen und anderen Beispielen haben Unternehmen, die ihren Angestellten die Nutzung generativer KI verbieten oder diese einschränken, vor allem folgende Gründen:

  • Direktes Leaken von internen Daten

  • Bedenken hinsichtlich der Art und Weise, wie LLMs Dateneingaben speichern, verarbeiten und nutzen, um ihren Algorithmus und ihre Reaktionsfähigkeit zu verbessern, was zu einer Nachahmung privater interner Daten und zu einer unbeabsichtigten Verbreitung von Wettbewerbsinformationen führen kann

  • Bedenken hinsichtlich der fehlenden Protokollierung, wie LLMs regulierte Daten verarbeiten


Schwierigkeiten beim Verbot

Selbst wenn ein Unternehmen beschließt, die Verwendung von LLMs zu verbieten oder einzuschränken, könnte sich die Durchsetzung als nahezu unmöglich erweisen.

Die Festlegung eines Sicherheitsstandards bedeutet nicht, dass die internen Nutzer diesen Standard befolgen oder sich der Vorschrift überhaupt bewusst sind. Unternehmen haben bereits Schwierigkeiten, die Verwendung ungesicherter persönlicher Geräte für die Remote-Arbeit zu unterbinden oder die Verwendung nicht genehmigter SaaS-Apps dank Cloud Computing anzuhalten. Während die Verwendung von nicht genehmigten Apps als „Schatten-IT“ bezeichnet wird, könnte man die potenzielle Situation unter einem LLM-Verbot als „Schatten-KI“ bezeichnen.

Die Sicherheitsabteilung kann bestimmte Apps verbieten, indem sie die IP-Adressen oder URLs dieser Tools sperrt, aber natürlich sind diese Beschränkungen nicht vollkommen wirksam. Auf privaten Geräten sind unter Umständen nicht die richtigen Sicherheits-Clients installiert; Firmengeräte können in unternehmensfremden Netzwerken verwendet werden. Entschlossene Nutzer könnten sogar ein VPN verwenden, um Firewall-Regeln zu umgehen und auf verbotene Tools zuzugreifen.


Eine Alternative zum Verbot: Data Loss Prevention (DLP)

Was man mit Sicherheit über ChatGPT und ähnliche Dienste sagen kann, ist, dass diese Tools ungeheuer beliebt sind. Ein Verbot kann helfen, die Nutzung und das damit verbundene Datenleck einzudämmen. Aber CISOs sollten davon ausgehen, dass ihre Angestellten diese Dienste nutzen, sei es auf einem Firmen- oder einem Privatgerät. Zu diesem Zweck sollten sie unbedingt den Einsatz einer Lösung zum Data Loss Prevention (DLP) in Erwägung ziehen.

DLP-Lösungen verwenden eine Reihe von Taktiken, um sensible Daten zu erkennen und zu verhindern, dass sie eine geschützte Umgebung verlassen. Zu diesen Methoden gehören Musterabgleich, Keywordabgleich, Datei-Hash-Abgleich und Daten-Fingerprinting. Am wichtigsten für die Prävention von Datenlecks durch KI-Tools ist jedoch die Möglichkeit, Kopieren und Einfügen, Uploads und Tastatureingaben zu beschränken.

DLP-Lösungen (in Verbindung mit einer Browserisolierung) sollten in der Lage sein, das Kopieren und Einfügen von Daten durch Mitarbeiter zu verhindern und sie daran zu hindern, sensible Daten in jegliche Web-Apps, einschließlich LLMs, einzugeben. DLP kann auch das Hochladen von Daten blockieren, bestimmte Tastatureingaben anhalten und vertrauliche Daten in ausgehenden HTTP-Anfragen erkennen.

Unternehmen können die Nutzung generativer KI verbieten oder nicht. Wer ein Verbot verhängt, kann die Nutzung möglicherweise nicht vollständig anhalten. Aber für Unternehmen in beiden Situationen bietet DLP eine Alternative zur uneingeschränkten KI-Nutzung und zum KI-Verbot gleichermaßen.


Sollten Unternehmen ihren Mitarbeitenden die Nutzung von ChatGPT verbieten?

DLP ist natürlich keine Garantie dafür, dass Daten nicht hochgeladen werden. Insgesamt müssen CISOs die Vor- und Nachteile der Nutzung von ChatGPT und anderen LLMs abwägen. Ihre Schlüsse werden je nach Branche unterschiedlich ausfallen. In stark regulierten Branchen wie dem Bankwesen ist das Hochladen von Inhalt auf LLMs möglicherweise ein Tabu. In anderen Branchen werden CISOs die Verwendung von KI von Fall zu Fall bewerten – oder sie einfach erlauben.

Aber jedes Unternehmen hat sensible Daten zu schützen, und DLP kann dazu beitragen, dass diese Daten nicht in LLM-Datenbanken landen. Aufgrund der wichtigen Stellung des Datenschutzes in der heutigen Umgebung bietet Cloudflare DLP an, um das Sicherheitsrisiko von Daten und Code auch bei der zunehmenden Verwendung von generativen KI-Tools am Arbeitsplatz zu verringern.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.


Vertiefung des Themas.

Holen Sie sich das Whitepaper „SaaS-Anwendungen jetzt einfacher schützen“ und erfahren Sie, wie Unternehmen mit Cloudflare ihre Anwendungen und Daten mit einem Zero Trust-Ansatz schützen können.

Get the whitepaper!



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Warum große Sprachmodelle (LLMs) Daten in Gefahr bringen

  • Mehrere globale Unternehmen haben die interne Nutzung von ChatGPT und anderen generativen KI-Tools verboten

  • Wie Data Loss Prevention (DLP) den Einsatz von KI sicher machen kann


Verwandte Ressourcen

Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!