CLOUDFLARE 打造的 theNet

您應該禁止員工使用 AI 嗎?

審視 LLM 的好處和風險


企業一直在尋找提高效率和生產力的方法,對於許多人來說,深度使用 ChatGPT 等基於 AI 的大型語言模型 (LLM) 來產生內容、與客戶聊天甚至建置軟體,看起來前景廣闊。但是,恰恰相反,許多大型企業發現,他們不得不阻止員工使用這些技術。問題在於,同產業的其他公司是否也會效仿。

為什麼要禁止使用 AI?原因在於:生成式 AI 服務會使用資料輸入進行進一步訓練,並在許多情況下,在之後的某個時間將這些資料透露給外部各方。對於擁有或處理敏感性資料、維護專有智慧財產權、在受到嚴格監管的產業營運或開發封閉原始碼軟體的組織而言,此類資料外洩可能會帶來災難性後果。

但這些工具也提供了巨大的好處。那麼,CISO 如何確定應該允許還是禁止 ChatGPT 之類的工具呢?尤其是考慮到這樣的禁止可能會扼殺員工生產力,執行起來有難度,而且容易被規避。



為什麼 ChatGPT 和其他 AI 工具不安全?

由於員工可能認為 ChatGPT 和其他 LLM 能讓他們的工作更輕鬆、流程更高效,他們可能會在不知不覺中以某些方式使用這些工具,從而導致資料洩漏。

與所有 AI 模型一樣,ChatGPT 設計為在獲得更多資料後產生更好的結果。可能導致的意外資料外洩不一定是瑕疵,因為這些工具並非設計用來作為安全的資料保存庫。就像在 LinkedIn 或 Instagram 等社交媒體平台上發佈機密資訊是不安全的一樣,這些應用程式並非為保護私人資料而建置。

一項研究發現,有員工將受監管的機密資訊或智慧財產權粘貼到這些工具中。在另一個案例中,Samsung 工程師將機密資料上傳到 ChatGPT 後意外洩露,導致 Samsung 限制員工使用 ChatGPT。

與任何軟體一樣,LLM 通常包含錯誤,其中一些可能會導致資料外洩。2023 年 3 月,OpenAI 透露,一個錯誤導致部分使用者與 ChatGPT 的對話內容被展示給了其他使用者。

最后,使用這些工具還存在合規性和監管方面的問題。對於資料的處理方式沒有保證,而且分享資料可能會使公司不符合資料安全法規的要求。就像使用任何外部應用程式一樣,資料洩漏或者對資料處理過程缺乏可見性,可能會導致違反 GDPR 或其他監管框架。將資料傳遞給 LLM 也會破壞合規性所需的資料稽核記錄。



有哪些公司出於什麼原因封鎖了 AI

考慮到這些風險,幾家大公司已經開始全面禁止其員工使用 LLM。

Amazon 在發現 ChatGPT 的回應似乎與 Amazon 內部資料相似後,禁止其員工使用 ChatGPT。Apple 公司則基於這些工具可能會洩漏敏感性資訊的擔憂,禁止內部使用 ChatGPT 和 GitHub 的自動編碼工具 Copilot。

金融產業在阻止使用 LLM 方面尤為積極主動。JPMorgan Chase 對內部使用 ChatGPT 實施了嚴格限制,原因是擔心可能會洩漏受保護的金融資訊,導致違反國家和產業資料法規。Bank of America、Citigroup 和 Deutsche Bank 等大型金融機構紛紛效仿

最後,如之前所提到的,Samsung 也曾長期禁止使用 ChatGPT。他們多次解除禁令,之後又再次頒布禁令。

基於這些及其他範例,禁止或限制員工使用生成式 AI 的公司似乎是出於以下主要原因:

  • 直接洩露內部資料

  • 對 LLM 如何儲存、處理和利用資料輸入以改進其演算法和回應存在擔憂,因為這可能會模仿私密內部資料,並導致競爭情報的意外泄露。

  • 對 LLM 在處理受監管資料時缺乏記錄這一情況的擔憂



禁止使用所面臨的挑戰

即使某個組織確實決定禁止或限制使用 LLM,他們也可能會發現執行這一規定幾乎是不可能的。

制定安全標準並不意味著內部使用者會遵守該標準,甚至可能都不知道有這項規定。由於雲端運算,各組織發現已經很難阻止在遠端工作中使用不安全的個人裝置,或者禁止使用未授權的 SaaS 應用程式。人們將使用未經核准的應用程式稱為「影子 IT」,因此對於在 LLM 禁令下使用 AI 的情況,也許可以稱之為「影子 AI」。

安全部門可以透過封鎖這些工具的 IP 位址或 URL 來禁止某些應用程式,但當然,這些限制並非萬無一失。個人裝置可能未安裝正確的安全用戶端;公司設備可能會在非公司網路上使用。下定決心的使用者甚至可能使用 VPN 來繞過防火牆規則,從而存取被禁止使用的工具。


禁止使用的替代方法:資料丟失預防 (DLP)

可以肯定的一點是,ChatGPT 和類似服務極其受歡迎。實施禁令可能有助於減少其使用以及相關的資料洩漏情況。但 CISO 或許應該假設自己的員工正在企業或個人裝置上使用這些工具。出於這一假設,他們應該認真考慮採用資料丟失預防 (DLP) 解決方案。

DLP 解決方案使用各種策略來偵測敏感性資料,並防止其離開受保護的環境。這些方法包括模式比對、關鍵字比對、檔案雜湊比對和資料指紋識別,但與防止 AI 工具資料洩露最相關的是限制複製和貼上、上傳以及鍵盤輸入的功能。

DLP 解決方案(與瀏覽器隔離搭配使用時)應該能夠防止員工進行複製貼上操作,從而阻止其將敏感性資料輸入任何 Web 應用程式(包括 LLM)。DLP 也可能能夠封鎖資料上傳、攔截某些鍵盤輸入,以及偵測傳出 HTTP 請求中的機密資料。

對於是否禁止使用生成式 AI,不同組織有不同的想法。那些選擇禁止使用的組織,可能也無法完全杜絕其使用。但無論組織處於哪種情況,DLP 都提供了一種介於無限制使用 AI 與禁止使用 AI 之間的替代方案。


公司是否應該禁止員工使用 ChatGPT?

當然,DLP 並不能保證資料不會被上傳。總體而言,CISO 將不得不權衡允許使用 ChatGPT 和其他 LLM 的利弊,而他們的結論會因產業而異。在銀行等受到嚴格監管的產業中,將內容上傳到 LLM 可能根本不可行。在其他產業中,CISO 可能會逐案評估 AI 的使用情況,或者乾脆允許自由使用。

但每家企業都有需要保護的敏感性資料,而 DLP 有助於防止這些資料進入 LLM 的資料庫。鑒於資料保護在當今環境中的重要性,Cloudflare 提供了 DLP,來幫助各企業在工作場所中生成式 AI 使用之風盛行的情況下降低資料和程式碼暴露的風險。

Cloudflare 就影響當今技術決策者的最新趨勢和主題發表了一系列文章,本文為其一。


深入探討這個主題。

取得《簡化我們保護 SaaS 應用程式的方式》白皮書,瞭解 Cloudflare 如何透過 Zero Trust 方法幫助組織保護其應用程式和資料。





重點

閱讀本文後,您將能夠瞭解:

  • 為什麼大型語言模型 (LLM) 會讓資料面臨風險

  • 多家全球公司已禁止在內部使用 ChatGPT 和其他生成式 AI 工具

  • 資料丟失預防 (DLP) 如何實現安全的 AI 使用


相關資源

收到最熱門網際網路深入解析的每月回顧!