CLOUDFLARE 打造的 theNet

保護 LLM

瞭解應用程式中嵌入式 LLM 的風險


雖然人工智慧 (AI) 大型語言模型能提升使用者與應用程式的互動體驗,但它們也會給您的數位資產帶來風險

像 OpenAI 的 ChatGPT、Google 的 Bard 和 Meta 的 LlaMA 之類的大型語言模型,能加快對大量文字資料的處理速度,並且經過訓練以學會如何持續改進其輸出內容。但由於 AI 的使用呈爆炸式增長,這些 LLM 模型也成為網路罪犯的主要目標。例如,Darktrace 研究人員發現,從 2023 年 1 月到 2 月,新型社交工程攻擊增加了 135%,這與 ChatGPT 的廣泛採用相吻合。


AI LLM 的發展速度超過了安全通訊協定

想要利用 AI 的企業正在快速將該技術融入其內部營運及面向客戶的服務中。然而,由於 AI 的採用速度加快,若安全通訊協定未進行升級,應用程式可能會易受攻擊。

大型語言模型就像應用程式供應鏈中的任何其他元件一樣。它們會受到網路攻擊,這些攻擊可能會利用您的 IT 基礎架構來入侵和操縱敏感性資料。

這並不令人意外,因為接受使用者輸入的應用程式長期以來一直容易受到 SQL 資料隱碼攻擊以及使用者產生內容中的惡意連結之類的攻擊。由於 AI 接受命令和查詢等使用者輸入,因此取得存取權限的攻擊者隨後可以操縱該模型。


10 種 LLM 攻擊及其帶來的風險

針對 AI 大型語言模型的攻擊有多種形式,並以多種方式帶來風險,例如:

  1. 插入提示的不可見文字可以誘使模型產生網路釣魚電子郵件、擷取暴露敏感性資訊的訓練資料,或使用後門程式嵌入惡意程式碼。

  2. 操縱模型產生誤導性輸出可能會導致其他使用者得出錯誤的結論。

  3. 複製模型的檔案系統可能會導致智慧財產權被竊取,進而被出售給競爭對手,導致經濟損失或削弱市場優勢。

  4. 使用自然語言導致更容易誤導使用者並利用模型。

  5. 可以將故意製作的資訊放入使用者所查看的文件中,這可能導致攻擊者接管使用者工作階段。

  6. 提示插入透過直接插入(覆寫系統提示)或間接插入(操縱使用者輸入)來操控模型。

  7. 不安全的輸出處理會使後端 Web 系統暴露於惡意程式碼面前,這些惡意程式碼被插入到前端應用程式中,目的是欺騙終端使用者點擊該程式碼。

  8. 對 AI 模型進行資源密集型操作可能會導致服務效能下降以及高昂的運算成本。

  9. 如果您依賴第三方的 LLM 模型元件,軟體供應鏈也可能會帶來威脅,因為第三方元件可能會引入額外的模型資料集和外掛程式,從而危及應用程式的安全。

  10. 有些模型會在提交回應時誘騙終端使用者透露機密資料。

為了使您的應用程式能夠透過套用 AI 持續提升其為終端使用者創造的價值,實施正確的安全策略以保障這些應用程式的安全至關重要。為幫助 CISO 評估 LLM 漏洞的風險,開放式全球應用程式安全專案 (OWASP) 發佈了 LLM 十大風險公告

抵禦這些風險在很大程度上屬於未經測試的領域。雖然許多公司急於將帶有 LLM 的生成式 AI 整合到其應用程式中,但一些公司(如 Samsung 和 Apple)已經完全禁止使用這些模型,至少在短期內暫時禁止使用。


保護 LLM

若要保護您的組織免受針對 AI 工具所使用之大型語言模型的攻擊,請採用一種能防範不安全應用程式元件的安全策略。作為起點,下面提供了一些策略,可用於防止可能導致資料洩露並危及組織的應用程式漏洞:

  • 分析網路流量中的攻擊模式,這些模式可能表明 LLM 已遭入侵,進而可能危及應用程式和使用者帳戶。

  • 建立對傳輸層流量模式的即時可見度,在位元層級視覺化與 LLM 互動的封包和資料。

  • 套用資料丟失預防技術來保護傳輸中的敏感性資料。

  • 驗證、篩選和隔離流量,以保護使用者、裝置和應用程式免受遭入侵 LLM 的影響。

  • 在邊緣執行程式碼,將遠端使用者的瀏覽器與插入惡意程式碼的 LLM 隔離,從而使其免受影響

  • 在 Web 應用程式防火牆上使用 WAF 管理規則集(例如 OWASP 核心規則和廠商規則),以封鎖基於 SQL 資料隱碼攻擊、Cross-site scripting 和其他 Web 攻擊媒介的 LLM 攻擊,同時避免誤判警示。

在實施這些策略時,要考慮到您的終端使用者。雖然緩解漏洞至關重要,但應用程式介面仍應易於導覽,並且不應迫使使用者經歷太多步驟才能存取應用程式。此外,還要對您的緩解措施進行測試,看看它們是否佔用了寶貴的頻寬。

將您的方法整合到整體 Zero Trust 策略中也很重要。預設情況下,從不信任並始終驗證使用者和裝置,即使連接到公司網路並且之前經過驗證也是如此。藉助 Zero Trust,您可以針對所有自托管、SaaS 和非 Web 應用程式之存取權限建立一個彙總層,針對每項資源授予基於背景的最低存取權限,而不是授予網路層級存取權限,從而縮小攻擊面。


在不影響使用者體驗的前提下進行保護

Cloudflare 可以幫助各組織在遵循最佳做法且不損害使用者體驗的前提下,安全地對 AI 進行試驗。使用資料保護功能,各組織可以在各種環境(包括 Web、SaaS 以及私人應用程式)中保護資料安全。AI Gateway 可協助組織收集有關人們如何使用 AI 應用程式的見解,並透過快取和限速等功能控制應用程式的擴展方式。

大約 20% 的網際網路流量流經 Cloudflare 網路,使得 Cloudflare 平均每天封鎖 ~2470 億起網路威脅。透過分析如此龐大的情報,Cloudflare 能夠獲得有關 AI威脅情勢的獨特見解。

Cloudflare 就影響當今技術決策者的最新趨勢和主題發表了一系列文章,本文為其一。


深入探討這個主題。

閱讀《Cloudflare 如何在世界各地為您的業務加強安全性》電子書,瞭解有關此方法的更多資訊。



重點

閱讀本文後,您將能夠瞭解:

  • AI 使用的大型語言模型 (LLM) 為何容易受到網路攻擊

  • 10 種 LLM 攻擊及其帶來的風險

  • 如何保護 LLM


相關資源


收到最熱門網際網路深入解析的每月回顧!