theNet by Cloudflare

保护 LLM

了解应用中嵌入式 LLM 的潜在风险


人工智能 (AI) 大型语言模型会增强用户与应用交互方式,但与此同时,它们也会给数字资产带来风险

大型语言模型(例如 OpenAI 提供的 ChatGPT、Google 的 Bard 以及 Meta 的 LlaMA)会加速处理大量文本数据,并且经过训练后,用于学习如何持续改进其输出结果。但由于 AI 的使用量激增,这些 LLM 也成为网络犯罪分子的主要目标。例如,Darktrace 研究人员发现,2023 年 1 月至 2 月期间,新型社会工程学攻击增加了 135%,这与 ChatGPT 的广泛采用趋势吻合。


AI LLM 的采用速度超过了安全协议的升级速度

想要利用 AI 的企业正在迅速将这项技术集成到内部运营以及面向客户的服务。然而,随着企业加速采用 AI,如果不及时升级安全协议,则可能会让应用容易遭到攻击。

大型语言模型就像应用供应链中的其他组件一样。它们也可能会遭受各种网络攻击,即:利用 IT 基础设施来破坏和操纵敏感数据。

这并不奇怪,因为接受用户输入的应用长期以来一直容易遭受各种攻击,例如 SQL 注入、用户生成内容中的恶意链接。由于 AI 接受命令和查询等用户输入,因此,获得访问权限的攻击者便可以操纵模型。


10 种 LLM 攻击类型及其带来的风险

针对 AI 大型语言模型的攻击有多种形式,并以多种方式带来风险,例如:

  1. 注入提示词的不可见文本可能会诱导模型生成网络钓鱼电子邮件,提取披露敏感信息的训练数据,或使用后门程序嵌入恶意代码。

  2. 操纵模型生成具有误导性的输出可能会导致其他用户得到错误的结论。

  3. 复制模型的文件系统可能会导致知识产权被盗,并可能将这些知识产权出售给竞争对手,从而造成经济损失或损害市场优势。

  4. 使用自然语言更容易误导用户和利用模型。

  5. 精心制作的恶意信息可能会被注入到用户打开的文档中,这可能会让攻击者接管用户会话。

  6. 提示词注入通过直接注入(覆盖系统提示词)或间接注入(操纵用户输入)来操纵模型。

  7. 不安全的输出处理会将后端 Web 系统暴露给恶意代码,这些恶意代码被插入前端应用,旨在诱导最终用户进行点击。

  8. AI 模型上的资源密集型操作可能会导致服务降级和高昂的计算成本。

  9. 若依赖第三方提供的 LLM 模型组件,软件供应链也是一种威胁,它可能会通过引入额外的模型数据集和插件来入侵应用。

  10. 模型诱使最终用户在提交响应时披露机密数据。

为了让应用能够通过利用 AI 来继续增加其为最终用户提供的价值,实施适当的安全策略以确保这些应用安全无虞至关重要。为帮助 CISO 评估 LLM 漏洞带来的风险,开放式 Web 应用安全项目 (OWASP) 发布了一份 LLM 十大风险的安全公告

大致说来,针对这些风险的防范措施尚未经过测试。虽然许多公司急于将包含 LLM 的生成式 AI 整合到自有应用中,但包括 Samsung 和 Apple 等在内的一些公司已经完全禁止使用 LLM,至少暂时是这样。


保护 LLM

为了保护组织免受针对 AI 工具使用的大型语言模型的攻击,请运用安全策略来防范不安全的应用组件。可以考虑从以下策略着手,防范应用入侵,以免数据遭到泄漏进而危及组织安全:

  • 分析网络流量,识别可能表明 LLM 已遭破坏的攻击模式,它可能会入侵应用和用户帐户。

  • 建立对传输层流量模式的实时监测,直观显示与 LLM 交互的比特级数据包和数据。

  • 运用数据丢失防护技术,保护传输中的敏感数据。

  • 验证、过滤并隔离流量,保护用户、设备和应用免受遭入侵的 LLM 的影响。

  • 通过在边缘运行代码来隔离远程用户浏览器,将浏览器与注入恶意代码的 LLM 隔离开来。

  • 在 Web 应用防火墙中使用 WAF 托管规则集(例如 OWASP 核心规则和供应商规则),以阻止基于 SQL 注入、Cross-site scripting 和其他 Web 攻击手段的 LLM 攻击,同时避免误报的警报。

在运用上述这些策略时,请务必考虑最终用户。虽然缓解漏洞很重要,但仍然应该保持应用界面易于浏览,且不强迫用户必须完成过多步骤才能访问应用。此外,还请测试各项缓解措施,了解它们是否会占用宝贵的带宽。

将安全方法融入整体的 Zero Trust 策略同样也很重要。默认情况下,永不信任并始终验证用户和设备,即便是连接到企业网络且之前验证过的用户和设备。借助 Zero Trust,您可以为所有自托管、SaaS 以及非 Web 应用创建一个访问聚合层,通过为每种资源授予基于上下文的最低访问权限,而非网络级别访问权限来缩小攻击面。


提供安全保护,且不影响用户体验

Cloudflare 可以帮助组织安全地试验 AI 技术,同时遵循最佳实践且不影响用户体验。使用数据保护解决方案,组织可以保护跨 Web、SaaS 和私有应用中的数据。AI Gateway 会帮助组织收集关于用户如何使用 AI 应用的见解,并运用缓存和速率限制等功能来控制应用的扩展方式。

大约 20% 的互联网流量均通过 Cloudflare 网络传输,这导致 Cloudflare 平均每天阻止 ~2470 亿次网络威胁。通过分析这些海量情报数据,Cloudflare 提供无人能及的 AI 威胁形势见解。

Cloudflare 就影响当今技术决策者的最新趋势和主题发布了系列文章,本文为其一。


深入探讨这个话题

阅读《Cloudflare 如何在您开展业务的任何地方加强安全》电子书,了解关于这种方法的更多信息。



关键要点

阅读本文后,您将能够了解:

  • 为什么 AI 使用的大型语言模型 (LLM) 容易遭受网络攻击

  • 10 种 LLM 攻击类型及其带来的风险

  • 如何保护 LLM


相关资源


接收有关最流行互联网见解的每月总结。