各个企业一直在寻找提高效率和生产力的方法,而且许多企业认为,深入使用基于 AI 的大型语言模型 (LLM)(例如 ChatGPT)来生成内容、与客户聊天甚至构建软件,似乎很有前景。但事实并非如此,许多大型企业发现,它们不得不迫使员工不再使用这些技术。问题在于,同一行业的其他公司是否会效仿这种做法。
为什么要禁用 AI?原因在于:生成式 AI 服务将输入数据用于进一步训练,这种做法在许多情况下会导致后续向外部各方泄露数据。对于拥有或处理敏感数据、维护专有知识产权、在受到高度监管的行业工作,或生产闭源软件的组织而言,这种类型的数据泄露可能会带来灾难性后果。
但是,这些工具也会带来巨大的好处。那么,CISO 如何确定是否应该允许或禁止使用 ChatGPT 及其他类似工具?特别是考虑到这样的禁令可能会抑制员工的生产力,难以执行,以及员工可以找到规避或绕过禁令的方法?
因为员工可能认为 ChatGPT 和其它 LLM 可以让其工作更轻松、流程更高效,他/她们可能在不知情的情况下使用这些产品,进而导致数据泄露。
像所有 AI 模型一样,ChatGPT 的设计目标是随着摄入的数据越多,生成的结果也逐步优化。可能会导致意外的数据泄露不一定是缺陷,因为这些工具的设计初衷并不是用作安全的数据保险库。与此类似的是在 LinkedIn 或 Instagram 等社交媒体平台上发布机密信息也会造成安全隐患,因为这些应用并不是为保护私人数据而构建。
一项研究发现,员工将受监管的机密信息或知识产权粘贴到这些工具中。在另一个案例中,Samsung 工程师在将机密数据上传至 ChatGPT 后导致数据意外泄露,因此 Samsung 限制员工使用 ChatGPT。
与任何软件一样,LLM 通常包含逻辑错误,其中一些错误可能会导致数据泄露。2023 年 3 月,OpenAI 披露,有一个错误导致用户与 ChatGPT 的部分对话向其他用户显示。
最后,这些工具还存在合规和监管方面的问题。数据处理方式缺乏保障,而且数据共享可能会导致公司违反数据安全法规。如同外部应用一样,数据泄露或数据处理方式缺乏透明度可能会导致违反公司 GDPR 或其他监管框架的规定。将数据传递至 LLM 也会破坏合规要求的数据审计跟踪。
鉴于上述风险,几家大型公司已经采取行动,全面禁止员工使用 LLM。
Amazon 在发现 ChatGPT 的回复与其内部数据相似后,要求员工禁用该工具。Apple 也禁止员工在内部使用 ChatGPT 和 Copilot(GitHub 推出的一款自动化编码工具),担心这些工具会泄露敏感信息。
金融行业在阻止使用 LLM 方面表现得特别积极。摩根大通严格限制员工在内部使用 ChatGPT,担心因泄露受保护的财务信息而导致违反国家和行业数据保护法规。美国银行、花旗集团,以及德意志银行等大型金融服务机构也效仿这种做法。
最后,如前文所述,Samsung 延长了 ChatGPT 禁令。该公司多次取消并重新实施这项禁令。
根据这些以及其他示例,公司之所以禁止或限制员工使用生成式 AI,主要原因有以下几点:
直接泄露内部数据
担心 LLM 以何种方式存储、处理并利用数据输入来改进其算法和回复,可能会模仿内部私有数据并导致意外传播竞争情报
担心缺乏关于 LLM 以何种方式处理受监管数据这方面的记录
即便组织决定禁止或限制使用 LLM,它们可能会发现几乎不可能实现。
制定安全标准并不意味着内部用户就会遵循该标准,或是意识到规则的存在。组织已经发现,由于云计算技术,其难以阻止员工使用不安全的个人设备进行远程办公,或阻止员工使用未经授权的 SaaS 应用。使用未经批准的应用被称为“影子 IT”,有人可能会将在实施禁令情况下使用 LLM 称为“影子 AI”。
安全团队可以通过阻止这些工具的 IP 地址或 URL 来禁用某些应用,但是毫无疑问,这些限制措施并非完全有效。例如:个人设备可能没有安装适当的安全客户端;在非公司网络上使用公司设备。顽固的用户甚至可能使用 VPN 来规避防火墙规则并访问被禁用的工具。
关于 ChatGPT 和类似服务,有一点可以确定,那就是:这些工具都非常流行。禁令可能有助于减少使用量及相关的数据泄露。但 CISO 可能会假设其员工在公司设备或个人设备上使用此类工具。为此,他们必须认真考虑采用数据丢失防护 (DLP) 解决方案。
DLP 解决方案使用各种策略来检测敏感数据,并防止这些敏感数据离开受保护的环境。具体方法包括:模式匹配、关键词匹配、文件哈希匹配和数据指纹识别,但最重要的是限制复制并粘贴、上传和键盘输入功能,以防在使用 AI 工具时造成数据泄露。
DLP 解决方案(与浏览器隔离搭配使用时)应该能够阻止员工执行复制并粘贴操作,阻止员工将敏感数据输入 Web 应用(包括 LLM)。DLP 还可以阻止数据上传,阻止某些键盘输入,以及检测传出 HTTP 请求中的机密数据。
组织可能希望或不想禁用生成式 AI。即便是实施禁令的组织,可能也无法完全阻止其使用。但无论是哪一种情况(自由使用 AI 工具与禁止使用 AI 工具),DLP 都会提供一种平衡方法,保护数据安全。
当然,DLP 并不能保证数据不会被上传。总体而言,CISO 必须权衡允许使用 ChatGPT 及其他 LLM 的利弊,并且 CISO 的结论因行业而异。在受到严格监管的行业(例如银行业),将内容上传至 LLM 可能行不通。而在其他行业,CISO 可能会根据具体情况评估 AI 使用风险,或者允许自由使用。
但每个企业都有敏感数据需要保护,DLP 有助于防止员工将敏感数据无意纳入 LLM 数据库。由于数据保护在当今环境中非常重要,因此,Cloudflare 提供了 DLP 解决方案,帮助降低数据和代码泄露风险,即便是在职场越来越多地使用生成式 AI 工具的情况下,也能保护数据安全。
Cloudflare 就影响当今技术决策者的最新趋势和主题发布了系列文章,本文为其一。
获取《简化我们保护 SaaS 应用的方式》白皮书,了解 Cloudflare 如何帮助组织采用 Zero Trust 方法保护应用和数据安全。
阅读本文后,您将能够了解:
为什么大型语言模型 (LLM) 会使数据面临风险
多家跨国公司已禁止在内部使用 ChatGPT 和其他生成式 AI 工具
数据丢失防护 (DLP) 如何为 AI 使用提供安全支持