自从生成式 AI 横空出世以来,其影响力一直不容忽视。一些人认为这项技术将带来职场变革,它预示着一个新时代的即将来临,届时他们将无需再面对撰写电子邮件或报告的繁琐工作。
而对其他人来说,这是技术新浪潮的开端,将会给从物流到新型救命药开发的各个业务领域带来难以言喻的好处。
但是,这项初露锋芒的颠覆性技术(被誉为个人生产力的重大进步)也引发了一些担忧,尤其是数据隐私和安全方面的担忧。
今年早些时候,有报道称,电子巨头 Samsung 公司的员工在工作中使用 ChatGPT 寻求帮助时意外泄露了机密信息,因此,Samsung 公司随后禁止使用生成式 AI 工具。
这家韩国公司在一封发给员工并被广泛报道的电子邮件中表示:“公司内外部对 ChatGPT 等生成式 AI 平台的兴趣与日俱增。虽然关注点集中在这些平台的实用性和效率方面,但人们也越来越担心生成式 AI 带来的安全风险。”
Samsung 并不是个例。许多公司以及一些国家/地区已经禁止使用生成式 AI。其中的原因很容易理解。
实际上,使用 ChatGPT 和其他大型语言模型 (LLM) 等工具,为那些不受监控的影子 IT(IT 企业拥有或控制的设备、软件和服务)打开了方便之门。
问题其实很简单。无论是员工个人尝试使用 AI,还是公司计划,一旦专有数据暴露给 AI,便无法扭转。毫无疑问,AI 发展前景广阔。但是,如果不采取适当的防护措施,将会给企业和组织带来重大风险。
毕马威 (KPMG) 最近的一项调查显示,高管们预计,生成式 AI 将会对业务产生巨大影响, 但大多数受访者表示,目前尚未做好立即采用的准备。他们最担心的问题是网络安全 (81%) 和数据隐私 (78%)。
正因如此,安全领导者需要在利用 AI 实现变革性创新与遵守数据隐私法规之间取得平衡。实现这一目标的最佳方法是实施 Zero Trust 安全控制,让企业可以安全地使用最新的生成式 AI 工具,而不会使知识产权和客户数据面临风险。
Zero Trust 安全方法要求对尝试访问网络资源的每个人和每台设备进行严格的身份验证。不同于传统的“城堡与护城河”方法,Zero Trust 架构不信任任何人和任何设备。
而且这种方法对于希望使用 AI 的企业而言至关重要。为什么?因为 Zero Trust 安全控制让企业能够安全地使用最新的生成式 AI 工具,但不会使知识产权和客户数据面临风险。
使用生成式 AI 的企业需要确保其系统足够强大,以防范可能出现的安全问题。
了解有多少员工在尝试使用 AI 服务,以及他们使用 AI 的目的,这至关重要。让系统管理员监督和控制此 类活动,以便根据需要随时终止 AI 服务,这有助于确保组织的数据安全。
采用数据丢失防护 (DLP) 服务将有助于提供保障,减少员工共享数据方式存在的人为差异或不一致。虽然更精细化的规则甚至可能让特定用户可以尝试包含敏感数据的项目,但对大多数团队和员工实施的限制更加严格。
换句话说,如果企业要以各种形式使用 AI,则需要提高安全性并采用 Zero Trust 方法。虽然强调这个问题很重要,但没有必要夸大对一项潜力巨大、益处良多的技术的担忧。
毕竟,从手机到云计算,随着技术的每一次变革,新的安全威胁也随之浮现。而且每一次,业界都会积极应对,加强安全措施、更新协议和改进流程。相信 AI 的发展也是同样的情况。
Cloudflare 就影响当今技术决策者的最新趋势和主题发布了系列文章,本文为其一。
本文最初发表于《人工智能期刊》
John Engates — @jengates
Cloudflare 现场首席技术官
阅读本文后,您将能够了解:
AI 使用带来的风险
Zero Trust 在安全启用 AI 工具方面可以发挥的作用