生成系AIが登場以来及ぼしてきた影響は無視できません。電子メールや報告書を書く面倒から解放される新時代へ向けたワークプレイス変革だとして、このテクノロジーに飛びつく人もいます。
一方、物流から救命新薬の開発に至るまで、あらゆる分野に計り知れない利益をもたらすに違いない テクノロジーのニューウェイブの始まりだと考える人もいます。
しかし、個人の生産性を大いに高めるものとして歓迎されるこの画期的なテクノロジーは一見輝かしく見えますが、いくつかの懸念も引き起こしています。特にデータプライバシーとセキュリティに関する懸念です。
今春、韓国の電子機器大手サムスンは、従業員が業務支援ツールとしてChatGPTを使用中に誤って機密情報を共有してしまったという報道を受け、生成系AIツールの使用を禁止しました。
同社スタッフに送られ、当時広く報道された電子メールの中で、サムスンは次のように述べています:「ChatGPTのような生成系AIプラットフォームへの関心が社内外で高まっている。関心の中心はこうしたプラットフォームの有用性や効率性だが、一方で、生成系AIがもたらすセキュリティリスクに関する懸念も高まっている。」
こうした動きはサムスンだけではありません。多くの企業が生成系AIを禁止し、国単位の禁止もあります。その理由は簡単です。
要するに、ChatGPTや他の大規模言語モデル(LLM)のようなツールの使用は、監視されないシャドーIT(IT部門の所有権や管理権の外にあるデバイス、ソフトウェア、サービス)が発生する余地を与えるも同然なのです。
問題は単純です。従業員がAIを試しているにせよ、会社主導でAIを導入しているにせよ、専有データがAIにいったん露出すれば、それを元に戻すことはできません。確かに、AIは信じられないほどの可能性を秘めています。しかし、適切なガードレールがなければ、企業や機関に重大なリスクをもたらすのです。
最近のKPMGの調査によると、経営幹部は生成系AIが事業に多大な影響を与えることを期待しているが、大半は今すぐ導入する準備はできていないと答えています。そして、懸念事項の上位に挙げられているのがサイバーセキュリティ(81%)とデータプライバシー(78%)です。
そのため、セキュリティリーダーは、AIによる変革的イノベーションの実現と、データプライバシー規制のコンプライアンス維持のバランスを取る必要があります。そのための最良のアプローチは、Zero Trustセキュリティコントロールを実装して、知的財産や顧客データを危険にさらすことなく、最新の生成系AIツールを安全に、安心して使用できるようにすることです。
Zero Trustセキュリティは、ネットワークを通じてリソースにアクセスしようとするすべての人とデバイスに厳格な本人確認を要求する方法論です。伝統的な「城と堀」のアプローチとは異なり、Zero Trustアーキテクチャはいかなる人も物も信用しません。
そして、このアプローチこそ、AIを活用しようとする組織に不可欠なのです。なぜでしょうか?それは、Zero Trustセキュリティコントロールによって、知的財産や顧客データをリスクにさらすことなく、最新の生成系AIツールを安全に、安心して使用することができるからです。
生成系AIを使用する組織は、そのシステムをセキュリティ問題を防ぐのに十分な堅牢性を備えたものにする必要があります。
どれくらいの従業員がAIサービスを試しているのか、そして何に使っているのかを理解することが非常に重要です。AIの使用を止めさせる必要がある場合に備え、システム管理者による監視と制御を可能にしておくことが、組織のデータの安全を確保するのに役立ちます。
データ損失防止(DLP)サービスを導入すれば、従業員がデータを共有する際の人的なセキュリティギャップを埋める安全策になります。よりきめ細かくルールを定めて、一部のユーザーには機密データを含むプロジェクトでの使用を許し、大多数のチームや従業員にはより厳格な制限を設けることもできます。
要するに、組織がどんな形にせよAIを利用するのであれば、セキュリティを強化し、Zero Trustのアプローチを取り入れる必要があるということです。ただ、この必要性を強調することはもちろん重要ですが、多くの可能性を秘めたテクノロジーに関する懸念をセンセーショナルに取り上 げる必要はありません。
携帯電話にしろクラウドコンピューティングにしろ、テクノロジーが革新的な進歩を遂げれば、どうしても新たなセキュリティ脅威が表面化してきます。そして、そのたびに業界が対応し、セキュリティ、プロトコル、プロセスを強化してきたのです。AIに関しても同じことが起こるでしょう。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
この記事はThe AI Journalに寄稿したものです。
John Engates — @jengates
Cloudflare社テクノロジー・オフィサー
この記事では、以下のことがわかるようになります。
AIがもたらすリスク
AIツールを安全に利用するためにZero Trustが果たせる役割