theNet by CLOUDFLARE

シャドーAIとの闘い

政府によるAI使用に向けた規制の実施

AI関連法の制定が進んでいます

ホワイトハウスの行政管理予算局は、覚書24-10「政府機関による人工知能(AI)の利用におけるガバナンス、イノベーション、リスク管理の促進」をすべての連邦機関と省庁に公開しました。この覚書の焦点は次の3つです:

  • AIガバナンスの強化

  • 責任あるAI革新の推進

  • AI利用のリスク管理

昨年、25の州でAIの一部の側面に焦点を当てた法律が導入されています。18の州とプエルトリコでAIついて扱った法律が制定されています。こうした法的取り組みは、AI利用の初期調査と評価から、従業員によるAI利用に関するガバナンス、AIの悪意のある結果や意図しない結果を軽減するための制御の要求に至るまで、多岐にわたります。

大まかに言えば、この新しい法制度は、政府およびその他の公共機関に対する新しいコンプライアンス、消費、制御を表しています。

この記事では、公開されているプロパティの保護とAIモデル利用に関するガバナンスの特定と作成の両方から、組織が直面するいくつかの課題について確認して行きます。


課題その1:パブリックインターネットプロパティをAIボットから保護する

クローラーの影響は、政府機関にとって正当なものと問題となるものが同時に存在します。一部の文脈では、責任のあるクローラーやインデクサーが一般にアクセス可能なデータを使用することで、市民が関連するオンラインサービスや情報を見つけやすくすることができます。

その一方で、開発が不十分であったり悪意のあるAIクローラーは、コンテンツのプライバシーを考慮せずにコンテンツをスクレイピングして、公開されているAIプラットフォームをトレーニングすることができます。

このデータが公開されているAIプラットフォームを支えるトレーニングモデルに回された場合、知的財産やプライバシーに関する懸念が数多く生じます。制御されていない場合、これらのボットは正当なユーザーのためのリソースを消費し、公開Webサイトのパフォーマンスを低下させる可能性もあります。

制御1:アプリケーション側の保護を展開

ボットがサーバーと対話する方法を制御するために実装できるサーバー側の保護がいくつかあります。その一例が、robots.txtファイルの配置です。簡単に言うと、このファイルは、クローラートラフィックに対してサイト内のさまざまなセクションおよびその中のデータとの対話方法を通知し、定義することができます。このファイルはサイトのルートに配置され、サイトのクロールを許可するエージェント(ボット)、アクセスを許可するリソースを定義します。

このアプローチには、いくつかの課題があります。第一に、そして最も明白な点は、クローラー側がrobots.txtファイルを尊重している必要があるということです。これは「行儀のよい」ボットに関する一般的なベストプラクティスですが、実際に、すべての人がルールに従っているわけではないわけではありません。また、構文を誤解している可能性があるだけで悪意のないボットもありますが、政府機関が非表示にしたい要素と対話できてしまうものもあります。

つまり、一般的なアプローチではありますが、robots.txtや類似の.htaccess(Apache)ファイルを活用することは完全な保護ではないことに注意する必要があります。これらは、正当なボットに許可するアプリケーションコンテンツとの対話方法を管理するための包括的なアプローチの一部に過ぎません。

制御2:Webアプリケーションファイアウォール内にボット軽減策を展開

Webアプリケーションファイアウォール(WAF)ボット緩和ソリューションは、現在の世界では公開されているWebアプリケーションにとっては最低限必要な要素です。これらの制御により、組織はDDoS脅威ベクトル、シャドーAPI、安全でないAPI、ボットテクノロジーの形で提供される他のさまざまな脅威から公開されているデジタル資産を保護することができます。

現在のボット軽減戦略には、AIデータをトレーニングする目的でコンテンツをスクレイピングしているボットを特定・分類する機能が含まれている必要があります。この分類メカニズムは重要な機能です。分類により、これらのボットが政府機関のWebサイトと対話する方法が決定されるまで、正規に検証を受けたAIクローラーのみに制限または許可するか、完全にブロックするかを定義します。CloudflareのWAFは、クローラーを識別するだけでなく、ボットが業界のベストプラクティスを使用して開発されたものであるかどうかを識別します。

昨年夏、国連のアントニオ・グテーレス国連事務総長は、AIが印刷機に例えられていると指摘し、印刷された書籍がヨーロッパ全土で広く利用されるようになるまで50年以上かかったのに対し、「ChatGPTはわずか2か月で1億人のユーザーを獲得した」と述べました。AIプラットフォームの規模と前例のない増加は、公開されているデータセットをトレーニングのために検索するAIボットの数の増加と直接相関しています。

これは、WAFやボット管理の制御を実装する上での2番目の主要な考慮事項になります。これらのプラットフォームのアーキテクチャは、分散されたグローバル環境で拡張可能である必要があります。Cloudflareのネットワークアーキテクチャは120か国以上、330都市で展開され、一元的に管理されたグローバルなボット軽減機能を提供しています。296 Tbpsのエッジ容量を持つインターネット上で最大級のネットワークに支えられたCloudflareのコネクティビティクラウドは、お客様の配信元サーバーの近くではなく、攻撃ソースに最も近い真にグローバルな規模で脅威を吸収、ブロック、フィルタリング、レート制限することが可能です。


課題その2:シャドーAI:公開されているAIモデルの無許可利用

率直に言って、公開されているAIプラットフォームは、利用者にメモの書き方から複雑なコードの記述まで、あらゆることを高速化することを可能にしました。州や連邦政府機関は、医療、市民サービスへのアクセス、食品や水の安全性などの複雑な社会問題を解決するためにAIが不可欠であると考えています。しかし、ガバナンスがなければ、組織は規制されたデータセットを安全でないパブリック言語モデルのトレーニングデータに漏洩に加担してしまう可能性があります。

組織がツールを活用して無許可のクラウドアプリケーションや「シャドーIT」の利用を把握してきたのと同様に、組織内でのシャドーAIが使用されている範囲を把握する必要があります。

「シャドーAI」の増加が報道されています。3Gemが世界11,500人以上の従業員を対象に行った調査から、従業員の57%が週に1回以上オフィスで公開されている生成AIツールを使用していることがわかりました。回答者の39%が、こうしたやり取りを通じて機密データが流出するリスクがあることに同意しています。

AIモデルが従来のようにソースコンテンツからでなく、他のモデルが生成したデータで訓練されることが増えたため、この情報がAIモデル間で知らないうちに共有されることさえあります。

制御1:適切な使用を見極める

包括的なアプローチには、公開されているAIモデルの利用の許容性の決定、より具体的には、どのような役割者がこれらのモデルにアクセスする必要があるかを含めると良いでしょう。こうした対策措置を確立することが重要な第一歩です。実際、政府機関におけるAIに関する新しい法規制が持ち上がっている中で、1つの主要なテーマとなっているのは、政府機関内におけるAIの適切な利用の見直しと、どのモデルが許可されるべきかという点です。

制御2:アクセス制御を適用する

これらの決定が行われた後、政府機関は、そのポリシーを実施するための制御内容を策定する必要があります。Zero Trustネットワークアクセス(ZTNA)の原則により、承認されていないアクセスを制限するポリシーの策定と適用が可能になります。

例えば、特定の管理グループの承認されたユーザーのみが、公開されているAIモデルにアクセスできるようにすることができます。承認されたユーザーであっても、ZTNAでは、企業のデバイスがパッチを適用して最新の状態になっていることや、アクセスを許可する前にデバイスで政府承認のエンドポイント管理エージェントが実行されていることを確認するなど、追加の動態チェックを行うことができます。

このようにして、政府は、政府のアセットを運用しながら、これらの公開されているAIモデルにアクセスできるユーザーを強制したり、制限したりすることができます。

制御3:AIプラットフォームへの開示が適切であるかを判断する

妥当な利用とは、どのユーザーがAIプラットフォームにアクセスできるかを定義するだけではありません。政府機関は、AIプラットフォームに投稿または送信されるデータについても理解する必要があります。

部署のメモのような無害なものでさえ、非公開または機密性の高いデータが含まれている可能性があります。これらのデータがLLMに送信されると、そのデータが漏洩するリスクがあります。

機密性の高いアプリケーションコードや市民データなどの専有情報がAIプラットフォームの保護されていないトレーニング用のデータセットの一部とならないように、統合型データ損失防止(DLP)制御を開発する必要があります。

公開されているAIプラットフォームとプライベートなAIプラットフォームの両方、または社内のAIプラットフォームと対話する必要がある「AI開発者グループ」を例に挙げてみましょう。

政府機関は、公開されているAIプラットフォーム(ChatGPTなど)とプライベートなAIプラットフォーム(AWS BedRockなど)の利用を許可することができます。ですが、「AI開発グループ」のうち、承認されたユーザーのみが、これらのプラットフォームへのアクセスすることができます。一般ユーザーは、どちらのプラットフォームへのアクセスもブロックされます。

ただし、「AI開発グループ」の承認されたユーザーであっても、これらのプラットフォームに投稿されるデータを検査するためのDLPルールを実装し、公開されていない機密データは内部のプライベートAIプラットフォームにのみ投稿されるようにする必要があります。


構成要素を保護する

ガバナンスは、テクノロジーの観点ではなく、ポリシーまたはミッションの観点から開始する必要があります。AIが政府プログラムに果たす役割を、メリットとリスクの両面から理解するには、リーダーシップが意図的に専門チームを任命し、AIプラットフォームと機関のミッションとの潜在的な交差点を評価することが必要です。

テクノロジーを通じて公的なものと関与する機会が増加することにより、AIプラットフォームがモデルのトレーニングに使うことができるアクセスしやすい豊富なデータセットが生まれます。組織は、これらとの対話を許可することの影響を理解できるまでの間すべてのAIクローラーをブロックすることで、より慎重なアプローチを選択することもできます。公開されているプロパティの正当なクローリングにメリットがあると考える機関にとって、悪意を持ったものからの保護をしつつ、承認されたAIクローラーによって正当かつ制御されたアクセスを許可する機能は、現在の環境において極めて重要です。

組織内で、どのような役割者や業務担当者がAIプラットフォームへのアクセスを必要とするかを確立することが、規制の強化を先取りするための重要な初期ステップとなります。こうしたニーズを、誰がいつアクセスできるかを決定する一連の制御と、これらのモデルに投稿されるデータの種類の制御にマッピングすることで、最終的に、これらの技術が提供する具体的なメリットを犠牲にすることなく、シャドーAIを排除することが可能になります。

Cloudflareボット管理Zero Trustは、AIの利用が急増する中で、政府機関がリスクを軽減することを支援する中核となる製品です。公開されているWebプロパティを保護し、こうしたテクノロジーを責任をもって利用するための制御メカニズムを提供することは、軽減戦略を策定する際に最優先しなければならない重要な制御です。

AIには数多くの複雑な社会的問題を解決できる可能性があり、ある意味ですでに解決されたものもあります。しかし、政府機関はこれらの新しいテクノロジーに取り組む中、自らの有権者を保護する必要があります。

この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。



このトピックを深く掘りさげてみましょう。

AI利用の普及に伴いZero Trustがどのようにリスクを低減できるかについては、完全ガイド「Zero Trustアーキテクチャへのロードマップ」で詳細をご覧ください。

著者

Scottie Ray — @H20nly
Cloudflare主任ソリューションアーキテクト



記事の要点

この記事では、以下のことがわかるようになります。

  • AIに焦点を当てた法規制の新たな状況

  • AIに関する2つの主な課題

  • 政府機関が法令順守を達成させるための管理


関連リソース:


大人気のインターネット関連インサイトの要約を毎月お届けします。