ChatGPTの登場は人工知能(AI)の新たな時代を切り拓き、技術畑のユーザーもそうでないユーザーも、誰もが強力なツールを利用できるようになりました。現在、AIは、私たちの学び方や働き方から芸術の制作方法や病気の治療方法まで、生活のさまざまな側面の革新に役立っています。
公共部門では、州政府および地方自治体によるAIツールの積極的な導入が進んでいます。州、地方自治体、連邦政府機関の上級職員を対象に実施された最近の調査で、51%が週に数回AIアプリケーションを使用していることがわかりました。
州や地方自治体では、各部門内でAIの複数のユースケースが検討されています。実際には、業務効率を上げるためのフォームベースのプロセスの自動化や、利用者のデジタル体験を向上させるための生成AI(GenAI)を活用したチャットボットの実装、不正検出の強化などがAIを通して行われています。
AIに政府機関の運営や市民サービスの提供を変革する力があることは間違いありません。しかし、この強力なテクノロジーは新たなリスクももたらします。そうしたリスクへの対処には、各機関のAI利用の増加に合わせた包括的な戦略が必要になります。初期のAI利用状況を可視化し、基本的な保護を確立するだけでなく、各機関のAI機能と既存システムの連携部分を保護できる高度なAIベースの防御を展開して、ますます高度化する脅威に対抗する必要があります。
AIの活用方法が明確になるにつれ、州政府および地方自治体の幹部たちは、AIの持つ大きな可能性を認識し始めています。その一方で、私が話をするリーダーの多くは、AIの成熟度については依然として懐疑的です。特にCIOたちは、次の3つの点について強い懸念を示しています:
正確性:CIOたちは、AIが出力する情報の信頼性や正確性を疑問視しています。AIの出力は、単純なミスによるものと、欺くことを目的に意図的かつ悪意を持って歪められたものが出力される可能性があります。
政府機関のAIモデルが攻撃者によって汚染された場合、その機関はAIが生成した誤った情報を意図せず国民に拡散してしまう可能性があります。州政府のチャットボットが、失業保険や医療サービスに関する誤った情報を提供してしまう状況を想像してみてください。
同様に、CIOは不正確な情報をもとに意思決定をしてしまう状況を避けたいと考えています。例えば、不正受給の検出にAIを使った場合、誤判定によって正当な申請の精査に時間を浪費したり、逆に不正を見逃したてしまう可能性があります。
プライバシー:CIOは、機密性の高い市民情報の漏洩リスク、特に従業員が、収集したデータがAIモデルの訓練に使われるシステムに意図せずに市民のデータやファイルを入力してしまう事態を非常に憂いています。例えば、市民の健康データの分析や報告書の作成にAIツールを用いた場合、そのAIモデルに機密情報が収集され、別の場面でそのデータが表示されてしまう可能性があります。
セキュリティ:CIOは、公的機関によるAIの利用の増加に伴い、データやモデルが様々な形で侵害される可能性があることを憂いています。例えば、攻撃者は一般市民向けのAIベースのチャットボットのプロンプトを操作して、モデルに偽情報を生成させたり、バックエンドシステムにアクセスしたりする可能性があります。市民データだけでなく機関のシステム自体も保護するために、あらゆる脅威に対処できるようAIエコシステムを保護する必要があります。
このような懸念があるにもかかわらず、公共機関の大半は、AI活用に伴うリスクに対処するためのしっかりとした計画を整えるまでに至っていません。それにもかかわらず、AIの導入を先行して進め、報道されるような漏洩や誤情報の拡散のリスクにさらされている組織もあります。
多くの州政府および地方自治体は、すでにAIの導入を開始しており、パイロットプログラムやAIツールの限定的な導入が行われています。AIを積極的に推進していない組織でも、個々の従業員や特定の部署が手軽に利用できるAIツールを使用している可能性があります。これは「シャドウAI」と呼ばれる現象です。その使用が公式に認められているかどうかにかかわらず、AIはほとんどの公的機関に存在しています。そのため、AIセキュリティ戦略の策定と実装は非常に重要です。
策定する戦略には、AIの導入段階に対応した内容が定められている必要があります。私が公共機関の組織と関わった経験から言うと、通常、AIの利用は以下の3つの主要な段階を通じて進行します:
消費:最初は、単にAIを「消費」するところから始まります。生成AIサービスを含むモデル、アプリケーション、ツールを実験的に使用します。この段階では、多くの場合、承認されたAIとシャドウAIの両方が併用されます。
統合:次の段階では、AIと既存のデータやシステムとの連携を始めます。データやシステムと連携させることで、業務効率の向上やデジタル体験向上というAIの真の価値を引き出すことができます。
高度な防御:多くの場合、公的機関は導入の最初の2つの段階で何らかのセキュリティ機能を実装しますが、AIの導入が進むにつれて、セキュリティ体制を強化する必要性が出てきます。ますます高度化するAIを活用した脅威から防御するために、高度なセキュリティ機能とAIツールを実装する必要があります。
組織は、AI利用のそれぞれの段階に合わせた戦略を策定する必要があります。先ずはAIの「消費」の段階でデータを保護するための基本的な防御を実装しましょう。
まずは、組織全体でAIの利用状況をしっかり把握できる状態を築きながら、教育やルールづくりを進めることが重要です。そのうえで、特に重要なのが、大規模言語モデル(LLM)がデータを収集する過程に潜むサイバーリスクへの対処です。LLMは、モデルの精度向上のために常に新しいデータを取り込んでおり、公的機関は2つの主要なデータ取得方法に特に注意を払う必要があります。
Webスクレイピング:多くのLLMは、公開されているWebサイトの情報を自動で収集・処理します。スクレイピングでは企業の知的財産がモデルのトレーニングに使用される可能性があるため、公共部門の組織よりも商用企業の方がWebスクレイピングに関心があるかもしれません。それでも政府機関は、公開したWebサイトに掲載されている情報がAIモデルのデータとして収集される可能性があることを認識しておく必要があります。
AIツールでの操作内容:従業員が生成AIサービスなどのAIツールを使用する場合、プロンプトやクエリを通じて機密情報を不意に漏洩してしまう可能性があります。たとえば、データの分析やグラフの作成を依頼するつもりで入力した機密データが、意図せず外部のLLMシステムに転送されてしまう可能性があります。
こうしたリスクに対処するには、基本的な保護が必要です。公的機関は、市民データを保護するために、AIの利用ポリシー、堅牢なデータ保護コントロール、徹底的なセキュリティ対策を確立する必要があります。特に、基本的な戦略では次の点に重点を置く必要があります:
可視化と把握:公的機関は、どのLLMやAIツールが誰によって使われているかを把握する必要があります。また、どのAIボットであれば自身が公開しているWebサイトのスクレイピングを許可するかを決め、ボット管理ツールを使用して、正当なボットと悪意のあるボットを区別する必要があります。
教育とポリシー:AIツールの仕組みや、どうすれば機密データの流出を防げるかについて従業員を教育することが極めて重要です。例えば、「生成AIツールのプロンプトに機密データを入力しない」といった基本的な注意点を共有することが重要です。加えて、公的機関は、従業員の潜在的なミスによって引き起こされるセキュリティとプライバシーの問題の可能性を減らすためのポリシーを導入する必要もあります。また、AIの状況は変化に富んでいるため、公的機関は継続的に教育内容を見直したり、ポリシーを微調整する必要があります。
データプライバシーとデータ損失防止(DLP):AIの利用に関するポリシーに加えて、AIの利用による個人を特定できる情報(PII)やその他の機密性の高い市民データの漏洩を防止するDLPツールの導入も不可欠です。
Zero Trust:ゼロトラストネットワークアクセスソリューションを導入することで、シャドウAIを制御すると同時に、AIツールの利用を、精査され、許可されたもののみに限定することができます。
AI導入の次の段階では、組織はAIツールやAIモデルに、自分たちの既存システムや業務プロセスを連携させます。州政府や地方自治体は、フォームを処理するシステムにAIツールを接続したり、市民ポータルにAIベースのチャットボットを組み込む可能性があります。
連携のプロセスには、いくつかの技術的な課題があります。例えば、組織の既存のデータは、AIツールで扱えるようにキュレーションや構造化されていないことがあります。一方で、多くのAIツールは組織の直接的な制御が及ばない場所で運用されるため、連携によってはセキュリティリスクが生じる可能性があります。
こうした課題に対処するには、「データ準備」や「データプライバシー」など、いくつかの重要な分野に焦点を当てる必要があります。
データ準備:AIツールで正しくデータを扱えるようにするためには、データにラベルをつけたり分類したりする必要があります。この分類を基に適切なセキュリティ制御を実装して、データを適切に保護できるようになります。
データプライバシー:社内システムと外部AIサービス間を行き来するデータを保護するために、データプライバシーフレームワークと一連のセキュリティ機能を実装する必要があります。DLPに加えて、外部AIサービスとの接続に使用されるAPIの可視化と制御、ネットワークの分析と監視機能の整備、クラウドアクセスセキュリティブローカー(CASB)やセキュアWebゲートウェイ(SWG)の導入によるAI関連トラフィックの制御などの対策が求められます。
AIは、従業員の業務効率を上げたり、新しいデジタル体験を市民に提供するだけでなく、サイバーセキュリティの変革にも役立ちます。AIは、高度なアルゴリズムと機械学習(ML)を活用することで、セキュリティ担当部門が新たな脅威を検出し、脆弱性を管理し、インシデントに自動的に対応できるように支援することができます。従来の手作業のタスクを自動化することは、効率性を高めるだけでなく、重要なセキュリティ運用における人的ミスを減らすことにもなります。
もちろん、攻撃者もAIを活用して自分たちの悪意ある活動をより高度化させています。AIを使ってより巧妙なフィッシング攻撃を仕掛けたり、偵察活動を強化したり、高度なマルウェアを開発しています。同時に、彼らは生成AIシステムの脆弱性も狙っています。
進化する脅威に対抗するには、公的機関は積極的な姿勢でセキュリティに取り組む必要があります。AIで防御能力を強化するだけでなく、以下のベストプラクティスでAI固有の脆弱性や攻撃ベクトルにも対応できるようにする必要があります:
安全なAIモデルを選択する:AIサービスとシステムを接続する際には、使用するAIモデルや提供元が品質とセキュリティの基準を満たしていることを確認する必要があります。あらかじめ承認されたAIモデルやアプリケーションの「許可リスト」を用意することで、セキュリティ保護が不十分なシステムが環境内に脆弱性を発生させるリスクを軽減することができます。
AIを活用したセキュリティツールの実装:MLやAIを使用したセキュリティツールは、高度な脅威インテリジェンスを提供することができ、従来のツールよりもはるかに早く脅威を察知することができます。同時に、AIやMLツールがIT環境の脆弱性を発見できるため、企業はインシデントに先駆けて防御を強化することができます。
継続的な監視の実施:IT担当部門は、AIアプリや関連環境が侵害されていないかを常にチェックする必要があります。異常な挙動を継続的に監視することで、悪意ある行動の初期兆候をいち早く察知できます。
公共機関にAIを導入することは、大きな可能性をもたらす一方で、セキュリティ上の課題も伴います。成功のためには、AIの活用が進むにつれて進化する、構造越されたセキュリティ対策が求められます。まずは基本的なセキュリティ対策から始め、AIの機能やシステムとの連携が進むにつれて、徐々にセキュリティ体制を強化していく必要があります。これには、データ保護とガバナンスを重視し続けること、継続的な監視と評価プロセスの実施、継続的な教育と方針の策定への投資などが含まれます。
Cloudflareのコネクティビティクラウドは、クラウドネイティブなスマートサービスを単一のプラットフォーム上で提供し、州政府や地方自治体がAI向けの包括的なセキュリティ体制を構築できるよう支援します。公共機関向けCloudflareは、厳格なセキュリティ基準(FedRAMP)に準拠したセキュリティ、ネットワーク、アプリ開発の各サービスをまとめて提供します。Cloudflareを使用すれば、公的機関は機密データの管理を行いながらAI導入を進めることができます。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
機密データを危険にさらすことなく、組織におけるAI連携をサポートする方法について、詳しくは、「AIの安全な実践を確保する:スケーラブルなAI戦略を立てる方法に関するCISO向けガイド」をご覧ください。
Dan Kent — @danielkent1
Cloudflare公共部門担当フィールドCTO
この記事では、以下のことがわかるようになります。
公共機関のCIOが抱えるAI関連の懸念事項上位3選
州政府および地方自治体における一般的なAI導入の3段階
AI導入を安全に進めるための重要なステップ