theNet by CLOUDFLARE

Lutter contre l'IA fantôme

Mettre en place des contrôles pour l'utilisation de l'IA par les gouvernements

La législation en matière d'IA gagne de l'importance

Les réglementations et la législation en matière d'IA gagnent en importance. En 2024, le Bureau de la gestion et du budget de la Maison-Blanche a publié le Memorandum 24-10 à l'attention de l'ensemble des agences et départements fédéraux des États-Unis au sujet de l'utilisation de l'IA au sein du gouvernement. Le mémorandum s'articule autour des trois axes suivants :

  • Renforcement de la gouvernance de l'IA

  • Progrès de l'innovation responsable en matière d'IA

  • Gestion des risques liés à l'utilisation de l'IA

Des efforts similaires ont été déployés au niveau de l'État pour répondre aux préoccupations concernant l'utilisation et l'utilisation abusive de l'IA. En 2023, 25 États ont adopté une législation axée sur certains aspects de l'IA. La législation a été adoptée dans 18 États et à Porto Rico. Si certaines lois se concentrent sur l'étude initiale ou l'évaluation de l'utilisation de l'IA, d'autres cherchent à gouverner l'utilisation de l'IA par les collaborateurs ou à mettre en œuvre des contrôles visant à atténuer les utilisations malveillantes ou les conséquences indésirables.

Une législation récente met en lumière certains des dangers liés à l'utilisation de l'IA dans l'administration publique et présente certaines difficultés pour les agences gouvernementales et les autres organisations du secteur public. Ces entreprises devront mettre en place des contrôles afin de protéger leurs ressources accessibles au public contre les menaces et de contribuer à garantir une utilisation appropriée de l'IA.


Difficulté n° 1 : protéger la propriété Internet publique contre les bots IA

Les robots d'indexation basés sur l'IA peuvent être liés à des utilisations légitimes, c'est-à-dire bénéfiques pour les agences gouvernementales et d'autres organisations du secteur public. Dans certains contextes, des robots d'indexation responsables peuvent utiliser des données accessibles au public pour améliorer la capacité des citoyens à trouver des services et des informations en ligne pertinents.

D'un autre côté, des robots d'indexation d'IA mal développés ou malveillants peuvent extraire du contenu dans le but d'entraîner des plateformes d'IA publiques sans tenir compte de la confidentialité de ces contenus. L'utilisation de ces données pour entraîner des modèles peut soulever de nombreux problèmes de propriété intellectuelle et de confidentialité. Lorsqu'ils ne sont pas contrôlés, ces bots peuvent également nuire aux performances des sites web publics pour tous les utilisateurs en consommant les ressources des interactions légitimes.

Contrôle 1 : déployer des protections côté application

Les agences peuvent déployer plusieurs protections côté serveur ou côté application afin de mieux contrôler la manière dont les bots interagissent avec les serveurs. Par exemple, ils peuvent déployer un fichier robots.txt. Ce fichier peut informer et définir la manière dont le trafic des robots d'indexation interagit avec les différentes sections d'un site et ses données. Le fichier est déployé à la racine du site et définit les agents (bots) qui peuvent explorer le site et les ressources auxquelles ils peuvent accéder.

Cette solution comporte toutefois quelques difficultés. Premièrement, le robot d'indexation doit respecter le fichier robots.txt. Si c'est ainsi que procèdent généralement les bots « respectables », tous ne suivent pas les règles. Il existe également des bots non malveillants qui peuvent tout simplement mal interpréter la syntaxe et qui sont donc en mesure d'interagir avec des éléments que les organismes souhaitent dissimuler.

En résumé, aussi courante cette méthode soit-elle, le recours à des fichiers robots.txt ou .htaccess (Apache) ne constitue pas une protection à toute épreuve. Elle peut toutefois s'intégrer dans une démarche globale visant à diriger la manière dont les bots légitimes interagissent avec le contenu des applications.

Contrôle 2 : déployer une solution d'atténuation des bots au sein d'un pare-feu d'applications web

Les pare-feu d'applications web (WAF) et les solutions d'atténuation des bot sont essentiels dans le monde d'aujourd'hui pour protéger les applications web publiques. Ces mesures de contrôle aident les entreprises à protéger leurs propriétés numériques publiques contre les menaces par déni de service distribué (DDoS), les API fantômes et non sécurisées, ainsi que différentes autres menaces actives sous la forme de bots.

Aujourd'hui, n'importe quelle stratégie d'atténuation de bots doit comprendre un programme capable d'identifier et de classer les bots conçus pour extraire du contenu au service de l'apprentissage des données de l'IA. Ce mécanisme de classification est une fonctionnalité essentielle. Elle peut autoriser des bots d'indexation IA légitimes et vérifiés, ou les bloquer complètement jusqu'à ce que soit déterminée la manière dont ces bots doivent être autorisés à interagir avec un site web.

Le choix de solutions évolutives s'avère également essentiel. En 2023, António Guterres, Secrétaire général des Nations Unies, observait que « s'il a fallu plus de 50 ans pour que les livres imprimés soient disponibles partout en Europe », « il a suffi de deux mois à ChatGPT pour atteindre 100 millions utilisateurs ». L'échelle et la croissance sans précédent des plateformes d'IA sont directement liées au nombre croissant de bots IA à la recherche d'ensembles de données publiquement exposés à des fins d'entraînement. L'architecture de ces plateformes doit pouvoir évoluer dans un environnement mondial décentralisé.


Difficulté n° 2 : IA fantôme (Shadow AI) : consommation non autorisée de modèles d'IA publics

Les plateformes d'IA publiques ont permis aux utilisateurs d'accélérer des tâches telles que la rédaction d'une note de service ou la création de code complexe. Au sein des agences gouvernementales et fédérales, l'utilisation de l'IA est envisagée pour sa capacité à résoudre des problèmes sociaux complexes tels que les difficultés en matière de soins de santé, l'accès aux services pour les citoyens, la sécurité de l'eau et de la nourriture, entre autres. En l'absence de gouvernance, toutefois, les organisations pourraient contribuer à la fuite d'ensembles de données régulés qui se retrouvent dans les données d'entraînement de modèles de langage publics non sécurisés.

De la même manière que les entreprises ont utilisé des outils pour maîtriser la consommation d'applications cloud non autorisées ou « d'informatique fantôme (Shadow IT) », elles doivent désormais comprendre l'ampleur de la consommation de l'IA fantôme au sein de leurs organisations. L'essor de « l'IA fantôme » fait les gros titres. D'après une étude de 3Gem portant sur plus de 11 500 collaborateurs du monde entier, 57 % des collaborateurs utilisent des outils d'IA générative publique au bureau au moins une fois par semaine. Selon cette même étude, 39 % des personnes interrogées sont conscientes du risque de fuite de données sensibles lors de ces interactions.

Ces données sensibles peuvent également être partagées à leur insu entre modèles d'IA. Les modèles d'IA sont de plus en plus entraînés à partir de données produites par d'autres modèles, par opposition à du contenu issu de sources traditionnelles.

Contrôle 1 : déterminer l'utilisation appropriée

Pour parvenir à une initiative qui soit globale en matière d'IA fantôme, les entreprises doivent d'abord déterminer quelles sont les utilisations acceptables des modèles d'IA publics. En outre, ils doivent identifier les rôles ayant besoin d'accéder à ces modèles. La mise en place de ces garde-fous constitue une première étape essentielle. La nouvelle législation sur l'IA dans les services gouvernementaux, et plus généralement sur l'IA dans le secteur public, souligne souvent l'importance qu'il y a à examiner ce qu'est une utilisation appropriée de l'IA au sein des agences et à décider des modèles qui doivent être autorisés.

Contrôle 2 : déployer un accès contrôlé

Une fois les utilisations appropriées déterminées, les organismes doivent ensuite élaborer des contrôles pour l'application de ces politiques. Les principes de l'accès réseau Zero Trust (ZTNA) permettent le développement et l'application de ces politiques visant à restreindre les accès non autorisés.

Par exemple, une agence peut limiter l'accès aux modèles d'IA publics à certains utilisateurs autorisés et issus de groupes administratifs spécifiques. Avant d'autoriser l'accès à ces modèles, une solution ZTNA peut également effectuer des contrôles de niveau de sécurité supplémentaires, par exemple, vérifier que les appareils de l'entreprise sont mis à jour avec les derniers correctifs ou que les appareils disposent d'agents de gestion des points de terminaison en fonction et approuvés par le gouvernement. Avec le modèle ZTNA, l'agence peut appliquer et restreindre l'accès à ces modèles d'IA publics tout en opérant sur des ressources gouvernementales.

Contrôle 3 : déterminer quelles données peuvent être divulguées aux plateformes d'IA

L'utilisation acceptable ne définit pas uniquement les utilisateurs pouvant accéder aux plateformes d'IA. Les agences doivent également comprendre et contrôler les données publiées ou soumises aux plateformes d'IA. Même un élément aussi anodin qu'une note de service peut comporter des points de données non publics ou sensibles. Une fois ces points de données soumis à un grand modèle de langage (LLM), il existe un risque que ces données soient exposées.

Les mesures de prévention des pertes de données (DLP) peuvent contribuer à mettre un terme à l'utilisation inappropriée de données sensibles. Les contrôles adéquats permettront de garantir que les informations propriétaires, telles que du code d'application sensible ou encore les données des citoyens, ne fassent pas partie d'un ensemble de données d'entraînement non sécurisé pour une plateforme d'IA.

Prenez l'exemple d'un groupe de développeurs en IA devant interagir avec des plateformes IA à la fois publiques et privées ou internes. Un organisme peut autoriser la consommation de plateformes d'IA publiques (par exemple ChatGPT) et privées (par exemple, AWS BedRock). Seuls les utilisateurs approuvés et appartenant au groupe de développement en IA sont autorisés à accéder à ces plateformes. Pour les autres utilisateurs l'accès aux deux plateformes est bloqué.

Même lorsqu'il existe un groupe d'utilisateurs approuvé pour le développement de l'IA, la mise en œuvre d'une règle DLP peut être bénéfique. La règle DLP peut examiner les données publiées sur les plateformes d'IA et faire en sorte que les données sensibles non publiques soient publiées uniquement sur la plateforme d'IA privée interne.


Protéger les électeurs

La gouvernance doit être envisagée avant tout du point de vue des politiques ou de la mission plutôt que du point de vue de la technologie. Pour évaluer les avantages et les risques liés à l'IA, les dirigeants d'une agence doivent nommer des équipes dédiées, capables d'évaluer les intersections potentielles de l'IA et de la mission de l'agence.

À mesure que les interactions entre le public et le gouvernement augmenteront à l'aide de la technologie, des ensembles de données plus volumineux et plus riches pourront être utilisés pour entraîner des modèles d'IA. Les organisations du secteur public peuvent décider d'une démarche plus prudente en bloquant l'ensemble des bots d'indexation, par exemple, jusqu'à ce que soient bien comprises les conséquences de ces interactions si elles sont autorisées. Pour les organisations qui constatent que l'indexation légitime de propriétés publiques peut leur être avantageuse, les équipes doivent être en mesure de contrôler l'accès par des robots d'indexation vérifiés et se protéger contre les actions malveillantes.

Pour devancer les réglementations toujours plus nombreuses en matière d'IA, les équipes doivent également identifier les rôles et les tâches qui nécessitent un accès aux plateformes d'IA. Le fait de déterminer qui obtient les accès et à quel moment, ainsi que de contrôler les types de données publiées dans les modèles d'IA, devrait régler le problème de l'IA fantôme sans compromettre les avantages tangibles de cette technologie.

Les fonctionnalités de gestion des bots et de sécurité Zero Trust sont essentielles pour aider les entités gouvernementales à réduire les risques dans un contexte d'une utilisation grandissante de l'IA. La protection des propriétés web publiques et la préservation d'une consommation responsable de l'IA doivent être une priorité lors de l'élaboration de stratégies d'atténuation.

L'IA s'avère pleine de promesses dans la résolution de nombreux problèmes sociaux complexes. L'utilisation de l'IA dans l'administration et le secteur public s'accompagne toutefois de plusieurs inconvénients potentiels. Pour les agences gouvernementales et les autres organisations du secteur public, la protection de leurs administrés doit toujours être une priorité lorsqu'il s'agit d'étudier cette nouvelle technologie.

Cet article fait partie de notre série consacrée aux nouvelles tendances et évolutions susceptibles d'affecter les décideurs en matière de technologies d'aujourd'hui.



Approfondir le sujet.

Pour en savoir plus sur la manière dont l'architecture Zero Trust peut réduire les risques face à la généralisation de l'utilisation de l'IA, consultez le guide complet intitulé « Guide de déploiement de l'architecture Zero Trust ».

Auteur

Scottie Ray – @H20nly
Principal Solutions Architect, Cloudflare



Points clés

Cet article vous permettra de mieux comprendre les points suivants :

  • Le caractère émergent de la législation axée sur l'IA

  • Les deux principales difficultés liées à l'IA

  • Les contrôles qui aident les organismes à se conformer à la législation


Ressources associées


Recevez un récapitulatif mensuel des tendances Internet les plus populaires !