Alignez-vous qu'ils disaient
Le récent Institut national pour l’évaluation et la sécurité de l’IA (INESIA) a dévoilé sa feuille de route pour 2026 et 2027. Au menu : accompagnement des évolutions réglementaires, équipements face aux risques systémiques et coopération internationale.
Comment évaluer l’intelligence artificielle ? Comment détecter à temps ses comportements imprévus ? Limiter les risques que créent d’éventuels mésusages ? Telles sont certaines des questions auxquelles l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA) inauguré le 31 janvier 2025 devra répondre au fil des deux prochaines années.
Dévoilé juste avant le Sommet de Paris sur l’action pour l’IA de février 2025, l’INESIA réunit l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Inria, le laboratoire national de métrologie et d’essais (LNE) et le pôle d’expertise de la régulation numérique (PEReN) pour « soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit ». Cette mission s’effectue tout en « étudiant scientifiquement les effets de ces technologies », en particulier « en termes de sécurité ».
Pour 2026 et 2027, elle s’effectuera selon trois axes, détaille sa feuille de route publiée mi-février. Pilotée par la Direction générale des Entreprises (DGE) et le Secrétariat général de la défense et de la sécurité nationale (SGDSN), l’entité travaillera en effet au soutien à la régulation, notamment en matière de mise en œuvre du règlement européen sur l’intelligence artificielle (RIA, ou AI Act), à la maîtrise des « risques systémiques » de ce type de technologies et à l’évaluation de la « performance et de la fiabilité des modèles et systèmes ». Certaines de ses actions prendront aussi un angle transverse, notamment pour tout ce qui touche à la veille académique et méthodologique, ou encore à l’animation scientifique autour de ses activités.
Performance, interprétabilité, « alignement aux valeurs et intentions humaines »
Le constat que dresse l’INESIA est aussi clair que succinct : « le rythme des progrès de l’IA ne faiblit pas », et à ce titre, les évolutions du secteur posent des questions de performance, d’interprétabilité, de robustesse face à l’imprévu, mais aussi « d’alignement aux valeurs et intentions humaines ».
L’institut ne définit pas ces différents termes, quand bien même les « valeurs et intentions humaines » varient certainement d’un individu à l’autre. La notion même d’alignement reste sujette à des débats scientifiques : certains, dont le Future of Life Institute, estiment nécessaire d’œuvrer à l’émergence d’IA « alignées » à des valeurs prédéfinies, faute de quoi ces systèmes créeraient de potentiels « risques existentiels » (un champ qui a notamment émergé des travaux du philosophe Nick Bostrom). D’autres, dont les chercheurs Timnit Gebru et Emile Torres, considèrent de leur côté que le champ de la « sécurité de l’IA » (AI safety) n’œuvre qu’à renforcer la course de l’industrie de l’IA.
Quoiqu’il en soit, dans l’environnement actuel, et notamment face au déploiement large de systèmes génératifs, « les méthodes d’évaluation conçues pour des systèmes fermés, monofonctionnels ou statiques, montrent leurs limites », indique l’INESIA. Pour faire face, et pouvoir notamment « mesurer et contenir les risques à fort potentiel systémiques, y compris ceux liés à la manipulation de l’information, à la cybersécurité ou à la déstabilisation de processus collectifs », l’entité compte participer au champ scientifique en devenir qu’est l’évaluation de l’IA.
Accompagner l’évolution réglementaire
Dans ses travaux, l’entité œuvrera à « construire une démarche scientifique et stratégique, structurer une capacité souveraine d’évaluation, coordonner les expertises publiques et mutualiser les moyens », et à agir dans les réseaux internationaux. En pratique, l’INESIA rejoindra notamment le réseau grandissant d’AI Safety Institutes, des instituts créés dans une dizaine de pays, et dont le réseau international a organisé sa première rencontre en novembre 2024.
Sur les enjeux d’appui à la régulation, elle accompagnera notamment la mise en œuvre du RIA, en fournissant des outils d’évaluation aux diverses autorités concernées. Elle poursuivra les travaux de détection des contenus synthétiques déjà en cours du côté de VIGINUm et du PEReN. Il s’agira enfin de créer des méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA comme aux produits de cybersécurité intégrant des technologies d’IA, dans le prolongement du projet Sécurité des Produits d’IA (SEPIA) que l’ANSSI mène depuis un an.
S’équiper face aux risques systémiques
Côté risques systémiques, il s’agira d’abord de développer les recherches permettant de mieux les caractériser, ce qui doit ensuite permettre à la puissance publique d’agir plus précisément. En la matière, l’INESIA vise notamment les usages d’IA à des fins de désinformation, d’attaque contre la cybersécurité, de déstabilisation d’un système économique, etc.
Elle prévoit d’identifier des projets de recherche ciblés, puis publiera des méthodes d’atténuation en source ouverte, « si opportun ». Les performances et les risques des systèmes d’IA argentiques seront plus particulièrement étudiés, notamment pour comprendre « leurs capacités en matière de cybersécurité et estimer la mesure des possibilités d’usages à des fins criminelles ».
Pour « stimuler la créativité de l’écosystème », enfin, l’INESIA prévoit de conduire des « challenges » pour « clarifier et faire progresser l’état de l’art ». Évoquant une émulation internationale de nature à faire progresser rapidement certaines technologies, elle cherchera à « susciter une « coopétition » » entre participants.