Le Royaume-Uni et les États-Unis, en collaboration avec des partenaires internationaux de 16 autres pays, ont annoncé la publication de lignes directrices révolutionnaires visant à développer des systèmes d’intelligence artificielle (IA) sécurisés. Ces lignes directrices visent à relever les nouveaux défis liés à la cybersécurité dans le domaine de l’intelligence artificielle et à garantir que cette technologie est conçue, développée et déployée de manière sécurisée.

Selon l’Agence américaine pour la sécurité des infrastructures et de la cybernétique (CISA), l’approche adoptée dans ces lignes directrices place la responsabilité de la sécurité entre les mains des clients. Cette approche souligne l’importance d’une transparence radicale, en établissant des structures organisationnelles où la conception sécurisée est une priorité absolue.

Selon le Centre national de cybersécurité (NCSC), l’objectif principal de ces lignes directrices est de relever les normes de cybersécurité dans le domaine de l’IA. Il s’agit de s’assurer que la technologie est développée en toute sécurité et que des mesures efficaces sont mises en œuvre pour prévenir les préjudices sociaux, tels que les préjugés et la discrimination, ainsi que pour répondre aux préoccupations en matière de protection de la vie privée.

Un aspect essentiel des lignes directrices est l’intégration des efforts déployés par le gouvernement américain pour gérer les risques associés à l’IA. Il s’agit notamment de tester minutieusement les nouveaux outils avant leur diffusion publique, de mettre en œuvre des mesures de protection pour lutter contre les préjudices sociaux et les atteintes à la vie privée, et de mettre en place des méthodes solides permettant aux consommateurs d’identifier les contenus générés par l’IA.

En outre, les entreprises qui adoptent ces lignes directrices s’engagent à faciliter la détection et le signalement des vulnérabilités de leurs systèmes d’IA par le biais d’un système de chasse aux bugs. Cette approche permet d’identifier rapidement et de corriger efficacement les faiblesses potentielles.

Le NCSC souligne que ces nouvelles lignes directrices font partie d’une approche globale appelée « secure by design », qui englobe la conception sécurisée, le développement sécurisé, le déploiement sécurisé, ainsi que l’exploitation et la maintenance sécurisées. Cette approche couvre l’ensemble du cycle de vie du développement des systèmes d’IA, et les organisations sont invitées à modéliser les menaces potentielles qui pèsent sur leurs systèmes, ainsi qu’à protéger leurs chaînes d’approvisionnement et leurs infrastructures.

Un aspect essentiel abordé par ces lignes directrices est la nécessité de lutter contre les attaques adverses ciblant les systèmes d’IA et d’apprentissage automatique. Ces attaques visent à provoquer des comportements indésirables, tels que l’altération de la classification des modèles, l’exécution d’actions par des utilisateurs non autorisés et l’extraction d’informations sensibles. Le NCSC met en évidence différentes manières de mener ces attaques, telles que les attaques par injection rapide dans le domaine des grands modèles de langage (LLM) ou le fameux « empoisonnement des données », qui implique la corruption délibérée des données d’apprentissage ou des commentaires des utilisateurs.

Plus d’information:
https://www.cisa.gov/news-events/alerts/2023/11/26/cisa-and-uk-ncsc-unveil-joint-guidelines-secure-ai-system-development
https://www.ncsc.gov.uk/news/uk-develops-new-global-guidelines-ai-security
https://www.whitehouse.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/
https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development