droitdu.net

Un site utilisant Plateforme OpenUM.ca

Un accord sur la sécurité de l’intelligence artificielle : 18 pays y adhèrent 

11 décembre 2023
Commentaires
Permalien

Le 26 novembre 2023, 18 pays ont signé un accord non contraignant portant sur : « les lignes directrices pour le développent sécuriser des systèmes d’IA ».

Parmi les signataires on retrouve les États-Unis, le Royaume-Uni, la France, l’Allemagne mais pas la Chine, et ce, malgré sa présence au sommet de Bletchley Park. De façon plus précise c’est 22 organismes et agences de renseignement de 18 pays qui se sont engagés à suivre ces lignes directrices conçues comme un guide destiné aux créateurs de système d’intelligence artificielle. Le coté canadien est représenté par le « Centre de la sécurité des télécommunications » et le « Centre canadien pour la cybersécurité ».

Le document a été rédigé par le UK National Cyber Security Center (NCSC), The US Cyber Security and Infrastructure Security Agency (CISA) ainsi que d’autre partenaires internationaux de divers pays. De plus, plusieurs développeurs de système d’IA tell que Google, Amazon, OpenAI ont eux aussi contribué au développement de ces ligne directrices.

Le principal but de ce document est de rendre les dernière versions de la technologie plus sûres, et ce, dès leur conception. Effectivement, dans un communiqué du National Cyber Security Center (NCSC) qui est une agence publique du Royaume-Uni, on retrouve clairement que les lignes directrices visent à répondre à un niveau de cybersécurité de l’intelligence artificielle élevé ainsi qu’à garantir qu’elles soient conçues et développées en toute sécurité :

 «The guidelines aim to raise the cyber security levels of artificial intelligence and help ensure that it is designed, developed, and deployed securely. »

Ainsi, ces lignes directrices, malgré leur caractère non contraignant, sont considérées comme une importante étape pour l’élaboration d’une vision commune quant à la régulation de la cybersécurité mondiale et des stratégies visant à atténuer les risques générés par les systèmes d’IA, avait déclaré Lindy Cameron le CEO du NCSC  : 

«These guidelines mark a significant step in shaping a truly global, common understanding of the cyber risks and mitigation strategies around AI to ensure that security is not a postscript to development but a core requirement throughout. »

Jen Easterly directeur du CISA a aussi ajouté : 

«The release of the Guidelines for Secure AI System Development marks a key milestone in our collective commitment—by governments across the world—to ensure the development and deployment of artificial intelligence capabilities that are secure by design. »

Tout porte à croire que la perspective d’une régulation mondiale soit bien présente et que ce nouveau guide représente une première étape vers le cheminement d’accords globaux afin de former une résilience efficace contre les abus de l’IA dans le monde.

À qui s’adresse les lignes directrices ? 

Cet accord intervient trois semaines après le premier sommet international sur l’intelligence artificielle, et s’adresse principalement aux fournisseurs et développeurs de système d’IA, qu’ils soient basés sur des modèles hébergés par une organisation ou utilisant des interfaces de programmation d’applications (API) externes. Cependant, toute les autres parties prenantes (y compris les scientifiques des données, les développeurs, les gestionnaires, les décideurs et les propriétaires de risques) sont fortement encouragés à suivre et à se conformé à les dite lignes directrices afin de pouvoir aider à prendre des décisions éclairées concernant la conception, le déploiement et l’exploitation de leurs systèmes d’IA d’apprentissage automatique.

Cela dit, toutes les lignes directrices ne seront pas directement applicables à toutes les organisations. Le niveau de sophistication ainsi que les méthodes d’attaque varieront en fonction de l’adversaire ciblant le système d’IA, donc les lignes directrices doivent être pris en compte parallèlement aux cas d’utilisation et au profil de menace de chaque organisation.

Souvent les chaines d’approvisionnement modernes compte plusieurs acteurs, mais en se basant sur une approche simplifiée, le guide a établi une responsabilité du développement sécurisée aux :

  • fournisseurs de la conservation des données,
  • responsables du développement algorithmique, de la conception, du déploiement et de l’entretien ainsi que
  • des utilisateurs qui fournissent des entrées et reçoivent des sorties.

En outre le document propose des directives destinées à tout fournisseurs de système utilisant l’IA, que ses systèmes aient été créés à partir de zéro ou construits en utilisant des outils et services fournis par d’autres. La mise en œuvre de ces directives aidera les fournisseurs à construire des systèmes d’IA qui fonctionnent comme attendu et opèrent sans divulguer des données sensibles à des parties non autorisées.

Contenu des lignes directrices  

Des recommandations sont formulées au sein de cet accord afin de surveiller les systèmes d’IA ainsi que les potentiels abus dont ils peuvent engendrer. L’accord est principalement centré sur la cybersécurité et vise à garantir un développement sécurisé de cette technologie. À ce jour on reconnait de façon notoire que les systèmes d’IA ont le potentiel d’apporter de nombreux avantages à la société. Cependant, pour que les bénéfices de l’IA soient pleinement réalisés, les systèmes d’IA doivent être développés, déployés et exploités de manière sécurisée et responsable. Pour cause, ils sont susceptibles de présenter des vulnérabilités de sécurité qui doivent être prises en compte, en plus des menaces classiques en matière de cybersécurité.  

Les lignes directrices de l’accord ont été divisées en quatre domaines clés, en se fondant sur le cycle de vie du développement du système d’IA, à savoir la conception sécurisée, le développement sécurisé, le déploiement sécurisé, et l’exploitation et maintenance sécurisées.

Pour chaque domaine des suggestions ont été formulées afin de réduire le risque global pour le processus de développement du système d’IA. À noter que ces lignes directrices sont étroitement alignées sur les pratiques du cycle de vie du développement logiciel tel que définies dans : le NCSC’s Secure development and deployment guidancele NIST’s Secure Software Development Framework, et le Secure By Design Principles Published by CISA

Le guide énumère 17 directives générales regroupées en quartes grandes sections, à savoir :

  • La conception sécurisée (Secure design) : Cette section s’applique à la phase de conception du cycle de vie de développement du système d’IA. Elle concerne la compréhension et la gestion des risques de la caractérisation des menaces, ainsi que des sujets spécifiques à prendre en compte lors de la conception du système et du modèle.
  • Le Développement sécurisé (Secure development) : cette partie s’appliquent à la phase du développement du cycle de vie du système d’IA, y compris la sécurité de la chaîne d’approvisionnement.
  • Le déploiement sécurisé (Secure deployment) : dans ce groupe on retrouve des indications quant à la phase de déploiement du cycle de vie de développement du système d’IA, notamment la protection de l’infrastructure et des modèles contre les compromissions, les menaces ou les pertes, le développement de processus de gestion des incidents et la publication responsable.    
  • L’exploitation et maintenance sécurisées (Secure operation and maintenance) : les lignes directrices de cette section s’appliquent à l’étape d’exploitation et de maintenance sécurisée du cycle de vie de développement du système d’IA. Il fournit des directives sur les actions particulièrement pertinentes une fois qu’un système a été déployé, principalement la surveillance, la gestion des mises à jour et le partage d’informations. 

En conclusion, cet accord reste discrétionnaire et ne porte aucune contrainte pour les acteurs du secteur. Les lignes directrices édictées sont à titre indicatif et repose sur des recommandations générales sur la protection d’IA, la réalisation de tests avant la mise en ligne ou la question de la transparence, sans aborder les sujets complexes concernant le développement de l’IA ou encore le risque encouru du développement d’IA générative et les données utilisées lors de la phase de conception. Il est clair que les auteurs ont fait acte de souplesse lors de la rédaction des recommandations dans le but d’essayer de récolter un consensus afin de permettre la globalisation des pratiques. Néanmoins l’adoption ce document reflète, de toutes évidence, le souhait d’élever le niveau de cybersécurité de l’intelligence artificielle et contribuer à garantir qu’elle est conçue, développée et déployée en toute sécurité. 

Commentaires

Laisser un commentaire

Sur le même sujet

Derniers tweets