Le Conseil du Trésor fédéral a publié, en vertu des pouvoirs qui lui sont conférés par la Loi sur la gestion des finances publiques, sa Directive on Automated Decision-Making (Directive sur la prise de décision automatisée), ayant pris effet le 26 novembre 2018. Ce texte vise à encadrer la responsabilité des institutions fédérales en lien avec l’utilisation, en contexte de décision administrative, de systèmes décisionnels automatisés, propulsés par l’intelligence artificielle (ci-après « IA »). Ces institutions doivent s’y conformer au plus tard le 1er avril 2020. Parmi les innovations intéressantes, nous y retrouvons une évaluation de l’impact algorithmique, sous forme d’un questionnaire interactif, à compléter avant toute implantation de système décisionnel automatisé au sein des institutions fédérales. Ceci permet à ces dernières de mieux comprendre et mitiger le risque associé à cette prise de décision automatisée, ainsi que d’y établir une gouvernance appropriée.
Dans la même veine, le commissaire à la protection de la vie privée du Canada a rencontré fin octobre ses homologues de 79 autres pays à la 40e Conférence internationale des commissaires à la protection des données et de la vie privée. Dans le cadre de ce sommet très attendu, plusieurs hauts responsables de la protection des données et de la vie privée à travers le monde, incluant, outre celui du Canada, la Commission de l’accès à l’information du Québec, ont adopté une Déclaration sur l’éthique et la protection des données dans le secteur de l’intelligence artificielle. Celle-ci édicte certains principes directeurs voués à établir une gouvernance envers la recherche et le développement dans le domaine de l’IA pour que le tout se conduise dans le respect des droits de l’homme.
Qu’ont en commun ces deux développements récents en matière d’encadrement du développement et de l’usage de l’IA? Eh bien, les deux témoignent de l’importance de ce qu’on appelle la « transparence algorithmique », principe central entourant l’essor de l’IA, d’autant plus dans un contexte de décision automatisée affectant des individus. Cette préoccupation est mise à l’avant-plan dans ces deux textes récemment publiés et plusieurs exigences en ce sens y sont donc établies.
Dans la Directive du Conseil du Trésor, l’exigence de transparence algorithmique implique pour les institutions fédérales de :
-
Publier un avis sur les sites web pertinents, précisant que la décision en question sera totalement ou partiellement prise par un système décisionnel automatisé;
-
Fournir des explications aux individus affectés par la décision automatisée sur comment et pourquoi la décision a été prise;
-
Rendre accessibles les composantes logicielles du système décisionnel automatisé ayant été utilisé, lorsque celui-ci est sous licence open source; et
-
Rendre accessible le code source afférant appartenant au Gouvernement du Canada via les sites web ou tout autre canal désigné par le Conseil du Trésor, sauf dans certains cas exceptionnels.
Dans la Déclaration sur l’éthique et la protection des données dans le secteur de l’intelligence artificielle, cette exigence de transparence algorithmique est édictée dans deux principes directeurs :
-
Il est nécessaire de continuer à faire preuve d’attention et de vigilance, ainsi que de transparence, en ce qui concerne les effets et les conséquences des systèmes d’intelligence artificielle, en particulier en procédant ainsi :
-
En encourageant toutes les parties prenantes pertinentes à appliquer le principe de transparence au niveau des individus, des autorités de contrôle et d’autres tiers le cas échéant, y compris grâce à la réalisation d’audits, de suivi permanent et d’évaluation de l’impact des systèmes d’intelligence artificielle, ainsi que par un examen périodique des mécanismes de surveillance; […]
-
En mettant en place, pour tous les acteurs concernés, des processus de gouvernance dont on peut apporter la preuve, par exemple en s’appuyant sur des tiers dignes de confiance ou en créant des comités d’éthique indépendants.
-
Il convient d’améliorer la transparence et l’intelligibilité des systèmes d’intelligence artificielle, l’objectif étant de permettre une mise en œuvre efficace, en particulier en procédant ainsi :
-
En investissant dans la recherche scientifique publique et privée portant sur l’intelligence artificielle explicable;
-
En promouvant la transparence, l’intelligibilité et l’accessibilité, par exemple en développant des modes de communication innovants, en tenant compte des différents niveaux de transparence et d’information requis en fonction de chaque audience concernée;
-
En rendant les pratiques des organisations plus transparentes, en particulier en mettant l’accent sur la transparence des algorithmes et la vérifiabilité des systèmes, tout en garantissant le sérieux des informations fournies;
-
En garantissant la liberté des individus de maîtriser les informations les concernant, en particulier en s’assurant qu’ils sont toujours informés de façon appropriée lorsqu’ils interagissent directement avec un système d’intelligence artificielle ou qu’ils fournissent des données à caractère personnel qui seront traitées par de tels systèmes;
-
En fournissant des informations adéquates sur les objectifs et les effets de l’intelligence artificielle, afin de vérifier que cette dernière s’aligne toujours sur les attentes des individus et que ces derniers peuvent exercer un contrôle global sur ces systèmes.
Finalement, on met en lumière, dans la Directive du Conseil du Trésor, la possibilité pour les individus affectés par une décision fondée sur un traitement automatisé d’avoir des recours appropriés contre celle-ci. Cette disposition est à l’unisson de l’article 22 du Règlement général de protection des données, qui permet aux individus visés par une décision automatisée, lorsque celle-ci est « nécessaire à la conclusion ou à l’exécution d’un contrat entre la personne concernée et un responsable du traitement » ou « fondée sur le consentement explicite de la personne concernée», de faire appel d’une telle décision auprès d’un intervenant en chair et en os :
-
(3) Dans les cas visés au paragraphe 2, points a) et c), le responsable du traitement met en oeuvre des mesures appropriées pour la sauvegarde des droits et libertés et des intérêts légitimes de la personne concernée, au moins du droit de la personne concernée d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer son point de vue et de contester la décision.
Dans les autres cas, les individus concernés sont en droit de ne simplement pas faire l’objet d’une décision fondée sur un tel traitement automatisée :
-
(1) La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire.
Ces dispositions sont vouées à gagner en importance à mesure que l’IA s’immiscera dans les processus décisionnels des organisations du secteur privé comme public. Il est possible d’établir un parallèle avec le droit administratif québécois, qui impose, en vertu la Loi sur la justice administrative, une transparence, un dialogue et la communication de la possibilité de recours en lien avec une décision administrative individuelle défavorable.
On peut ainsi conclure qu’au Canada et à l’international, on souhaite prévenir un usage, une gestion et un développement opaques de ces systèmes décisionnels algorithmiques afin d’informer et de protéger les individus contre tout biais indésirable, provenant, par exemple, d’erreurs dans les données nourrissant les algorithmes ou de critères discriminants élaborés par un système d’apprentissage automatique. Cette opacité, on la retrouve déjà dans la gestion des données des utilisateurs et de l’usage qui en est fait par les géants du web, secteur où la plupart du temps, on implémente et on réfléchit après. Vous connaissez la suite…
Commentaires