Un regroupement de chercheurs exhorte Amazon d’arrêter de vendre son système de reconnaissance faciale aux forces de l’ordre. Pour cause, ce produit aurait un taux d’erreurs élevés engendrant ainsi des discriminations envers certains types de population. A travers ce billet, nous reviendrons sur l’appel à la régulation de cette technologie qui s’inscrit, finalement, dans une réflexion plus globale entreprise dans les milieux scientifiques, juridiques et politiques sur l’équité et la transparence algorithmique.
À travers une lettre ouverte, un collectif de chercheurs appelle Amazon à arrêter de vendre son système de reconnaissance faciale « Rekognition ». Ils se basent sur les recherches menées par Inioluwa Deborah Raji et Joy Buolamwini qui ont démontré un taux d’erreurs élevé dans le système de reconnaissance faciale d’Amazon . En effet, alors que le taux d’erreur concernant les hommes blancs est nul, celui concernant les femmes de couleurs atteint plus de 30%. Les nombreuses réfutations des responsables de la société américaine n’ont pas convaincu le collectif qui s’est doté d’un solide contre-argumentaire à l’encontre du produit de la société américaine.
À la suite de ce constat, les chercheurs implorent la société de cesser de vendre ce produit tant qu’aucune législation ou garde-fou prévenant ce type d’abus ne serait mis en place. Parmi les signataires de la lettre, nous retrouvons des spécialistes de renom tel que Yoshua Bengio, professeur à l’Université de Montréal et colauréat du prix Turing 2019.
Ce n’est pas la première fois qu’Amazon doit faire face à la critique. L’Union américaine pour les libertés civiles (ACLU) avait déjà fait une demande similaire en pointant du doigt la dangerosité de cette technologie pouvant causer des préjudices disproportionnés aux personnes déjà ciblées par les abus raciaux tels que les migrants, les personnes de couleur ou les anciens détenus.
Ces dernières années, les considérations éthiques des algorithmes ont pris une place majeure dans le débat public. La prolifération de l’IA ont fait surgir des interrogations sur la capacité de ses technologies à participer au bien-être de la société et sur la manière dont nous pouvons nous prémunir de leurs effets néfastes. La demande des chercheurs s’inscrit donc dans un mouvement global de réflexion entrepris dans différents milieux afin de mettre en œuvre une éthique algorithmique. Dès lors que des décisions impactant une personne sont prisessur base d’un algorithme, le public devrait être certains que des garanties ont été apportées aux technologies qui sous-tendent ce choix.
Transparence algorithmique ? Kézako ?
La transparence algorithmique est brandie par de nombreux chercheurs comme remède aux imperfections des algorithmes. Notions aux contours flous et au caractère polysémique, sa définition varie au gré des rapports et des institutions. A ce titre, la définition de M. Pégny et M. I. Ibnouhsein nous paraît séduisante. Ceux-ci estiment que la transparence algorithmiqueest composée de quatre piliers :
- La loyauté algorithmique : signifie que l’algorithme se comporte comme les concepteurs le déclarent. En d’autres termes, l’algorithme dit ce qu’il fait et qui fait ce qu’il dit. Par exemple, si une fonctionnalité a été cachée à l’usager ou si l’usager n’a pas été clairement informé d’une fonctionnalité, l’algorithme sera considéré comme déloyal
- L’équité algorithmique :vise l’absence de biais et d’effet discriminatoire au sein d’un algorithme. Le traitement entre les différents usagers doit être égale et équitable. Comme nous avons pu le voir, avec l’exemple d’Amazon, l’équité est un point très sensible. D’autant plus que les biais algorithmiques peuvent très facilement apparaître, étant le reflet de ses créateurs, de leur système de valeurs, etc.
- L’explicabilité algorithmique :correspond à la capacité de fournir une explication concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples aux usagers.
- L’intelligibilité algorithmique :se réfère à la capacité du concepteur de l’algorithme à le comprendre. Cette exigence est d’une importance capitale pour pouvoir exiger une explicabilité ou une équité algorithmique. En outre, l’importance de cet impératif prend de plus en plus de sens à l’heure ou l’apprentissage profond renforce l’opacité des algorithmes.
L’éthique algorithmique et débat public global
Ce principe, tel qu’il est défini par Pégny et Ibnouhsein, n’est consacré par aucun texte. Au mieux, certains piliers trouvent leurs sources dans certaines législations anciennes ou nouvelles, tantôt à un niveau global tantôt propre à un secteur particulier. Dans un contexte européen, l’article 22 du Règlement européen sur la protection des données personnelles impose des obligations strictes au responsable de traitement qui utiliserait un algorithme pour prendre des décisions automatisées dès lors qu’elle aurait un impact juridique ou significativement similaire sur la personne concernée. On retrouve aussi une multitude de dispositions qui trouveraient à s’appliquer dans des cas ou des secteurs précis : l’article 14 de la déclaration européenne des droits de l’Homme concernant l’interdiction de la discrimination, les dispositions du droit de la concurrence, etc.
Malgré tout, la CNIL fait justement remarquer que ces dispositions sont très limitées : elle pointeentre autres le fait que les dispositions les plus abouties ne visent que les algorithmes qui traitent des données personnelles et qu’elles n’ont qu’un effet individuel c’est-à-dire qu’elles ne prennent pas en compte, par exemple, l’impact des algorithmes sur le fonctionnement de la démocratie (Ex : L’affaire Cambridge Analytica).
Ainsi, le changement de paradigme au sein de notre société dû à l’évolution exponentielle de l’intelligence artificielle a appelé une réflexion globale et public. En effet, le débat public est le lieu propice à la rencontre des différentes communautés composant notre société : scientifiques, citoyens, juristes et membres des pouvoirs publics. Il est d’autant plus idéal qu’il permet la mise en place d’un cadre éthique à l’image des valeurs de la société démocratique qu’il représente. En effet, le dialogue a été préféré à la régulation sauvage. Les acteurs du milieu avait mis en garde de l’impact négatif que pourrait avoir les mauvaises régulations sur l’innovation et sur l’économie et rappelaient aussi que la norme juridique n’était pas toujours apte à appréhender les changements continus et drastiques des technologies et ce, malgré la création de principes basés sur la neutralité technologique. Parmi ces acteurs, Gilles Babinet, Digital Champion de la France au sein de la Commission européenne expliquait justement qu’il fallait lutter contre la tentation de produire des lois à un rythme effréné. En ajoutant qu’ « encadrer l’IA serait aujourd’hui une erreur. Il faut laisser les choses se mettre en place et intégrer de la réglementation uniquement quand c’est nécessaire ».
Par conséquent, de nombreux rassemblements de chercheurs provenant d’horizons différents se sont retrouvés autour de la table pour définir les différentes pistes de recherche afin de prôner l’éthique algorithmique. La production de rapport en la matière prouve à quel point le sujet déchaine les passions. Nous pouvons citer par exemple le rapport Villani« AI for humanity », le rapport de la CNILsur les jeux éthiques des algorithmes et de l’IA, le Projet de lignes directrices en matière d’éthique pour une IA digne de confiance , le rapport fait par le service de recherche du parlement européen à propos des opportunités et challenges des décisions automatisésou même lesrapports annuelde l’IA Now Institute.
Le Canada n’est pas en reste. A travers la Déclaration de Montréal pour un développement responsable de l’Intelligence Artificielle, l’Université de Montréal a créé un espace de dialogue national et international entre le public, les experts et les représentants des pouvoirs publics assurant le développement d’un cadre éthique en la matière. Guy Breton, recteur de l’université, a insisté sur le fait que « le thème de l’intelligence artificielle touchera progressivement tous les secteurs de la société et (que) nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs humaines et porteur d’un véritable progrès social. »
Seulement des pistes de réflexions
Dansson rapport sur les enjeux éthiques des algorithmes et de l’Intelligence artificielle, la CNIL s’est attelée à résumer les différentes solutions qui ont émergées ces dernières années.
Tout d’abord, l’institution française insiste sur l’importance de créer des solutions pour tous les niveaux de la chaine algorithmique c’est-à-dire des résolutions pouvant aussi bien toucher le concepteur que l’usager final.
Pour la CNIL, la formation et la sensibilisation à l’éthique algorithmique occupe une place particulière. D’une part, il faut former ou du moins sensibiliser le citoyen aux impacts et aux enjeux des algorithmes dans la société actuelle. D’autre part, les concepteurs et les professionnels du domaine devront former en la matière afin de cerner les incidences de leurs algorithmes sur les personnes et sur la société, qu’elles soient directes ou indirectes.
Ensuite, la réduction de l’opacité de l’algorithme devient une composante essentielle. Cette exigence vise à dissiper le brouillard qui entoure le processus de décision de l’algorithme. La complexité des algorithmes et la quantité d’éléments pris en compte par ceux-ci rendent la compréhension des algorithmes difficiles et ce, même pour leurs concepteurs. Cette nécessité permettrait aux développeurs d’avoir un algorithme intelligible et de ce fait, d’être capable de répondre à l’exigence d’explicabilité mais aussi de déceler si leur algorithme répond aux critères d’éthique et de loyauté. Cet impératif trouve une source légale dans le RGPD mais devrait être élargi à tout traitement algorithmique. En effet, le Règlement avocation à ne réguler que les traitements de données à caractère personnel.
Enfin, les procédures d’audit sont l’un des pistes de solutions les plus prometteuses. Différentes formes d’audit peuvent être imaginé : celui fait par une organise d’Etat, celui fait par des organismes externes qui aurait reçu l’aval de l’Etat ou même des procédures d’audit interne. L’Institut des Auditeurs Internes a déjà sorti plusieurs lignes directrices concernant l’audit interne de l’Intelligence Artificielle. En parallèle, on voit des sociétés d’audit externe se développer et proposer des analyses complètes des systèmes d’IA.
Initiatives privées : Les chartes et conseil éthique
Les impulsions peuvent aussi provenir du secteur privé. Prônant l’autorégulation, il était évident que certaines entreprises prennent les devants en développant leurs propres solutions. La société SAP, entreprise dominante dans le domaine des logiciels professionnels, a développé une politique exemplaire en matière d’éthique algorithmique. L’entreprise allemande a mis en place d’une part, une charte éthique propre à l’intelligence artificielle et d’autre part, un comité consultatif sur l’éthique dans l’Intelligence Artificielle.
Les solutions mises en œuvre par SAP sont un exemple à suivre. Leur chartemet en avant la construction d’Intelligence artificielle centrée sur l’humain et qui permettrait de développer le talent humain. La charte se compose de différents points mettant tantôt l’accent sur la suppression des biais algorithmiques tantôt sur le caractère transparent de l’algorithme. Afin de veiller à l’adoption de ses principes, de leur respect et de leur développement, SAP s’est muni d’un comité consultatif sur l’éthique dans l’Intelligence Artificielle composé d’experts issus du monde universitaire, de la politique et de l’industrie. La création de ce comité s’inscrit aussi dans la réflexion européenne sur l’Intelligence Artificielle et met en avant l’intérêt de SAP pour le défi que représente l’IA dans la société européenne.
Google a aussi développé une politique éthique en matière d’IA en développant une chartedéfendant les mêmes principes : éviter les biais injustes, transparence, etc. D’ailleurs, les choix économiques de la firme de Mountain View ont été à la hauteur des principes qu’elle a énoncé. Au détour d’un billet de blogue, la société américaine a récemment expliqué qu’elle n’offrirait pas d’API générales de reconnaissance faciale tant que l’instabilité technique et le flou juridique entourant cette technologie ne trouveraient pas de réponses. Toutefois, contrairement à SAP, Google n’a pas réussi à mettre en place un comité éthique. La composition du futur comité fut fort critiquée à la fois en interne et en externe ce qui obligea Google à suspendre ce comité. La société n’a pas pour autant abandonnéeses projets de réflexions et a expliqué qu’elle trouvera d’autres moyens d’obtenir des avis extérieurs sur ces sujets.
Commentaires