Ignorer la navigation

Algorithmes et droits de l'homme : comprendre leurs impacts

Algoritmos y derechos humanos: Entendiendo sus impactos

Paula Pérezet lePaul Braithwaite|

L'utilisation croissante d'algorithmes pour les processus décisionnels peut présenter des risques et avoir des effets néfastes sur la vie privée et l'exercice de la droits de l'homme. Les évaluations d'impact algorithmiques sur les droits de l'homme sont devenues un outil de responsabilisation pour identifier les dommages potentiels, atténuer les impacts imprévus et éclairer les décisions politiques sur l'utilisation des algorithmes dans les domaines politiques clés, y compris la santé, et l'éducation

Les agences gouvernementales du Canada, de la Finlande, des Pays-Bas, de l'Écosse et du Royaume-Uni mettant en œuvre les engagements du PGO sur les algorithmes ouverts se sont réunies au cours de Open Gov Week discuter de la manière dont les principes et les cadres des droits de l'homme peuvent être intégrés dans des outils de responsabilisation pour l'utilisation d'algorithmes par le secteur public. Voici les trois principaux points saillants de la discussion : 

Évaluations d'impact algorithmiques et droits de l'homme

Un certain nombre de pays ont développé des évaluations d'impact algorithmiques au cours des dernières années pour répondre aux préoccupations concernant les éventuelles conséquences involontaires de l'introduction d'algorithmes dans la prise de décision. Certains sont formulés explicitement en termes de droits de l'homme, fournissant un cadre substantiel pour évaluer les effets des algorithmes sur les individus, par rapport aux protections juridiques et constitutionnelles existantes. Par exemple, les Pays-Bas Analyse d'impact sur les droits fondamentaux et les algorithmes (FRAIA) est un outil destiné aux institutions publiques qui envisagent de développer ou d'acquérir un système algorithmique. Cela les oblige à parcourir le pourquoi (objectif), le quoi (données et traitement des données) et le comment (mise en œuvre et utilisation) de l'algorithme. Il est important de noter que cela garantit que les décideurs entreprennent une évaluation de l'impact probable de l'utilisation d'algorithmes sur des droits humains spécifiques. Il utilise une approche axée sur le dialogue et qualitative, nécessitant une consultation avec les parties prenantes et l'examen de différents compromis pour parvenir à une décision finale sur l'opportunité et la manière de procéder.

Un autre exemple est celui du Canada Outil d'évaluation d'impact algorithmique (AIA). L'AIA soutient la Directive du Conseil du Trésor sur la prise de décision automatisée en déterminant le niveau d'impact d'un projet d'automatisation, qui va de I (impact faible à nul) à IV (impact très élevé). Il identifie et évalue les impacts potentiels sur les individus et les communautés dans un éventail de domaines, notamment les droits et libertés, la santé et le bien-être, les intérêts économiques et la durabilité des écosystèmes. Bien que la version actuelle de l'AIA ne fasse pas référence à des instruments spécifiques des droits de l'homme, l'intention est de tenir compte des impacts potentiels sur les droits inscrits dans le droit national et international des droits de l'homme.

D'autres pays développent une approche sectorielle, comme le Royaume-Uni cadre d'évaluation d'impact pour la plate-forme nationale d'imagerie médicale du National Health Service.

Engager le public dans les évaluations d'impact algorithmiques 

Il est nécessaire de renforcer à la fois la connaissance publique des algorithmes et la participation du public aux délibérations et à la prise de décision liées à leur utilisation. Au milieu de plusieurs controverses publiques (par exemple dans le Netherlands et la Royaume-Uni), le scepticisme est généralisé. Un engagement significatif est une condition préalable pour renforcer la confiance du public dans le potentiel positif de la prise de décision algorithmique tout en atténuant les dommages potentiels. 

Le Centre européen pour le droit des organisations à but non lucratif (ECNL) a présenté un examen de l'engagement des parties prenantes dans les évaluations d'impact sur les droits de l'homme et identifié des opportunités d'apprentissage transnational. La nature technique incontestable des algorithmes a souvent été perçue comme un obstacle majeur à l'engagement du public. Mais l'examen a démontré que les citoyens n'ont pas besoin de connaître les détails techniques d'un algorithme pour comprendre et délibérer ses impacts ultimes sur la vie quotidienne, ou comment il peut perturber (pour le meilleur ou pour le pire) les processus décisionnels traditionnels. 

Par exemple, le Royaume-Uni a mené une exercice d'engagement public délibératif qui a abouti au développement de la Norme de transparence algorithmique pour une utilisation dans l'ensemble du secteur public. D'autres pays ont intégré ces questions dans des forums examinant des problèmes plus larges liés à la technologie numérique, notamment l'Écosse Panel populaire d'éthique numérique et la "Numérisation pour la vie quotidienne" de la Finlande Conseil consultatif

Formation des responsables gouvernementaux sur l'utilisation des évaluations d'impact algorithmiques 

La formation de la fonction publique est déjà en cours dans de nombreux pays en ce qui concerne les processus participatifs et l'engagement des citoyens, certains commencent à se concentrer davantage sur les algorithmes, mais il s'agit encore d'un domaine émergent. Par exemple, les Pays-Bas ont élaboré des lignes directrices et une formation pour les fonctionnaires. En Finlande, l'accent est mis sur la création d'une compréhension des algorithmes dans les agences gouvernementales étant donné que les rôles sont répartis entre différentes organisations. Au Canada, le gouvernement fédéral a élaboré modules de formation pour les fonctionnaires qui explorent les risques, les défis et l'éthique des technologies d'IA. Les décideurs qui supervisent la directive et l'outil AIA aident également régulièrement les institutions fédérales à réaliser et à publier des évaluations d'impact algorithmiques sur le portail du gouvernement ouvert. 

Alors que l'utilisation des algorithmes et de l'intelligence artificielle augmente dans tous les gouvernements dans les processus décisionnels, les évaluations d'impact sur les droits de l'homme et l'engagement public qui l'accompagne sont essentiels pour garantir que cette technologie ne renforce ni n'exacerbe les inégalités existantes dans nos sociétés. Nous espérons que les exemples et les leçons ci-dessus pourront soutenir les efforts des gouvernements et de la société civile pour faire progresser la responsabilité algorithmique, y compris dans le cadre de leurs plans d'action OGP.  

Commentaires (2)

ABDELKADER ESSOUSSI Répondre

L'évolution des algorithmes ou l'intelligence artificielle au service de la participation citoyenne et surtout dans les sujets des droits de l'homme , l'existence des plateformes , l'expression orale et écrite et les obligations et les éthiques ( plagiat et intelligences collectifs ) de la digitalisation.

Bienvenido Pascual Encuentra (Secrétariat d'ALGOVERIT) Répondre

Soy secretario de la Asociación ALGOVERIT, que tiene por objetivo informar a los ciudadanos sobre los buenos y malos usos de la IA y los algoritmos, así como de la defensa de la participación de la sociedad en el establecimiento de un marco regulationio que respete la libertad colectiva, personal y minimice las posibilidades de discriminación negativa. Tal vez podríamos mantener contactos fructíferos en un próximo tiempo.
Toujours,
Bienvenido Pascual Encuentra
Secrétariat d'ALGOVERIT

Laissez un commentaire

Votre adresse courriel n'apparaitra pas. Les champs obligatoires sont marqués *

Rubriques connexes

Miniature pour Open Algorithms Network

Réseau d'algorithmes ouverts

Découvrez le réseau informel de gouvernements chargés de la mise en œuvre de l'OGP, qui mobilise une coalition internationale de personnes travaillant sur la responsabilité algorithmique.

Vignette pour Responsabilité algorithmique pour le secteur public

Responsabilité algorithmique pour le secteur public

L'Institut Ada Lovelace, l'Institut AI Now et l'OGP se sont associés pour lancer la première étude mondiale visant à analyser la première vague de politique de responsabilité algorithmique pour le secteur public. 

Vignette pour Rendre les algorithmes responsables devant les citoyens Défis et solutions

Rendre les algorithmes responsables envers les citoyens

Lors de RightsCon 2021, des représentants du gouvernement et des organisations de la société civile, y compris des membres de l'Open Algorithms Network, ont discuté de leur expérience de mise en œuvre de la transparence des algorithmes ...

Open Government Partnership