Algorithmes et droits de l'homme : comprendre leurs impacts
Algoritmos y derechos humanos: Entendiendo sus impactos
L'utilisation croissante d'algorithmes pour les processus décisionnels peut présenter des risques et avoir des effets néfastes sur la vie privée et l'exercice de la droits de l'hommeUn élément essentiel d'un gouvernement ouvert comprend la protection des libertés et des droits sacrés de tous les citoyens, y compris les groupes les plus vulnérables, et la responsabilisation de ceux qui violent les droits de l'homme. T.... Les évaluations d'impact algorithmiques sur les droits de l'homme sont devenues un outil de responsabilisation pour identifier les dommages potentiels, atténuer les impacts imprévus et éclairer les décisions politiques sur l'utilisation des algorithmes dans les domaines politiques clés, y compris la santé, et l'éducation La responsabilité au sein du système d'éducation publique est essentielle pour améliorer les résultats et la réussite, et la responsabilité est presque impossible sans des politiques transparentes et des opportunités de participation ....
Les agences gouvernementales du Canada, de la Finlande, des Pays-Bas, de l'Écosse et du Royaume-Uni mettant en œuvre les engagements du PGO sur les algorithmes ouverts se sont réunies au cours de Open Gov Week discuter de la manière dont les principes et les cadres des droits de l'homme peuvent être intégrés dans des outils de responsabilisation pour l'utilisation d'algorithmes par le secteur public. Voici les trois principaux points saillants de la discussion :
Évaluations d'impact algorithmiques et droits de l'homme
Un certain nombre de pays ont développé des évaluations d'impact algorithmiques au cours des dernières années pour répondre aux préoccupations concernant les éventuelles conséquences involontaires de l'introduction d'algorithmes dans la prise de décision. Certains sont formulés explicitement en termes de droits de l'homme, fournissant un cadre substantiel pour évaluer les effets des algorithmes sur les individus, par rapport aux protections juridiques et constitutionnelles existantes. Par exemple, les Pays-Bas Analyse d'impact sur les droits fondamentaux et les algorithmes (FRAIA) est un outil destiné aux institutions publiques qui envisagent de développer ou d'acquérir un système algorithmique. Cela les oblige à parcourir le pourquoi (objectif), le quoi (données et traitement des données) et le comment (mise en œuvre et utilisation) de l'algorithme. Il est important de noter que cela garantit que les décideurs entreprennent une évaluation de l'impact probable de l'utilisation d'algorithmes sur des droits humains spécifiques. Il utilise une approche axée sur le dialogue et qualitative, nécessitant une consultation avec les parties prenantes et l'examen de différents compromis pour parvenir à une décision finale sur l'opportunité et la manière de procéder.
Un autre exemple est celui du Canada Outil d'évaluation d'impact algorithmique (AIA). L'AIA soutient la Directive du Conseil du Trésor sur la prise de décision automatisée en déterminant le niveau d'impact d'un projet d'automatisation, qui va de I (impact faible à nul) à IV (impact très élevé). Il identifie et évalue les impacts potentiels sur les individus et les communautés dans un éventail de domaines, notamment les droits et libertés, la santé et le bien-être, les intérêts économiques et la durabilité des écosystèmes. Bien que la version actuelle de l'AIA ne fasse pas référence à des instruments spécifiques des droits de l'homme, l'intention est de tenir compte des impacts potentiels sur les droits inscrits dans le droit national et international des droits de l'homme.
D'autres pays développent une approche sectorielle, comme le Royaume-Uni cadre d'évaluation d'impact pour la plate-forme nationale d'imagerie médicale du National Health Service.
Engager le public dans les évaluations d'impact algorithmiques
Il est nécessaire de renforcer à la fois la connaissance publique des algorithmes et la participation du public aux délibérations et à la prise de décision liées à leur utilisation. Au milieu de plusieurs controverses publiques (par exemple dans le Netherlands et la Royaume-Uni), le scepticisme est généralisé. Un engagement significatif est une condition préalable pour renforcer la confiance du public dans le potentiel positif de la prise de décision algorithmique tout en atténuant les dommages potentiels.
Le Centre européen pour le droit des organisations à but non lucratif (ECNL) a présenté un examen de l'engagement des parties prenantes dans les évaluations d'impact sur les droits de l'homme et identifié des opportunités d'apprentissage transnational. La nature technique incontestable des algorithmes a souvent été perçue comme un obstacle majeur à l'engagement du public. Mais l'examen a démontré que les citoyens n'ont pas besoin de connaître les détails techniques d'un algorithme pour comprendre et délibérer ses impacts ultimes sur la vie quotidienne, ou comment il peut perturber (pour le meilleur ou pour le pire) les processus décisionnels traditionnels.
Par exemple, le Royaume-Uni a mené une exercice d'engagement public délibératif qui a abouti au développement de la Norme de transparence algorithmique pour une utilisation dans l'ensemble du secteur public. D'autres pays ont intégré ces questions dans des forums examinant des problèmes plus larges liés à la technologie numérique, notamment l'Écosse Panel populaire d'éthique numérique et la "Numérisation pour la vie quotidienne" de la Finlande Conseil consultatif.
Formation des responsables gouvernementaux sur l'utilisation des évaluations d'impact algorithmiques
La formation de la fonction publique est déjà en cours dans de nombreux pays en ce qui concerne les processus participatifs et l'engagement des citoyens, certains commencent à se concentrer davantage sur les algorithmes, mais il s'agit encore d'un domaine émergent. Par exemple, les Pays-Bas ont élaboré des lignes directrices et une formation pour les fonctionnaires. En Finlande, l'accent est mis sur la création d'une compréhension des algorithmes dans les agences gouvernementales étant donné que les rôles sont répartis entre différentes organisations. Au Canada, le gouvernement fédéral a élaboré modules de formation pour les fonctionnaires qui explorent les risques, les défis et l'éthique des technologies d'IA. Les décideurs qui supervisent la directive et l'outil AIA aident également régulièrement les institutions fédérales à réaliser et à publier des évaluations d'impact algorithmiques sur le portail du gouvernement ouvert.
Alors que l'utilisation des algorithmes et de l'intelligence artificielle augmente dans tous les gouvernements dans les processus décisionnels, les évaluations d'impact sur les droits de l'homme et l'engagement public qui l'accompagne sont essentiels pour garantir que cette technologie ne renforce ni n'exacerbe les inégalités existantes dans nos sociétés. Nous espérons que les exemples et les leçons ci-dessus pourront soutenir les efforts des gouvernements et de la société civile pour faire progresser la responsabilité algorithmique, y compris dans le cadre de leurs plans d'action OGP.
El uso cada vez mayor de los algoritmos para los procesos de toma de decisiones puede representar riesgos y afectar la privacidad y los derechos humanos. Recientemente, se han desarrollado evaluaciones de impacto de los algoritmos en los derechos humanos con el fin de identificar los riesgos potenciales, mitigar posibles impactos negativos y apoyar la toma de decisiones alrededor del uso de algoritmos en diferentes áreas de política como la salud y la educación.
Las instituciones de los gobiernos de Canadá, Finlandia, Países Bajos, Escocia y el Reino Unido que se encuentran implementando compromisos de OGP sobre algoritmos abiertos se reunieron durante la semana de gobierno abierto para discutir cómo incorporar principios de derechos humanos en las herramientas de rendición de cuentas sobre el uso de algoritmos por parte del sector público. A continuación presentamos los mensajes más importantes que surgieron de la discusión.
Evaluaciones de impacto sobre algoritmos y derechos humanos
En años recientes, algunos países han desarrollado evaluaciones de impacto de los algoritmos para atender las posibles consecuencias no deseadas de incorporar algoritmos en la toma de decisiones. Algunas de ellas se enmarcan explícitamente en los derechos humanos, como un marco sustantivo para evaluar los efectos de los algoritmos en las personas frente a los derechos legales y constitucionales existentes. Por ejemplo, la Evaluación de Impacto de los Derechos Humanos y los Algoritmos (FRAIA) de los Países Bajos es una herramienta útil a las instituciones públicas que están considerando desarrollar o adquirir sistemas de algoritmos. Su objetivo es ayudarles a definir el por qué (propósito), el qué (datos y procesamiento de datos) y el cómo (implementación y uso) del algoritmo. Además, asegura que los tomadores de decisiones lleven a cabo evaluaciones del posible impacto del uso de los algoritmos en los derechos humanos. La herramienta utiliza una metodología de diálogo y cualitativa, por lo que exige la consulta con actores y la consideración de diferentes ventajas y desventajas para tomar una decisión sobre si se debe proceder o no y cómo.
Otro ejemplo es la Herramienta de Evaluación de Impacto de los Algoritmos de Canadá (AIA). La AIA apoya la Dirección del Consejo de Tesorería sobre la Toma Automatizada de Decisiones, determinando el nivel de impacto de un proyecto de automatización, desde el nivel I (sin impacto o muy bajo impacto) a IV (muy alto impacto). La herramienta ayuda a identificar y evaluar los impactos potenciales en las personas y las comunidades en diversas áreas, incluyendo los derechos y libertades, salud y bienestar, intereses económicos y sustentabilidad económica. La versión actual de la AIA no hace referencia a instrumentos específicos sobre derechos humanos, pero la intención es tomar en cuenta los impactos potenciales en las leyes sobre derechos humanos nacionales e internacionales.
Otros países están implementando un enfoque sectorial, como el caso del marco de evaluación de impacto del Reino Unido para la Plataforma Nacional de Imagenología Médica del Servicio Nacional de Salud.
Involucrando al público en las evaluaciones de impacto de algoritmos
Es necesario fortalecer el conocimiento del público sobre algoritmos y participación pública en la toma de decisiones. Tras varias controversias públicas (por ejemplo en los Países Bajos y en el Reino Unido), hay un escepticismo generalizado. Para construir la confianza en el uso de los algoritmos para la toma de decisiones y mitigar daños potenciales, es necesario promover una verdadera colaboración.
El European Center for Not-for-profit Law (ECNL – Centro Europeo para el Derecho sin Fines de Lucro) presentó un estudio sobre la participación de actores en las evaluaciones de impacto de derechos humanos e identificó oportunidades para el aprendizaje entre países. La naturaleza técnica de los algoritmos se ha percibido como una barrera a la participación ciudadana, pero este estudio demostró que la ciudadanía no tiene que conocer los detalles técnicos de los algoritmos para comprender sus impactos en sus vidas o cómo puede alterar (para bien o para mal) los procesos tradicionales de toma de decisiones.
Por ejemplo, el Reino Unido llevó a cabo un ejercicio participativo de participación pública que resultó en el desarrolló de un estándar de transparencia de algoritmos a ser utilizado por el sector público. Otros países han integrado estas preguntas en foros relacionados con la tecnología digital, por ejemplo el Panel de Ética Digital de Escocia y el Consejo Asesor “Digitalización para la vida cotidiana” de Finlandia.
Capacitación a funcionarios en el uso de evaluaciones de impacto de algoritmos
En muchos países ya se están capacitando a funcionarios sobre procesos participativos y vinculación ciudadana y algunos están enfocándose en los algoritmos, pero ésta es aún un área emergente. Por ejemplo, los Países Bajos desarrollaron lineamientos y capacitaciones a funcionarios. Finlandia se ha enfocado en promover un entendimiento de los algoritmos entre las instituciones de gobierno, ya que las funciones son de diferentes organizaciones. En Canadá, el gobierno federal desarrolló módulos de capacitación para ayudar a los funcionarios a analizar los riesgos, retos e implicaciones éticas de la inteligencia artificial. Los tomadores de decisiones que están supervisando la Dirección y la herramienta de AIA apoyan a las instituciones en el desarrollo y publicación de evaluaciones de impacto de los algoritmos a través del portal de gobierno abierto.
El uso de los algoritmos y la inteligencia artificial seguirá creciendo en los procesos de toma de decisiones de las instituciones de gobierno, por lo que serán fundamentales las evaluaciones de impacto en los derechos humanos y la participación ciudadana para asegurar que estas tecnologías no exacerben las desigualdades ya presentes en la sociedad. Esperamos que estos ejemplos y lecciones puedan ayudar a los gobiernos y la sociedad civil a mejorar la rendición de cuentas sobre algoritmos, entre otras acciones como parte de sus planes de acción de OGP.
Commentaires (2)
Bienvenido Pascual Encuentra (Secrétariat d'ALGOVERIT) Répondre
Soy secretario de la Asociación ALGOVERIT, que tiene por objetivo informar a los ciudadanos sobre los buenos y malos usos de la IA y los algoritmos, así como de la defensa de la participación de la sociedad en el establecimiento de un marco regulationio que respete la libertad colectiva, personal y minimice las posibilidades de discriminación negativa. Tal vez podríamos mantener contactos fructíferos en un próximo tiempo.
Toujours,
Bienvenido Pascual Encuentra
Secrétariat d'ALGOVERIT
Laissez un commentaire
Rubriques connexes
Réseau d'algorithmes ouverts
Découvrez le réseau informel de gouvernements chargés de la mise en œuvre de l'OGP, qui mobilise une coalition internationale de personnes travaillant sur la responsabilité algorithmique.
Responsabilité algorithmique pour le secteur public
L'Institut Ada Lovelace, l'Institut AI Now et l'OGP se sont associés pour lancer la première étude mondiale visant à analyser la première vague de politique de responsabilité algorithmique pour le secteur public.
Rendre les algorithmes responsables envers les citoyens
Lors de RightsCon 2021, des représentants du gouvernement et des organisations de la société civile, y compris des membres de l'Open Algorithms Network, ont discuté de leur expérience de mise en œuvre de la transparence des algorithmes ...
ABDELKADER ESSOUSSI Répondre
L'évolution des algorithmes ou l'intelligence artificielle au service de la participation citoyenne et surtout dans les sujets des droits de l'homme , l'existence des plateformes , l'expression orale et écrite et les obligations et les éthiques ( plagiat et intelligences collectifs ) de la digitalisation.