Algoritmos y derechos humanos: comprensión de sus impactos
Algoritmos y derechos humanos: Entendiendo sus impactos
El uso cada vez mayor de algoritmos para los procesos de toma de decisiones puede presentar riesgos y tener impactos nocivos en la privacidad y el ejercicio de los derechos. derechos humanosUna parte esencial del gobierno abierto incluye proteger las libertades y los derechos sagrados de todos los ciudadanos, incluidos los grupos más vulnerables, y responsabilizar a quienes violan los derechos humanos. T.... Las evaluaciones de impacto algorítmico en derechos humanos han surgido como una herramienta de rendición de cuentas para identificar daños potenciales, mitigar impactos no deseados e informar decisiones políticas sobre el uso de algoritmos en áreas políticas clave, incluida la salud y educaciónLa rendición de cuentas dentro del sistema de educación pública es clave para mejorar los resultados y logros, y la rendición de cuentas es casi imposible sin políticas transparentes y oportunidades de participación....
Las agencias gubernamentales de Canadá, Finlandia, los Países Bajos, Escocia y el Reino Unido implementan los compromisos de OGP sobre algoritmos abiertos que se cumplieron durante Open Gov Week para discutir cómo los principios y marcos de derechos humanos pueden incorporarse a las herramientas de rendición de cuentas para el uso de algoritmos en el sector público. Estos son los tres aspectos más destacados de la discusión:
Evaluaciones Algorítmicas de Impacto y Derechos Humanos
Varios países han desarrollado evaluaciones de impacto algorítmicas en los últimos años para abordar las preocupaciones sobre las posibles consecuencias no deseadas de la introducción de algoritmos en la toma de decisiones. Algunos se enmarcan explícitamente en términos de derechos humanos que proporcionan un marco sustantivo para evaluar los efectos de los algoritmos en las personas, frente a las protecciones legales y constitucionales existentes. Por ejemplo, los Países Bajos Evaluación de impacto de algoritmos y derechos fundamentales (FRAIA) es una herramienta para instituciones públicas que están considerando desarrollar o comprar un sistema algorítmico. Requiere que analicen el por qué (propósito), el qué (datos y procesamiento de datos) y el cómo (implementación y uso) del algoritmo. Es importante destacar que garantiza que los responsables de la toma de decisiones realicen una evaluación del posible impacto del uso de algoritmos en derechos humanos específicos. Utiliza un enfoque cualitativo y orientado al diálogo, que requiere consultas con las partes interesadas y la consideración de diferentes compensaciones para llegar a una decisión final sobre si proceder y cómo hacerlo.
Otro ejemplo es Canadá Herramienta de evaluación de impacto algorítmico (AIA). La AIA apoya la Directiva de la Junta del Tesoro sobre la toma de decisiones automatizada determinando el nivel de impacto de un proyecto de automatización, que va de I (poco o ningún impacto) a IV (muy alto impacto). Identifica y evalúa los impactos potenciales sobre las personas y las comunidades en una variedad de áreas, incluidos los derechos y libertades, la salud y el bienestar, los intereses económicos y la sostenibilidad del ecosistema. Si bien la versión actual de la AIA no se refiere a instrumentos específicos de derechos humanos, la intención es dar cuenta de los impactos potenciales sobre los derechos consagrados en el derecho nacional e internacional de derechos humanos.
Otros países están desarrollando un enfoque sectorial, como el Reino Unido marco de evaluación de impacto para la Plataforma Nacional de Imagen Médica del Servicio Nacional de Salud.
Involucrar al público en las evaluaciones de impacto algorítmico
Existe la necesidad de fortalecer tanto el conocimiento público de los algoritmos como la participación pública en la deliberación y toma de decisiones relacionadas con su uso. En medio de varias controversias públicas (por ejemplo en el Netherlands y la Reino Unido), el escepticismo está muy extendido. El compromiso significativo es un requisito previo para generar confianza pública en el potencial positivo de la toma de decisiones algorítmica mientras se mitigan los daños potenciales.
El Centro Europeo para la Ley sin Fines de Lucro (ECNL) presentó una revisión de la participación de las partes interesadas en las Evaluaciones de Impacto en los Derechos Humanos e identificó oportunidades para el aprendizaje entre países. La naturaleza técnica indudable de los algoritmos a menudo se ha percibido como una barrera importante para la participación pública. Pero la revisión demostró que los ciudadanos no necesitan conocer los detalles técnicos de un algoritmo para comprender y deliberar sus impactos finales en la vida cotidiana, o cómo puede interrumpir (para bien o para mal) los procesos tradicionales de toma de decisiones.
Por ejemplo, el Reino Unido lideró un ejercicio deliberativo de participación pública que dio como resultado el desarrollo de la Estándar de transparencia algorítmica para su uso en todo el sector público. Otros países han integrado estas preguntas en foros que analizan temas más amplios relacionados con la tecnología digital, incluido el de Escocia. Panel de Personas de Ética Digital y 'Digitalización para la vida cotidiana' de Finlandia Consejo asesor.
Capacitación de funcionarios gubernamentales sobre el uso de evaluaciones de impacto algorítmicas
La capacitación del servicio civil ya se está dando en muchos países en relación con los procesos participativos y la participación ciudadana, algunos están comenzando a enfocarse más en los algoritmos, pero esta aún es un área emergente. Por ejemplo, los Países Bajos han desarrollado pautas y capacitación para funcionarios públicos. En Finlandia, la atención se centra en crear una comprensión de los algoritmos entre las agencias gubernamentales dado que los roles se distribuyen entre diferentes organizaciones. En Canadá, el gobierno federal ha desarrollado módulos de formación para servidores públicos que exploran los riesgos, desafíos y ética de las tecnologías de IA. Los formuladores de políticas que supervisan la directiva y la herramienta AIA también ayudan regularmente a las instituciones federales a completar y publicar Evaluaciones de impacto algorítmico en el Portal de gobierno abierto.
A medida que aumenta el uso de algoritmos e inteligencia artificial en los gobiernos en los procesos de toma de decisiones, las evaluaciones de impacto en los derechos humanos y el compromiso público que las acompaña son vitales para garantizar que esta tecnología no refuerce ni exacerbe las desigualdades existentes en nuestras sociedades. Esperamos que los ejemplos y lecciones anteriores puedan respaldar los esfuerzos de los gobiernos y la sociedad civil para promover la rendición de cuentas algorítmica, incluso como parte de sus planes de acción de OGP.
El uso cada vez mayor de los algoritmos para los procesos de toma de decisiones puede representar riesgos y afectar la privacidad y los derechos humanos. Recientemente, se han desarrollado evaluaciones de impacto de los algoritmos en los derechos humanos con el fin de identificar los riesgos potenciales, mitigar posibles impactos negativos y apoyar la toma de decisiones alrededor del uso de algoritmos en diferentes áreas de política como la salud y la educación.
Las instituciones de los gobiernos de Canadá, Finlandia, Países Bajos, Escocia y el Reino Unido que se encuentran implementando compromisos de OGP sobre algoritmos abiertos se reunieron durante la semana de gobierno abierto para discutir cómo incorporar principios de derechos humanos en las herramientas de rendición de cuentas sobre el uso de algoritmos por parte del sector público. A continuación presentamos los mensajes más importantes que surgieron de la discusión.
Evaluaciones de impacto sobre algoritmos y derechos humanos
En años recientes, algunos países han desarrollado evaluaciones de impacto de los algoritmos para atender las posibles consecuencias no deseadas de incorporar algoritmos en la toma de decisiones. Algunas de ellas se enmarcan explícitamente en los derechos humanos, como un marco sustantivo para evaluar los efectos de los algoritmos en las personas frente a los derechos legales y constitucionales existentes. Por ejemplo, la Evaluación de Impacto de los Derechos Humanos y los Algoritmos (FRAIA) de los Países Bajos es una herramienta útil a las instituciones públicas que están considerando desarrollar o adquirir sistemas de algoritmos. Su objetivo es ayudarles a definir el por qué (propósito), el qué (datos y procesamiento de datos) y el cómo (implementación y uso) del algoritmo. Además, asegura que los tomadores de decisiones lleven a cabo evaluaciones del posible impacto del uso de los algoritmos en los derechos humanos. La herramienta utiliza una metodología de diálogo y cualitativa, por lo que exige la consulta con actores y la consideración de diferentes ventajas y desventajas para tomar una decisión sobre si se debe proceder o no y cómo.
Otro ejemplo es la Herramienta de Evaluación de Impacto de los Algoritmos de Canadá (AIA). La AIA apoya la Dirección del Consejo de Tesorería sobre la Toma Automatizada de Decisiones, determinando el nivel de impacto de un proyecto de automatización, desde el nivel I (sin impacto o muy bajo impacto) a IV (muy alto impacto). La herramienta ayuda a identificar y evaluar los impactos potenciales en las personas y las comunidades en diversas áreas, incluyendo los derechos y libertades, salud y bienestar, intereses económicos y sustentabilidad económica. La versión actual de la AIA no hace referencia a instrumentos específicos sobre derechos humanos, pero la intención es tomar en cuenta los impactos potenciales en las leyes sobre derechos humanos nacionales e internacionales.
Otros países están implementando un enfoque sectorial, como el caso del marco de evaluación de impacto del Reino Unido para la Plataforma Nacional de Imagenología Médica del Servicio Nacional de Salud.
Involucrando al público en las evaluaciones de impacto de algoritmos
Es necesario fortalecer el conocimiento del público sobre algoritmos y participación pública en la toma de decisiones. Tras varias controversias públicas (por ejemplo en los Países Bajos y en el Reino Unido), hay un escepticismo generalizado. Para construir la confianza en el uso de los algoritmos para la toma de decisiones y mitigar daños potenciales, es necesario promover una verdadera colaboración.
El European Center for Not-for-profit Law (ECNL – Centro Europeo para el Derecho sin Fines de Lucro) presentó un estudio sobre la participación de actores en las evaluaciones de impacto de derechos humanos e identificó oportunidades para el aprendizaje entre países. La naturaleza técnica de los algoritmos se ha percibido como una barrera a la participación ciudadana, pero este estudio demostró que la ciudadanía no tiene que conocer los detalles técnicos de los algoritmos para comprender sus impactos en sus vidas o cómo puede alterar (para bien o para mal) los procesos tradicionales de toma de decisiones.
Por ejemplo, el Reino Unido llevó a cabo un ejercicio participativo de participación pública que resultó en el desarrolló de un estándar de transparencia de algoritmos a ser utilizado por el sector público. Otros países han integrado estas preguntas en foros relacionados con la tecnología digital, por ejemplo el Panel de Ética Digital de Escocia y el Consejo Asesor “Digitalización para la vida cotidiana” de Finlandia.
Capacitación a funcionarios en el uso de evaluaciones de impacto de algoritmos
En muchos países ya se están capacitando a funcionarios sobre procesos participativos y vinculación ciudadana y algunos están enfocándose en los algoritmos, pero ésta es aún un área emergente. Por ejemplo, los Países Bajos desarrollaron lineamientos y capacitaciones a funcionarios. Finlandia se ha enfocado en promover un entendimiento de los algoritmos entre las instituciones de gobierno, ya que las funciones son de diferentes organizaciones. En Canadá, el gobierno federal desarrolló módulos de capacitación para ayudar a los funcionarios a analizar los riesgos, retos e implicaciones éticas de la inteligencia artificial. Los tomadores de decisiones que están supervisando la Dirección y la herramienta de AIA apoyan a las instituciones en el desarrollo y publicación de evaluaciones de impacto de los algoritmos a través del portal de gobierno abierto.
El uso de los algoritmos y la inteligencia artificial seguirá creciendo en los procesos de toma de decisiones de las instituciones de gobierno, por lo que serán fundamentales las evaluaciones de impacto en los derechos humanos y la participación ciudadana para asegurar que estas tecnologías no exacerben las desigualdades ya presentes en la sociedad. Esperamos que estos ejemplos y lecciones puedan ayudar a los gobiernos y la sociedad civil a mejorar la rendición de cuentas sobre algoritmos, entre otras acciones como parte de sus planes de acción de OGP.
Comentarios (2)
Bienvenido Pascual Encuentra (Secretario de ALGOVERIT) Responder
Soy secretario de la Asociación ALGOVERIT, que tiene por objetivo informar a los ciudadanos sobre los buenos y malos usos de la IA y los algoritmos, así como de la defensa de la participación de la sociedad en el establecimiento de un marco regulatorio que respete la libertad colectiva, personal y minimice las posibilidades de discriminación negativa. Tal vez podamos mantener contactos fructíferos en un próximo tiempo.
Estantamente,
Bienvenido Pascual Encuentra
Secretario de ALGOVERIT
Deje un comentario
Más información

Red de algoritmos abiertos
Conozca la red informal de gobiernos implementadores de OGP, que moviliza una coalición entre países de quienes trabajan en la responsabilidad algorítmica.

Responsabilidad algorítmica para el sector público
El Instituto Ada Lovelace, el Instituto AI Now y OGP se han asociado para lanzar el primer estudio global para analizar la ola inicial de políticas de responsabilidad algorítmica para el sector público.

Hacer que los algoritmos rindan cuentas a los ciudadanos
En RightsCon 2021, funcionarios gubernamentales y organizaciones de la sociedad civil, incluidos miembros de la Red de algoritmos abiertos, discutieron su experiencia en la implementación de la transparencia de algoritmos ...
ABDELKADER ESOUSSI Responder
La evolución de los algoritmos o la inteligencia artificial al servicio de la participación ciudadana y surtout dans les sujets des droits de l'homme , l'existence des plateformes , l'expression orale et écrite et les connections et les éthiques ( plagiat et intelligences colectivos) de la digitalización.