Tres recomendaciones para una IA más inclusiva y equitativa en el sector público
Tres recomendaciones para el uso más incluyente y equitativo de la inteligencia artificial en el sector público
En todo el mundo, las entidades del sector público están explorando cada vez más el uso de algoritmos con el objetivo de mejorar las políticas y la toma de decisiones basadas en datos. Existe un gran potencial para que estos sistemas ayuden a corregir los sesgos de género o a orientar las intervenciones de políticas para cerrar las brechas de equidad en torno al acceso financiero, la contratación y el reclutamiento, las políticas de salud o educación, o diseño de adquisiciones abiertas y toma de decisiones.
Pero esos mismos datos se pueden usar para diseñar o entrenar algoritmos de manera activa o inadvertida para discriminar a las mujeres, las niñas y las personas no binarias que de otro modo podrían calificar para un servicio, beneficio o préstamo. Los gobiernos y los socios de la sociedad civil buscan comprender mejor y abordar los impactos diferenciados por género de los algoritmos en el gobierno abierto y reducir los sesgos humanos en torno a géneroLos gobiernos participantes de OGP están trayendo perspectivas de género a áreas de políticas populares, asegurando la diversidad en los procesos participativos y apuntando específicamente a las brechas de género en las políticas para abordar los gobiernos ... Más, raza y etnia, clase, edad y otros datos demográficos.
En el último Red de algoritmos abiertos reunión, los miembros se reunieron para discutir esta intersección de inclusión, gobierno abierto e inteligencia artificial (IA). Esta reunión fue copresidida por el Gobierno de Canadá, con la participación de los Gobiernos de Estonia, Noruega, el Reino Unido y Escocia, así como de los encuestados de la sociedad civil. Muchos en la mesa virtual han comenzado a considerar cuestiones de igualdad, sesgo y discriminación en sus compromisos algorítmicos en los planes de acción de OGP y en las estrategias de IA del gobierno. Muchos de estos compromisos se basan en la idea de que la apertura de datos y el diseño de algoritmos es una vía para reducir el sesgo y la discriminación, y que el proceso de recopilación de datos o diseño es tan importante como el resultado. Como El plan de acción de Escocia señala, “la forma en que los servicios públicos toman decisiones utilizando datos es tan importante como los datos que publican. Esto incluye el uso de inteligencia artificial confiable, ética e inclusiva, como se describe en la estrategia de IA de Escocia”. Finlandia, por ejemplo, preparará un conjunto general de pautas éticas para que el gobierno garantice que los sistemas de IA no estén integrados con modelos discriminatorios directa o indirectamente.
Algorítmico transparenciaDe acuerdo con los Artículos de Gobernanza de OGP, la transparencia ocurre cuando "la información en poder del gobierno (incluidas las actividades y decisiones) es abierta, completa, oportuna y está disponible gratuitamente para el público... Más es un emergente compromisoLos compromisos de OGP son promesas de reforma creadas conjuntamente por los gobiernos y la sociedad civil y presentadas como parte de un plan de acción. Los compromisos suelen incluir una descripción del problema, una acción concreta... área para los miembros de OGP, con la mayoría de los compromisos provenientes de las naciones del Norte Global. Pocos hacen referencia explícita a experiencias de género en lugar de discriminación o prejuicio más amplios. A medida que la tecnología de IA esté más disponible e integrada en las políticas y los procedimientos gubernamentales, los actores del gobierno abierto deben ser conscientes de los posibles problemas discriminatorios desde el principio y desarrollar enfoques abiertos, transparentes y equitativos para ayudar a mitigarlos.
Los miembros de Open Algorithm Network recomiendan que los actores del gobierno abierto:
1. Abrir estrategias y proyectos de automatización al público para mejorar la transparencia algorítmica y la rendición de cuentas para más comunidades
Siempre que sea posible, los miembros pueden buscar oportunidades para establecer medidas a través de políticas, leyes, regulaciónLos reformadores del gobierno están desarrollando regulaciones que consagran valores de transparencia, participación y rendición de cuentas en las prácticas gubernamentales. Especificaciones técnicas: Acta de creación o reforma..., u otras reformas para promover la transparencia algorítmica. Esto puede tomar la forma de hacer que las políticas o estrategias algorítmicas sean abiertas y accesibles al público, publicar información sobre próximos proyectos para su revisión y comentarios, o involucrar de manera proactiva a las partes interesadas afectadas en torno al diseño y uso de algoritmos.
En Canadá, el Directiva sobre la toma de decisiones automatizada incluye varios requisitos de transparencia, como completar y publicar un Evaluación de impacto algorítmica (AAI); proporcionar avisos y explicaciones a los clientes o al público antes y después de las decisiones; asegurar el acceso a los componentes de un sistema (por ejemplo, para auditoríasLos marcos institucionales y legales son necesarios para garantizar la integridad de la información financiera y el cumplimiento de las normas y procedimientos presupuestarios. Especificaciones técnicas: Estos... o investigaciones); publicar el código fuente cuando corresponda; y documentar decisiones automatizadas. Si bien la directiva requiere que los departamentos prueben los datos utilizados por los sistemas automatizados en busca de sesgos no deseados, la publicación de los resultados de las pruebas de sesgo puede ser un desafío debido a los riesgos para la privacidad, la seguridad o la propiedad intelectual. La protección de la privacidad para un pequeño grupo demográfico, por ejemplo, puede entrar en conflicto con los esfuerzos para probar abiertamente los algoritmos en busca de sesgos, un proceso que podría requerir información personal confidencial sobre las personas afectadas por la automatización. Si bien existen estrategias para anonimizar datos como este, esta tensión puede plantear un desafío para desarrollar una comprensión compartida de la transparencia algorítmica equitativa e inclusiva en el sector público.
Otra oportunidad es conectar las estrategias o políticas algorítmicas nacionales con los compromisos de OGP para mejorar su participación y consulta pública, como hemos visto en miembros como Escocia y Canadá. El Gobierno escocés ha seguido abriendo programas algorítmicos a través de desafíos públicos, como un desafío actual sobre IA y discapacidad y acceso inclusivo a los servicios públicos.
2. Utilice evaluaciones al principio del proceso de diseño para comprender el género o inclusiónLos gobiernos participantes de OGP están trabajando para crear gobiernos que realmente sirvan a todas las personas. Los compromisos en este ámbito pueden abordar personas con discapacidad, mujeres y niñas, lesbianas, gays, bisexuales, tr... Más diferencias o prueba de sesgo no intencionado
Las evaluaciones y directrices se pueden utilizar para ayudar a los actores del sector público a identificar y mitigar los riesgos de discriminación y otras formas de desigualdad durante la etapa de diseño de un proyecto. Estas herramientas pueden incluir evaluaciones de género como uno GBA Plus de Canadá, análisis de economía políticao evaluaciones de impacto en los derechos humanos Sólo para nombrar unos pocos. Los miembros acordaron que es mejor implementarlos al principio del proceso y usarlos iterativamente a lo largo de la vida de una política o programa.
El Gobierno de Canadá busca fortalecer las salvaguardias de la Directiva sobre la toma de decisiones automatizada contra resultados discriminatorios para personas o grupos históricamente marginados. La tercera revisión en curso de la directiva propone un nuevo requisito que obliga al terminaciónLos implementadores deben cumplir con sus compromisos para lograr el impacto. Para cada compromiso, el Mecanismo de Informes Independientes (IRM) de OGP evalúa el grado en que las actividades describen... Más de un Análisis Basado en Género Plus durante el desarrollo de la modificación de un sistema automatizado. Esto fomentaría un enfoque interseccional para el diseño de proyectos de automatización, lo que permitiría a los departamentos considerar múltiples factores de identidad como el sexo, el género, la geografía y el idioma al evaluar los impactos potenciales de un sistema en las personas. El gobierno también está trabajando para expandir el AIA para evaluar los impactos potenciales de los proyectos de automatización en personas con discapacidadesUn gobierno no está abierto a menos que sea accesible para todos, y los gobiernos están trabajando para garantizar que las personas con discapacidades reciban servicios equitativos y oportunidades para participar. Especificaciones técnicas....
De manera similar, en el Reino Unido, las políticas deben someterse a una Evaluación de impacto en la igualdad, que puede ayudar a identificar oportunidades para promover mejor la igualdad o detectar posibles discriminaciones o efectos negativos de una política o servicio. Esto cubre una variedad de datos demográficos protegidos como la edad, la discapacidad, la reasignación de género, el matrimonio y la unión civil, el embarazo y la maternidad, la raza, la religión o las creencias, el sexo y la orientación sexual.
En Finlandia, aunque la ley existente protege la igualdad y la no discriminación, la primera evaluación del Programa de IA del gobierno pidió la adopción de pautas éticas para desarrollar algoritmos y arquitecturas para evitar sesgos y efectos adversos sobre la dignidad humana y la igualdad. Su compromiso propone la adopción de nuevos métodos de recopilación y uso de datos, el suministro de más datos gubernamentales abiertos de alta calidad, la revisión de regulaciones, la financiación de investigaciones interdisciplinarias a largo plazo sobre los riesgos de la IA, una mayor conciencia de la IA entre los empleados gubernamentales y debates públicos sobre AI.
Si bien las pautas y evaluaciones éticas pueden proporcionar información crítica sobre posibles oportunidades de inclusión o puntos ciegos en la IA, no son un fin en sí mismas. Los sistemas de IA, y los datos que los respaldan, también deben monitorearse regularmente para garantizar la calidad y que los resultados no estén inadvertidamente sesgados en contra de la demografía como las mujeres y las personas con diversidad de género.
3. Utilizar datos abiertosAl abrir los datos y hacerlos compartibles y reutilizables, los gobiernos pueden permitir un debate informado, una mejor toma de decisiones y el desarrollo de nuevos servicios innovadores. Especificaciones técnicas: Póliza... para lograr un diseño representativo y responsable teniendo en cuenta la privacidad y la gestión de datos
Una mejor información abierta y con información de género puede mejorar la toma de decisiones, la transparencia y la rendición de cuentas en torno a la formulación de políticas, los presupuestos y los servicios públicos. Esto incluye datos representativos que pueden alimentar algoritmos y mejorar los resultados de las decisiones automatizadas, junto con mejores datos generados por los ciudadanos. Por ejemplo, Finlandia está mejorando el acceso público a la información al mejorar la calidad y la usabilidad de los datos abiertos.
Cuándo y cómo usar, analizar y almacenar datos confidenciales, incluidos el sexo, el género y la orientación sexual, son consideraciones de privacidad constantes. Una posible solución propuesta por el Reino Unido es el uso de intermediarios de datos, socios de confianza que pueden facilitar el acceso y el intercambio de datos y apoyar a los gobiernos en la gestión de parte de este riesgo y la posible mitigación de sesgos. También pueden permitir que las personas y las entidades tengan una mayor comprensión de qué datos se recopilan y cuándo y cómo se utilizan.
Mirando hacia el futuro sobre la IA inclusiva
OGP continuará explorando esta intersección de igualdad de género, diseño y uso algorítmico equitativo, y gobernanza digitalA medida que las tecnologías en evolución presentan nuevas oportunidades para que los gobiernos y los ciudadanos promuevan la apertura y la responsabilidad, los gobiernos participantes de OGP están trabajando para crear políticas que aborden el... Más con Open Algorithms Network y socios de gobierno abierto. Juntos, intentaremos identificar intervenciones que se puedan adaptar y compartir en toda la Alianza y más allá para el desarrollo de compromisos basados en género sobre políticas algorítmicas y aprender cómo los procesos de gobierno abierto pueden apoyar mejor el diseño conjunto del uso y la regulación de algoritmos que conducir a políticas y prácticas más equitativas.
En todo el mundo, las instituciones del sector público están explorando cada vez más el uso de algoritmos con el fin de mejorar el diseño de políticas públicas y la toma de decisiones con base en datos. Estos sistemas tienen un gran potencial para ayudar a reducir el sesgo de género y para diseñar intervenciones de política que ayuden a cerrar las brechas sobre las políticas de acceso financiero, contratación, salud o educación, además de abrir el diseño de las contrataciones y la toma de decisiones.
Sin embargo, los datos pueden utilizarse, activa o involuntariamente para diseñar o programar a los algoritmos de manera que discriminen a las mujeres, niñas y personas no binarias y que no puedan ser elegibles para recibir un servicio, beneficio o préstamos. Los gobiernos y la sociedad civil están trabajando en entender mejor los impactos diferenciados por género de los algoritmos en los procesos de gobierno abierto y reducir los sesgos humanos de género, raza, etnia, clase, edad y otros grupos demográficos, y poder así atenderlos.
En la más reciente reunión de la Red de Algoritmos Abiertos, sus miembros se reunieron para discutir la intersección de la inclusión, gobierno abierto e inteligencia artificial (IA). Esta reunión fue copresidida por el Gobierno de Canadá, con participación de los Gobiernos de Estonia, Noruega, el Reino Unido y Escocia, así como representantes de la sociedad civil. Muchos de los participantes están empezando a considerar los temas de equidad, sesgo y discriminiación en los compromisos sobre algoritmos que han incorporado en sus planes de acción y en las estrategias de IA de sus gobiernos. Muchos de los compromisos están fundamentados en la idea que la apertura de los datos y el diseño de algoritmos puede reducir los sesgos y la discriminiación y que los procesos de colecta de datos y el diseño son tan importantes como el resultado. Como lo describe el plan de acción de Escocia, “la forma en la que los servicios públicos toman decisiones a través del uso de datos es tan importante como los datos publicados. Esto incluye el uso de inteligencia artificial confiable, ética e incluyente, como lo plantea la estrategia de IA de Escocia. Por ejemplo, Finlandia elaborará una serie de pautas éticas que permitirán al gobierno asegurar que los sistemas de IA no incluyan, directa o indirectamente, modelos discriminadores.
La transparencia de algoritmos es un compromiso emergente para los miembros de OGP (la mayoría de los compromisos han sido desarrollados en el norte global). Pocos de estos compromisos hacen referencia a género, sino más bien a la discriminación y sesgo en general. La IA es cada vez más disponible y cada vez se incorpora más en las políticas y procedimientos del gobierno, los actores de gobierno abierto deben ser conscientes de cualquier tema potencialmente discriminatorio desde el inicio e incorporar metodologías abiertas, transparentes y equitativas para ayudar a mitigarlas.
Los miembros de la Red de Algoritmos Abiertos recomiendan que los actores de gobierno abierto:
1. Abran las estrategias y proyectos de automatización al público para mejorar la transparencia y rendición de cuentas
Los miembros pueden buscar la oportunidad de establecer medidas, a través de políticas, leyes, regulaciones u otras reformas para impulsar la transparencia de los algoritmos. Esto puede lograrse a través de diseñar políticas y estrategias abiertas y accesibles al público; publicar información sobre los próximos proyectos o revisar, comentar y colaborar con las y los actores involucrados en el diseño y uso de los algoritmos.
En Canadá, la Dirección de Decisiones Automatizadas incluye diversos requisitos de transparencia, incluyendo la creación y publicación de una Evaluación de los Impactos de los Algoritmos (AIA por sus siglas en inglés); publicar explicaciones a las y los clientes o al público antes y después de tomar las decisiones; asegurar el acceso a los componentes del sistema (por ejemplo para auditorías o investigaciones); publicar el código fuente cuando sea apropiado y documentar las decisiones automatizadas. Aunque la dirección exige a los departamentos analizar los sistemas para asegurar que no incluyan sesgos no deseados, en ocasiones es difícil publicar los datos debido a riesgos de privacidad, seguridad o propiedad intelectual. Por ejemplo, la protección de la privacidad de un grupo podría entrar en conflicto con el análisis de los algoritmos en función de sesgos, proceso que podría involucrar información sensible sobre las personas impactadas por la automatización. Ya existen algunas estrategias para anonimizar este tipo de datos, pero esta tensión puede representar un reto al avance de la transparencia de los algoritmos en el sector público.
Otra oportunidad es vincular las estrategias o políticas nacionales acerca del uso de algoritmos con los compromisos de OGP para mejorar la participación y consulta ciudadana, como lo han hecho algunos miembros como Escocia y Canadá. El Gobierno de Escocia ha abierto los programas de algoritmos a través de espacios públicos como el reto sobre IA y discapacidades y acceso incluyente a los servicios públicos.
2. Incorporen análisis desde el inicio del proceso de diseño para conocer las posibles diferencias de género o inclusión y analizar que no incluyan sesgos no deseados
Existen evaluaciones y pautas que pueden ayudar al sector público a identificar y mitigar riesgos de discriminación y otras formas de desigualdad durante la fase de diseño de los proyectos. Ejemplos de estas herramientas son las evaluaciones de género como la herramienta GBA Plus de Canadá, análisis de política económica y las evaluaciones de impacto sobre los derechos humanos, por mencionar algunas. Los miembros acordaron que el mejor momento para el uso de estas herramientas es al inicio de los procesos y a lo largo de la vida de las políticas o programas.
El Gobierno de Canadá está trabajando en fortalecer las salvaguardas de la Dirección de Automatización que protegen contra la discriminación en contra de grupos y peronas históricamente marginadas. Actualmente, la directiva está realizando una tercera revisión y proponiendo un nuevo requisito que exija el uso de la herramienta de análisis de género durante el desarrollo o modificación de los sistemas automatizados. Esto podría ayudar a incorporar una estrategia interseccional al diseño de los proyectos de automatización, de manera que los departamentos sean capaces de considerar diferentes factores de identidad como el sexo, género o geografía e idioma cuando analicen los impactos potenciales de los sistemas en laspersonas. Además, el Gobierno está trabajando en ampliar la AIA para evaluar los impactos potenciales de los proyectos de automatización en las personas con discapacidades.
Asimismo, en el Reino Unido, las políticas tienen que ser evaluadas por su impacto en la equidad con el fin de identificar oportunidades para promover la equidad o identificar posibles acciones discriminatorias o impactos negativos de las políticas o servicios. Lo anterior abarca una variedad de grupos protegidos por razones como edad, discapacidades, reasignación de género, matrimonio y estado civil, embarazo y maternidad, raza, religión o creencia, sexo y orientación sexual.
En Finlandia, aunque las leyes protegen la equidad y la no discriminación, el primer programa del Gobierno para la evaluación de los programas de IA incluyó la adopción de pautas éitcas para el desarrollo de algoritmos y sistemas que eliminen sesgos e impactos negativos en la dignidad y equidad humana. Este compromiso propone la adopción de nuevos métodos para la colecta y uso de datos, la publicación de datos de gobierno abierto de mayor calidad, la revisión de las regulaciones, el financiamiento de investigaciones interdisciplinarias de largo plazo sobre los riesgos de la IA, la sensibilización sobre la IA entre las y los funcionarios y discusiones públicas sobre la IA.
Aunque la adopción de pautas éticas y evaluaciones puede generar información clave para la posible inclusión de oportunidades o puntos ciegos en la IA es útil, éstas no son un fin en sí mismas. Los sistemas de IA, así como los datos subyacentes, también deben ser monitoreados regularmente para asegurar su calidad y que sus resultados no incluyan sesgos en contra de grupos como las mujeres o personas sexualmente diversas.
3. Usen datos abiertos para lograr un diseño representativo y capaz de rendir cuentas en las consideraciones de privacidad y manejo de datos
Los datos abiertos y con información de género pueden ayudar a mejorar la toma de decisiones, transparencia y rendición de cuentas alrededor de las políticas públicas, presupuestos y servicios públicos. Lo anterior incluye datos representativos en el diseño de algoritmos y mejores resultados de las decisiones automatizadas, además de datos generados por la ciudadanía. Por ejemplo, Finlandia está mejorando el acceso a la información a través de mejorar la calidad y usabilidad de los datos abiertos.
Cuándo y cómo utilizar, analizar y almacenar datos sensibles, por ejemplo de sexo, género y orientación sexual, siguen siendo temas en discusión. Una posible solución propuesta por el Reino Unido es el uso de intermediarios de datos, es decir socios confiables que puedan facilitar el acceso y distribución de los datos para manejar en cierta medida este riesgo y posiblemente mitigar los riesgos de sesgos. Además, pueden ayudar a las personas y entidades a tener mayor información sobre qué datos se colectan y cómo y cuándo se utilizan.
El futuro de la inteligencia artificial incluyente
OGP seguirá estudiando la intersección de la equidad de género, diseño y uso equitativo de los algoritmos y la gobernanza digital a través de la Red de Algoritmos Abiertos y sus socios. Juntas y juntos, identificaremos intervenciones que podrán ser compartidas con los miembros de la Alianza y otros países para el desarrollo de compromisos con enfoque de género sobre políticas de algoritmos y entender cómo los procesos de gobierno abierto pueden apoyar el codiseño, uso y regulación de los algoritmos para llevar a políticas y prácticas más equitativas.
Comentarios (1)
Deje un comentario
Más información

Algoritmos y derechos humanos: comprensión de sus impactos
Las evaluaciones de impacto algorítmico en derechos humanos han surgido como una herramienta de rendición de cuentas para identificar daños potenciales, mitigar impactos no deseados e informar decisiones políticas sobre el uso de algoritmos en políticas clave...

Gobernanza digital en OGP
Los países de OGP están aprovechando las oportunidades de la tecnología en evolución, como la inteligencia artificial, los algoritmos basados en datos y las redes sociales masivas, al tiempo que desarrollan políticas para hacer frente a las amenazas, incluida la desinformación, ...

Género en OGP
Los reformadores del gobierno abierto están uniendo fuerzas con los defensores del género y la inclusión en toda la Alianza para reconocer y responder mejor a las realidades vividas por las mujeres, las niñas y las personas en todo el...
Prof. Thuli Madonsela Responder
Este es un desarrollo alentador. En el Centro para la Justicia Social de la Universidad de Stellenbosch (SU), hemos estado abogando por el uso de datos suficientemente desagregados para la evaluación prospectiva del impacto en la justicia social o la igualdad de las leyes, políticas y esquemas sociales planificados en el punto de diseño, además de la normal evaluaciones de impacto realizadas durante y después de la implementación. Las dispares medidas de contención de Covid-19, como el bloqueo y los paquetes de apoyo socioeconómico compensatorio, han sido un regalo para resaltar la importancia de las evaluaciones de impacto prospectivas. Este propósito y todos los procesos y las medidas de aprovechamiento de la IA requieren datos adecuadamente desagregados y aprendizaje automático en sintonía con la equidad. Nos encantaría colaborar.