Saltar navegación

Responsabilidad algorítmica para el sector público

cubrir-puntos

Los programas Instituto Ada Lovelace (Ada), Instituto AI Now (AI Now) y Open Government Partnership (OGP) se han asociado para lanzar el primer estudio global para analizar la ola inicial de políticas de responsabilidad algorítmica para el sector público. 

A medida que los gobiernos recurren cada vez más a los algoritmos para respaldar la toma de decisiones para los servicios públicos, existe una creciente evidencia que sugiere que estos sistemas pueden causar daño y, con frecuencia, carecen de transparencia en su implementación. Los reformadores dentro y fuera del gobierno están recurriendo a herramientas normativas y políticas, con la esperanza de garantizar la responsabilidad algorítmica en todos los países y contextos. Estas respuestas son emergentes y cambian rápidamente, y varían ampliamente en forma y sustancia, desde compromisos jurídicamente vinculantes hasta principios de alto nivel y directrices voluntarias.

Este informe presenta evidencia sobre el uso de políticas de responsabilidad algorítmica en diferentes contextos desde la perspectiva de quienes implementan estas herramientas, y explora los límites de los mecanismos legales y políticos para garantizar sistemas algorítmicos seguros y responsables. 

Lea el resumen ejecutivo para conocer los hallazgos clave y el informe completo para obtener más detalles sobre estos hallazgos y estudios de casos prácticos de las políticas implementadas.

Descargas

Comentarios (1)

Susan Dolan Responder

Las discusiones sobre la política de rendición de cuentas son bastante limitadas en este momento y surgirán muchos problemas a medida que aumente el uso del sector público. La rendición de cuentas en una jurisdicción puede no cubrir la rendición de cuentas en todas.

Déjanos un Comentario

Tu dirección de correo electrónico no será publicada.

Open Government Partnership