Saltar navegación

Responsabilidad algorítmica para el sector público

cubrir-puntos

Al Instituto Ada Lovelace (Ada), Instituto AI Now (AI Now)y Open Government Partnership (OGP) se han asociado para lanzar el primer estudio global para analizar la ola inicial de políticas de responsabilidad algorítmica para el sector público. 

A medida que los gobiernos recurren cada vez más a algoritmos para respaldar la toma de decisiones para los servicios públicos, existe una evidencia creciente que sugiere que estos sistemas pueden causar daños y, con frecuencia, carecen de transparencia en su implementación. Los reformadores dentro y fuera del gobierno están recurriendo a herramientas normativas y políticas, con la esperanza de garantizar la responsabilidad algorítmica en todos los países y contextos. Estas respuestas son emergentes y están cambiando rápidamente, y varían ampliamente en forma y contenido, desde compromisos jurídicamente vinculantes hasta principios de alto nivel y directrices voluntarias.

Este informe presenta evidencia sobre el uso de políticas de responsabilidad algorítmica en diferentes contextos desde la perspectiva de quienes implementan estas herramientas, y explora los límites de los mecanismos legales y políticos para garantizar sistemas algorítmicos seguros y responsables. 

Lea el resumen ejecutivo para conocer los hallazgos clave y el informe completo para obtener más detalles sobre estos hallazgos y estudios de casos prácticos de las políticas implementadas.

Descargas

Comentarios (1)

Susan Dolan Responder

Las discusiones sobre la política de rendición de cuentas son bastante limitadas en este momento y surgirán muchos problemas a medida que aumente el uso del sector público. La rendición de cuentas en una jurisdicción puede no cubrir la rendición de cuentas en todas.

Deje su comentario.

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados *

Open Government Partnership