Ignorer la navigation

Responsabilité algorithmique pour le secteur public

points de couverture

La Institut Ada Lovelace (Ada), Institut AI Now (AI Now)et Open Government Partnership (OGP) se sont associés pour lancer la première étude mondiale visant à analyser la première vague de politique de responsabilité algorithmique pour le secteur public. 

Alors que les gouvernements se tournent de plus en plus vers les algorithmes pour soutenir la prise de décision pour les services publics, il existe de plus en plus de preuves suggérant que ces systèmes peuvent causer des dommages et manquent souvent transparence dans leur mise en œuvre. Les réformateurs à l'intérieur et à l'extérieur du gouvernement se tournent vers des outils réglementaires et politiques, dans l'espoir d'assurer la responsabilité algorithmique à travers les pays et les contextes. Ces réponses sont émergentes et évoluent rapidement, et elles varient considérablement dans leur forme et leur substance – des engagements juridiquement contraignants aux principes de haut niveau et aux directives volontaires.

Ce rapport présente des preuves sur l'utilisation de politiques de responsabilité algorithmique dans différents contextes du point de vue de ceux qui mettent en œuvre ces outils, et explore les limites des mécanismes juridiques et politiques pour garantir des systèmes algorithmiques sûrs et responsables. 

Lisez le résumé pour les principales conclusions et le rapport complet pour plus de détails sur ces conclusions et des études de cas pratiques des politiques mises en œuvre.

Télécharger

Commentaires (1)

Susan Dolan Répondre

Les discussions sur la politique de responsabilisation sont assez limitées à l'heure actuelle et de nombreux problèmes surgiront à mesure que l'utilisation du secteur public augmentera. L'imputabilité dans une juridiction peut ne pas couvrir l'imputabilité dans l'ensemble.

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *

Open Government Partnership