Ignorer la navigation

Responsabilité algorithmique pour le secteur public

points de couverture

L'équipe de Institut Ada Lovelace (Ada), Institut AI Now (AI Now)ainsi que Open Government Partnership (OGP) se sont associés pour lancer la première étude mondiale visant à analyser la première vague de politique de responsabilité algorithmique pour le secteur public. 

Alors que les gouvernements se tournent de plus en plus vers des algorithmes pour soutenir la prise de décision pour les services publics, de plus en plus de preuves suggèrent que ces systèmes peuvent causer des dommages et manquent souvent de transparence dans leur mise en œuvre. Les réformateurs à l'intérieur et à l'extérieur du gouvernement se tournent vers des outils réglementaires et politiques, dans l'espoir d'assurer la responsabilité algorithmique dans tous les pays et contextes. Ces réponses sont émergentes et évoluent rapidement, et elles varient considérablement dans la forme et le fond – des engagements juridiquement contraignants aux principes de haut niveau et aux lignes directrices volontaires.

Ce rapport présente des preuves sur l'utilisation de politiques de responsabilité algorithmique dans différents contextes du point de vue de ceux qui mettent en œuvre ces outils, et explore les limites des mécanismes juridiques et politiques pour garantir des systèmes algorithmiques sûrs et responsables. 

Lisez le résumé pour les principales conclusions et le rapport complet pour plus de détails sur ces conclusions et des études de cas pratiques des politiques mises en œuvre.

Télécharger

Commentaires (1)

Susan Dolan Répondre

Les discussions sur la politique de responsabilisation sont assez limitées à l'heure actuelle et de nombreux problèmes surgiront à mesure que l'utilisation du secteur public augmentera. L'imputabilité dans une juridiction peut ne pas couvrir l'imputabilité dans l'ensemble.

Laissez un commentaire

Votre adresse email n'apparaîtra pas. Les champs obligatoires sont marqués *

Open Government Partnership