Ignorer la navigation

Réflexions sur la mise en œuvre de la politique algorithmique du secteur public

Reflexiones sobre la implementación de las políticas de algoritmos en el sector público

heylagostechie-IgUR1iX0mqM-unsplash
Tonusree Basuet laPaula Perez|

Cet article fait partie de la «série de blogs sur les algorithmes ouverts» de l'OGP. Lire les autres articles de la série ici.

Au cours des dernières années, le mode de fonctionnement des gouvernements a subi une transformation significative, avec davantage de services numérisés pour une prestation efficace et efficiente. Les agences gouvernementales utilisent de plus en plus des algorithmes et des données sophistiqués pour la prise de décision publique sur des questions liées à la santé, à l'éducation, à la migration et à d'autres domaines politiques clés. Il est essentiel de rendre l'utilisation des algorithmes par le secteur public plus transparente et plus responsable pour garantir que les technologies numériques ne sont pas utilisées à mauvais escient et que les droits des utilisateurs et des citoyens, y compris l'utilisation des données personnelles de manière éthique, sont protégés. 

Intérêt public accru pour l'utilisation d'algorithmes pour la prise de décision publique, qui peut émerger à la suite de scandales tels que Algorithmes SyRI aux Pays-Bas et algorithmes de notation d'examen au Royaume-Uni, ils sont préoccupants, mais constituent également une opportunité précieuse de sensibiliser au sein et à l'extérieur du gouvernement à l'importance d'accroître la transparence et la responsabilité publique des algorithmes. 

Plusieurs membres de l'OGP, dont la France, les Pays-Bas et la Nouvelle-Zélande, utilisent désormais leurs plans d'action OGP pour faire progresser la transparence, la participation et la responsabilité des algorithmes gouvernementaux. En novembre 2020, l'OGP a organisé un échange en ligne avec des représentants gouvernementaux d'agences d'exécution du Canada, de France, de Nouvelle-Zélande et du Royaume-Uni. Ce réseau s'est réuni pour la première fois, en mai 2020 et continuera à se rassembler tous les trimestres, abordant diverses questions politiques liées à la responsabilité algorithmique. Ils seront rejoints par différents partenaires de la société civile et experts, en fonction du sujet de discussion.  

Cette discussion la plus récente s'est concentrée sur le partage d'expériences nationales sur la coordination intergouvernementale et le renforcement des capacités dans les agences gouvernementales compétentes pour soutenir la mise en œuvre de la responsabilité algorithmique. Le groupe a été rejoint par Amba Kak, directrice des politiques et programmes mondiaux à Institut AI Now de l'Université de New York, qui ont partagé des exemples de lacunes et de défis sur lesquels ils avaient consulté les gouvernements. Voici quelques-unes des questions de conception et de mise en œuvre mises en évidence dans la discussion: 

 

1. Portée et définition des algorithmes: Parvenir à une compréhension commune de la notion et de la portée d'une politique algorithmique est l'un des plus grands défis de conception de politique. Il n'y a pas de politique «universelle». Le contenu et la portée dépendent du service que le gouvernement fournit au public et des problèmes abordés - ce qui rend difficile l'adoption d'une approche plus large et la création de directives complètes pour les agences gouvernementales compétentes. Certaines des principales questions qui doivent être abordées lors de la conception de la responsabilité algorithmique sont:

  • Technologie vs impact: L'accent doit-il être mis sur la technologie utilisée ou sur l'impact (ou plutôt sur la décision)? Le groupe a noté qu'il était efficace de se concentrer sur l'impact pour déterminer les règles, plutôt que sur la technologie elle-même. En ce qui concerne les technologies à impliquer dans le périmètre, l'une des questions clés soulevées était les défis de définition de l'intelligence artificielle (IA). Ce qui a été observé, c'est que plusieurs instruments politiques utilisent la «prise de décision automatisée» comme terme générique plutôt que l'IA. Cela déplace l'attention sur la fonction, l'utilisation et l'impact de ces systèmes dans leur ensemble plutôt que sur des définitions plus étroites. Les autres questions clés sont les suivantes: Qu'est-ce qui devrait et ne devrait pas être considéré comme une exemption? Comment prendre en compte les principes de l'éthique des données?
  • Périmètre sectoriel: Doit-on prendre une portée large ou étroite? Quels secteurs devraient être couverts? Les praticiens ont identifié un chevauchement à la fois sectoriel et réglementaire dans la mise en œuvre des principes de conception. 
  • Design et la la mise en oeuvre: L'approche basée sur les risques convient-elle bien pour guider les agences sur ce sur quoi se concentrer? Comment pouvons-nous apporter la responsabilité algorithmique au conception d'algorithmes, et pas seulement dans la mise en œuvre? La plupart des fonctionnaires du groupe considèrent qu'il est tout aussi important d'intégrer ces principes aux deux étapes dans les ministères. L'un des principaux défis identifiés est de déterminer comment harmoniser les nouvelles réformes avec les cadres juridiques existants. Certains pays jugent utile de lier les réformes à leurs cadres préexistants d'éthique et de protection des données lorsqu'ils ont été co-créés avec la société civile et des experts. 

2. Mandaté par la loi, la politique ou une approche volontaire: L'application de la responsabilité algorithmique dans les différentes agences gouvernementales qui utilisent des algorithmes dans leur travail est également un aspect clé à considérer. Différents modèles sont en place:

  • Mandaté par la loi: La France a un cadre juridique exigeant des algorithmes ouverts, de sorte que la portée de la politique est définie dans la loi. Les administrations devraient publier en ligne une liste d'algorithmes lorsqu'ils sont utilisés pour prendre des décisions qui ont un impact sur la vie des citoyens. 
  • Mandaté par la politique: Le Canada a un La directive publié par le comité de surveillance des finances et des opérations du gouvernement fédéral, qui établit des exigences sur la façon dont les algorithmes peuvent être utilisés pour soutenir la prestation de services aux citoyens. Le respect de cette directive est obligatoire pour les ministères du gouvernement fédéral canadien.
  • Volontaire: En Nouvelle-Zélande, l'approche des algorithmes est basée sur un engagement public des agences gouvernementales et non sur une norme légale. Le pays a créé une charte d'algorithmes (y compris dans le cadre d'un Engagement de l'OGP) qui a fait l'objet d'une consultation publique et travaille actuellement à sa mise en œuvre. Comme dans toute approche volontaire, l'un des défis est que toutes les agences ne se sont pas engagées à mettre en œuvre la charte. Il est important de considérer que bon nombre de ces changements se produisent avant que les cadres juridiques ne soient établis. C'est une contrainte mais aussi une opportunité qui a permis des mouvements plus rapides et plus agiles. Tester des approches pour la responsabilité algorithmique au sein du secteur public semble possible.

3. Responsabilité des agences dédiées

L'un des défis mis en évidence par le groupe était la mise en œuvre de la responsabilité de la prise de décision algorithmique dans les contextes où la prestation de services se faisait à travers une chaîne de départements différents, chacun avec des mandats différents et responsable de différents éléments de la chaîne de prestation. Dans de tels cas, il est possible que différentes agences soient responsables de la collecte des données et d'autres de l'utilisation des données. Alors que certains utilisent les données pour les processus internes du gouvernement, d'autres sont axés sur la prestation de services. Par conséquent, l'une des principales questions politiques qui se pose est de savoir à quelles étapes les outils et mesures de responsabilisation devraient être mis en place.

Le changement de culture entre les services gouvernementaux est un autre défi qui a été identifié: au départ, on pensait que la mise en œuvre des technologies numériques nécessitait uniquement les services informatiques. Nous avons maintenant appris qu'il est nécessaire d'adopter une approche multidisciplinaire qui inclut les aspects juridiques, de confidentialité, d'impact, de conception centrée sur l'utilisateur et de livraison.

D'autres défis sont que ces agences ont des priorités politiques concurrentes et gèrent des ressources limitées, ce qui augmente la nécessité de trouver un équilibre entre ce qui est utile et ce qui peut être humainement exigé d'elles. Il existe également une perspective selon laquelle consacrer des ressources à la transparence et à la responsabilité peut se faire au détriment de l'innovation.

4. Canaux d'engagement

Certains des gouvernements participants ont pris contact de manière proactive avec les agences compétentes ou ont mis en place des groupes de travail pour coordonner les travaux intra-gouvernementaux. Par exemple:

  • Etalab en France a mis en place un groupe de travail avec des agences gouvernementales compétentes, y compris des gouvernements locaux. 
  • En Nouvelle-Zélande, Stats NZ et le responsable gouvernemental des données ont établi des liens avec les agences compétentes pour promouvoir l'application de la Charte des algorithmes et travaillent avec les plus grandes agences du pays pour coordonner sa mise en œuvre. Au total, 26 organisations gouvernementales ont adhéré à la Charte des algorithmes. 
  • Lors de la rédaction de sa Directive sur la prise de décision automatisée, le Canada a tenu des consultations dans différentes villes du pays avec des représentants du gouvernement, des universitaires, des experts juridiques et la société civile. 

La pertinence de communiquer l'importance des algorithmes et leur utilisation au public et aux collègues fonctionnaires est également essentielle. Le gouvernement français, par exemple, a créé un court vidéo pour expliquer un algorithme.    

Prochaines étapes

Ce groupe continuera à se réunir en 2021 et à impliquer un groupe plus large de gouvernements, de la société civile et de partenaires internationaux d'autres régions pour faire avancer cette discussion. Nous explorerons également les questions relatives à la transparence et à la responsabilité des marchés publics d'algorithmes et de systèmes d'IA, aux biais algorithmiques, aux systèmes de responsabilité, aux normes internationales et aux cas d'utilisation concrets.

 

Crédit d'image en vedette: Lagos Techie via Unsplash

Pas encore de commentaires

Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *

contenu similaire

Vignette pour les algorithmes ouverts: expériences de France, des Pays-Bas et de Nouvelle-Zélande Défis et solutions

Algorithmes ouverts: expériences de France, des Pays-Bas et de Nouvelle-Zélande

Les algorithmes - des systèmes analytiques qui traitent les données et complètent ou remplacent la prise de décision précédemment entreprise par les gens - sont devenus un moyen essentiel pour les gouvernements d'améliorer la prestation des services publics…

Vignette pour un guide sur le gouvernement ouvert et le coronavirus: protections de la vie privée

Un guide pour un gouvernement ouvert et le coronavirus: protection de la vie privée

Les gouvernements collectent des quantités sans précédent de données personnelles pour soutenir les efforts vitaux de santé publique, tels que le suivi de la transmission du COVID-19 et l'application de la quarantaine. En particulier, les gouvernements et les entreprises collectent et…

Vignette pour cinq innovations gouvernementales reconnues pour leur travail d'ouverture du gouvernement

Cinq innovations gouvernementales reconnues pour leur travail d'ouverture du gouvernement

Cinq réformes de gouvernement ouvert de Lettonie, du Mexique, de Nouvelle-Zélande, de la ville de Buenos Aires, d'Argentine et de l'État de Kaduna, au Nigéria ont été reconnues ...

NE PAS suivre ce lien ou vous serez interdit sur le site!