Ignorer la navigation

Algorithmes ouverts: expériences de France, des Pays-Bas et de Nouvelle-Zélande

Algoritmos abiertos: Las experiencias de Francia, Países Bajos y Nueva Zelanda

Helen Turek|

Cet article fait partie de la «série de blogs sur les algorithmes ouverts» de l'OGP. Lire les autres articles de la série ici.

Les algorithmes - des systèmes analytiques qui traitent les données et complètent ou remplacent la prise de décision précédemment entreprise par les gens - sont devenus un moyen essentiel pour les gouvernements d'améliorer la prestation des services publics et la mise en œuvre des politiques. De plus en plus, les gouvernements utilisent des algorithmes pour prendre des décisions qui ont un impact concret sur la vie des gens, de l'attribution des transplantations cardiaques au pourvoi de postes vacants dans les garderies.

Il est crucial que les citoyens puissent accéder à des informations sur la façon dont ces décisions sont prises et quelles données sont utilisées pour construire ces algorithmes, et avoir le savoir-faire et l'opportunité de contester les processus automatisés. Des cas, tels qu'un programme pilote d'immigration utilisé en Nouvelle-Zélande et aux Pays-Bas Indication des risques du système (SyRI) profite au système de détection des fraudes, montre à quel point il est important d'intégrer transparence, responsabilité, droits numériques et engagement des utilisateurs dans le gouvernement prise de décision automatisée procédés. 

Le mois dernier, le Open Government Partnership (OGP) a organisé un échange en ligne de fonctionnaires de trois agences d'exécution du partenariat: Etalab du gouvernement de la France, Association des municipalités des Pays-Bas, et le Responsable des données du gouvernement du gouvernement de la Nouvelle-Zélande, d'échanger des expériences et de creuser certains des défis liés à l'ouverture des algorithmes à l'examen du public. Voici quelques points saillants de la discussion:

 

Communiquer la complexité

Nous savons de la données ouvertes mouvement que la transparence est insuffisante - un vidage de données sur un portail n'a pas de sens sans une sensibilisation suffisante, l'éducation et la participation. Le même principe s'applique aux algorithmes.

Nous devons permettre aux citoyens d'exercer leurs droits et de tenir leurs gouvernements responsables de l'utilisation des algorithmes. Mais il n'y a pas encore une large compréhension de ce que sont les algorithmes, ni de la façon dont ils pourraient être utilisés dans la prise de décision publique. De plus, il est peu probable qu'une personne moyenne ait les connaissances techniques ou le temps nécessaires pour examiner le code source ou interpréter un ensemble de données. Dans cette optique, il peut être plus utile de concentrer l'engagement du public et les discussions sur des études de cas spécifiques et des questions relatives au partage des données et au consentement. 

En tant que membre de l'organisation Engagement OGP des Pays-Bas sur les algorithmes ouverts, les réformateurs ont réuni 150 personnes de tous horizons, y compris la société civile, les artistes et les scientifiques, pour sensibiliser et parler de l'utilisation des algorithmes par le gouvernement. Aditionellement, une interview avec les décideurs a été publiée pour aider à la compréhension du public. Ces efforts du gouvernement peuvent être soutenus par un activisme accru de la part de la société civile pour aider à démontrer la valeur de l'ouverture des algorithmes.

Il est également important de saisir l'opportunité d'un intérêt public accru, qui peut émerger à la suite de scandales, ou comme nous le voyons actuellement au milieu de la pandémie. COVID-19 présente une opportunité claire d'éduquer les citoyens sur leurs droits numériques, étant donné l'accent actuel sur la confidentialité et l'utilisation des données en relation avec les applications de suivi et de traçage.

 

Renforcer les capacités du gouvernement

Ce ne sont pas seulement les citoyens qui ont besoin de plus d'informations et de connaissances sur les algorithmes. Au sein du gouvernement, il est également nécessaire de former et de doter les fonctionnaires de l'expertise appropriée, ainsi que de mieux faire connaître les avantages et l'importance de procédures complexes supplémentaires, telles que les évaluations d'impact. C'est pourquoi les trois pays ont élaboré des orientations pour aider les gouvernements et les fonctionnaires à naviguer dans l'utilisation responsable des algorithmes (France, Netherlands et New Zealand). Etalab en France a également travaillé pour soutenir les agences gouvernementales dans la mise en œuvre du cadre juridique qui soutient responsabilité et transparence des algorithmes du secteur public.

 

Surfaçage et adressage du biais

Toutes les données, et donc tous les algorithmes, contiennent des biais. La clé est de comprendre où les biais pourraient se trouver, et comment gérer les données et leur traitement de manière équitable et conformément aux attentes de la communauté. La formation à l'éthique des données pour les fonctionnaires est cruciale et pourrait être accompagnée par des groupes consultatifs d'experts, tels que celui créé en New Zealand, afin d'aider à gérer les risques et à définir les responsabilités. 

 

Élaboration de normes internationales

À mesure que l'utilisation des algorithmes par le gouvernement augmente, il y a de plus en plus de discussions sur les normes internationales et sur la façon de concilier les différentes approches et de trouver des points communs. Les normes peuvent être plus efficaces si elles sont accompagnées d'un organisme professionnel de responsabilisation et de mécanismes de réclamation, soulignés par un cadre juridique approprié. S'il existe un intérêt plus large, l'OGP pourrait travailler avec des partenaires pour commencer à examiner les normes existantes (par exemple, Principes de l'OCDE sur l'IA), et d'autres ressources, inventaires (par ex. Inventaire mondial des directives d'éthique de l'IA d'Algorithm Watch), des lignes directrices et des cas d'utilisation concrets, pour aider à identifier ce qui a fonctionné ou non.

 

Prochaines étapes

Etalab, l'Association des municipalités des Pays-Bas et le responsable des données du gouvernement néo-zélandais étudient les moyens de poursuivre leurs discussions productives. L'OGP souhaite également engager un groupe plus large de gouvernements, de la société civile et de partenaires internationaux d'autres régions pour faire avancer cette discussion, et explorer d'autres questions telles que la transparence et la responsabilité des marchés publics d'algorithmes et de systèmes d'IA, comment aborder les évaluations d'impact, et comment ce sujet est lié à COVID-19. Surveillez cet endroit!

 

FRANCE

Ce qu'ils font
Etalab s'est concentré sur la manière d'aider les agences à remplir leurs obligations légales en termes d'explicabilité et de transparence. Dans ce contexte, Etalab a produit deux documents d'orientation pour les agences: une sur l’ouverture des codes sources publics et une sur cadre juridique de responsabilisation et de transparence des algorithmes du secteur public. Leur travail s'appuie également sur des études de cas spécifiques auprès des agences d'accompagnement. 
En juin 2019, Etalab a écrit un document décrivant leur approche.
Cadre législatif?
Oui - le 2016 'Loi pour une République numérique», a introduit de nouvelles dispositions concernant les algorithmes publics. Ces dispositions visent à introduire une plus grande transparence et responsabilisation de l'administration dans l'utilisation de ces systèmes, en particulier lorsqu'ils sont utilisés pour prendre des décisions.
OGP Engagement
«Améliorer la transparence des algorithmes publics et des codes sources», engagement n ° 6, AP 2018-2020


PAYS-BAS

Ce qu'ils font
Le ministère de la Justice et de la Sécurité et le ministère de l'Intérieur, entre autres, lignes directrices publiées sur l'utilisation d'algorithmes par le gouvernement, avec les valeurs publiques comme objectif important.En 2013, j'ai nommé Ambassadeur Amina C. Mohamed, mon secrétaire du Cabinet (Ministre) du Ministère des Affaires étrangères et du Commerce international. Depuis lors, l'Ambassadeur Mohamed a dirigé avec brio notre action diplomatique. Nous avons bénéficié énormément de ses démarches tant régionalesqu’internationales d'importance à la fois nationale et continentale. un article a été menée sur la surveillance de l'utilisation des algorithmes par le gouvernement. La Chambre nationale des comptes néerlandaise a été recherche l'utilisation d'algorithmes dans le secteur public depuis février 2020. Le gouvernement néerlandais envisage une approche à trois niveaux, examinant l'utilisation, la mise en œuvre et l'adoption d'algorithmes ouverts.
Cadre législatif?
Non
Engagement de l'OGP
«Algorithmes ouverts», engagement n ° 6, AP 2018-2020


NOUVELLE-ZÉLANDE

Ce qu'ils font
En 2018, le Chief Data Steward du gouvernement et le commissaire à la protection de la vie privée ont publié le Principes pour une utilisation sûre et efficace des données et des analyses pour guider les pratiques des agences gouvernementales.En octobre 2018, le gouvernement a publié un bilan des algorithmes opérationnels utilisés par les agences gouvernementales.En juin 2019, le responsable en chef des données du gouvernement a convoqué un Groupe consultatif sur l'éthique des données et en octobre 2019, a annoncé une consultation publique sur charte d'algorithme proposée pour les agences gouvernementales.
Cadre législatif?
Non
Engagement de l'OGP
«Examen de l'utilisation des algorithmes par le gouvernement», engagement n ° 8, AP 2018-2020

Téléchargez les exemples au format PDF ici.

Crédit photo en vedette: Unsplash

Commentaires (2)

Alex Cooper Répondre

La politique peut-elle être décidée par un algorithme?
Quelle boussole morale est intégrée dans les algorithmes?
Ouvrir les algorithmes à un examen public (expert) ne revient pas à rendre des comptes.
Déléguer les décisions à un système automatisé signifie moins de responsabilité, pas plus. Les fonctionnaires peuvent dire "ce n'était pas moi, a décidé l'ordinateur"
Et cela signifie aussi MOINS CITOYENNE PARTICIPATION dans la prise de décision, pas plus. Pourquoi consulter des gens quand tout ce que vous avez à faire est de collecter des données et de les introduire dans la machine?
Cependant, tout ce dont nous parlons ici est la détection de modèles dans la détection de la fraude aux prestations? Les exemples sont sommaires - un programme d'immigration pilote signifie quoi? Un système pour compter le nombre de points dont dispose une personne pour décider d’autoriser ou non la citoyenneté? N'est-ce pas appelé une calculatrice? Ou le système sera-t-il autorisé à retirer des points à certaines personnes qu'il n'aime pas et à attribuer des points bonus à d'autres - en fonction de quoi?
Les détails de ces systèmes n'ont pas d'importance si les principes qui les sous-tendent sont défectueux.
charter2019.fr

Diego Cota Répondre

Alex, quizás convenga un modelo híbrido. Donde un algoritmo imparcialmente seleccione a las personas que tengan injerencia en la decisión a tomarse. Puede comenzar con decisiones hiper-locales y hacer un goteo progressual hacia macro decisiones. Por ejemplo, si un gobierno estatal decide incluir en su plan la construcción de una avenida para desfogar el tráfico de un sector particular de la ciudad, el algoritmo pudiera seleccionar los ingenieros viales, civiles, ciudadanos afectados por la expropiación de terrenosas, propietarios cercanas a la avenida, propietarios de établis que pudieran ser mermados en sus ventas durante la construction, etc. Y hacer modearación de las alternativas presentadas entre los participantes. De esa manera se focaliza la capacidad de decisión entre los afectados directos. Cuando ocurre un consenso, el proyecto se “gradúa” y compite por la asignación de recursos vs. otros proyectos en igualdad de circunstancias. ¿Hace sentido?

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *

Open Government Partnership