Ignorer la navigation

Le Réseau d'algorithmes ouverts est de retour ! Trois méthodes pour accroître la transparence algorithmique pour les particuliers

Sarah Kennedy|

Les gouvernements utilisent des algorithmes pour améliorer la rentabilité et prestation de services publics. Cependant, la création d'outils numériques robustes, notamment pour la prise de décision, nécessite de renforcer les systèmes humains qui les entourent. Pour ce faire, les gouvernements devraient intégrer une approche de gouvernement ouvert avec transparence et la responsabilité au cœur de la conception et de la mise en œuvre algorithmiques.

Au cours des cinq dernières années, les algorithmes sont devenus omniprésents et le nombre de gouvernements qui les utilisent ou prévoient de les utiliser dans la prestation de services a explosé. En tant que mécanisme de dialogue multipartite, l'OGP est bien placé pour servir d'espace de discussion qui dépasse les mots à la mode et se concentre sur la mise en œuvre de réformes axées sur les valeurs du gouvernement ouvert. C'est pourquoi l'OGP a relancé le Réseau d'algorithmes ouverts cette année pour les fonctionnaires qui mettent en œuvre des réformes en matière de transparence et de responsabilité algorithmiques.

En mars, la première réunion trimestrielle du réseau s’est concentrée sur le thème de la transparence au niveau individuel.

La transparence individuelle se distingue de la transparence systémique, où le système global est rendu transparent, par exemple via des registres d'algorithmes, une documentation technique telle que des fiches techniques et des fiches modèles, ou la publication du code source du système algorithmique. La transparence individuelle vise à fournir une transparence et des explications ciblées aux personnes soumises à la prise de décision algorithmique. Ces pratiques peuvent prendre diverses formes, allant de la notification de l'utilisation d'un algorithme à l'explication individuelle d'un résultat particulier.

De tels mécanismes sont présents dans réglementationPar exemple, le Règlement général sur la protection des données (RGPD) de l'UE exige que les responsables du traitement des données utilisant des systèmes algorithmiques automatisés fournissent un avis et, dans certains cas, des explications aux personnes concernées par les résultats des décisions prises par algorithme. La loi européenne sur l'IA introduit également de nouvelles exigences en matière de transparence et d'explication. Ces exigences se retrouvent également dans les législations nationales, comme la loi canadienne. Prise de décision automatisée Directive et loi pour une République numérique.

Au cours de la première réunion, trois points majeurs sont ressortis des discussions.

La transparence au niveau individuel nécessite une communication accessible et significative

En France, le RGPD et la loi nationale sur la transparence des algorithmes du secteur public imposent des obligations en matière de prise de décision automatisée. Les bénéficiaires d'un service public doivent être informés de l'utilisation d'un algorithme pour prendre ou étayer une décision, de leurs droits (droit de contestation, droit d'accès aux données, etc.) et de la manière dont l'algorithme a été utilisé dans le processus décisionnel. Pour mettre en œuvre cette mesure, la Direction du numérique (DINUM) a testé une nouvelle méthode d'information des citoyens sur les décisions algorithmiques : l'envoi de notifications par SMS.

Les avis juridiques étant trop longs et coûteux pour être communiqués par SMS, la DINUM a travaillé à la création de deux niveaux d'information. Avec le soutien d'experts en sciences du comportement et en langage clair, le gouvernement a créé une version concise du modèle de SMS et fourni un lien pour accéder à une version plus détaillée en ligne. Cette approche est innovante car elle permet au gouvernement de divulguer proactivement les informations requises dans un message clair et concis.

La transparence algorithmique commence par des pratiques de données transparentes

Estonie Data Tracker est un outil informatique conçu pour aider les autorités publiques à se conformer aux exigences du RGPD. Il est spécifiquement destiné aux autorités publiques gérant des systèmes d'information ou des bases de données contenant des données personnelles. Le système est développé de manière centralisée, mais peut être intégré à des bases de données individuelles par chaque autorité.

Les citoyens peuvent se connecter au portail et obtenir des informations sur l'utilisation de leurs données dans différentes bases de données gouvernementales : quelles données ont été consultées, qui y a accédé et à quelles fins ? Les journaux de données ne reflètent pas seulement l'utilisation des données par une seule agence gouvernementale, qui collecte, stocke et utilise les informations des citoyens. En indiquant également quand les agences demandent à utiliser les données fournies par le citoyen à une autre agence, le Data Tracker met en avant le principe du « principe de l'unique utilisation ». Ce principe, un concept d'administration en ligne, vise à garantir que les citoyens n'aient à fournir certaines informations standard qu'une seule fois, plutôt que de les répéter à chaque interaction avec l'administration. Ainsi, les citoyens peuvent mieux comprendre l'utilisation des données détenues par l'administration et l'impact de l'interopérabilité des agences gouvernementales sur leurs données.

La transparence n’est pas intrinsèquement un compromis avec la confidentialité des citoyens ou la sécurité du système.

Les responsables publics craignent souvent qu'une transparence accrue des systèmes algorithmiques ne permette à des acteurs malveillants de les manipuler ou ne porte atteinte au droit à la vie privée des citoyens. Cependant, l'opacité persistante des systèmes décisionnels algorithmiques dans le secteur public montre que de nombreuses mesures peuvent être prises pour améliorer la transparence sans porter atteinte aux autres droits. Divulgation utile d'informations sur un algorithme pourrait prendre de nombreuses formes, comme dans l'exemple français ci-dessus, où le gouvernement divulgue des informations sur le moment, les raisons et les modalités d'utilisation d'un système d'IA, mais pas les critères précis sur lesquels il s'appuie pour prendre la décision. Les approches participatives et la prise en compte des besoins de l'utilisateur permettent une transparence individuelle qui ne nécessite pas ce genre de compromis.

En 2025, l'Open Algorithms Network restera un espace de développement des relations entre pairs et des capacités internes pour ceux qui mettent en œuvre les systèmes qui produisent des outils numériques robustes et les systèmes humains performants qui les entourent. Alors que les gouvernements se tournent de plus en plus vers l'IA pour gagner en efficacité et améliorer la prestation de services, l'OGP est prêt à faciliter ce processus. l'inclusion de participation, de transparence et de responsabilité dans ces initiatives.

Un grand merci aux participants du réseau qui ont partagé des perspectives éclairantes et à Soizic Penicaud (chercheuse indépendante et spécialiste des politiques) pour son analyse de la discussion.

Pas encore de commentaires

Laissez un commentaire

Votre adresse courriel n'apparaitra pas. Les champs obligatoires sont marqués *

Rubriques connexes

Vignette pour Trois façons de mieux gérer l'utilisation de l'IA Défis et solutions

Trois façons de mieux régir l’utilisation de l’IA

L'OGP et le gouvernement kenyan ont réuni des réformateurs gouvernementaux et de la société civile de 12 pays pour discuter des moyens de gérer les nouvelles technologies numériques émergentes. Voici trois points clés…

Vignette pour « Pour créer des algorithmes transparents, concentrez-vous sur le pourquoi »

Pour construire des algorithmes transparents, concentrez-vous sur le pourquoi

Dans cet épisode du podcast Voices of Open Government, découvrez ce que la France a fait pour accroître la transparence algorithmique en utilisant la contribution des citoyens tout en sensibilisant à l'utilisation des algorithmes.

Vignette pour Trois recommandations pour une IA plus inclusive et plus équitable dans le secteur public Défis et solutions

Trois recommandations pour une IA plus inclusive et équitable dans le secteur public

Découvrez comment les membres de l'OGP travaillent pour mieux comprendre et traiter les impacts différenciés selon le sexe des algorithmes, réduire les préjugés humains et créer des programmes d'intelligence artificielle dignes de confiance, éthiques et inclusifs.

Open Government Partnership