Ignorer la navigation
Réseau d'algorithmes ouverts

Webinaires publics

 

L'OGP organise des webinaires trimestriels qui réunissent des fonctionnaires, des organisations de la société civile et des partenaires experts afin de partager des connaissances et des idées pratiques sur la mise en œuvre d'une politique algorithmique transparente et responsable au sein du gouvernement.

Ces sessions sont ouvertes au public, créant un espace où toute personne intéressée par la gouvernance algorithmique peut s'inspirer de réformes concrètes, des défis de mise en œuvre et de la manière dont les membres de l'OGP utilisent la plateforme pour promouvoir la transparence des algorithmes et de l'IA.

SESSIONS
Évaluation de l’impact de l’IA dans le secteur public (février 2026)
Transparence au niveau individuel (mars 2025)

Évaluation de l'impact de l'IA dans le secteur public

5 février 2026

À propos

Les gouvernements ont de plus en plus recours à la prise de décision automatisée et aux systèmes pilotés par l'IA pour fournir des services publics. Face à ces outils puissants, il est plus que jamais essentiel qu'ils comprennent les opportunités et les risques que ces systèmes représentent pour le secteur public.

L’évaluation des impacts des systèmes d’IA est une composante essentielle de la responsabilité gouvernementale. De manière générale, l’évaluation des impacts désigne les méthodes utilisées pour évaluer les conséquences des systèmes d’IA avant, pendant et après leur utilisation. Cependant, il n’existe actuellement aucune définition universellement acceptée de ce que recouvrent les « évaluations d’impact ». Afin de combler cette lacune, ce webinaire a exploré des outils pratiques et les enseignements tirés de l’état actuel des évaluations d’impact, en mettant l’accent sur leur ancrage dans un cadre de droits humains.

Regardez l'enregistrement

Plus d'informations

  • Évaluez tous les systèmes, même si cela implique de prioriser afin de réduire la charge de conformité..
    • Le concessionnaire Outil d’évaluation de l’impact algorithmique Cette procédure est obligatoire pour tout algorithme, mais elle calcule le risque selon une échelle progressive. Le niveau de risque attribué détermine les éléments de notification, d'explication, d'évaluation par les pairs, de formation et de supervision humaine qui sont alors requis.
    • Le GobLab Plateforme d'algorithmes publics Au Chili, il est également proposé une évaluation d'impact des algorithmes open source qui attribue à chaque algorithme un niveau de risque (faible, modéré, élevé et très élevé) et suggère des recommandations personnalisées pour les différentes étapes du cycle de vie du projet en fonction des risques détectés.
  • Évaluer les impacts tout au long du cycle de vie d'un système d'IA.
    • Le Centre européen de droit des organisations à but non lucratif (ECNL) Guide des évaluations fondamentales d'impact Il est recommandé de réaliser des analyses d'impact à toutes les étapes du système. Il convient de privilégier les moments où l'analyse d'impact peut s'avérer particulièrement pertinente, notamment pour décider si un système d'IA doit être développé uniquement dans des circonstances spécifiques, voire pas du tout.
    • De plus, les intervenants ont recommandé un suivi régulier avec des équipes multidisciplinaires. Comme l’a expliqué Jonathan Macdonald, du Secrétariat du Conseil du Trésor du Canada, les évaluations ponctuelles ne suffisent pas. « On ne peut pas se contenter d’utiliser l’IA, d’en mesurer l’impact une seule fois, puis de l’abandonner. L’un des principaux avantages de ces outils est leur capacité d’évolution ; il faut donc veiller à ce que cette évolution corresponde toujours à vos besoins. »
  • Impliquez les parties prenantes de manière constructive.
    • ECNL Cadre pour un engagement significatif Il fournit des conseils pratiques sur la manière d'impliquer les parties prenantes, notamment en leur fournissant des ressources suffisantes et appropriées et en veillant à ce que leur contribution influence le développement ou l'utilisation du produit en pratique.
  • Utiliser la transparence et les canaux de rétroaction citoyenne ascendants comme autre moyen de mesurer et de suivre les impacts. 
    • Les Pays-Bas développent actuellement de tels canaux de retour d'information par le biais de leur plan d'action mis à jour avec trois nouveaux engagements sous la bannière des algorithmes ouverts.
    • Marlena Wisniak a encouragé à privilégier la transparence des systèmes à fort impact lors de la mise en place de ces canaux de retour d'information, notamment dans les domaines liés à l'application de la loi, au contrôle des frontières et à la sécurité nationale.
  • Allez au-delà des simples procédures de conformité pour éviter de légitimer des systèmes nuisibles. 
    • Marlena Wisniak a expliqué que l'efficacité des analyses d'impact repose en fin de compte sur la bonne foi des développeurs et des déployeurs d'IA : « On peut formuler des analyses d'impact de manière à masquer les impacts négatifs et à mettre en place des mesures d'atténuation des risques insuffisantes, légitimant ainsi des systèmes d'IA nuisibles. Une analyse d'impact pertinente est bien plus qu'un simple document. Une analyse d'impact crédible doit inclure des mesures pour remédier aux impacts négatifs et laisser la possibilité de ne pas développer ou déployer le système d'IA évalué. »
  • Jonathan MacDonald – Directeur de l’IA responsable au Secrétariat du Conseil du Trésor du gouvernement fédéral du Canada
  • Olaf Schoelink – Chargé de mission principal au ministère de l'Intérieur et des Relations du Royaume du gouvernement des Pays-Bas
  • Marlena Wisniak – Responsable juridique principale au Centre européen de droit des organisations à but non lucratif (ECNL)
  • Directive canadienne sur la prise de décision automatisée et les évaluations d'impact algorithmique
    • Le Canada a une obligation Outil d'évaluation de l'impact algorithmique (AIA), qui soutient la mise en œuvre du gouvernement fédéral canadien directive Le Conseil du Trésor travaille actuellement à l’amélioration de l’outil de prise de décision automatisée. Il le rend plus convivial, l’adapte aux nouvelles capacités de l’IA générative et offre une plus grande flexibilité aux systèmes à faible impact afin de favoriser la conformité.
  • L'approche des Pays-Bas en matière de transparence et d'évaluations d'impact
    • Le pays registre d'algorithmeCette base de données, qui recense plus de 1 300 algorithmes publiés par 326 organismes gouvernementaux, enregistre les analyses d’impact réalisées pour chaque système. À ce jour, 500 analyses d’impact différentes ont été menées, dont 304 analyses d’impact relatives à la protection des données (AIPD). Les Pays-Bas ont également conçu leur propre analyse d’impact sur les droits humains et les algorithmes.
  • Guide de l'ECNL sur les évaluations d'impact relatives aux droits fondamentaux
    • Cette ECNL guideCe guide, élaboré en collaboration avec l'Institut danois des droits de l'homme, a été rédigé dans le cadre des analyses d'impact sur les droits fondamentaux. Bien que ces analyses soient obligatoires en vertu de la loi européenne sur l'IA, le guide s'appuie sur les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l'homme, ce qui lui confère une portée internationale. Le guide d'ECNL encourage les utilisateurs à anticiper les scénarios typiques et les scénarios les plus défavorables.

Transparence au niveau individuel

Mars 2025

À propos

En mars, le réseau Open Algorithms Network a été relancé avec un groupe de représentants gouvernementaux discutant de la transparence algorithmique.

La transparence des algorithmes et des systèmes d'IA du secteur public peut être atteinte à deux niveaux différents. Le premier est systémique, où le système dans son ensemble est rendu transparent, par exemple via des registres d'algorithmes, une documentation technique telle que des fiches techniques et des fiches de modèles, ou la publication du code source, des données et/ou des modèles du système algorithmique.

La seconde mesure, individuelle, vise à garantir une transparence ciblée et à fournir des explications aux personnes dont les décisions sont prises par des algorithmes. Ces pratiques peuvent prendre diverses formes, allant de la simple notification de l'utilisation d'un algorithme à l'explication personnalisée d'un résultat particulier. Il s'agit de « garanties procédurales » destinées à répondre aux préoccupations d'équité et de responsabilité soulevées par les systèmes algorithmiques. Elles peuvent également contribuer à une transparence systémique en sensibilisant davantage le public à l'utilisation des systèmes algorithmiques et de l'IA dans le secteur public.

Apprendre encore plus