Troisième examen de la Directive sur la prise de décisions automatisée

From wiki
Jump to navigation Jump to search

À propos du troisième examen

Le troisième examen est terminé. Merci à tous ceux qui ont participé aux consultations et qui ont fourni une rétroaction pour la mise à jour d’avril 2023 de la Directive et de l’Évaluation de l’incidence algorithmique (EIA).

Se référer à la page principale pour des mises à jour supplémentaires sur la Directive, y compris les orientations à venir.

Historique

Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la Directive sur la prise de décisions automatisée. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.

Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.

Recommandations stratégiques de haut niveau

Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :

  • Élargir la portée pour couvrir les services internes.
  • Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.
  • Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.
  • Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.
  • Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.
  • Élargir l’exigence relative aux essais des biais pour couvrir les modèles.
  • Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.
  • Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à l’évaluation de l’incidence algorithmique (EIA).
  • Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.
  • Exiger la publication d’un examen par les pairs complet ou résumé avant la production du système.
  • Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.
  • Exiger la diffusion d’une EIA avant la production d’un système, et assurer son examen selon un calendrier établi.

Résultats escomptés

La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; veiller à ce que les décisions automatisées ayant une incidence sur les droits ou les intérêts des personnes – y compris les fonctionnaires fédéraux – soient justes et inclusives; préciser les exigences; et appuyer les besoins opérationnels.

Mobilisation des intervenants

Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.

Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.

Documents de référence

Personne-ressource

Veuillez soumettre vos questions à ai-ia@tbs-sct.gc.ca