Difference between revisions of "Troisième examen de la Directive sur la prise de décisions automatisée"

From wiki
Jump to navigation Jump to search
m
m
Line 33: Line 33:
  
 
=== Documents de consultation ===
 
=== Documents de consultation ===
[[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]]
+
[[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]]<br>
 +
 
 
[[File:DADM 3rd Review Summary (one-pager) (FR).pdf|left|thumb|Aperçu d’une page des recommandations stratégiques]]
 
[[File:DADM 3rd Review Summary (one-pager) (FR).pdf|left|thumb|Aperçu d’une page des recommandations stratégiques]]
  
 
=== Documents de référence ===
 
=== Documents de référence ===
[[File:Report on the third review of the Directive on Automated Decision-Making.pdf|left|thumb|Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée]]
+
[[File:Report on the third review of the Directive on Automated Decision-Making.pdf|left|thumb|Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée]]<br>
 +
 
 
[[File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf|left|thumb|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]
 
[[File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf|left|thumb|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]
  

Revision as of 12:06, 8 September 2022

À propos du troisième examen

Historique

Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la Directive sur la prise de décisions automatisée. L’examen fait le point sur l’état actuel de la directive et relève plusieurs défis susceptibles d’empêcher le gouvernement fédéral de satisfaire à l’engagement de garantir l’utilisation responsable de l’intelligence artificielle ou de limiter l’efficacité de l’instrument pour atteindre ses objectifs et donner les résultats escomptés. Ces défis mettent en évidence des lacunes qui limitent la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen identifie également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.

Les examens périodiques ne se sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances pertinentes dans le paysage canadien et mondial de l’IA, tout en affinant progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité. Le premier examen visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.

Recommandations stratégiques de haut niveau

Dans le cadre du troisième examen, le SCT propose 12 recommandations stratégiques et des modifications connexes à la directive :

  • Élargir la portée pour couvrir les services internes.
  • Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.
  • Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.
  • Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.
  • Mettre en place des mesures favorisant le traçage, la protection, la conservation et la destruction appropriés des données utilisées et générées par un système.
  • Élargir l’exigence relative aux essais pour couvrir les essais du biais des modèles.
  • Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration d’un système.
  • Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à l’évaluation de l’incidence algorithmique (EIA).
  • Élargir l’EIA pour y inclure des questions sur les raisons poussant le ministère à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.
  • Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.
  • Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.
  • Donner le mandat de diffuser les EIA avant la production d’un système.

Résultats escomptés

La mise en œuvre des modifications proposées aiderait à garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; préciser les exigences; et appuyer les besoins opérationnels.

Mobilisation des intervenants

Le SCT collabore avec un large éventail d’intervenants au cours du troisième examen, notamment dans le milieu universitaire, la société civile, d’autres gouvernements et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations stratégiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.

En septembre 2022, le SCT a lancé la deuxième phase de la mobilisation des intervenants. Cette phase comprendra la mobilisation des collectivités fédérales en matière de politiques en matière de données et d’IA; les agents du Parlement; les agents négociateurs; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est appuyé sur l’expertise de partenaires fédéraux et d’experts en la matière dans le milieu universitaire, la société civile et d’autres gouvernements. Le rapport sur ce que nous avons entendu, lié ci-dessous, fournit un résumé des résultats de cette phase.

Les intervenants contactés sont invités à examiner et à commenter la proposition de modification de la directive et de l’EIA, qui est présentée dans les documents de consultation ci-dessous.

Documents de consultation

File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf

File:DADM 3rd Review Summary (one-pager) (FR).pdf

Documents de référence

File:Report on the third review of the Directive on Automated Decision-Making.pdf

File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf

Personne-ressource

Veuillez soumettre vos questions à ai-ia@tbs-sct.gc.ca