<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://wiki.gccollab.ca/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Ai-ia</id>
	<title>wiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.gccollab.ca/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Ai-ia"/>
	<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/Special:Contributions/Ai-ia"/>
	<updated>2026-04-19T10:42:45Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.35.2</generator>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=90768</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=90768"/>
		<updated>2023-02-10T14:16:03Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Recommandations stratégiques de haut niveau */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’un examen par les pairs complet ou résumé avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Exiger la diffusion d’une EIA avant la production d’un système, et assurer son examen selon un calendrier établi.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; veiller à ce que les décisions automatisées ayant une incidence sur les droits ou les intérêts des personnes – y compris les fonctionnaires fédéraux – soient justes et inclusives; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
&lt;br /&gt;
* Printemps 2023 - Compilation des modifications finales et des justifications (''à venir'') &lt;br /&gt;
* Printemps 2023 - Aperçu d’une page des recommandations politiques finales (''à venir'') &lt;br /&gt;
* Hiver 2023 - [[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]]&lt;br /&gt;
* Automne 2022 - [[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Été 2022 - [[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
* Printemps 2022 - [[:en:images/0/0d/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf|Première phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Printemps 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=90722</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=90722"/>
		<updated>2023-02-09T21:28:42Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Policy recommendations */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of a complete or summarized peer review prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of an AIA prior to the production of a system and ensure it is reviewed on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decisions impacting the rights or interests of individuals – including federal public servants – are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
* Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - [[:en:images/d/d6/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf|Phase 1 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=90721</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=90721"/>
		<updated>2023-02-09T21:27:18Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Policy recommendations */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require their completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of an AIA prior to the production of a system and ensure it is reviewed on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decisions impacting the rights or interests of individuals – including federal public servants – are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
* Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - [[:en:images/d/d6/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf|Phase 1 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf&amp;diff=89956</id>
		<title>File:DADM 3rd review - Phase 1 consultation - Key issues, policy recommendations, and amendments (v2. FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf&amp;diff=89956"/>
		<updated>2023-02-02T21:02:55Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:DADM 3rd review - Phase 1 consultation - Key issues, policy recommendations, and amendments (v2. FR).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf&amp;diff=89950</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf&amp;diff=89950"/>
		<updated>2023-02-02T20:56:05Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Questions clés, recommandations stratégiques et modifications provisoires&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=89640</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=89640"/>
		<updated>2023-02-01T16:24:29Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Résultats escomptés */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; veiller à ce que les décisions automatisées ayant une incidence sur les droits ou les intérêts des personnes – y compris les fonctionnaires fédéraux – soient justes et inclusives; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
&lt;br /&gt;
* Printemps 2023 - Compilation des modifications finales et des justifications (''à venir'') &lt;br /&gt;
* Printemps 2023 - Aperçu d’une page des recommandations politiques finales (''à venir'') &lt;br /&gt;
* Hiver 2023 - [[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]]&lt;br /&gt;
* Automne 2022 - [[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Été 2022 - [[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
* Printemps 2022 - [[:en:images/0/0d/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf|Première phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Printemps 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=89639</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=89639"/>
		<updated>2023-02-01T16:23:09Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Expected outcomes */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decisions impacting the rights or interests of individuals – including federal public servants – are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
* Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - [[:en:images/d/d6/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf|Phase 1 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf&amp;diff=89415</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf&amp;diff=89415"/>
		<updated>2023-01-31T00:15:13Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Questions clés, recommandations stratégiques et modifications provisoires&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=89413</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=89413"/>
		<updated>2023-01-30T23:21:23Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
&lt;br /&gt;
* Printemps 2023 - Compilation des modifications finales et des justifications (''à venir'') &lt;br /&gt;
* Printemps 2023 - Aperçu d’une page des recommandations politiques finales (''à venir'') &lt;br /&gt;
* Hiver 2023 - [[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]]&lt;br /&gt;
* Automne 2022 - [[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Été 2022 - [[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
* Printemps 2022 - [[:en:images/0/0d/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf|Première phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Printemps 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf&amp;diff=89412</id>
		<title>File:DADM 3rd review - Phase 1 consultation - Key issues, policy recommendations, and amendments (v2. FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf&amp;diff=89412"/>
		<updated>2023-01-30T23:20:51Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=89286</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=89286"/>
		<updated>2023-01-30T17:46:37Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
* Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - [[:en:images/d/d6/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf|Phase 1 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf&amp;diff=89285</id>
		<title>File:DADM 3rd review - Phase 1 consultation - Key issues, policy recommendations, and amendments (v2).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf&amp;diff=89285"/>
		<updated>2023-01-30T17:45:51Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88746</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88746"/>
		<updated>2023-01-25T00:43:18Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
&lt;br /&gt;
* Printemps 2023 - Compilation des modifications finales et des justifications (''à venir'') &lt;br /&gt;
* Printemps 2023 - Aperçu d’une page des recommandations politiques finales (''à venir'') &lt;br /&gt;
* Hiver 2023 - [[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]]&lt;br /&gt;
* Automne 2022 - [[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Été 2022 - [[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
* Printemps 2022 - Première phase de consultation: questions clés, recommandations politiques et modifications provisoires  (''à venir'')&lt;br /&gt;
* Printemps 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88745</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88745"/>
		<updated>2023-01-25T00:40:12Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
* Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - Phase 1 consultation: key issues, policy recommendations, and provisional amendments (''forthcoming'')&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88744</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88744"/>
		<updated>2023-01-25T00:39:44Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Spring 2023 - Compilation of final amendments and rationales (''forthcoming'') &lt;br /&gt;
&lt;br /&gt;
Spring 2023 - One-page overview of final policy recommendations (''forthcoming'') &lt;br /&gt;
&lt;br /&gt;
Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]] &lt;br /&gt;
&lt;br /&gt;
Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]] &lt;br /&gt;
&lt;br /&gt;
Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
&lt;br /&gt;
Spring 2022 - Phase 1 consultation: key issues, policy recommendations, and provisional amendments (''forthcoming'')&lt;br /&gt;
&lt;br /&gt;
Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88743</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88743"/>
		<updated>2023-01-25T00:36:06Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Compilation des modifications finales et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations politiques finales (à venir) &lt;br /&gt;
&lt;br /&gt;
[[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
&lt;br /&gt;
Première phase de consultation: questions clés, recommandations politiques et modifications provisoires  (à venir)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88742</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88742"/>
		<updated>2023-01-25T00:34:46Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Compilation of final amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of final policy recommendations (forthcoming) &lt;br /&gt;
&lt;br /&gt;
[[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
&lt;br /&gt;
Phase 1 consultation: key issues, policy recommendations, and provisional amendments (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88741</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88741"/>
		<updated>2023-01-25T00:33:50Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Compilation des modifications finales et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations politiques (à venir) &lt;br /&gt;
&lt;br /&gt;
[[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
&lt;br /&gt;
Première phase de consultation: questions clés, recommandations politiques et modifications provisoires  (à venir)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88740</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88740"/>
		<updated>2023-01-25T00:23:12Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Compilation of final amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming) &lt;br /&gt;
&lt;br /&gt;
[[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]] &lt;br /&gt;
&lt;br /&gt;
[[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
&lt;br /&gt;
Phase 1 consultation: key issues, policy recommendations, and provisional amendments (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88739</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88739"/>
		<updated>2023-01-25T00:21:45Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Compilation of final amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Phase 2 consultation: key issues, policy recommendations, and provisional amendments ([[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 Consultation]]) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Phase 1 consultation: key issues, policy recommendations, and provisional amendments (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88738</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88738"/>
		<updated>2023-01-25T00:19:21Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Compilation of final amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Phase 2 consultation: key issues, policy recommendations, and provisional amendments ([[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 Consultation]]) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[:File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Phase 1 consultation: key issues, policy recommendations, and provisional amendments (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88737</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88737"/>
		<updated>2023-01-25T00:18:09Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia reverted File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf to an old version&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Key issues, policy recommendations, and provisional amendments&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88736</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88736"/>
		<updated>2023-01-25T00:14:44Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia reverted File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf to an old version&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Key issues, policy recommendations, and provisional amendments&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88735</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88735"/>
		<updated>2023-01-25T00:13:51Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia reverted File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf to an old version&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Key issues, policy recommendations, and provisional amendments&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88734</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88734"/>
		<updated>2023-01-25T00:12:20Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Key issues, policy recommendations, and provisional amendments&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88733</id>
		<title>File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf&amp;diff=88733"/>
		<updated>2023-01-25T00:06:18Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Key issues, policy recommendations, and provisional amendments&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf&amp;diff=88632</id>
		<title>File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf&amp;diff=88632"/>
		<updated>2023-01-24T01:37:01Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88555</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88555"/>
		<updated>2023-01-23T14:53:03Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Compilation des modifications finales et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations politiques (à venir) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (FR).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]]) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) ([[:File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Première phase de consultation: questions clés, recommandations politiques et modifications provisoires  (à venir)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88551</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88551"/>
		<updated>2023-01-23T14:41:20Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Stakeholder Engagement */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
Compilation of final amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Phase 2 consultation: key issues, policy recommendations, and provisional amendments ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|Phase 2 Consultation]]) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[:File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Phase 1 consultation: key issues, policy recommendations, and provisional amendments (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88533</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88533"/>
		<updated>2023-01-20T23:12:21Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (FR).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) ([[:File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf&amp;diff=88532</id>
		<title>File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf&amp;diff=88532"/>
		<updated>2023-01-20T23:11:25Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (FR).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88404</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88404"/>
		<updated>2023-01-19T22:52:00Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[:File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf|Phase 1 WWHR]])&lt;br /&gt;
&lt;br /&gt;
Compilation of proposed amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|Phase 2 Consultation]])&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf&amp;diff=88403</id>
		<title>File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf&amp;diff=88403"/>
		<updated>2023-01-19T22:50:38Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: Ai-ia uploaded a new version of File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;What We Heard Report (phase 1 of stakeholder engagement)&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88302</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88302"/>
		<updated>2023-01-18T22:46:54Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (FR).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88301</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88301"/>
		<updated>2023-01-18T22:46:27Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (FR).pdf|Phase 2 WWHR) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf&amp;diff=88300</id>
		<title>File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (FR).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf&amp;diff=88300"/>
		<updated>2023-01-18T22:44:43Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88299</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88299"/>
		<updated>2023-01-18T22:43:39Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88298</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88298"/>
		<updated>2023-01-18T22:42:46Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de consultation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88297</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88297"/>
		<updated>2023-01-18T22:42:35Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de consultation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88296</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88296"/>
		<updated>2023-01-18T22:41:59Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Mobilisation des intervenants */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88295</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88295"/>
		<updated>2023-01-18T22:40:26Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Consultation materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf|Phase 2 WWHR]]) &lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) (forthcoming)&lt;br /&gt;
&lt;br /&gt;
Compilation of proposed amendments and rationales (forthcoming) &lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|Phase 2 Consultation]])&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88294</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88294"/>
		<updated>2023-01-18T22:37:00Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[:File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|Phase 2 Consultation]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) ([[:File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf|Phase 2 WWHR]]) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) (forthcoming)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation of proposed amendments and rationales (forthcoming) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88275</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88275"/>
		<updated>2023-01-18T20:27:37Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88274</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88274"/>
		<updated>2023-01-18T20:20:15Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la Directive sur la prise de décisions automatisée. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à l’évaluation de l’incidence algorithmique (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88273</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88273"/>
		<updated>2023-01-18T20:18:17Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Documents de référence */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la Directive sur la prise de décisions automatisée. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à l’évaluation de l’incidence algorithmique (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation des modifications proposées et des justifications (à venir) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88272</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=88272"/>
		<updated>2023-01-18T20:17:36Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la Directive sur la prise de décisions automatisée. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à l’évaluation de l’incidence algorithmique (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’examens par les pairs complets ou résumés et exiger l’achèvement avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Donner le mandat de diffuser les EIA avant la production d’un système, ainsi que leur examen sur une base régulière.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à garantir que les systèmes décisionnels automatisés ayant une incidence sur les fonctionnaires fédéraux soient équitables et inclusifs; renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
&lt;br /&gt;
=== Documents de consultation ===&lt;br /&gt;
Questions clés, recommandations stratégiques et modifications provisoires ([[File:DADM 3rd Review - Phase 2 Consultation Deck (FR).pdf|left|thumb|Questions clés, recommandations stratégiques et modifications provisoires]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aperçu d’une page des recommandations stratégiques (à venir)&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants) (à venir)&lt;br /&gt;
&lt;br /&gt;
Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants) (à venir)&amp;lt;br&amp;gt;Compilation des modifications proposées et des justifications (à venir)&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88265</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88265"/>
		<updated>2023-01-18T19:25:17Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|none|thumb|Key issues, policy recommendations, and provisional amendments|alt=]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) (forthcoming) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) (forthcoming)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation of proposed amendments and rationales (forthcoming) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf&amp;diff=88264</id>
		<title>File:3rd review of the Directive on Automated Decision-Making - 2nd What We Heard Report (EN).pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf&amp;diff=88264"/>
		<updated>2023-01-18T19:13:13Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88263</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88263"/>
		<updated>2023-01-18T19:09:44Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Reference materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|none|thumb|Key issues, policy recommendations, and provisional amendments|alt=]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 2 of stakeholder engagement) (forthcoming) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf|left|thumb|What We Heard Report (phase 1 of stakeholder engagement)]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Compilation of proposed amendments and rationales (forthcoming) &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88262</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=88262"/>
		<updated>2023-01-18T19:08:00Z</updated>

		<summary type="html">&lt;p&gt;Ai-ia: /* Consultation materials */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of AIAs prior to the production of a system and their review on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decision systems impacting federal public servants are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
Key issues, policy recommendations, and provisional amendments ([[File:DADM 3rd Review - Phase 2 Consultation Deck (EN).pdf|none|thumb|Key issues, policy recommendations, and provisional amendments|alt=]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
One-page overview of policy recommendations (forthcoming)&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
What We Heard Report (phase 1 of stakeholder engagement) ([[File:WWHR - Phase 1 of Stakeholder Engagement on the 3rd Review of the DADM (EN).pdf|left|thumb|What We Heard Report (phase 1 of stakeholder engagement)]])&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Ai-ia</name></author>
	</entry>
</feed>