<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://wiki.gccollab.ca/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Benoit.deshaies</id>
	<title>wiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.gccollab.ca/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Benoit.deshaies"/>
	<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/Special:Contributions/Benoit.deshaies"/>
	<updated>2026-04-19T00:20:31Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.35.2</generator>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=126279</id>
		<title>File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=126279"/>
		<updated>2024-10-11T17:58:21Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=126278</id>
		<title>File:Placemat - L’IA générative dans votre travail au quotidien.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=126278"/>
		<updated>2024-10-11T17:58:02Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - L’IA générative dans votre travail au quotidien.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=126277</id>
		<title>File:Placemat - L’IA générative dans votre travail au quotidien.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=126277"/>
		<updated>2024-10-11T17:53:28Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - L’IA générative dans votre travail au quotidien.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=126276</id>
		<title>File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=126276"/>
		<updated>2024-10-11T17:52:20Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=125972</id>
		<title>File:Placemat - L’IA générative dans votre travail au quotidien.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_L%E2%80%99IA_g%C3%A9n%C3%A9rative_dans_votre_travail_au_quotidien.pdf&amp;diff=125972"/>
		<updated>2024-10-03T13:58:47Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - L’IA générative dans votre travail au quotidien.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=125971</id>
		<title>File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Placemat_-_Generative_Artificial_Intelligence_(AI)_in_your_daily_work.pdf&amp;diff=125971"/>
		<updated>2024-10-03T13:58:13Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Placemat - Generative Artificial Intelligence (AI) in your daily work.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=File:Guide_on_peer_review.pdf&amp;diff=125744</id>
		<title>File:Guide on peer review.pdf</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=File:Guide_on_peer_review.pdf&amp;diff=125744"/>
		<updated>2024-09-25T20:29:28Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Benoit.deshaies uploaded a new version of File:Guide on peer review.pdf&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Additional resources: ==&lt;br /&gt;
&lt;br /&gt;
* [[:File:Peer review report template.pdf|Peer review report template]]&lt;br /&gt;
* [[:File:Complete the review checklist.docx|Complete the review checklist]]&lt;br /&gt;
* [[:File:Statement of work template.pdf|Peer review statement of work template]]&lt;br /&gt;
&lt;br /&gt;
===[[Treasury Board Directive on Automated Decision Making|Back to main page]]===&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=120340</id>
		<title>Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=120340"/>
		<updated>2024-05-16T18:38:41Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: add English link&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;The English version is available [[Treasury Board Directive on Automated Decision Making|here]].  &lt;br /&gt;
&lt;br /&gt;
== Contexte ==&lt;br /&gt;
La [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée] (la Directive) fixe des exigences aux institutions fédérales afin de garantir que l’utilisation de l’IA ou d’autres systèmes automatisés dans la prise de décisions administratives est compatible avec les principes fondamentaux du droit administratif tels que la transparence, la responsabilité, la légalité et l’équité procédurale. La Directive s’appuie sur l’[https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html Outil d’évaluation de l’incidence algorithmique], un questionnaire en ligne qui aide les ministères à comprendre et à gérer les risques associés aux systèmes décisionnels automatisés.  &lt;br /&gt;
&lt;br /&gt;
La Directive est entrée en vigueur en avril 2019 et s’applique aux systèmes développés ou acquis après avril 2020. &lt;br /&gt;
&lt;br /&gt;
== Orientations ==&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) a élaboré des orientations pour faciliter le respect de la Directive : &lt;br /&gt;
&lt;br /&gt;
* [[:File:Guide sur l’examen par les pairs-FR.pdf|Examen par les pairs]] – pour aider les ministères qui commandent un examen et les personnes qui le réalisent.&lt;br /&gt;
* La section 4.5 de la [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/ligne-directrice-services-numerique.html#ToC4_5 ligne directrice sur les services et le numérique] fournit des conseils supplémentaires sur l’utilisation responsable et éthique des systèmes de décision automatisés.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
À venir :&lt;br /&gt;
&lt;br /&gt;
* Portée – pour aider les ministères à comprendre les systèmes et les utilisations qui relèvent de la Directive. &lt;br /&gt;
* Rapports – pour aider les ministères à publier des informations sur l’efficacité et l’efficience d’un système dans la réalisation des objectifs d’un programme. &lt;br /&gt;
* Guide sur l’évaluation de l’incidence algorithmique – pour aider les ministères à effectuer l’évaluation de l’incidence algorithmique et à améliorer la cohérence et la qualité des réponses au questionnaire. &lt;br /&gt;
&lt;br /&gt;
== Ressources ==&lt;br /&gt;
&lt;br /&gt;
* [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32603 Politique sur les services et le numérique]&lt;br /&gt;
* [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai.html Utilisation responsable de l’intelligence artificielle (IA)]&lt;br /&gt;
* [[Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;br /&gt;
* [[:File:Treasury Board Directive on Automated Decision Making.pdf|Projet 1.0 de la Directive sur la prise de décisions automatisée]] (disponible en anglais seulement) (2018)&lt;br /&gt;
&lt;br /&gt;
== Demandes d’information ==&lt;br /&gt;
Pour toute question, veuillez contacter l’équipe du SCT chargée des données et de l’IA responsables (ai-ia@tbs-sct.gc.ca).&lt;br /&gt;
&lt;br /&gt;
[[en:Treasury Board Directive on Automated Decision Making]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Treasury_Board_Directive_on_Automated_Decision_Making&amp;diff=120337</id>
		<title>Treasury Board Directive on Automated Decision Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Treasury_Board_Directive_on_Automated_Decision_Making&amp;diff=120337"/>
		<updated>2024-05-16T18:33:57Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: add French link&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;La version française est disponible [[Directive sur la prise de décisions automatisée|ici]]  &lt;br /&gt;
&lt;br /&gt;
== Background ==&lt;br /&gt;
The [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making] (directive) sets requirements for federal institutions to ensure that the use of AI or other automated systems in making or supporting administrative decision-making is compatible with the core principles of administrative law such as transparency, accountability, legality and procedural fairness. The Directive is supported by the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment Tool,] an online questionnaire which helps departments understand and manage the risks associated with automated decision systems.  &lt;br /&gt;
&lt;br /&gt;
The directive came into effect in April 2019 and applies to systems developed or procured after April 2020. &lt;br /&gt;
&lt;br /&gt;
== Guidance ==&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) has developed guidance to support compliance with the directive: &lt;br /&gt;
&lt;br /&gt;
* [[:File:Guide on peer review.pdf|Peer review]] – to support departments commissioning a review and individuals undertaking the review&lt;br /&gt;
* Section 4.5 of the [https://www.canada.ca/en/government/system/digital-government/guideline-service-digital.html#ToC4_5 Guideline on Service and Digital] provides additional guidance on the responsible and ethical use of automated decision systems&lt;br /&gt;
Upcoming:&lt;br /&gt;
&lt;br /&gt;
* Scope – to support departments in understanding the systems and uses that fall under the purview of the directive&lt;br /&gt;
* Reporting – to support departments on the requirement of publishing information on the effectiveness and efficiency of a system in meeting program objectives&lt;br /&gt;
* Algorithmic Impact Assessment Guide – to support departments in completing the Algorithmic Impact Assessment and improve the consistency and quality of questionnaire responses&lt;br /&gt;
&lt;br /&gt;
== Resources ==&lt;br /&gt;
&lt;br /&gt;
* [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32603 Policy on Service and Digital] &lt;br /&gt;
* [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html Responsible use of artificial intelligence (AI)] &lt;br /&gt;
* [[Third Review of the Directive on Automated Decision-Making]]&lt;br /&gt;
* [[:File:Treasury Board Directive on Automated Decision Making.pdf|Draft 1.0 of the Directive on Automated Decision-Making]] (2018)&lt;br /&gt;
&lt;br /&gt;
== Enquiries ==&lt;br /&gt;
Please contact the TBS Responsible Data and AI team (ai-ia@tbs-sct.gc.ca) for any questions.&lt;br /&gt;
&lt;br /&gt;
__INDEX__&lt;br /&gt;
&lt;br /&gt;
[[fr:Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=118849</id>
		<title>Troisième examen de la Directive sur la prise de décisions automatisée</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Troisi%C3%A8me_examen_de_la_Directive_sur_la_prise_de_d%C3%A9cisions_automatis%C3%A9e&amp;diff=118849"/>
		<updated>2024-04-25T17:24:33Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: /* Documents de référence */ retrait des ébauches de références&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== À propos du troisième examen ==&lt;br /&gt;
&lt;br /&gt;
=== Historique ===&lt;br /&gt;
Le Secrétariat du Conseil du Trésor du Canada (SCT) termine le troisième examen de la [https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]. L’examen fait le point sur l’état actuel de la directive et relève les risques et défis auquel est confronté le gouvernement fédéral dans son engagement de garantir l’utilisation responsable de l’intelligence artificielle (IA) dans la fonction publique fédérale. Il fournit une analyse des lacunes pouvant limiter la pertinence et l’efficacité de la directive à appuyer la transparence, la responsabilisation et l’équité dans la prise de décisions automatisée. L’examen souligne également des enjeux de terminologie, de faisabilité et de cohérence avec d’autres instruments de politique fédéraux.&lt;br /&gt;
&lt;br /&gt;
Les examens périodiques ne sont pas exhaustifs. Ils cherchent à adapter la directive aux tendances en matière de réglementation et d’utilisation des technologies d’IA au Canada et mondialement. Les examens permettent également au SCT d'affine progressivement le texte de l’instrument pour appuyer l’interprétation et faciliter la conformité à l’échelle du gouvernement. Le premier examen (2020-2021) visait à clarifier et à renforcer les exigences existantes, à mettre à jour les références aux politiques et à renforcer les mesures de transparence et d’assurance de la qualité. Le deuxième examen (2021-2022) a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.&lt;br /&gt;
&lt;br /&gt;
=== Recommandations stratégiques de haut niveau ===&lt;br /&gt;
Dans le cadre du troisième examen, le SCT propose 12 recommandations politiques et des modifications connexes à la directive :&lt;br /&gt;
&lt;br /&gt;
* Élargir la portée pour couvrir les services internes.&lt;br /&gt;
* Préciser que la portée comprend des systèmes qui effectuent des évaluations liées aux décisions administratives.&lt;br /&gt;
* Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la Dirigeante principale de l’information du Canada de demander des examens hors cycle.&lt;br /&gt;
* Remplacer les références aux Canadiens par un langage plus englobant, comme les clients et la société canadienne.&lt;br /&gt;
* Mettre en place des mesures favorisant le traçage, la protection, et le traitement licite des données utilisées et générées par un système.&lt;br /&gt;
* Élargir l’exigence relative aux essais des biais pour couvrir les modèles.&lt;br /&gt;
* Mandater l’achèvement de l’Analyse comparative entre les sexes plus lors de l’élaboration ou de la modification d’un système.&lt;br /&gt;
* Établir des critères d’explication à l’appui de l’exigence d’explication et les intégrer à [https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html l’évaluation de l’incidence algorithmique] (EIA).&lt;br /&gt;
* Élargir l’EIA pour y inclure des questions sur les raisons poussant l'institution à adopter l’automatisation et sur les répercussions potentielles sur les personnes vivant avec un handicap.&lt;br /&gt;
* Exiger la publication d’un examen par les pairs complet ou résumé avant la production du système.&lt;br /&gt;
* Harmoniser l’exigence relative aux éventualités avec la terminologie pertinente énoncée dans la Politique sur la sécurité du Conseil du Trésor.&lt;br /&gt;
* Exiger la diffusion d’une EIA avant la production d’un système, et assurer son examen selon un calendrier établi.&lt;br /&gt;
&lt;br /&gt;
=== Résultats escomptés ===&lt;br /&gt;
La mise en œuvre des modifications proposées aiderait à renforcer la transparence et la responsabilisation; renforcer les mesures de protection contre la discrimination et le préjudice; veiller à ce que les décisions automatisées ayant une incidence sur les droits ou les intérêts des personnes – y compris les fonctionnaires fédéraux – soient justes et inclusives; préciser les exigences; et appuyer les besoins opérationnels.&lt;br /&gt;
&lt;br /&gt;
== Mobilisation des intervenants ==&lt;br /&gt;
Le SCT a collaboré avec un large éventail d’intervenants au cours du troisième examen, notamment dans les institutions fédérales, le milieu universitaire, la société civile, d’autres autorités gouvernementales et des organisations internationales. L’objectif de la mobilisation des intervenants est de valider les recommandations politiques et les modifications provisoires proposées dans le cadre de l’examen et de cerner d’autres questions qui méritent d’être examinées dans le cadre de cet exercice ou d’examens futurs.&lt;br /&gt;
&lt;br /&gt;
Le SCT a divisé la mobilisation des intervenants en deux phases. La seconde phase a eu lieu entre septembre et novembre 2022. Elle comprenait la mobilisation des collectivités fédérales en politiques en matière de données et d’IA; des agents du Parlement; des agents négociateurs; des représentants de l'industrie; et des organisations internationales. La première phase s’est déroulée entre avril et juillet 2022 et s’est surtout appuyée sur l’expertise de partenaires fédéraux réalisant des projets d’automatisation, et d’experts en la matière dans le milieu universitaire, la société civile et d'homologues d’autres gouvernements. Les rapports sur ce que nous avons entendu, liés ci-dessous, fournissent un résumé des thèmes de la mobilisation ainsi que des résultats.&lt;br /&gt;
=== Documents de référence ===&lt;br /&gt;
&lt;br /&gt;
* Hiver 2023 - [[:en:images/0/01/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(FR).pdf|Rapport sur ce que nous avons entendu (phase 2 de la mobilisation des intervenants)]]&lt;br /&gt;
* Automne 2022 - [[:en:images/7/74/DADM_3rd_Review_-_Phase_2_Consultation_Deck_(FR).pdf|Deuxième phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Été 2022 - [[:en:images/e/e9/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(FR).pdf|Rapport sur ce que nous avons entendu (phase 1 de la mobilisation des intervenants)]]&lt;br /&gt;
* Printemps 2022 - [[:en:images/0/0d/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2._FR).pdf|Première phase de consultation: questions clés, recommandations politiques et modifications provisoires]]&lt;br /&gt;
* Printemps 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Rapport sur le troisième examen de la Directive sur la prise de décisions automatisée (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Personne-ressource ===&lt;br /&gt;
Veuillez soumettre vos questions à [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[EN:Third Review of the Directive on Automated Decision-Making]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=118848</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=118848"/>
		<updated>2024-04-25T17:23:14Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: /* Reference materials */ removed outdated references&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third Review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public service. It provides an analysis of gaps that may limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. The review also highlights problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to trends in the regulation and use of AI technologies in Canada and globally. Reviews also allow TBS to gradually refine the text of the instrument to support interpretation and facilitate compliance across government. The first review (2020-21) sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review (2021-22) informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
* Expand the scope to cover internal services.&lt;br /&gt;
* Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
* Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
* Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
* Introduce measures supporting the tracing, protection, and lawful handling of data used and generated by a system.&lt;br /&gt;
* Expand the bias testing requirement to cover models.&lt;br /&gt;
* Mandate the completion of Gender Based Analysis Plus during the development or modification of a system.&lt;br /&gt;
* Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
* Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
* Mandate the publication of a complete or summarized peer review prior to system production.&lt;br /&gt;
* Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
* Mandate the release of an AIA prior to the production of a system and ensure it is reviewed on a scheduled basis.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would reinforce transparency and accountability; strengthen protections against discrimination and harm; ensure that automated decisions impacting the rights or interests of individuals – including federal public servants – are fair and inclusive; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder Engagement''' ==&lt;br /&gt;
TBS has engaged with a broad range of stakeholders during the third review, including in federal institutions, academia, civil society, governments in other jurisdictions, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
TBS divided stakeholder engagement into two phases. The second phase ran between September and November 2022. It involved outreach to federal AI policy and data communities; agents of parliament; bargaining agents; industry representatives; and international organizations. The first phase ran between April and July 2022, and mainly drew on the expertise of federal partners operating automation projects and subject matter experts in academia, civil society, and counterparts in other governments. The What We Heard Reports linked below provide a summary of engagement themes and outcomes.&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
&lt;br /&gt;
* Winter 2023 - [[:en:images/3/33/3rd_review_of_the_Directive_on_Automated_Decision-Making_-_2nd_What_We_Heard_Report_(EN).pdf|What We Heard Report (phase 2 of stakeholder engagement)]]&lt;br /&gt;
* Fall 2022 - [[:en:images/archive/f/f4/20230125001443!DADM_3rd_Review_-_Phase_2_Consultation_Deck_(EN).pdf|Phase 2 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Summer 2022 - [[:en:images/3/32/WWHR_-_Phase_1_of_Stakeholder_Engagement_on_the_3rd_Review_of_the_DADM_(EN).pdf|What We Heard Report (phase 1 of stakeholder engagement)]]&lt;br /&gt;
* Spring 2022 - [[:en:images/d/d6/DADM_3rd_review_-_Phase_1_consultation_-_Key_issues,_policy_recommendations,_and_amendments_(v2).pdf|Phase 1 consultation: key issues, policy recommendations, and provisional amendments]]&lt;br /&gt;
* Spring 2022 - [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4087546 Report on the 3rd review of the Directive on Automated Decision-Making (phase 1)]&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;br /&gt;
&lt;br /&gt;
[[fr:Troisième examen de la Directive sur la prise de décisions automatisée]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=77718</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=77718"/>
		<updated>2022-08-25T15:28:36Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: specify that only CONTACTED stakeholders are expected to comment.&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public sector. These issues highlight critical gaps that limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. They also identify problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to pertinent trends in the Canadian and global AI landscape, while gradually refining the text of the instrument to support interpretation and facilitate compliance. The first review sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
# Expand the scope to cover internal services.&lt;br /&gt;
# Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
# Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
# Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
# Introduce measures supporting the tracing, protection, and appropriate retention and disposition of data used and generated by a system.&lt;br /&gt;
# Expand the pre-production testing requirement to cover model bias testing.&lt;br /&gt;
# Mandate the completion of Gender Based Analysis Plus during the development of a system.&lt;br /&gt;
# Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
# Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
# Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
# Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
# Mandate the release of AIAs prior to the production of a system.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would ensure that automated decision systems impacting federal public servants are fair and inclusive; reinforce transparency and accountability; strengthen protections against discrimination and harm; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder engagement''' ==&lt;br /&gt;
TBS is engaging with a broad range of stakeholders during the third review, including in academia, civil society, other governments, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
In September 2022, TBS launched the second phase of stakeholder engagement. This phase will involve outreach to federal AI policy and data communities; agents of parliament; bargaining agents; and international organizations. The first phase ran between April and July 2022, and drew on the expertise of federal partners and subject matter experts in academia, civil society, and other governments. The What We Heard Report linked below provides a summary of the outcomes of this phase.&lt;br /&gt;
&lt;br /&gt;
Contacted stakeholders are invited to review and comment on the proposal for amending the directive and AIA, which is laid out in the consultation materials below.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
* Key issues, policy recommendations, and provisional amendments ''[link to be added]''&lt;br /&gt;
* One-page overview of policy recommendations ''[link to be added]''&lt;br /&gt;
&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
* What We Heard Report (phase 1 of stakeholder engagement)  ''[link to be added]''&lt;br /&gt;
* Report on the third review of the Directive on Automated Decision-Making ''[link to be added]''&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=77712</id>
		<title>Third Review of the Directive on Automated Decision-Making</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Third_Review_of_the_Directive_on_Automated_Decision-Making&amp;diff=77712"/>
		<updated>2022-08-25T14:43:41Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: adjust some Title case&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== '''About the Third review''' ==&lt;br /&gt;
&lt;br /&gt;
=== Background ===&lt;br /&gt;
Treasury Board of Canada Secretariat (TBS) is completing the third review of the [https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 Directive on Automated Decision-Making]. The review takes stock of the current state of the directive and identifies risks and challenges to the government’s commitment to responsible artificial intelligence (AI) in the federal public sector. These issues highlight critical gaps that limit the directive’s relevance and effectiveness in supporting transparency, accountability, and fairness in automated decision-making. They also identify problems with terminology, feasibility, and coherence with other federal policy instruments.&lt;br /&gt;
&lt;br /&gt;
Periodic reviews are not intended to be exhaustive. They seek to adapt the directive to pertinent trends in the Canadian and global AI landscape, while gradually refining the text of the instrument to support interpretation and facilitate compliance. The first review sought to clarify and reinforce existing requirements, update policy references, and strengthen transparency and quality assurance measures. The second review informed the development of guidelines supporting the interpretation of the directive.&lt;br /&gt;
&lt;br /&gt;
=== Policy recommendations ===&lt;br /&gt;
As part of the third review, TBS is proposing 12 policy recommendations and accompanying amendments to the directive:&lt;br /&gt;
&lt;br /&gt;
# Expand the scope to cover internal services.&lt;br /&gt;
# Clarify that the scope includes systems which make assessments related to administrative decisions.&lt;br /&gt;
# Replace the 6-month review interval with a biennial review and enable the Chief Information Officer of Canada to request off-cycle reviews.&lt;br /&gt;
# Replace references to Canadians with more encompassing language such as clients and Canadian society.&lt;br /&gt;
# Introduce measures supporting the tracing, protection, and appropriate retention and disposition of data used and generated by a system.&lt;br /&gt;
# Expand the pre-production testing requirement to cover model bias testing.&lt;br /&gt;
# Mandate the completion of Gender Based Analysis Plus during the development of a system.&lt;br /&gt;
# Establish explanation criteria in support of the explanation requirement and integrate them into the [https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html Algorithmic Impact Assessment (AIA)].&lt;br /&gt;
# Expand the AIA to include questions concerning an institution's reasons for pursuing automation and potential impacts on persons with disabilities.&lt;br /&gt;
# Mandate the publication of complete or summarized peer reviews and require completion prior to system production.&lt;br /&gt;
# Align the contingency requirement with relevant terminology established in Treasury Board security policy.&lt;br /&gt;
# Mandate the release of AIAs prior to the production of a system.&lt;br /&gt;
&lt;br /&gt;
=== Expected outcomes ===&lt;br /&gt;
The recommendations would ensure that automated decision systems impacting federal public servants are fair and inclusive; reinforce transparency and accountability; strengthen protections against discrimination and harm; clarify requirements; and support operational needs.&lt;br /&gt;
&lt;br /&gt;
== '''Stakeholder engagement''' ==&lt;br /&gt;
TBS is engaging with a broad range of stakeholders during the third review, including in academia, civil society, other governments, and international organizations. The goal of stakeholder engagement is to validate the policy recommendations and provisional amendments proposed in the review and identify additional issues that merit consideration as part of this exercise or in future reviews.&lt;br /&gt;
&lt;br /&gt;
In September 2022, TBS launched the second phase of stakeholder engagement. This phase will involve outreach to federal AI policy and data communities; agents of parliament; bargaining agents; and international organizations. The first phase ran between April and July 2022, and drew on the expertise of federal partners and subject matter experts in academia, civil society, and other governments. The What We Heard Report linked below provides a summary of the outcomes of this phase.&lt;br /&gt;
&lt;br /&gt;
Stakeholders are invited to review and comment on the proposal for amending the directive and AIA, which is laid out in the consultation materials below.&lt;br /&gt;
&lt;br /&gt;
=== Consultation materials ===&lt;br /&gt;
* Key issues, policy recommendations, and provisional amendments ''[link to be added]''&lt;br /&gt;
* One-page overview of policy recommendations ''[link to be added]''&lt;br /&gt;
&lt;br /&gt;
=== Reference materials ===&lt;br /&gt;
* What We Heard Report (phase 1 of stakeholder engagement)  ''[link to be added]''&lt;br /&gt;
* Report on the third review of the Directive on Automated Decision-Making ''[link to be added]''&lt;br /&gt;
&lt;br /&gt;
=== Contact ===&lt;br /&gt;
Please submit any questions to [mailto:Ai-ia@tbs-sct.gc.ca ai-ia@tbs-sct.gc.ca]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Data_Quality&amp;diff=71442</id>
		<title>Data Quality</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Data_Quality&amp;diff=71442"/>
		<updated>2022-05-06T15:35:47Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: adding a reference to the GC data quality framework&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;''For the emerging GC approach to defining and assessing data quality, see the [[GC Data Quality Framework]].''&lt;br /&gt;
&lt;br /&gt;
The '''DAMA-DMBOK2''' defines data quality (DQ) as “the planning, implementation, and control of activities that apply quality management techniques to data, in order to assure it is fit for consumption and meet the needs of data consumers.” &amp;lt;ref&amp;gt;DAMA-DMBOK2, Figure 91 Context Diagram: Data Quality, p.451&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;The DAMA-BMBOK2 goes on to explain that the &amp;quot;term data quality refers both to the characteristics associated with high quality data and to the processes used to measure or improve the quality of data.&amp;quot; &amp;lt;ref&amp;gt;DAMA-DMBOK2, 1.3.1 Data Quality, p.453&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The [http://mitiq.mit.edu/Documents/Publications/TDQMpub/14_Beyond_Accuracy.pdf Strong-Wang] framework (1996)&amp;lt;ref&amp;gt;&amp;lt;nowiki&amp;gt;http://mitiq.mit.edu/Documents/Publications/TDQMpub/14_Beyond_Accuracy.pdf&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt; focuses on data consumers' perceptions of data. It describes 15 dimensions across four general categories of data quality: &amp;lt;ref&amp;gt;DAMA-DMBOK2, 1.3.3. Data Quality Dimensions, p.455&amp;lt;/ref&amp;gt;&lt;br /&gt;
* '''Intrinsic data quality:'''&lt;br /&gt;
** Accuracy&lt;br /&gt;
** Objectivity&lt;br /&gt;
** Believability&lt;br /&gt;
** Reputation&lt;br /&gt;
* '''Contextual data quality:'''&lt;br /&gt;
** Value-added&lt;br /&gt;
** Relevancy&lt;br /&gt;
** Completeness&lt;br /&gt;
** Appropriate amount of data&lt;br /&gt;
* '''Representational data quality:'''&lt;br /&gt;
** Interpretability&lt;br /&gt;
** Ease of understanding&lt;br /&gt;
** Representational consistency&lt;br /&gt;
** Concise representation&lt;br /&gt;
* '''Accessibility data quality:'''&lt;br /&gt;
** Accessibility&lt;br /&gt;
** Access Security&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[https://www.informatica.com/ca/services-and-training/glossary-of-terms/data-quality-definition.html Informatica] defines data quality as &amp;quot;The overall utility of a dataset as a function of its ability to be easily processed and analyzed for other users, usually by a database, data warehouse, or data analytics system.&amp;quot; &amp;lt;ref&amp;gt;&amp;lt;nowiki&amp;gt;https://www.informatica.com/ca/services-and-training/glossary-of-terms/data-quality-definition.html&amp;lt;/nowiki&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&amp;lt;/br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
// Poor '''''data quality''''' can cripple a business and its ability to make informed decisions. &amp;lt;br&amp;gt;&amp;lt;/br&amp;gt;&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=Cadre_de_la_qualit%C3%A9_des_donn%C3%A9es_du_GC&amp;diff=71134</id>
		<title>Cadre de la qualité des données du GC</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=Cadre_de_la_qualit%C3%A9_des_donn%C3%A9es_du_GC&amp;diff=71134"/>
		<updated>2022-05-04T12:55:24Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Make proper headers&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
==Contexte==&lt;br /&gt;
&lt;br /&gt;
Les données sont fondamentales pour le gouvernement numérique. Le gouvernement du Canada (GC) se fie de plus en plus aux données afin d’appuyer la conception et la prestation de programmes et de services. Les données constituent également un élément essentiel de l’élaboration de politiques fondées sur des données probantes, ce qui permet au gouvernement de prendre des décisions mesurées et opportunes qui profitent à tous les Canadiens. Elles appuient également l’engagement du gouvernement à l’égard de l’ouverture et de la transparence, ce qui contribue à renforcer la confiance du public à l’égard du gouvernement numérique. Les données jouent également un rôle dans l’avancement de la coopération internationale et aident le Canada à respecter ses obligations internationales.&lt;br /&gt;
&lt;br /&gt;
Pour que les données soient efficaces et fiables, elles doivent être adéquates à l’objectif. L’adéquation au besoin est un indicateur du fait que les données sont à la fois utilisables et pertinentes pour les besoins et les objectifs des utilisateurs[1]. La qualité des données a une incidence importante sur leur valeur pour les utilisateurs. Elle influence la capacité de découverte et de disponibilité des données pour les utilisateurs lorsqu’ils en ont besoin, ainsi que la façon dont ils peuvent utiliser ou réutiliser les données au sein des organisations et des administrations et entre elles. Le rôle prépondérant des données dans les opérations gouvernementales et la prise de décisions souligne également l’importance de données de grande qualité non seulement pour le mandat du gouvernement, mais aussi pour la confiance du public. Des données inexactes ou incomplètes, par exemple, peuvent mener à des politiques erronées ou à des décisions biaisées entraînant des répercussions négatives sur les personnes, les collectivités ou les entreprises. La gestion de la qualité des données tout au long du cycle de vie – de l’acquisition à l’élimination ou à l’archivage – peut contribuer à garantir qu’elles sont adaptées aux besoins, ce qui permet aux utilisateurs d’exploiter adéquatement leur valeur à l’appui de leurs objectifs. Cela fait appel à de multiples rôles dans une organisation : par exemple, les fournisseurs et les administrateurs de données veillent à ce que les données soient gérées de façon à être utilisables, tandis que les intendants et les consommateurs de données déterminent leur pertinence dans un contexte d’utilisation particulier.&lt;br /&gt;
&lt;br /&gt;
Il faut une compréhension commune de la qualité des données au sein du gouvernement fédéral. Le paysage actuel comprend une vaste gamme d’approches en matière de qualité des données, chacune élaborée en fonction d’un type particulier de données ou d’un contexte organisationnel. Bien que de telles approches ciblées servent une fonction unique, un cadre commun ayant une vaste applicabilité peut renforcer les capacités de gouvernance des données à l’échelle du gouvernement en établissant un vocabulaire commun, en améliorant la cohérence des règles de qualité des données, en facilitant le partage et la réutilisation des données interministérielles et en favorisant des flux de données fiables et des pratiques éthiques.&lt;br /&gt;
&lt;br /&gt;
Le Cadre de la qualité des données du GC (le Cadre) est une réponse au besoin croissant d’une orientation centrale dans ce domaine. La qualité des données est récemment devenue une priorité pangouvernementale. La Politique sur les services et le numérique du Conseil du Trésor (CT) tient la dirigeante principale de l’information (DPI) du GC responsable d’établir des normes pangouvernementales sur la qualité des données (paragraphe 4.3.1.1). Le Plan stratégique des opérations numériques : de 2021 à 2024 présente la nécessité d’un cadre gouvernemental de qualité des données comme mesure prioritaire. De même, la recommandation 17 de la Feuille de route de la Stratégie relative aux données pour la fonction publique fédérale (Feuille de route de la Stratégie relative aux données) prévoit la création d’un cadre de qualité des données adaptable à l’échelle du gouvernement. La nécessité d’une orientation commune sur la qualité des données est également évidente dans le Budget de 2021, qui comprend divers investissements dans les capacités des données dans des domaines prioritaires comme la santé, la qualité de vie, la justice et l’environnement. C’est également ce qui ressort des récentes lettres de mandat ministérielles, qui engagent les ministres à améliorer la qualité et la disponibilité des données désagrégées afin de favoriser l’élaboration de politiques justes et équitables.&lt;br /&gt;
&lt;br /&gt;
La qualité des données est également priorisée au sein des ministères et organismes fédéraux. De nombreuses stratégies ministérielles en matière de données élaborées à la suite de la publication de la Feuille de route de la Stratégie relative aux données présentent la qualité des données comme une priorité organisationnelle et énumèrent les efforts prévus ou existants visant à la gérer efficacement. De plus, la Directive sur les services et le numérique du CT exige que les DPI ministériels et d’autres représentants désignés veillent à ce que « l’information et les données soient gérées pour permettre, dans la mesure du possible, l’interopérabilité des données, la réutilisation et le partage au sein des ministères et avec d’autres ministères à l’échelle du gouvernement afin d’éviter les répétitions et maximiser l’utilité, tout en respectant les exigences en matière de sécurité et de protection des renseignements personnels » (paragraphe 4.3.1.3).&lt;br /&gt;
&lt;br /&gt;
La préoccupation relative à la qualité des données s’étend également aux systèmes de décisions automatisés, qui reposent sur des données pour remplir leurs fonctions. La Directive sur la prise de décisions automatisée du CT exige que les organisations fédérales valident la qualité des données recueillies pour les systèmes de décisions automatisés et utilisées par ceux-ci (paragraphes 6.3.1, 6.3.3). L’évaluation de l’incidence algorithmique, un outil d’évaluation des risques qui appuie la Directive en déterminant le niveau de l’incidence d’un système de décision automatisé, tient également compte de ce fait en demandant aux utilisateurs de déterminer les processus pour déceler les biais dans les données. Ensemble, ces mesures s’inscrivent dans une démarche plus large visant à traiter l’information et les données comme des actifs stratégiques « afin d’appuyer les activités opérationnelles du gouvernement, la prestation de services, les analyses et la prise de décisions » (Politique sur les services et le numérique, paragraphe 4.3.2.1).&lt;br /&gt;
&lt;br /&gt;
La pandémie de la COVID-19 a amplifié le besoin d’approches pangouvernementales en matière de gouvernance des données au sein du GC. Le suivi, l’analyse et le contrôle de la propagation du virus au Canada ont obligé le gouvernement à mobiliser des capacités de collecte, de partage, d’intégration et de réutilisation des données en collaboration avec des partenaires provinciaux, territoriaux et internationaux. L’efficacité de cette opération dépend de la capacité des organisations du GC d’obtenir des données exactes et à jour aux fins de (dés)agrégation et d’analyse. Une compréhension commune de ces concepts de qualité à l’échelle du gouvernement peut améliorer les capacités de données horizontales, renforcer l’intervention en cas de pandémie du GC et améliorer la confiance du public.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Objectif==&lt;br /&gt;
&lt;br /&gt;
Le Cadre vise à établir une approche pangouvernementale de la définition et de l’évaluation de la qualité des données. Cela appuiera les priorités pangouvernementales, les objectifs et les exigences de la politique sur le numérique et les besoins des utilisateurs en :&lt;br /&gt;
&lt;br /&gt;
* appuyant la conformité à la Politique et à la Directive sur les services et le numérique du Conseil du Trésor en éclairant les approches organisationnelles et ministérielles en matière de qualité des données et de l’information;&lt;br /&gt;
* permettant l’adoption d’approches cohérentes d’évaluation de la qualité des données et de l’information, y compris dans le contexte des données ouvertes, de l’architecture intégrée et de la gouvernance des données et de l’information à l’échelle du gouvernement;&lt;br /&gt;
* appuyant les priorités en matière de données stratégiques définies dans la Feuille de route de la Stratégie relative aux données, le Plan stratégique des opérations numériques et les engagements des lettres de mandat ministérielles.&lt;br /&gt;
&lt;br /&gt;
Le Cadre vise à renforcer les capacités pangouvernementales en matière de gestion et de contrôle de la qualité des données en vue :&lt;br /&gt;
&lt;br /&gt;
* d’améliorer la disponibilité, l’interopérabilité, la convivialité et la valeur publique des données;&lt;br /&gt;
* de faciliter le partage et la réutilisation des données;&lt;br /&gt;
* d’appuyer l’utilisation de l’analyse des données;&lt;br /&gt;
* de renforcer la confiance envers les données.&lt;br /&gt;
&lt;br /&gt;
Ces objectifs contribueront à faire progresser la prise de décisions fondées sur des données probantes et à améliorer la conception et la prestation des politiques, des programmes et des services dans l’ensemble du gouvernement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Vue d’ensemble==&lt;br /&gt;
&lt;br /&gt;
Le cadre définit la qualité des données selon neuf dimensions : accès, exactitude, cohérence, exhaustivité, constance, intelligibilité, pertinence, fiabilité et actualité. Les données peuvent être considérées comme adéquates à l’objectif dans la mesure où elles répondent à ces critères. Le Cadre vise à s’appliquer à tous les types de données et à tous les contextes d’utilisation (ou de réutilisation). Il est aussi compatible avec diverses technologies.&lt;br /&gt;
&lt;br /&gt;
Les dimensions fournissent aux utilisateurs un vocabulaire conceptuel permettant de cerner et d’analyser un large éventail de problèmes de qualité des données intrinsèques et extrinsèques afin de garantir que les données sont utilisables et pertinentes par rapport aux objectifs des utilisateurs. Les problèmes communs comprennent les difficultés à comparer les jeux de données obtenus de multiples sources, les retards dans l’acquisition de données actuelles et les inexactitudes dans les renseignements sur les clients. (Voir l’annexe B pour des exemples propres à chaque dimension du cadre.)&lt;br /&gt;
&lt;br /&gt;
Les dimensions ne sont pas mutuellement exclusives; elles se chevauchent dans la pratique, puisque les problèmes de qualité des données ont tendance à avoir plusieurs facettes – un jeu de données comportant plusieurs représentations pour le même concept, par exemple, pourrait être à la fois incohérent (difficile à intégrer ou à comparer avec d’autres jeux de données) et inintelligible (difficile à interpréter). Toutefois, l’accent mis sur chaque dimension peut varier en fonction des besoins des utilisateurs, ce qui pourrait nécessiter des compromis. Par exemple, les besoins en matière de données actuelles pourraient amener les utilisateurs à accepter des compromis d’exactitude afin de garantir la rapidité. Il est également important de reconnaître que toutes les dimensions ne s’appliqueront pas nécessairement à un cas d’utilisation. L’établissement des priorités pourrait également dépendre de l’étape du cycle de vie à l’étude.&lt;br /&gt;
&lt;br /&gt;
Chaque dimension du Cadre est complétée par des lignes directrices qui permettent aux utilisateurs de l’interpréter et de l’appliquer. Les lignes directrices présentent des mesures qui peuvent façonner et normaliser les approches d’évaluation de la qualité des données. Bien qu’elles ne soient pas nécessairement toutes pertinentes en même temps, elles peuvent servir de liste de vérification adaptable pour déterminer les exigences stratégiques et juridiques pertinentes, les considérations en matière de ressources, les pratiques exemplaires et les intervenants. La collaboration entre les organisations peut appuyer la mise en œuvre des lignes directrices, en particulier pour les données partagées, réutilisées ou diffusées au public.&lt;br /&gt;
&lt;br /&gt;
L’applicabilité du Cadre à tous les types de données offre aux utilisateurs diverses occasions de l’adopter ou de l’adapter en fonction de leurs besoins. Pour des domaines de données spécifiques, le Cadre pourrait servir de base pour les agrandissements qui ajoutent aux dimensions (agrandissement horizontal) ou les élaborent davantage pour appuyer leur application dans ces contextes (agrandissement vertical). &lt;br /&gt;
&lt;br /&gt;
Voici une liste illustrative d’instruments et de processus de gouvernance qui pourraient bénéficier de l’orientation commune sur la qualité des données établie dans le présent Cadre :&lt;br /&gt;
&lt;br /&gt;
* Cadre de responsabilisation de gestion (CRG) (p. ex., dans les évaluations de la maturité ministérielle dans la gestion des données du cycle de vie).&lt;br /&gt;
* Normes relatives au numérique du GC (p. ex., dans l’évaluation des initiatives numériques par rapport à la norme « Être de bons utilisateurs de données »).&lt;br /&gt;
* Évaluation de l’incidence algorithmique (p. ex., comme guide supplémentaire pour les questions relatives aux cadres et aux processus de qualité des données).&lt;br /&gt;
* Évaluation des facteurs relatifs à la vie privée (p. ex., à titre d’orientation supplémentaire pour évaluer les répercussions sur la vie privée des programmes ou des activités touchant des renseignements personnels, ce qui comprend des considérations relatives à leur exactitude).&lt;br /&gt;
* Cadre de l’architecture intégrée du GC (p. ex., dans les évaluations des initiatives numériques par rapport à la couche d’architecture de l’information de ce cadre).&lt;br /&gt;
* Politiques ministérielles en matière de données et les cadres et outils connexes en matière de qualité des données (p. ex., les exigences, les principes, les structures de gouvernance ou les règles opérationnelles liés à la qualité des données).&lt;br /&gt;
* Ententes interministérielles ou intergouvernementales de partage de données (p. ex., dans des clauses établissant des dispositions relatives à la qualité des données partagées ou échangées).&lt;br /&gt;
* Présentations au CT (p. ex., en tant que vocabulaire commun permettant d’articuler les enjeux et les objectifs en matière de qualité des données dans le contexte de la conception ou de la mise en œuvre d’un programme).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Cadre==&lt;br /&gt;
&lt;br /&gt;
Les données peuvent être considérées comme adaptées à l’objectif lorsqu’elles correspondent aux dimensions suivantes. Les dimensions sont des principes qui décrivent les aspects intrinsèques et extrinsèques de la qualité des données au sein du gouvernement.&lt;br /&gt;
&lt;br /&gt;
'''Accès''' : Facilité avec laquelle un utilisateur peut découvrir, traiter, manipuler et obtenir les données.&lt;br /&gt;
&lt;br /&gt;
''L’accès est une mesure de la disponibilité et de l’accessibilité des données pour répondre aux besoins des utilisateurs. Cette dimension dépend de plusieurs facteurs, comme la connaissance des données par les utilisateurs et leur capacité d’y avoir accès. Cependant, même lorsque les données sont consultées ou acquises, les utilisateurs peuvent ne pas toujours avoir la capacité de les traiter ou de les manipuler pour répondre à leurs besoins en raison de contraintes techniques, de ressources, d’information, de politiques ou de lois.''&lt;br /&gt;
&lt;br /&gt;
'''Exactitude''' : Mesure dans laquelle les données décrivent les phénomènes du monde réel qu’elles sont censées représenter.&lt;br /&gt;
&lt;br /&gt;
''Les données sont exactes lorsqu’elles représentent un phénomène adéquatement. Les évaluations de l’exactitude varient selon le contexte, la méthodologie et la validité des hypothèses ou suppositions sous-jacentes. Le maintien de l’exactitude dans les organisations du secteur public implique de garantir que les données recueillies pour administrer les services correspondent à ce que les clients ont partagé. Dans les initiatives stratégiques et de programmes, pour garantir l’exactitude, les utilisateurs doivent souvent valider les données en consultant des sources fiables et en évaluant les méthodes ou les processus par lesquels les données ont été acquises.''&lt;br /&gt;
&lt;br /&gt;
'''Cohérence''' : Mesure dans laquelle les données provenant d’une ou de plusieurs sources sont comparables et peuvent être reliées entre elles.&lt;br /&gt;
&lt;br /&gt;
''Un jeu de données cohérent est conforme aux taxonomies ou nomenclatures d’architecture communes''. ''Les utilisateurs peuvent améliorer la cohérence des données en adoptant des normes organisationnelles, fédérales, nationales ou internationales applicables. Des données cohérentes sont réutilisables et interopérables; les utilisateurs peuvent également les intégrer et les comparer à d’autres données.''&lt;br /&gt;
&lt;br /&gt;
'''Exhaustivité''' : Mesure dans laquelle les valeurs de données sont suffisamment remplies.&lt;br /&gt;
&lt;br /&gt;
''Les données peuvent être considérées comme complètes lorsqu’elles contiennent les entrées nécessaires pour que les utilisateurs les utilisent de façon appropriée. L’information contextuelle et de fond permet aux utilisateurs de comprendre un jeu de données dans leurs secteurs d’activité respectifs.''&lt;br /&gt;
&lt;br /&gt;
'''Constance :''' Mesure dans laquelle les données sont non contradictoires en interne.&lt;br /&gt;
&lt;br /&gt;
''La cohérence permet de garantir la validité logique d’un jeu de données. Un jeu de données est cohérent si les relations entre ses composantes sont déterminées comme étant logiques.''&lt;br /&gt;
&lt;br /&gt;
'''Intelligibilité''' : Mesure dans laquelle les données peuvent être comprises dans leur contexte approprié. &lt;br /&gt;
&lt;br /&gt;
''Un jeu de données peut être interprété si un utilisateur est en mesure de comprendre ses entrées, de déterminer pourquoi et comment il a été recueilli ou créé, et de juger de sa pertinence pour une politique, un programme, un service ou une autre initiative gouvernementale.''&lt;br /&gt;
&lt;br /&gt;
'''Pertinence :''' Mesure dans laquelle les données sont jugées convenables pour appuyer un objectif.&lt;br /&gt;
&lt;br /&gt;
''La pertinence des données dépend de leur valeur informative ou analytique qu’elles apportent à l’objectif de l’utilisateur. Les évaluations de la pertinence dépendent du contexte : les mêmes données pourraient être pertinentes dans un contexte d’utilisation et non pertinentes dans un autre.''&lt;br /&gt;
&lt;br /&gt;
'''Fiabilité''' : Mesure dans laquelle la variabilité des données peut être expliquée.&lt;br /&gt;
&lt;br /&gt;
''La fiabilité porte sur le fait que les données répondent aux attentes des utilisateurs au fil du temps. Un jeu de données est fiable si les utilisateurs peuvent expliquer comment il évolue ou change au fil du temps.'' &lt;br /&gt;
&lt;br /&gt;
'''Actualité''' : Durée entre la fin de la période à laquelle les données se rapportent et la période à laquelle ces données sont disponibles pour répondre aux besoins des utilisateurs.&lt;br /&gt;
&lt;br /&gt;
''L’actualité est une mesure du délai entre deux points de temps : le moment où les données ont dépassé leur période de référence et le moment où ces données sont mises à la disposition des utilisateurs.''&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Lignes directrices==&lt;br /&gt;
&lt;br /&gt;
Les lignes directrices permettent aux utilisateurs d’interpréter et d’appliquer les neuf dimensions de façon uniforme. Elles présentent des mesures qui peuvent façonner les approches d’évaluation de la qualité des données. Les utilisateurs sont invités à identifier les points de contact (p. ex., intendant des données, administrateur de données, fournisseur de données, expert sujet-matière) qui ont l’expertise appropriée pour répondre aux demandes de renseignements liées à chaque dimension.&lt;br /&gt;
&lt;br /&gt;
'''Accès'''&lt;br /&gt;
&lt;br /&gt;
* Élaborer un répertoire ou un catalogue des jeux de données utilisés afin d’appuyer les politiques, les programmes ou les services.&lt;br /&gt;
* Élaborer des métadonnées décrivant les concepts, les variables et les nomenclatures de vos actifs de données conformément à la Norme sur les métadonnées et à la Norme sur les données géospatiales du Conseil du Trésor (CT).&lt;br /&gt;
* Établir des processus visant à documenter, conserver, publier, archiver et éliminer les données collectées ou créées dans votre organisation.&lt;br /&gt;
* Attribuer des catégories de sécurité aux actifs de données, comme l’exige la Directive sur la gestion de la sécurité du CT.&lt;br /&gt;
* Définir les droits et privilèges d’accès pour les actifs de données afin de les protéger contre un accès non autorisé conformément à la Directive sur la gestion de la sécurité du CT.&lt;br /&gt;
* Veiller à ce qu’il existe des processus et des procédures pour appuyer la production de données en réponse aux demandes de renseignements en vertu de la ''Loi sur l’accès à l’information'' et de la ''Loi sur la protection des renseignements personnels''.&lt;br /&gt;
* Veiller à ce que l’institution ait le pouvoir parlementaire de recueillir ou de créer les données pour un programme ou une activité de fonctionnement, conformément à la Directive sur les pratiques relatives à la protection de la vie privée du CT.&lt;br /&gt;
* Utiliser un langage clair (p. ex., tel que décrit dans le Guide de rédaction du contenu du site canada.ca) et des formats lisibles par machine (p. ex., CSV, XML, JSON) visant à améliorer la portabilité des données et faciliter le traitement, la manipulation, la consommation, la publication et l’archivage des données par les utilisateurs.&lt;br /&gt;
* Investir dans les infrastructures de données afin de fournir un accès facile et sécurisé aux données conformément à l’approche « en nuage d’abord » établie dans la Directive sur les services et le numérique du CT. Les données sensibles (Protégé B, Protégé C ou Classifié) devraient être conservées dans les systèmes situés à l’intérieur des frontières géographiques du Canada ou dans les organisations du GC à l’étranger (voir l’Orientation sur l’utilisation sécurisée des services commerciaux d’informatique en nuage et le Profil des mesures de sécurité pour les services du GC fondés sur l’informatique en nuage pour obtenir des directives sur l’utilisation sécuritaire des services d’informatique en nuage).&lt;br /&gt;
* Fournir aux utilisateurs de multiples méthodes d’accès et d’extraction de données. Cela pourrait inclure la mise à disposition de données dans de multiples formats et au moyen d’API accessibles élaborées conformément aux Normes du GC sur les API.&lt;br /&gt;
* Travailler à l’ouverture par défaut et publier les données dans le Portail du gouvernement ouvert conformément à la Directive sur le gouvernement ouvert du CT et comme le permettent les cadres fédéraux applicables en matière de protection des renseignements personnels, de sécurité et de propriété intellectuelle. À l’aide d’un langage clair, saisissez les données d’enregistrement des données ouvertes avec les métadonnées requises lors de la publication des données.&lt;br /&gt;
* Réaliser des sondages pour identifier les obstacles à la découverte, à l’accès et à l’utilisation des données au sein de votre organisation.&lt;br /&gt;
* Signaler tout accès aux données ou utilisation des données non autorisés aux agents de sécurité désignés et, en cas de renseignements personnels, au Secrétariat du Conseil du Trésor du Canada et au Commissariat à la protection de la vie privée du Canada, comme l’exige la Directive sur les pratiques relatives à la protection de la vie privée du CT.&lt;br /&gt;
&lt;br /&gt;
'''Exactitude'''&lt;br /&gt;
&lt;br /&gt;
* Consulter les sources de données fiables visant à identifier les sources d’erreur, vérifier le contenu et comprendre le contexte entourant les données.&lt;br /&gt;
* Veiller à ce que les données comprennent des métadonnées normalisées afin de permettre aux utilisateurs d’évaluer l’exactitude des données. Les métadonnées pertinentes pourraient comprendre des renseignements sur la source, le but et la méthode de collecte, le traitement, les révisions, la couverture et le modèle de données ainsi que sur les hypothèses connexes.&lt;br /&gt;
* Veiller à ce que les données soient adéquatement représentatives de tous les domaines (p. ex., zones géographiques, populations) qu’elles contiennent, selon le cas.&lt;br /&gt;
* Respecter les plages de valeurs attendues visant à maintenir la validité. Des explications concernant les valeurs aberrantes doivent être fournies aux utilisateurs de données.&lt;br /&gt;
* Élaborer des règles opérationnelles permettant de valider de façon uniforme les données pour les erreurs, y compris le dédoublement dans un jeu de données. Appliquer les règles opérationnelles applicables tout au long du cycle de vie des données, notamment lors de la collecte et du partage des données.&lt;br /&gt;
* Veillez à ce que votre méthode de production de données comprenne des étapes permettant de réduire au minimum les biais et les erreurs statistiques (p. ex., erreur d’échantillonnage). (Voir le Cadre de l’erreur d’enquête totale [en anglais] pour les sources d’erreurs statistiques et les indicateurs de qualité connexes. En ce qui concerne les préjugés, voir le processus d’Analyse comparative entre les sexes plus pour façonner les évaluations des inégalités systémiques qui pourraient se manifester dans les données.)&lt;br /&gt;
* Veiller à ce qu’il existe une source faisant autorité pour les données, dans la mesure du possible.&lt;br /&gt;
* Veiller à ce que l’institution ait le pouvoir légal de recueillir des données sur une personne identifiable et que cette collecte soit directement liée à un programme ou à une activité de fonctionnement au sein de l’institution. Des mécanismes devraient être en place pour corriger les renseignements personnels sur demande (voir la Directive sur les pratiques relatives à la protection de la vie privée du CT).&lt;br /&gt;
* Valider les concepts et les hypothèses connexes en consultation avec des experts en la matière afin d’évaluer la précision des données, ou la mesure dans laquelle elles correspondent à ce que l’utilisateur a l’intention de mesurer.&lt;br /&gt;
&lt;br /&gt;
'''Cohérence'''&lt;br /&gt;
&lt;br /&gt;
* Déterminer les normes relatives aux données organisationnelles, fédérales, nationales et/ou internationales applicables et documenter les différences dans les pratiques. Cette information peut être consignée dans un répertoire des normes pangouvernemental ou ministériel.&lt;br /&gt;
* Adopter ou adapter les normes applicables relatives aux données, particulièrement lors du partage de données avec d’autres organisations ou de la publication de données dans le Portail du gouvernement ouvert. Les principaux aspects de la normalisation des données comprennent les nomenclatures, les métadonnées, la mise en forme, l’accessibilité, la syntaxe, le codage sémantique et le langage. Les normes pertinentes pourraient être propres à un domaine, conçues pour des types particuliers de données (p. ex. statistiques, géospatiales).&lt;br /&gt;
* Consigner certaines normes dans un répertoire ou un catalogue de données, à titre de métadonnées ou dans des ententes de partage de données. Si de nouvelles normes sont élaborées, documenter les raisons pour lesquelles les normes relatives aux données existantes et applicables ne sont pas utilisées.&lt;br /&gt;
* Veiller à ce que les éléments de données soient définis, classifiés et représentés conformément aux architectures de données communes, conformément au Cadre de l’architecture intégrée du GC.&lt;br /&gt;
* Veiller à ce que les concepts, les définitions et les nomenclatures soient compatibles dans les jeux de données et entre eux afin de permettre la comparaison et l’intégration des données. En plus de l’environnement de données interne, les efforts dans ce domaine peuvent s’étendre aux organisations dans l’ensemble du GC et aux organisations externes dans l’ensemble des secteurs et des administrations.&lt;br /&gt;
* Utiliser des tableaux de concordance permettant d’illustrer les écarts et les transitions entre les normes utilisées pour toutes les sources de données.&lt;br /&gt;
* Réduire la duplication des données entre les jeux de données afin d’appuyer l’intégrité des données.&lt;br /&gt;
&lt;br /&gt;
'''Exhaustivité'''&lt;br /&gt;
&lt;br /&gt;
* Veiller à ce qu’aucune entrée, colonne ou ligne centrale à l’objectif d’un jeu de données ne soit manquante ou incomplète.&lt;br /&gt;
* Tenir à jour les valeurs, les concepts, les définitions, les nomenclatures et les méthodologies.&lt;br /&gt;
* Attribuer des étiquettes obligatoires et facultatives aux colonnes ou aux lignes d’un jeu de données afin de faciliter les évaluations de l’exhaustivité.&lt;br /&gt;
* Compléter les données au moyen des métadonnées appropriées qui précisent le contexte et le but de leur acquisition. Les métadonnées pourraient également préciser les facteurs relatifs à la vie privée, à la confidentialité ou à l’exactitude ayant une incidence sur l’exhaustivité.&lt;br /&gt;
&lt;br /&gt;
'''Constance'''&lt;br /&gt;
&lt;br /&gt;
* Élaborer des règles de validation pour toutes les relations logiques codées dans un jeu de données. Cela pourrait inclure des règles officialisant la relation entre deux variables interdépendantes comme l’âge et l’état matrimonial (p. ex., l’âge minimum du mariage limite les catégories d’état matrimonial admissibles pour les personnes en dessous d’un certain âge) ou la municipalité et la province (p. ex., une municipalité doit se trouver dans une province). &lt;br /&gt;
* Valider régulièrement la constance des jeux de données à l’aide des règles de validation pertinentes. Les processus de validation devraient être normalisés et automatisés afin d’appuyer l’efficacité. &lt;br /&gt;
* Tenir un registre des problèmes d’uniformité relevés au moyen des procédures de validation des données et examiner périodiquement les règles de validation afin de garantir leur pertinence et leur efficacité. &lt;br /&gt;
* Acquérir les métadonnées appropriées auprès du fournisseur de données pour en apprendre davantage sur les classes d’entités d’un jeu de données, les valeurs qu’elles sont censées permettre et les relations qui existent entre elles. &lt;br /&gt;
&lt;br /&gt;
'''Intelligibilité'''&lt;br /&gt;
&lt;br /&gt;
* Adopter, adapter ou développer des vocabulaires contrôlés afin de veiller à ce que les concepts clés soient nommés et définis de façon uniforme dans un jeu de données. L’harmonisation avec les vocabulaires pangouvernementaux comme le Thésaurus des sujets de base du GC est recommandée.&lt;br /&gt;
* Se conformer aux normes relatives aux données organisationnelles, fédérales, nationales et/ou internationales régissant les valeurs admissibles des éléments d’un jeu de données (p. ex., données de référence, données de base). Cela pourrait inclure des normes propres à un domaine.&lt;br /&gt;
* Élaborer des métadonnées de définition et de procédure, en respectant la politique applicable du CT, comme la Norme sur les métadonnées du CT, et en tenant compte des besoins des publics cibles. Les métadonnées pourraient préciser le but de l’acquisition de données et fournir des renseignements sur la méthodologie et la catégorisation en matière de sécurité.&lt;br /&gt;
* Consigner l’information nécessaire pour interpréter les données de façon significative et maintenir un lien clair entre cette information et les données tout au long de leur cycle de vie.&lt;br /&gt;
* Veiller à ce que les utilisateurs soient informés des utilisations appropriées des données et qu’ils soient conscients de leurs limites.&lt;br /&gt;
&lt;br /&gt;
'''Pertinence'''&lt;br /&gt;
&lt;br /&gt;
* Établir des processus permettant de consulter les intervenants au sujet de leurs besoins en matière de données. Il pourrait s’agir de tirer parti des répertoires ou des catalogues de données pour déterminer les données existantes et réduire au minimum la collecte de données redondantes (voir la Ligne directrice sur les services et le numérique du CT pour obtenir des directives sur la collecte de renseignements et de données).&lt;br /&gt;
* Déterminer les besoins en matière de données et les sources de données en fonction des objectifs opérationnels et des besoins des utilisateurs.&lt;br /&gt;
* Évaluer et documenter la façon dont les actifs de données satisfont aux exigences en matière de données afin d’évaluer leur pertinence. Cela pourrait comprendre le suivi sur la manière dont les actifs de données sont utilisés et réutilisés pour faire avancer les priorités organisationnelles ou pangouvernementales.&lt;br /&gt;
* Tirer parti des résultats des évaluations de la pertinence visant à façonner l’acquisition future de données et les activités connexes de gestion du cycle de vie et de gouvernance.&lt;br /&gt;
* Établir des critères permettant de garantir que les efforts d’acquisition de données établissent un équilibre approprié entre les besoins opérationnels et les risques en matière de protection des renseignements personnels et de sécurité (voir les Principes de nécessité et de proportionnalité de Statistique Canada). Dans le cas des renseignements personnels, l’acquisition de données devrait être directement liée à un programme ou à une activité de fonctionnement de l’institution.&lt;br /&gt;
* Veiller à ce que les données ayant une valeur historique ou archivistique soient conservées de façon appropriée afin de faciliter la conservation et la découverte indéfinies permettant leur réutilisation conformément à la ''Loi sur la Bibliothèque et les Archives du Canada'' (BAC) et aux instruments de politique connexes.&lt;br /&gt;
&lt;br /&gt;
'''Fiabilité'''&lt;br /&gt;
&lt;br /&gt;
* Identifier et consigner les sources qui peuvent modifier directement ou indirectement un jeu de données. Les sources de changement pourraient comprendre les phénomènes représentés, les méthodes de collecte de données, les technologies de saisie et de stockage de données, les plateformes de traitement de données, les mesures législatives ou réglementaires, les exigences de politique et les cyberattaques.&lt;br /&gt;
* Veiller à ce que les méthodes d’acquisition et d’analyse des données soient clairement articulées afin de faciliter la validation par un tiers et de maintenir l’intégrité du processus de production des données.&lt;br /&gt;
* Tester les instruments de collecte ou de création de données avant de les déployer, de documenter les étalonnages et de tenir compte de la variance des résultats.&lt;br /&gt;
* Tenir un registre des modifications apportées à vos actifs de données afin que les utilisateurs puissent déterminer leur provenance et suivre l’évolution depuis leur création.&lt;br /&gt;
* Déterminer et consigner les dépendances entre les actifs de données liés dans une architecture de données ou dans le contexte de l’analyse de données.&lt;br /&gt;
* Appuyer la compatibilité des concepts, des définitions et des nomenclatures au fil du temps. Préciser et expliquer les écarts sur la façon dont ces éléments sont conservés au fil du temps.&lt;br /&gt;
* Protéger les actifs de données contre les activités frauduleuses ou non autorisées qui pourraient nuire à leur crédibilité et avoir une incidence sur la confiance envers le fournisseur de données. Cela comprend la définition, la mise en œuvre et la tenue à jour des mesures de sécurité permettant de répondre aux exigences en matière de sécurité de la TI, conformément à la Directive sur la gestion de la sécurité du CT et à la Directive sur les pratiques relatives à la protection de la vie privée du CT.&lt;br /&gt;
* Utiliser des approches de conservation numérique pour surveiller et prévenir la détérioration des actifs de données tout au long de leur cycle de vie. Cela comprend des vérifications régulières de l’intégrité des données (p. ex., au moyen du hachage ou en utilisant des sommes de contrôle) et la documentation de toute preuve de détérioration conformément à la ''Loi sur la BAC'' et aux instruments de politique connexes.&lt;br /&gt;
* Signaler l’altération ou la destruction non autorisée des actifs de données aux agents de sécurité désignés.&lt;br /&gt;
&lt;br /&gt;
'''Actualité'''&lt;br /&gt;
&lt;br /&gt;
* Déterminer les besoins actuels et prévus des utilisateurs en matière de données, y compris les considérations de temps (p. ex., périodes de référence, exigences législatives ou stratégiques, normes relatives aux service).&lt;br /&gt;
* Consulter les fournisseurs de données pour évaluer si les besoins en matière de données peuvent être satisfaits sans délai et informer les utilisateurs de données de tout problème de ponctualité prévu. Cela pourrait comprendre la confirmation de la capacité du fournisseur de données à respecter les délais établis dans les ententes de partage de données.&lt;br /&gt;
* Veiller à ce que les fournisseurs de données disposent d’un calendrier de diffusion des données qui consigne les étapes du processus de production des données, et tiennent compte des écarts et des retards (p. ex., au moyen de la planification d’urgence).&lt;br /&gt;
* Publier des données préliminaires sur le Portail du gouvernement ouvert lorsque cela est utile aux utilisateurs, conformément à la Directive sur le gouvernement ouvert du CT.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Annexe A : Glossaire==&lt;br /&gt;
&lt;br /&gt;
'''Vocabulaires contrôlés''' : Liste de termes, mots ou expressions normalisés, utilisés pour l’indexation ou l’analyse de contenu et la récupération des renseignements, généralement dans un domaine d’information défini.&lt;br /&gt;
&lt;br /&gt;
'''Données''' : Ensemble de valeurs de sujets à l’égard de variables qualitatives ou quantitatives qui représente des faits, des statistiques ou des éléments d’information de façon officielle adéquate à la communication, à la réinterprétation ou au traitement.&lt;br /&gt;
&lt;br /&gt;
'''Qualité des données''' : Caractéristique des données déterminée en fonction de l’accès, de l’exactitude, de la cohérence, de l’exhaustivité, de la constance, de l’interprétabilité, de la pertinence, de la fiabilité et de la rapidité. Une qualité élevée des données est un indicateur de l’adéquation au besoin, ce qui signifie que les données sont à la fois utilisables et pertinentes dans un contexte d’utilisation primaire ou autre.&lt;br /&gt;
&lt;br /&gt;
'''Normes relatives aux données''' : Ensemble de règles ou de lignes directrices documentées qui permettent d’avoir une description, une représentation, une structuration et un partage cohérents et reproductibles des données.&lt;br /&gt;
&lt;br /&gt;
'''Information''' : Connaissances saisies dans n’importe quel format, comme des faits, des événements, des choses, des processus ou des idées, qui peuvent être structurés ou non, y compris des concepts qui, dans un certain contexte, ont une signification particulière. L’information comprend les données.&lt;br /&gt;
&lt;br /&gt;
'''Cycle de vie de l’information''' : La planification, la collecte, la création, la réception, la saisie, l’organisation, l’utilisation, la réutilisation, la diffusion, la conservation, la protection, la préservation, l’élimination et l’évaluation de l’information.&lt;br /&gt;
&lt;br /&gt;
'''Interopérabilité''' : Capacité pour divers types de dispositifs électroniques, de réseaux, de systèmes d’exploitation et d’applications de fonctionner ensemble efficacement, sans communication préalable, pour échanger de l’information de manière utile et significative.&lt;br /&gt;
&lt;br /&gt;
'''Métadonnées''' : La définition et la description de la structure et de la signification de l’information et des données ainsi que le contexte et les systèmes dans lesquels elles existent.&lt;br /&gt;
&lt;br /&gt;
Renseignements personnels : Renseignements, quels que soient leur forme et leur support, concernant un individu identifiable.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Annexe B : Exemples d’applications==&lt;br /&gt;
&lt;br /&gt;
Les cas d’utilisation suivants visent à préciser la signification des dimensions du Cadre dans la pratique en fournissant des exemples concrets de questions pertinentes en matière de qualité, en suggérant des approches pour évaluer ou aborder les questions, et en faisant la distinction entre les dimensions du Cadre.&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|'''Dimension'''&lt;br /&gt;
|'''Exemple d’application'''&lt;br /&gt;
|-&lt;br /&gt;
|Accès&lt;br /&gt;
|Un programme qui élabore un système de décision automatisé  publie de l’information sur le système dans des formats lisibles par machine  et par l’humain dans le Portail du gouvernement ouvert. En tant  qu’information accessible, elle est facile à découvrir et à obtenir par des  intervenants de tous les secteurs.&lt;br /&gt;
|-&lt;br /&gt;
|Exactitude&lt;br /&gt;
|Un administrateur de  données met à jour les données sur le pays de citoyenneté d’un citoyen  récemment naturalisé afin de veiller à ce qu’elles correspondent à son  nouveau statut au Canada.&lt;br /&gt;
|-&lt;br /&gt;
|Cohérence&lt;br /&gt;
|Un registre d’adresses provincial est normalisé de  sorte que la province de l’Ontario soit représentée comme « ON »  afin de permettre l’interopérabilité des données et de faciliter le partage  des données entre les organisations qui ont adopté la même norme.&lt;br /&gt;
|-&lt;br /&gt;
|Exhaustivité&lt;br /&gt;
|Un administrateur du sondage fait un suivi auprès des  personnes qui y ont répondu pour leur demander de remplir les champs  obligatoires d’un sondage sur la satisfaction afin de pouvoir générer un jeu  de données complet.&lt;br /&gt;
|-&lt;br /&gt;
|Constance&lt;br /&gt;
|Un programme offrant un service externe identifie et  corrige une erreur dans la date de naissance d’un client, qui avait été  établie plus tard que la date de présentation de sa demande – contrairement  aux règles de validation établies.&lt;br /&gt;
|-&lt;br /&gt;
|Intelligibilité&lt;br /&gt;
|La Base de données sur le commerce international de  marchandises fournit des définitions claires des concepts clés et des  descriptions accessibles des nomenclatures, ce qui permet aux utilisateurs de  comprendre et d’utiliser les données dans les analyses des tendances du  commerce international.&lt;br /&gt;
|-&lt;br /&gt;
|Pertinence&lt;br /&gt;
|Un programme responsable des pensions de retraite  recueille des données bancaires auprès des demandeurs après avoir déterminé  le rôle des données dans le traitement des paiements de prestations.&lt;br /&gt;
|-&lt;br /&gt;
|Fiabilité&lt;br /&gt;
|Les données canadiennes sur le climat sont ajustées afin  de tenir compte des déplacements attribuables aux changements dans les  instruments et les procédures d’observation. Par exemple, les données de  pluviomètre extraites des Archives nationales de données climatologiques ont  été corrigées pour tenir compte de facteurs tels que la sous-capture en  raison du vent, l’évaporation et les pertes par mouillage. &lt;br /&gt;
|-&lt;br /&gt;
|Actualité&lt;br /&gt;
|Les provinces et les territoires déclarent au  gouvernement fédéral les données relatives aux cas de la COVID-19 toutes les  24 heures afin d’appuyer la mise à jour épidémiologique quotidienne sur  la COVID-19, qui fournit un résumé des cas de la COVID-19 au Canada et au fil  du temps.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Annexe C : Approche==&lt;br /&gt;
&lt;br /&gt;
Le Cadre a été élaboré en collaboration par un groupe de travail interministériel codirigé par Statistique Canada et le Secrétariat du Conseil du Trésor du Canada (SCT). Le groupe a été établi à l’automne 2019 dans le cadre de la Communauté de pratique sur les données intégrées du GC. L’élaboration des dimensions a été guidée par une analyse environnementale des cadres de qualité des données au sein du gouvernement fédéral, de l’industrie, d’organisations internationales et d’organisations du secteur public d’autres gouvernements.&lt;br /&gt;
&lt;br /&gt;
Des délibérations régulières entre les membres du groupe de travail ont également aidé à peaufiner l’approche de la formulation et de la définition des dimensions, tout en aidant à établir un consensus autour du cadre dans son ensemble. Une fois qu’il y a eu un large consensus sur les fondements du cadre, le groupe a collaboré à l’élaboration de lignes directrices favorisant l’interprétation et l’application cohérentes des dimensions. Les lignes directrices ont été modelées sur les Lignes directrices concernant la qualité de Statistique Canada, qui fournissent également des pratiques exemplaires non exhaustives pour les principes de qualité des données.&lt;br /&gt;
&lt;br /&gt;
Le SCT et Statistique Canada examineront et mettront à jour périodiquement le Cadre en consultation avec les partenaires fédéraux afin de veiller à ce qu’il demeure pertinent et utile pour le GC. De plus, le SCT fera progresser les efforts visant à opérationnaliser le Cadre en s’efforçant de l’intégrer ou de le mentionner dans les instruments de politique, les processus et les cadres de gouvernance du Conseil du trésor et les modèles d’entente de partage de données.&lt;br /&gt;
&lt;br /&gt;
Les organisations fédérales suivantes ont participé à l’élaboration du Cadre : Agriculture et Agroalimentaire Canada; Agence des services frontaliers du Canada; Société canadienne d’hypothèques et de logement; Agence du revenu du Canada; École de la fonction publique du Canada; Agence canadienne d’inspection des aliments; Commission canadienne des droits de la personne; Instituts de recherche en santé du Canada; Commission canadienne de sécurité nucléaire; Agence spatiale canadienne; Service correctionnel du Canada; Relations Couronne‑Autochtones et Affaires du Nord Canada; Ministère de la Justice Canada; ministère de la Défense nationale; Élections Canada; Emploi et Développement social Canada; Environnement et Changement climatique Canada; Pêches et Océans Canada; Affaires mondiales Canada; Santé Canada; Immigration, Réfugiés et Citoyenneté Canada; Services aux Autochtones Canada; Innovation, Sciences et Développement économique Canada; Bibliothèque et Archives Canada; Ressources naturelles Canada; Bureau du Conseil privé; Agence de la santé publique du Canada; Services publics et Approvisionnement Canada; Service Canada; Services partagés Canada; Conseil canadien des normes; Statistique Canada; Transports Canada; Secrétariat du Conseil du Trésor du Canada; Anciens Combattants Canada.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Annexe D : Références==&lt;br /&gt;
&lt;br /&gt;
Outil d’évaluation de l’incidence algorithmique : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/evaluation-incidence-algorithmique.html&lt;br /&gt;
&lt;br /&gt;
Budget de 2021 – Une relance axée sur les emplois, la croissance et la résilience : https://www.budget.gc.ca/2021/home-accueil-fr.html&lt;br /&gt;
&lt;br /&gt;
Guide de rédaction du contenu du site canada.ca : https://www.canada.ca/fr/secretariat-conseil-tresor/services/communications-gouvernementales/guide-redaction-contenu-canada.html&lt;br /&gt;
&lt;br /&gt;
Data Management Body of Knowledge, 2&amp;lt;sup&amp;gt;nd&amp;lt;/sup&amp;gt; Edition (DMBOK2): DMBoK – Data Management Body of Knowledge (dama.org)&lt;br /&gt;
&lt;br /&gt;
Plan stratégique des opérations numériques : de 2021 à 2024 : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/plans-strategiques-operations-numeriques-gouvernement-canada/plan-strategique-operations-numerique-2021-2024.html&lt;br /&gt;
&lt;br /&gt;
Orientation sur l’utilisation sécurisée des services commerciaux d’informatique en nuage : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/services-informatique-nuage/orientation-utilisation-securisee-services-commerciaux-informatique-nuage-amops.html&lt;br /&gt;
&lt;br /&gt;
European Statistics Code of Practice for the National Statistical Authorities and Eurostat (EU Statistical Authority) : https://ec.europa.eu/eurostat/documents/4031688/8971242/KS-02-18-142-EN-N.pdf/e7f85f07-91db-4312-8118-f729c75878c7?t=1528447068000&lt;br /&gt;
&lt;br /&gt;
Thésaurus des sujets de base du gouvernement du Canada : https://canada.multites.net/tsb/index.htm&lt;br /&gt;
&lt;br /&gt;
Normes relatives au numérique du gouvernement du Canada : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/normes-numeriques-gouvernement-canada.html&lt;br /&gt;
&lt;br /&gt;
Cadre de l’architecture intégrée du gouvernement du Canada : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/politiques-normes/cadre-architecture-integree-gouvernement-canada.html&lt;br /&gt;
&lt;br /&gt;
Profil des mesures de sécurité pour les services du GC fondés sur l’informatique en nuage : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/services-informatique-nuage/profil-controle-securite-services-ti-fondes-information-nuage.html &lt;br /&gt;
&lt;br /&gt;
Normes du gouvernement du Canada sur les API : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/technologiques-modernes-nouveaux/normes-gouvernement-canada-api.html  &lt;br /&gt;
&lt;br /&gt;
ISO 8000–2, Qualité des données – Partie 2 : Vocabulaire, en anglais : https://www.iso.org/obp/ui/#iso:std:iso:8000:-2:ed-4:v1:en&lt;br /&gt;
&lt;br /&gt;
ISO 8000–8, Qualité des données — Partie 8 : Informations et qualité des données : Concepts et mesurage, en anglais : https://www.iso.org/obp/ui/#iso:std:iso:8000:-8:ed-1:v1:en &lt;br /&gt;
&lt;br /&gt;
''Loi sur la Bibliothèque et les Archives du Canada'' : https://laws-lois.justice.gc.ca/fra/lois/l-7.7/index.html&lt;br /&gt;
&lt;br /&gt;
(Ébauche) Normes sur la qualité des données et de l’information sur le gouvernement ouvert : https://ouvert.canada.ca/ckan/fr/dataset/bfb87332-5da3-5780-9546-8722a389c91c&lt;br /&gt;
&lt;br /&gt;
''Loi sur la protection des renseignements personnels :'' https://laws-lois.justice.gc.ca/fra/lois/p-21/index.html&lt;br /&gt;
&lt;br /&gt;
Quality Dimensions, Core Values for OECD Statistics and Procedures for Planning and Evaluating Statistical Activities: http://www.oecd.org/sdd/21687665.pdf&lt;br /&gt;
&lt;br /&gt;
Reid, Giles, Zabala, Felipa and Holmberg, Anders. « Extending TSE to Administrative Data : A Quality Framework and Case Studies from Stats NZ » Journal of Official Statistics, vol. 33, n&amp;lt;sup&amp;gt;o&amp;lt;/sup&amp;gt; 2, 2017, pp.477-511. https://doi.org/10.1515/jos-2017-0023&lt;br /&gt;
&lt;br /&gt;
Rapport au greffier du Conseil privé : Feuille de route de la Stratégie relative aux données pour la fonction publique fédérale : https://www.canada.ca/fr/conseil-prive/organisation/greffier/publications/strategie-donnees.html&lt;br /&gt;
&lt;br /&gt;
Principes de nécessité et de proportionnalité de Statistique Canada : https://www.statcan.gc.ca/fr/confiance/reponse&lt;br /&gt;
&lt;br /&gt;
Le cadre d’assurance de la qualité de Statistique Canada : https://www150.statcan.gc.ca/n1/fr/catalogue/12-586-X&lt;br /&gt;
&lt;br /&gt;
Lignes directrices pour assurer la qualité des données de Statistique Canada : https://www150.statcan.gc.ca/n1/fr/catalogue/12-539-X&lt;br /&gt;
&lt;br /&gt;
Directive sur la prise de décisions automatisée du Conseil du Trésor : https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592&lt;br /&gt;
&lt;br /&gt;
Directive sur le gouvernement ouvert du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=28108&lt;br /&gt;
&lt;br /&gt;
Directive sur l’évaluation des facteurs relatifs à la vie privée du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=18308&lt;br /&gt;
&lt;br /&gt;
Directive sur les services et le numérique du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32601&lt;br /&gt;
&lt;br /&gt;
Guide à l’intention des rédacteurs de présentations au Conseil du Trésor du Conseil du Trésor : https://www.canada.ca/fr/secretariat-conseil-tresor/services/presentations-conseil-tresor/guide-lintention-des-redacteurs-de-presentations-au-conseil-du-tresor.html&lt;br /&gt;
&lt;br /&gt;
Ligne directrice sur les services et le numérique du Conseil du Trésor : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/ligne-directrice-services-numerique.html&lt;br /&gt;
&lt;br /&gt;
Politique sur la sécurité du gouvernement du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=16578&lt;br /&gt;
&lt;br /&gt;
Directive sur la gestion de la sécurité du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32611&lt;br /&gt;
&lt;br /&gt;
Politique sur les services et le numérique du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=32603&lt;br /&gt;
&lt;br /&gt;
Norme sur les données géospatiales du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=16553&lt;br /&gt;
&lt;br /&gt;
Norme sur les métadonnées du Conseil du Trésor : https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=18909 &lt;br /&gt;
&lt;br /&gt;
UK Government – The Government Data Quality Framework: https://www.gov.uk/government/publications/the-government-data-quality-framework/the-government-data-quality-framework&lt;br /&gt;
&lt;br /&gt;
United Nations National Quality Assurance Frameworks Manual for Official Statistics: https://unstats.un.org/unsd/methodology/dataquality/references/1902216-UNNQAFManual-WEB.pdf&lt;br /&gt;
&lt;br /&gt;
----[1] Dans le présent document, le terme « utilisateur » désigne généralement un consommateur de données qui a besoin de données de grande qualité afin d’appuyer une politique, un programme, un service ou toute autre initiative du gouvernement fédéral. Les données peuvent être utilisées aux fins pour lesquelles elles ont été initialement obtenues ou réutilisées à des fins cohérentes ou autres, comme le permettent la législation sur la protection des renseignements personnels, la sécurité et d’autres lois applicables. Les utilisateurs tirent parti du cadre gouvernemental visant la qualité des données pour cerner, communiquer, évaluer et rendre compte des questions de qualité des données et pour aider à y répondre en consultation avec les intervenants appropriés (p. ex., les fournisseurs de données, les administrateurs de données, les décideurs politiques en matière de données, les intendants des données, les architectes de données, les experts sujet-matière, les responsables de la sécurité et de la protection des renseignements personnels).&lt;br /&gt;
&lt;br /&gt;
[[en:GC Data Quality Framework]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
	<entry>
		<id>https://wiki.gccollab.ca/index.php?title=GC_Data_Quality_Framework&amp;diff=71123</id>
		<title>GC Data Quality Framework</title>
		<link rel="alternate" type="text/html" href="https://wiki.gccollab.ca/index.php?title=GC_Data_Quality_Framework&amp;diff=71123"/>
		<updated>2022-05-04T12:13:16Z</updated>

		<summary type="html">&lt;p&gt;Benoit.deshaies: Make proper headers&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Background==&lt;br /&gt;
Data is foundational to digital government. The Government of Canada (GC) increasingly relies on data to support the design and delivery of programs and services. Data is also a critical building block of evidence-informed policymaking, enabling the government to make measured and timely decisions that benefit all Canadians. It also supports the government’s commitment to openness and transparency, helping build public trust in digital government. Data also plays a role in advancing international cooperation and helping Canada meet its international obligations.&lt;br /&gt;
&lt;br /&gt;
For data to be effective and trustworthy, it needs to be fit-for-purpose. Fitness-for-purpose is an indicator of data being both usable and relevant to user needs and goals.[1] The quality of data has a significant impact on its value to users. It influences whether data is discoverable and available to users when they need it, and the ways in which they can use or reuse data within and across organizations and jurisdictions. The prominent role of data in government operations and decision-making also highlights the importance of high-quality data not only to the government’s mandate, but also to public trust. Inaccurate or incomplete data, for example, can lead to misguided policies or biased decisions with adverse impacts on individuals, communities, or businesses. Managing the quality of data throughout the lifecycle – from acquisition to disposition or archiving – can help ensure it is fit-for-purpose, allowing users to appropriately harness its value to support their objectives. This draws on multiple roles in an organization: for example, data providers and custodians ensure data is managed to be usable, while data stewards and consumers determine its relevance within a specific use-context.&lt;br /&gt;
&lt;br /&gt;
There is a need for a common understanding of data quality in the federal government. The current landscape includes a wide range of approaches to data quality, each developed to suit a specific type of data or organizational context. While such focused approaches serve a unique function, a shared framework with broad applicability can strengthen government-wide data governance capabilities by establishing a common vocabulary, improving coherence in data quality rules, facilitating interdepartmental data sharing and reuse, and fostering trusted data flows and ethical practices.&lt;br /&gt;
&lt;br /&gt;
The GC Data Quality Framework (the Framework) is a response to the growing need for central direction in this area. Data quality has recently emerged as a government-wide priority. The Treasury Board (TB) Policy on Service and Digital holds the GC Chief Information Officer (CIO) responsible for prescribing an enterprise-wide standard on data quality (subsection 4.3.1.1). The 2021-2024 Digital Operations Strategic Plan identifies the need for a government data quality framework as a priority action. Similarly, Recommendation 17 in the Data Strategy Roadmap for the Federal Public Service (Data Strategy Roadmap) calls for the creation of an adaptable government-wide data quality framework. The need for common direction on data quality is also evident in Budget 2021, which includes various investments in data capabilities across priority areas such as health, quality of life, justice, and the environment. This is also reflected in recent ministerial mandate letters, which commit cabinet ministers to improving the quality and availability of disaggregated data to foster fair and equitable policymaking.&lt;br /&gt;
&lt;br /&gt;
Data quality is also being prioritized within federal departments and agencies. Many departmental data strategies developed following the publication of the Data Strategy Roadmap identify data quality as an organizational priority and list planned or existing efforts aimed at managing it effectively. Further, the TB Directive on Service and Digital requires departmental CIOs and other designated officials to ensure that “information and data are managed to enable data interoperability, reuse and sharing to the greatest extent possible within and with other departments across the government to avoid duplication and maximize utility, while respecting security and privacy requirements” (subsection 4.3.1.3).&lt;br /&gt;
&lt;br /&gt;
The concern with data quality also extends to automated decision systems, which rely on data to perform their functions. The TB Directive on Automated Decision-Making requires federal organizations to validate the quality of data collected for and used by automated decision systems (subsections 6.3.1, 6.3.3). The Algorithmic Impact Assessment, a risk assessment tool that supports the Directive by determining the impact level of an automated decision system, also accounts for this by asking users to identify processes for testing bias in data. Taken together, these measures are part of a broader move towards treating information and data as strategic assets “to support government operations, service delivery, analysis and decision-making” (Policy subsection 4.3.2.1).&lt;br /&gt;
&lt;br /&gt;
The COVID-19 pandemic has amplified the need for government-wide approaches to data governance in the GC. Tracking, analyzing, and controlling the spread of the virus in Canada has required the government to mobilize data collection, sharing, integration, and reuse capabilities in collaboration with provincial, territorial, and international partners. The effectiveness of this operation depends on the ability of GC organizations to acquire accurate and timely data for (dis)aggregation and analysis. A shared understanding of such quality concepts across government can enhance horizontal data capabilities, bolster the GC’s pandemic response, and improve public trust.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Purpose==&lt;br /&gt;
The purpose of the Framework is to establish a government-wide approach to the definition and assessment of data quality. This will support whole-of-government priorities, digital policy goals and requirements, and user needs by:&lt;br /&gt;
*Supporting compliance with the TB Policy and Directive on Service and Digital by informing enterprise-wide and departmental approaches to data and information quality;&lt;br /&gt;
*Enabling consistent approaches to the assessment of enterprise data and information quality, including in the context of open data, enterprise architecture, and government-wide data and information governance; and&lt;br /&gt;
*Supporting strategic data priorities identified in the Data Strategy Roadmap, Digital Operations Strategic Plan, and ministerial mandate letter commitments.&lt;br /&gt;
The Framework aims to strengthen government-wide capabilities in data quality management and control with a view to:&lt;br /&gt;
*Improving the availability, interoperability, usability, and public value of data;&lt;br /&gt;
*Facilitating data sharing and reuse;&lt;br /&gt;
*Supporting the use of data analytics; and&lt;br /&gt;
*Building trust in data&lt;br /&gt;
&lt;br /&gt;
These objectives will help advance evidence-informed decision making and enhance the design and delivery of policies, programs, and services across government.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Overview==&lt;br /&gt;
The Framework defines data quality in terms of nine dimensions: Access, Accuracy, Coherence, Completeness, Consistency, Interpretability, Relevance, Reliability, and Timeliness. Data can be considered fit-for-purpose to the degree that it satisfies these criteria. The Framework is intended to apply to all data types and use (or reuse) contexts. It is also technology-agnostic.&lt;br /&gt;
&lt;br /&gt;
The dimensions provide users with a conceptual vocabulary for identifying and analyzing a broad range of intrinsic and extrinsic data quality issues to ensure that data is usable and relevant to user objectives. Common issues include challenges comparing datasets obtained from multiple sources, delays in acquiring time-sensitive data, and inaccuracies in client information. (See Appendix B for examples specific to each Framework dimension.)&lt;br /&gt;
&lt;br /&gt;
The dimensions are not mutually exclusive; they overlap in practice as data quality issues tend to be multifaceted – a dataset with multiple representations for the same concept, for example, could be both incoherent (difficult to integrate or compare with other datasets) and uninterpretable (difficult to understand). However, the emphasis placed on each dimension could vary based on user needs, which could necessitate trade-offs. Time-sensitive data needs, for example, could lead users to accept compromises in accuracy in order to ensure timeliness. It is also important to recognize that not all dimensions will necessarily be applicable to a use-case. Prioritization could also depend on the lifecycle stage under consideration.&lt;br /&gt;
&lt;br /&gt;
Each Framework dimension is supplemented with guidelines that enable users to interpret and apply it. The guidelines identify actions that can inform and standardize approaches to data quality assessment. While they may not necessarily be relevant all at once, they can serve as an adaptable checklist for identifying relevant policy and legal requirements, resourcing considerations, best practices, and stakeholders. Collaboration between organizations can support the implementation of the guidelines, particularly for data shared, reused, or released to the public.&lt;br /&gt;
&lt;br /&gt;
The applicability of the Framework to all types of data provides users with various opportunities for adopting or adapting it to suit their needs. For specific domains of data, the Framework could serve as a base for extensions that either add to the dimensions (horizontal extension) or further elaborate them to support their application in such contexts (vertical extension).&lt;br /&gt;
&lt;br /&gt;
The following is an illustrative list of instruments and governance processes that could benefit from the common direction on data quality established in this Framework:&lt;br /&gt;
*Management Accountability Framework (MAF) (e.g., in assessments of departmental maturity in lifecycle data management);&lt;br /&gt;
*GC Digital Standards (e.g., in assessments of digital initiatives against the “be good data stewards” standard);&lt;br /&gt;
*Algorithmic Impact Assessment (e.g., as supplemental guidance to questions pertaining to data quality frameworks and processes);&lt;br /&gt;
*Privacy Impact Assessment (e.g., as supplemental guidance to assess the privacy impacts of programs or activities involving personal information, which includes considerations pertaining to its accuracy);&lt;br /&gt;
*GC Enterprise Architecture Framework (e.g., in assessments of digital initiatives against the information architecture layer of this framework);&lt;br /&gt;
*Departmental data policies and related data quality frameworks and tools (e.g., in requirements, principles, governance structures, or business rules related to data quality);&lt;br /&gt;
*Interdepartmental or intergovernmental data sharing agreements (e.g., in clauses establishing quality provisions for data being shared or exchanged); and&lt;br /&gt;
*TB submissions (e.g., as a common vocabulary for articulating data quality issues and objectives in the context of a program’s design or implementation).&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Framework==&lt;br /&gt;
Data can be considered fit-for-purpose to the degree it satisfies the following dimensions. The dimensions are principles describing intrinsic and extrinsic aspects of data quality in the government.&lt;br /&gt;
&lt;br /&gt;
'''Access''': The ease with which data can be discovered, processed, manipulated, and obtained by a user.&lt;br /&gt;
&lt;br /&gt;
''Access is a measure of how available and ready data is to meet user needs. This depends on several factors such as whether users are aware of the data and able to gain authorized access to it. Even when accessed or acquired, however, users may not always have the capacity to process or manipulate it to meet their needs due to technical, resource, informational, policy, or legal limitations.''&lt;br /&gt;
&lt;br /&gt;
'''Accuracy''': The degree to which data describes the real-world phenomena it is intended to represent.&lt;br /&gt;
&lt;br /&gt;
''Data is accurate when it represents a phenomenon adequately. Assessments of accuracy vary by context, methodology, and the validity of underlying hypotheses or assumptions. Maintaining accuracy in public sector organizations involves ensuring that data collected to administer services matches what clients shared. In policy and program initiatives, ensuring accuracy often requires users to validate data by consulting trusted sources and evaluating the methods or processes by which data was acquired.''&lt;br /&gt;
&lt;br /&gt;
'''Coherence''': The degree to which data from one or more sources is comparable and linkable.&lt;br /&gt;
&lt;br /&gt;
''A coherent dataset conforms to common architecture taxonomies or classifications. Users can improve data’s coherence by adopting applicable organizational, federal, national, or international standards. Coherent data is reusable and interoperable; users can also integrate and compare it with other data.''&lt;br /&gt;
&lt;br /&gt;
'''Completeness''': The degree to which data values are sufficiently populated.&lt;br /&gt;
&lt;br /&gt;
''Data can be considered complete when it has the entries needed for users to use it appropriately. Contextual and substantive information enables users to make sense of a dataset in their respective lines of business.''&lt;br /&gt;
&lt;br /&gt;
'''Consistency''': The degree to which data is internally non-contradictory.&lt;br /&gt;
&lt;br /&gt;
''Consistency helps ensure the logical validity of a dataset. A dataset is consistent if the relationships linking its components are determined to be logically sound.''&lt;br /&gt;
&lt;br /&gt;
'''Interpretability''': The degree to which data can be understood in its appropriate context. &lt;br /&gt;
&lt;br /&gt;
''A dataset is interpretable if a user is able to understand its entries, determine why and how it was collected or created, and judge its relevance to a policy, program, service, or other government initiative.''&lt;br /&gt;
&lt;br /&gt;
'''Relevance''': The degree to which data is deemed suitable to support an objective.&lt;br /&gt;
&lt;br /&gt;
''The relevance of data depends on whether it provides informational or analytical value to support a user objective. Assessments of relevance are context-dependent: The same data could be relevant in one use-context and irrelevant in another.''&lt;br /&gt;
&lt;br /&gt;
'''Reliability''': The degree to which variability in data can be explained.&lt;br /&gt;
&lt;br /&gt;
''Reliability is about data meeting user expectations over time. A dataset is reliable if users can explain how it evolves or changes over time.''&lt;br /&gt;
&lt;br /&gt;
'''Timeliness''': The amount of time between the end of the period to which data pertains, and the time at which that data is available to meet user needs.&lt;br /&gt;
&lt;br /&gt;
''Timeliness is a measure of the delay between two time points: the time when data has passed its reference period and the time when that data becomes available to users.''&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Guidelines==&lt;br /&gt;
The guidelines enable users to interpret and apply the nine dimensions consistently. They identify actions that can inform approaches to data quality assessment. Users are encouraged to identify contact points (e.g., data steward, data custodian, data provider, subject matter expert) who have the appropriate expertise to address inquiries related to each dimension.&lt;br /&gt;
&lt;br /&gt;
'''Access'''&lt;br /&gt;
*Develop an inventory or catalogue of datasets used to support policy, programs or services.&lt;br /&gt;
*Develop metadata describing concepts, variables, and classifications in your data assets in accordance with the Treasury Board (TB) Standard on Metadata and Standard on Geospatial Data.&lt;br /&gt;
*Establish processes for documenting, retaining, publishing, archiving, and disposing of data collected or created in your organization.&lt;br /&gt;
*Assign security categories to data assets as required under the TB Directive on Security Management.&lt;br /&gt;
*Define access rights and privileges for data assets to guard against unauthorized access in compliance with the TB Directive on Security Management.&lt;br /&gt;
*Ensure processes and procedures exist to support the production of data in response to requests for information under the Access to Information Act and Privacy Act.&lt;br /&gt;
*Ensure that the institution has parliamentary authority to collect or create the data for an operating program or activity, as per the TB Directive on Privacy Practices.&lt;br /&gt;
*Use plain language (e.g., as described in the Canada.ca Content Style Guide) and machine-readable formats (e.g., CSV, XML, JSON) to improve data portability and facilitate user processing, manipulation, consumption, publication, and archival.&lt;br /&gt;
*Invest in data infrastructures to provide easy and secure access to data in accordance with the ‘cloud-first’ approach established in the TB Directive on Service and Digital. Sensitive data (Protected B, Protected C, or Classified) should be held in systems located within the geographic boundaries of Canada or within GC organizations abroad (see the Direction on the Secure Use of Commercial Cloud Services and GC Security Control Profile for Cloud-based GC Services for guidance on the secure use of cloud services).&lt;br /&gt;
*Provide multiple data access and extraction methods to users. This could include making data available in multiple formats and through accessible APIs developed in accordance with the Government of Canada (GC) Standards on APIs.&lt;br /&gt;
*Work in the open by default and publish data to the Open Government Portal in accordance with the TB Directive on Open Government and as permitted within applicable federal privacy, security, and intellectual property frameworks. Using plain language, populate the open data registration record with the required metadata when publishing data.&lt;br /&gt;
*Conduct surveys to identify barriers to data discovery, access, and use within your organization.&lt;br /&gt;
*Report any unauthorized access or use of data to designated security officers and, where personal information is involved, to the Treasury Board of Canada Secretariat and the Office of the Privacy Commissioner of Canada as required under the TB Directive on Privacy Practices.&lt;br /&gt;
 &lt;br /&gt;
'''Accuracy'''&lt;br /&gt;
*Consult with trusted data sources to identify sources of error, verify content, and understand the context surrounding the data.&lt;br /&gt;
*Ensure that data includes standardized metadata to enable users to evaluate data accuracy. Relevant metadata could include information about the source, purpose and method of collection, processing, revisions, coverage, and data model and related assumptions.&lt;br /&gt;
*Ensure that data is adequately representative of any domains (e.g., geographic areas, populations) contained within it, as appropriate.&lt;br /&gt;
*Adhere to expected value ranges to maintain validity. Explanations for outliers should be provided to data users.&lt;br /&gt;
*Develop business rules to validate data for errors consistently, including duplication within a dataset. Apply applicable business rules throughout the lifecycle of data, particularly during data collection and sharing.&lt;br /&gt;
*Ensure that your data production methodology includes steps to minimize biases and statistical errors (e.g., sampling error). (Refer to the Total Survey Error framework for sources of statistical error and related quality indicators. On bias, see the GBA+ process to inform assessments of systemic inequalities which could manifest in data.)&lt;br /&gt;
*Ensure that an authoritative source exists for data, where possible.&lt;br /&gt;
*Ensure that the institution has legislated authority for any data collection concerning an identifiable individual and that such collection is directly related to an operating program or activity within the institution. Mechanisms should exist to correct personal information if requested (see the TB Directive on Privacy Practices).&lt;br /&gt;
*Validate constructs and related assumptions in consultation with subject matter experts to evaluate the precision of data, or the extent to which it corresponds to what the user intends to capture.&lt;br /&gt;
&lt;br /&gt;
'''Coherence'''&lt;br /&gt;
*Identify applicable organizational, federal, national, and/or international data standards and document differences in practices. This can be captured as part of a government-wide or departmental standards repository.&lt;br /&gt;
*Adopt or adapt applicable data standards, particularly when sharing data with other organizations or publishing data to the Open Government Portal. Key aspects of data standardization include classifications, metadata, formatting, accessibility, syntax, semantic encoding, and language. Relevant standards could be domain-specific, designed for specific types of data (e.g., statistical, geospatial).&lt;br /&gt;
*Record selected standards in a data inventory or catalogue, as metadata, or in data sharing agreements. If new standards are developed, document reasons for not using existing and applicable data standards.&lt;br /&gt;
*Ensure that data elements are defined, classified, and represented in alignment with common data architectures, in accordance with the GC Enterprise Architecture Framework.&lt;br /&gt;
*Ensure that concepts, definitions, and classifications are compatible within and across datasets to allow for data comparison and integration. In addition to the internal data environment, efforts in this area can extend to organizations across the GC and external organizations across sectors and jurisdictions.&lt;br /&gt;
*Use concordance tables to show discrepancies and transitions between standards used across data sources.&lt;br /&gt;
*Reduce data duplication across datasets to support data integrity.&lt;br /&gt;
&lt;br /&gt;
'''Completeness'''&lt;br /&gt;
*Ensure that no entries, columns, or rows that are central to the purpose of a dataset are missing or incomplete.&lt;br /&gt;
*Keep values, concepts, definitions, classifications, and methodologies up-to-date.&lt;br /&gt;
*Assign mandatory and optional labels to columns or rows in a dataset in order to facilitate assessments of completeness.&lt;br /&gt;
*Supplement data with the appropriate metadata elaborating the context and purpose of its acquisition. Metadata could also flag privacy, confidentiality, or accuracy considerations impacting completeness.&lt;br /&gt;
&lt;br /&gt;
'''Consistency'''&lt;br /&gt;
*Develop validation rules for all logical relationships encoded in a dataset. This could include rules formalizing the relationship between two interrelated variables such as age and marital status (e.g., minimum marriageable age constrains permissible marital status categories for individuals below a certain age) or municipality and province (e.g., a municipality must occur within a province).&lt;br /&gt;
*Validate the consistency of datasets on a regular basis using the relevant validation rules. Validation processes should be standardized and automated to support efficiency.&lt;br /&gt;
*Maintain a record of consistency issues identified through data validation procedures and periodically review validation rules to ensure their adequacy and effectiveness.&lt;br /&gt;
*Acquire the appropriate metadata from the data provider to learn about the entity classes of a dataset, the values they are intended to permit, and the relations that hold among them.&lt;br /&gt;
&lt;br /&gt;
'''Interpretability'''&lt;br /&gt;
*Adopt, adapt, or develop controlled vocabularies to ensure that key concepts are named and defined consistently in a dataset. Alignment with government-wide vocabularies such as the GC Core Subject Thesaurus is recommended.&lt;br /&gt;
*Conform to organizational, federal, national, and/or international data standards governing permissible values for elements in a dataset (e.g., reference data, master data). This could include domain-specific standards.&lt;br /&gt;
*Develop definitional and procedural metadata, complying with applicable TB policy such as the TB Standard on Metadata and considering the needs of target audiences. Metadata could clarify the purpose of data acquisition and provide information on methodology and security categorization.&lt;br /&gt;
*Document information required to meaningfully interpret the data and maintain a clear link between this documentation and the data throughout its lifecycle.&lt;br /&gt;
*Ensure that users are informed of the appropriate uses of the data and aware of its limitations.&lt;br /&gt;
&lt;br /&gt;
'''Relevance'''&lt;br /&gt;
*Establish processes to consult stakeholders on their data needs. This could involve leveraging data inventories or catalogues to identify existing holdings and minimize redundant data collection (see the TB Guideline on Service and Digital for guidance on information and data collection).&lt;br /&gt;
* Identify data requirements and sources based on business objectives and user needs.&lt;br /&gt;
*Assess and document how data assets meet data requirements in order to gauge their relevance. This could involve tracking the ways in which data assets are used and re-used to advance organizational or government-wide priorities.&lt;br /&gt;
*Leverage the results of relevance assessments to inform future data acquisition and related lifecycle management and governance activities.&lt;br /&gt;
*Establish criteria to ensure that data acquisition efforts strike an appropriate balance between business needs and privacy and security risks (see Statistics Canada’s Necessity and Proportionality Framework). In the case of personal information, data acquisition should be directly related to an operating program or activity in the institution.&lt;br /&gt;
*Ensure that data with historical or archival value is appropriately preserved to facilitate indefinite retention and discoverability in order to enable reuse in accordance with the Library and Archives Canada (LAC) Act and supporting policy instruments.&lt;br /&gt;
&lt;br /&gt;
'''Reliability'''&lt;br /&gt;
*Identify and document sources that can directly or indirectly change a dataset. Sources of change could include the phenomena represented, data collection methods, data capture and storage technologies, data processing platforms, legislative or regulatory measures, policy requirements, and cyber-attacks.&lt;br /&gt;
*Ensure that data acquisition and analysis methods are clearly articulated to facilitate third-party validation and maintain the integrity of the data production process.&lt;br /&gt;
*Test data collection or creation instruments prior to deploying them, documenting calibrations and accounting for variance in results.&lt;br /&gt;
*Maintain a record of changes to your data assets to ensure that users can determine their provenance and trace how they have evolved since their inception.&lt;br /&gt;
*Identify and document dependencies among data assets linked within a data architecture or in the context of data analysis.&lt;br /&gt;
* Support the compatibility of concepts, definitions, and classifications over time. Specify and explain discrepancies in the way these elements are maintained over time.&lt;br /&gt;
*Protect data assets from fraudulent or unauthorized activities that could undermine their credibility and impact confidence in the data provider. This includes defining, implementing, and maintaining security controls to meet IT security requirements, in accordance with the TB Directive on Security Management and TB Directive on Privacy Practices.&lt;br /&gt;
*Employ digital preservation approaches to monitor and guard against the deterioration of data assets over the course of their lifecycle. This includes conducting regular data integrity checks (e.g., through the use of hashing or checksums) and documenting any evidence of deterioration in accordance with the LAC Act and supporting policy instruments.&lt;br /&gt;
*Report tampering or unauthorized destruction of data assets to designated security officers.&lt;br /&gt;
&lt;br /&gt;
'''Timeliness'''&lt;br /&gt;
*Identify users’ current and anticipated data needs, including considerations of time (e.g., reference periods, legislative or policy requirements, service standards).&lt;br /&gt;
*Consult with data providers to assess whether data needs can be met without delay and inform data users of any expected punctuality issues. This could include confirming the data provider’s ability to meet timelines established in data sharing agreements.&lt;br /&gt;
*Ensure that data providers have a data release schedule that documents the stages of the data production process and accounts for discrepancies and delays (e.g., through contingency planning).&lt;br /&gt;
*Publish preliminary data to the Open Government Portal when useful to users, in accordance with the TB Directive on Open Government.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Appendix A: Glossary of Terms==&lt;br /&gt;
&lt;br /&gt;
'''Controlled vocabularies''': A list of standardized terminology, words, or phrases, used for indexing or content analysis and information retrieval, usually in a defined information domain.&lt;br /&gt;
&lt;br /&gt;
'''Data''': Set of values of subjects with respect to qualitative or quantitative variables representing facts, statistics, or items of information in a formalized manner suitable for communication, reinterpretation, or processing.&lt;br /&gt;
&lt;br /&gt;
'''Data quality''': A characteristic of data determined based on its Access, Accuracy, Coherence, Completeness, Consistency, Interpretability, Relevance, Reliability, and Timeliness.  High data quality is an indicator of fitness-for-purpose, which means that data is both usable and relevant in a primary or other use-context.&lt;br /&gt;
&lt;br /&gt;
'''Data standards''': A set of documented rules or guidelines that enable consistent and repeatable description, representation, structuring, and sharing of data.&lt;br /&gt;
&lt;br /&gt;
'''Information''': Knowledge captured in any format, such as facts, events, things, processes, or ideas, that can be structured or unstructured, including concepts that within a certain context have particular meaning. Information includes data.&lt;br /&gt;
&lt;br /&gt;
'''Information lifecycle''': The planning, collection, creation, receipt, capture, organization, use, re-use, dissemination, maintenance, protection and preservation, disposition, and evaluation of information.&lt;br /&gt;
&lt;br /&gt;
'''Interoperability''': The ability of different types of electronic devices, networks, operating systems, and applications to work together effectively, without prior communication, to exchange information in a useful and meaningful manner.&lt;br /&gt;
&lt;br /&gt;
'''Metadata''': The definition and description of the structure and meaning of information resources, and the context and systems in which they exist.&lt;br /&gt;
Personal information: Information about an identifiable individual that is recorded in any form.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Appendix B: Examples of Applications ==&lt;br /&gt;
&lt;br /&gt;
The following use-cases are intended to clarify what Framework dimensions mean in practice by providing concrete examples of relevant quality issues, suggesting approaches to evaluate or address the issues, and distinguishing between Framework dimensions.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|+&lt;br /&gt;
|-&lt;br /&gt;
!Dimension!!Example of Application&lt;br /&gt;
|-&lt;br /&gt;
|Access||A program developing an automated decision system publishes information about the system in machine and human readable formats to the Open Government Portal. As open information, it is easy to discover and obtain by stakeholders across sectors.&lt;br /&gt;
|-&lt;br /&gt;
|Accuracy||A data custodian updates data on the country of citizenship of a recently naturalized citizen to ensure that it matches their new status in Canada.&lt;br /&gt;
|-&lt;br /&gt;
|Coherence||A provincial address register is standardized so that the province of Ontario is represented as ‘ON’ in order to enable data interoperability and facilitate data sharing among organizations that have adopted the same standard.&lt;br /&gt;
|-&lt;br /&gt;
| Completeness||A survey administrator follows up with survey respondents requesting the completion of mandatory fields in a satisfaction survey in order to be able to generate a complete dataset.&lt;br /&gt;
|-&lt;br /&gt;
|Consistency||A program delivering an external service identifies and corrects an error in a client’s date of birth, which had been set later than their application’s date of submission – contrary to established validation rules.&lt;br /&gt;
|-&lt;br /&gt;
|Interpretability|| The International Merchandise Trade Database provides clear definitions of key concepts and accessible descriptions of classifications, enabling users to understand and make use of the data in analyses of trends in international trade.&lt;br /&gt;
|-&lt;br /&gt;
|Relevance||A program responsible for retirement pensions collects banking data from applicants after determining the data’s role in supporting the processing of benefits payments.&lt;br /&gt;
|-&lt;br /&gt;
|Reliability||Canadian climate data is adjusted to account for shifts due to changes in instruments and observing procedures. For example, rainfall gauge data extracted from the National Climate Data Archive has been adjusted to correct for factors such as wind undercatch, evaporation, and gauge-specific wetting losses.&lt;br /&gt;
|-&lt;br /&gt;
|Timeliness ||Provinces and territories report COVID-19 case data to the federal government every 24 hours to support the daily COVID-19 epidemiology update, which provides a summary of COVID-19 cases across Canada and over time.&lt;br /&gt;
|-&lt;br /&gt;
|}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Appendix C: Approach==&lt;br /&gt;
&lt;br /&gt;
The Framework was collaboratively developed by an interdepartmental working group co-led by Statistics Canada and the Treasury Board of Canada Secretariat (TBS). The group was established in Fall of 2019 under the GC Enterprise Data Community of Practice. The development of the dimensions was informed by an environmental scan of data quality frameworks in the federal government, industry, international organizations, and public sector organizations in other governments.&lt;br /&gt;
&lt;br /&gt;
Regular deliberation among working group members also helped refine the approach to framing and defining the dimensions, while helping build consensus around the framework as a whole. Once there was broad agreement on the foundations of the framework, the group collaborated on the development of guidelines supporting the consistent interpretation and application of the dimensions. The guidelines were modelled on Statistics Canada’s Quality Guidelines, which similarly provide non-exhaustive best practices for principles of data quality.&lt;br /&gt;
&lt;br /&gt;
TBS and Statistics Canada will periodically review and update the Framework in consultation with federal partners in order to ensure its continued relevance and value to the GC. As well, TBS will advance efforts to operationalize the Framework by working to embed or reference it in TB policy instruments, governance processes and frameworks, and data sharing agreement templates.&lt;br /&gt;
&lt;br /&gt;
The following federal organizations took part in the development of the Framework: Agriculture and Agri-Food Canada (AAFC); Canada Border Services Agency (CBSA); Canada Mortgage and Housing Corporation (CMHC); Canada Revenue Agency (CRA); Canada School of Public Service (CSPS); Canadian Food Inspection Agency (CFIA); Canadian Human Rights Commission (CHRC); Canadian Institutes of Health Research (CIHR); Canadian Nuclear Safety Commission (CNSC); Canadian Space Agency (CSA); Correctional Service Canada (CSC); Crown-Indigenous Relations and Northern Affairs Canada (CIRNAC); Department of Justice Canada (JUS); Department of National Defence (DND); Elections Canada; Employment and Social Development Canada (ESDC); Environment and Climate Change Canada (ECCC); Fisheries and Oceans Canada (DFO); Global Affairs Canada (GAC); Health Canada; Immigration, Refugees and Citizenship Canada (IRCC); Indigenous Services Canada (ISC); Innovation, Science and Economic Development Canada (ISED); Library and Archives Canada (LAC); Natural Resources Canada (NRCan); Privy Council Office (PCO); Public Health Agency of Canada (PHAC); Public Services and Procurement Canada (PSPC); Service Canada; Shared Services Canada (SSC); Standards Council of Canada (SCC); Statistics Canada; Transport Canada; Treasury Board of Canada Secretariat (TBS); and Veterans Affairs Canada (VAC).&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Appendix D: References==&lt;br /&gt;
&lt;br /&gt;
Algorithmic Impact Assessment Tool: https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html&lt;br /&gt;
&lt;br /&gt;
Budget 2021 - A Recovery Plan for Jobs, Growth, and Resilience: https://www.budget.gc.ca/2021/home-accueil-en.html &lt;br /&gt;
&lt;br /&gt;
Canada.ca Content Style Guide: https://www.canada.ca/en/treasury-board-secretariat/services/government-communications/canada-content-style-guide.html &lt;br /&gt;
&lt;br /&gt;
Data Management Body of Knowledge, 2nd Edition (DMBOK2): DMBoK - Data Management Body of Knowledge (dama.org) &lt;br /&gt;
&lt;br /&gt;
Digital Operations Strategic Plan: 2021-2024: https://www.canada.ca/en/government/system/digital-government/government-canada-digital-operations-strategic-plans/digital-operations-strategic-plan-2021-2024.html &lt;br /&gt;
&lt;br /&gt;
Direction on the Secure Use of Commercial Cloud Services: https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/cloud-services/direction-secure-use-commercial-cloud-services-spin.html &lt;br /&gt;
&lt;br /&gt;
European Statistics Code of Practice for the National Statistical Authorities and Eurostat (EU Statistical Authority): https://ec.europa.eu/eurostat/documents/4031688/8971242/KS-02-18-142-EN-N.pdf/e7f85f07-91db-4312-8118-f729c75878c7?t=1528447068000 &lt;br /&gt;
&lt;br /&gt;
Government of Canada Core Subject Thesaurus: https://canada.multites.net/cst/index.htm &lt;br /&gt;
&lt;br /&gt;
Government of Canada Digital Standards: https://www.canada.ca/en/government/system/digital-government/government-canada-digital-standards.html &lt;br /&gt;
&lt;br /&gt;
Government of Canada Enterprise Architecture Framework: https://www.canada.ca/en/government/system/digital-government/policies-standards/government-canada-enterprise-architecture-framework.html &lt;br /&gt;
&lt;br /&gt;
Government of Canada Security Control Profile for Cloud-based GC Services: https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/cloud-services/government-canada-security-control-profile-cloud-based-it-services.html &lt;br /&gt;
&lt;br /&gt;
Government of Canada Standards on APIs: https://www.canada.ca/en/government/system/digital-government/modern-emerging-technologies/government-canada-standards-apis.html  &lt;br /&gt;
&lt;br /&gt;
ISO 8000–2, Data quality — Part 2: Vocabulary: https://www.iso.org/obp/ui/#iso:std:iso:8000:-2:ed-4:v1:en  &lt;br /&gt;
&lt;br /&gt;
ISO 8000–8, Data quality — Part 8: Concepts and measuring: https://www.iso.org/obp/ui/#iso:std:iso:8000:-8:ed-1:v1:en  &lt;br /&gt;
&lt;br /&gt;
''Library and Archives Canada Act'': https://laws-lois.justice.gc.ca/eng/acts/L-7.7/index.html &lt;br /&gt;
&lt;br /&gt;
Open Government Data and Information Quality Standards (Draft): https://open.canada.ca/ckan/en/dataset/bfb87332-5da3-5780-9546-8722a389c91c &lt;br /&gt;
Privacy Act: https://laws-lois.justice.gc.ca/ENG/ACTS/P-21/index.html &lt;br /&gt;
&lt;br /&gt;
Quality Dimensions, Core Values for OECD Statistics and Procedures for Planning and Evaluating Statistical Activities: http://www.oecd.org/sdd/21687665.pdf&lt;br /&gt;
&lt;br /&gt;
Reid, Giles, Zabala, Felipa and Holmberg, Anders. &amp;quot;Extending TSE to Administrative Data: A Quality Framework and Case Studies from Stats NZ&amp;quot; Journal of Official Statistics, vol.33, no.2, 2017, pp.477-511. https://doi.org/10.1515/jos-2017-0023 &lt;br /&gt;
&lt;br /&gt;
Report to the Clerk of the Privy Council: A Data Strategy Roadmap for the Federal Public Service: https://www.canada.ca/en/privy-council/corporate/clerk/publications/data-strategy.html &lt;br /&gt;
&lt;br /&gt;
Statistics Canada Necessity and Proportionality Framework: https://www.statcan.gc.ca/en/trust/address &lt;br /&gt;
&lt;br /&gt;
Statistics Canada Quality Assurance Framework: https://www150.statcan.gc.ca/n1/en/pub/12-586-x/12-586-x2017001-eng.pdf?st=hLNiTVy9 &lt;br /&gt;
&lt;br /&gt;
Statistics Canada Quality Guidelines: https://www150.statcan.gc.ca/n1/pub/12-539-x/2019001/ensuring-assurer-eng.htm &lt;br /&gt;
&lt;br /&gt;
Treasury Board Directive on Automated Decision-Making: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Directive on Open Government: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=28108 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Directive on Privacy Impact Assessment: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=18308&lt;br /&gt;
&lt;br /&gt;
Treasury Board Directive on Service and Digital: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32601 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Guidance for Drafters of Treasury Board Submissions: https://www.canada.ca/en/treasury-board-secretariat/services/treasury-board-submissions/guidance-for-drafters-of-treasury-board-submissions.html &lt;br /&gt;
&lt;br /&gt;
Treasury Board Guideline on Service and Digital: https://www.canada.ca/en/government/system/digital-government/guideline-service-digital.html&lt;br /&gt;
&lt;br /&gt;
Treasury Board Policy on Government Security: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=16578 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Directive on Security Management: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32611 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Policy on Service and Digital: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32603&lt;br /&gt;
&lt;br /&gt;
Treasury Board Standard on Geospatial Data: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=16553 &lt;br /&gt;
&lt;br /&gt;
Treasury Board Standard on Metadata: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=18909 &lt;br /&gt;
&lt;br /&gt;
UK Government – The Government Data Quality Framework: https://www.gov.uk/government/publications/the-government-data-quality-framework&lt;br /&gt;
&lt;br /&gt;
United Nations National Quality Assurance Frameworks Manual for Official Statistics: https://unstats.un.org/unsd/methodology/dataquality/references/1902216-UNNQAFManual-WEB.pdf&lt;br /&gt;
&lt;br /&gt;
----[1] In this document, the term ‘user’ generally refers to a data consumer who needs high-quality data to support a policy, program, service, or other initiative in the federal government. The data can be used for the purpose for which it was initially obtained or reused for a consistent or other purpose, as permitted under privacy, security, and other applicable legislation. Users leverage the Government Data Quality Framework to identify, communicate, assess, report on, and help address issues of data quality in consultation with the appropriate stakeholders (e.g., data providers, data custodians, data policymakers, data stewards, data architects, subject matter experts, security and privacy officials).&lt;br /&gt;
&lt;br /&gt;
[[fr:Cadre de la qualité des données du GC]]&lt;/div&gt;</summary>
		<author><name>Benoit.deshaies</name></author>
	</entry>
</feed>