Changes

no edit summary
Line 3: Line 3:  
Les systèmes décisionnels automatisés (SDA) sont des systèmes informatiques qui automatisent, ou aident à automatiser, une partie ou la totalité d’un processus de décisionnel de nature administrative. Actuellement, le gouvernement du Canada utilise des systèmes décisionnels automatisés commandés par des algorithmes d’apprentissage machine pour améliorer la prestation des services. L’utilisation de ces systèmes peut présenter des avantages et des risques pour les institutions fédérales, notamment Pêches et Océans Canada (MPO). Il faut veiller à ce que les systèmes décisionnels automatisés soient déployés de manière à réduire les risques pour les Canadiens et les institutions fédérales, et à ce que les décisions soient plus efficaces, exactes, cohérentes et interprétables.
 
Les systèmes décisionnels automatisés (SDA) sont des systèmes informatiques qui automatisent, ou aident à automatiser, une partie ou la totalité d’un processus de décisionnel de nature administrative. Actuellement, le gouvernement du Canada utilise des systèmes décisionnels automatisés commandés par des algorithmes d’apprentissage machine pour améliorer la prestation des services. L’utilisation de ces systèmes peut présenter des avantages et des risques pour les institutions fédérales, notamment Pêches et Océans Canada (MPO). Il faut veiller à ce que les systèmes décisionnels automatisés soient déployés de manière à réduire les risques pour les Canadiens et les institutions fédérales, et à ce que les décisions soient plus efficaces, exactes, cohérentes et interprétables.
   −
Soutenus par le Fonds des résultats (2021 - 2022), le BIPD et GIST réalisent un prototype des systèmes décisionnels automatisés, sur la base des résultats du projet pilote d’IA. L’effort comprend la définition d’un processus interne pour détecter et atténuer les biais, lesquels sont un risque inhérent aux systèmes décisionnels automatisés basés sur l’apprentissage machine. Une étude de cas est conçue pour appliquer ce processus afin d’évaluer et d’atténuer les biais dans un modèle prédictif de détection du comportement de pêche des navires.
+
Afin d’appuyer ces objectifs, le Bureau de l’intendant principal des données élabore un cadre d’éthique des données qui fournira des conseils sur le traitement éthique des données et l’utilisation responsable de l’intelligence artificielle (IA). Les documents d’orientation sur l’utilisation responsable de l’IA portent sur six grands thèmes identifiés comme étant pertinents pour les projets du MPO utilisant l’IA. Ces thèmes sont : la protection des renseignements personnels et la sécurité, la transparence, la responsabilisation, la méthodologie et la qualité des données, l’équité et l’explicabilité. Si un grand nombre de ces thèmes chevauchent fortement le domaine de l’éthique des données, le thème de l’équité couvre de nombreuses préoccupations éthiques propres à l’IA en raison de la nature des répercussions que les préjugés peuvent avoir sur les modèles d’IA.
 +
 
 +
Soutenus par le Fonds des résultats (2021 - 2022), le BIPD et GIST réalisent un prototype des systèmes décisionnels automatisés, sur la base des résultats du projet pilote d’IA. L’effort comprend la définition d’un processus interne pour détecter et atténuer les biais, lesquels sont un risque inhérent aux systèmes décisionnels automatisés basés sur l’apprentissage machine. Une étude de cas est conçue pour appliquer ce processus afin d’évaluer et d’atténuer les biais dans un modèle prédictif de détection du comportement de pêche des navires. Le processus défini dans ce travail et les résultats de l’étude sur le terrain contribueront aux documents d’orientation qui formeront éventuellement le volet Utilisation responsable de l’IA du cadre d’éthique des données.
    
== Introduction ==
 
== Introduction ==
[[File:5gp fr.png|alt=Cinq grands principes éthiques pour une IA responsable|thumb|417x417px|'''Figure 1 : Cinq grands principes éthiques pour une IA responsable''']]
+
[[File:Data ethics themes fr.png|alt=Éthique des données du MPO et thèmes de l’utilisation responsable de l’IA|thumb|417x417px|'''Figure 1 : Éthique des données du MPO et thèmes de l’utilisation responsable de l’IA''']]
 
Contrairement aux systèmes décisionnels automatisés (SDA) traditionnels, les SDA basés sur l’apprentissage machine ne suivent pas de règles explicites rédigées par des humains <ref>V. Fomins, "The Shift from Traditional Computing Systems to Artificial Intelligence and the Implications for Bias," ''Smart Technologies and Fundamental Rights,'' pp. 316-333, 2020.</ref>. Les modèles d’apprentissage machine ne sont pas intrinsèquement objectifs. Les spécialistes des données forment des modèles en leur fournissant un ensemble de données d’exemples d’entraînement, et l’implication humaine dans l’alimentation en donnée et la conservation de celles-ci peut rendre les prédictions d’un modèle susceptibles d’être biaisées. C’est pourquoi les applications des SDA basées sur l’apprentissage machine ont des incidences considérables pour la société. Cela va des nouvelles questions sur la responsabilité juridique des erreurs commises par ces systèmes au recyclage des travailleurs déplacés par ces technologies. Un cadre est nécessaire pour garantir que des décisions responsables et transparentes soient prises, en soutenant des pratiques éthiques.
 
Contrairement aux systèmes décisionnels automatisés (SDA) traditionnels, les SDA basés sur l’apprentissage machine ne suivent pas de règles explicites rédigées par des humains <ref>V. Fomins, "The Shift from Traditional Computing Systems to Artificial Intelligence and the Implications for Bias," ''Smart Technologies and Fundamental Rights,'' pp. 316-333, 2020.</ref>. Les modèles d’apprentissage machine ne sont pas intrinsèquement objectifs. Les spécialistes des données forment des modèles en leur fournissant un ensemble de données d’exemples d’entraînement, et l’implication humaine dans l’alimentation en donnée et la conservation de celles-ci peut rendre les prédictions d’un modèle susceptibles d’être biaisées. C’est pourquoi les applications des SDA basées sur l’apprentissage machine ont des incidences considérables pour la société. Cela va des nouvelles questions sur la responsabilité juridique des erreurs commises par ces systèmes au recyclage des travailleurs déplacés par ces technologies. Un cadre est nécessaire pour garantir que des décisions responsables et transparentes soient prises, en soutenant des pratiques éthiques.
    
=== IA responsable ===
 
=== IA responsable ===
L’IA responsable est un cadre de gouvernance qui documente la manière dont une organisation donnée relève les défis liés à l’intelligence artificielle (IA) d’un point de vue éthique et juridique. Afin de garantir des pratiques responsables en matière d’IA, les organisations ont défini des principes directeurs pour guider le développement d’applications et de solutions d’IA.
+
Une étude des cadres établis en matière d’utilisation responsable de l’IA par d’autres organisations et à une inspection des cas d’utilisation de l’IA par le MPO a permis de définir un ensemble de thèmes sur l’utilisation responsable de l’IA pour un cadre du MPO :
   −
Selon l’étude ''The global landscape of AI ethics guidelines'' (Le paysage mondial des lignes directrices en matière d’éthique de l’IA) <ref name=":0">A. Jobin, M. Ienca and E. Vayena, "The global landscape of AI ethics guidelines," ''Nature Machine Intelligence,'' p. 389–399, 2019.</ref>, certains principes sont mentionnés plus souvent que d’autres. Cependant, Gartner a conclu qu’une convergence mondiale émerge autour de cinq principes éthiques <ref>S. Sicular , E. Brethenoux , F. Buytendijk and J. Hare, "AI Ethics: Use 5 Common Guidelines as Your Starting Point," Gartner, 11 July 2019. [Online]. Available: <nowiki>https://www.gartner.com/en/documents/3947359/ai-ethics-use-5-common-guidelines-as-your-starting-point</nowiki>. [Accessed 23 August 2021].</ref>:
+
* La confidentialité et la sécurité
 +
* La transparence
 +
* La responsabilisation
 +
* La méthodologie et la qualité des données
 +
* L’équité
 +
* L’explicabilité
   −
* Centré sur l’humain et socialement avantageux
+
Chaque thème couvre un ensemble de lignes directrices de haut niveau définissant les objectifs fixés par le cadre. Ces lignes directrices sont appuyées par des processus concrets qui fournissent les directives précises nécessaires pour atteindre les objectifs dans la pratique. Pour appuyer les lignes directrices établies sous le thème Équité de l’utilisation responsable de l’IA, nous avons élaboré un processus de détection et d’atténuation des préjugés dans les modèles d’apprentissage automatique.
* Équitable
  −
* Explicable et transparent
  −
* Sécuritaire et sûr
  −
* Responsable
  −
 
  −
La définition des différents principes directeurs est incluse dans <ref name=":0" /> .
      
== Processus de détection et d’atténuation des biais ==
 
== Processus de détection et d’atténuation des biais ==
Line 102: Line 103:     
== La voie à suivre ==
 
== La voie à suivre ==
Une IA responsable est le seul moyen d’atténuer les risques liés à l’IA, et les risques de biais sont considérés comme un sous-ensemble de ces risques. Alors que le MPO s’oriente vers l’adoption de l’IA pour soutenir la prise de décisions et améliorer la prestation de services, il est nécessaire de s’assurer que ces décisions sont non seulement conscientes des biais, mais aussi précises, centrées sur l’humain, explicables et respectueuses de la vie privée.
+
L’élaboration d’un processus de détermination et d’atténuation des préjugés est une étape vers un cadre qui appuie l’utilisation responsable de l’IA. Afin d’élaborer pleinement ce cadre, il est nécessaire d’obtenir des directives pour d’autres processus. En particulier, le thème de l’explicabilité est un autre sujet avec des exigences propres à l’utilisation de l’IA. Les prochaines étapes dans ce domaine nécessiteront l’identification d’outils et l’élaboration d’une orientation pour appuyer l’utilisation de modèles interprétables et d’algorithmes d’explication pour les modèles de boîtes noires. De plus, il faut un processus plus général pour permettre aux équipes de projet d’évaluer leur conformité à l’égard de tous les thèmes sur l’utilisation responsable de l’IA. Le Bureau de l’intendant principal des données est en train d’élaborer ces ressources.
 
  −
Le MPO est en train de définir des principes directeurs pour guider le développement d’applications et de solutions d’IA. Une fois définis, divers outils seront envisagés et/ou développés pour rendre ces principes opérationnels.
      
== Bibliography ==
 
== Bibliography ==
 
<references />
 
<references />
121

edits