Changes

no edit summary
Line 6: Line 6:     
== Introduction ==
 
== Introduction ==
 +
[[File:5gp fr.png|alt=Cinq grands principes éthiques pour une IA responsable|thumb|417x417px|'''Figure 1 : Cinq grands principes éthiques pour une IA responsable''']]
 
Contrairement aux systèmes décisionnels automatisés (SDA) traditionnels, les SDA basés sur l’apprentissage machine ne suivent pas de règles explicites rédigées par des humains <ref>V. Fomins, "The Shift from Traditional Computing Systems to Artificial Intelligence and the Implications for Bias," ''Smart Technologies and Fundamental Rights,'' pp. 316-333, 2020.</ref>. Les modèles d’apprentissage machine ne sont pas intrinsèquement objectifs. Les spécialistes des données forment des modèles en leur fournissant un ensemble de données d’exemples d’entraînement, et l’implication humaine dans l’alimentation en donnée et la conservation de celles-ci peut rendre les prédictions d’un modèle susceptibles d’être biaisées. C’est pourquoi les applications des SDA basées sur l’apprentissage machine ont des incidences considérables pour la société. Cela va des nouvelles questions sur la responsabilité juridique des erreurs commises par ces systèmes au recyclage des travailleurs déplacés par ces technologies. Un cadre est nécessaire pour garantir que des décisions responsables et transparentes soient prises, en soutenant des pratiques éthiques.
 
Contrairement aux systèmes décisionnels automatisés (SDA) traditionnels, les SDA basés sur l’apprentissage machine ne suivent pas de règles explicites rédigées par des humains <ref>V. Fomins, "The Shift from Traditional Computing Systems to Artificial Intelligence and the Implications for Bias," ''Smart Technologies and Fundamental Rights,'' pp. 316-333, 2020.</ref>. Les modèles d’apprentissage machine ne sont pas intrinsèquement objectifs. Les spécialistes des données forment des modèles en leur fournissant un ensemble de données d’exemples d’entraînement, et l’implication humaine dans l’alimentation en donnée et la conservation de celles-ci peut rendre les prédictions d’un modèle susceptibles d’être biaisées. C’est pourquoi les applications des SDA basées sur l’apprentissage machine ont des incidences considérables pour la société. Cela va des nouvelles questions sur la responsabilité juridique des erreurs commises par ces systèmes au recyclage des travailleurs déplacés par ces technologies. Un cadre est nécessaire pour garantir que des décisions responsables et transparentes soient prises, en soutenant des pratiques éthiques.
    
=== IA responsable ===
 
=== IA responsable ===
 
L’IA responsable est un cadre de gouvernance qui documente la manière dont une organisation donnée relève les défis liés à l’intelligence artificielle (IA) d’un point de vue éthique et juridique. Afin de garantir des pratiques responsables en matière d’IA, les organisations ont défini des principes directeurs pour guider le développement d’applications et de solutions d’IA.
 
L’IA responsable est un cadre de gouvernance qui documente la manière dont une organisation donnée relève les défis liés à l’intelligence artificielle (IA) d’un point de vue éthique et juridique. Afin de garantir des pratiques responsables en matière d’IA, les organisations ont défini des principes directeurs pour guider le développement d’applications et de solutions d’IA.
[[File:5gp fr.png|alt=Cinq grands principes éthiques pour une IA responsable|thumb|417x417px|'''Figure 1 : Cinq grands principes éthiques pour une IA responsable''']]
+
 
 
Selon l’étude ''The global landscape of AI ethics guidelines'' (Le paysage mondial des lignes directrices en matière d’éthique de l’IA) <ref name=":0">A. Jobin, M. Ienca and E. Vayena, "The global landscape of AI ethics guidelines," ''Nature Machine Intelligence,'' p. 389–399, 2019.</ref>, certains principes sont mentionnés plus souvent que d’autres. Cependant, Gartner a conclu qu’une convergence mondiale émerge autour de cinq principes éthiques <ref>S. Sicular , E. Brethenoux , F. Buytendijk and J. Hare, "AI Ethics: Use 5 Common Guidelines as Your Starting Point," Gartner, 11 July 2019. [Online]. Available: <nowiki>https://www.gartner.com/en/documents/3947359/ai-ethics-use-5-common-guidelines-as-your-starting-point</nowiki>. [Accessed 23 August 2021].</ref>:
 
Selon l’étude ''The global landscape of AI ethics guidelines'' (Le paysage mondial des lignes directrices en matière d’éthique de l’IA) <ref name=":0">A. Jobin, M. Ienca and E. Vayena, "The global landscape of AI ethics guidelines," ''Nature Machine Intelligence,'' p. 389–399, 2019.</ref>, certains principes sont mentionnés plus souvent que d’autres. Cependant, Gartner a conclu qu’une convergence mondiale émerge autour de cinq principes éthiques <ref>S. Sicular , E. Brethenoux , F. Buytendijk and J. Hare, "AI Ethics: Use 5 Common Guidelines as Your Starting Point," Gartner, 11 July 2019. [Online]. Available: <nowiki>https://www.gartner.com/en/documents/3947359/ai-ethics-use-5-common-guidelines-as-your-starting-point</nowiki>. [Accessed 23 August 2021].</ref>:
   Line 20: Line 21:     
La définition des différents principes directeurs est incluse dans <ref name=":0" /> .
 
La définition des différents principes directeurs est incluse dans <ref name=":0" /> .
  −
=== Directive du Conseil du Trésor sur la prise de décisions automatisée ===
  −
La Directive du Conseil du Trésor sur la prise de décisions automatisée est définie comme un instrument stratégique visant à promouvoir une utilisation éthique et responsable de l’intelligence artificielle. Elle décrit les responsabilités des institutions fédérales qui utilisent des systèmes décisionnels automatisés par l’IA.
  −
  −
==== Le processus d’évaluation de l’incidence algorithmique ====
  −
L’outil d’EIA est un questionnaire qui détermine le niveau d’incidence d’un système décisionnel automatisé. Il est composé de 48 questions sur les risques et de 33 questions sur les mesures d’atténuation. Les scores d’évaluation sont basés sur de nombreux facteurs, notamment la conception des systèmes, l’algorithme, le type de décision, les incidences et les données. L’outil aboutit à un niveau de catégorisation de l’incidence entre I (présentant le moindre risque) et IV (présentant le plus grand risque). En fonction du niveau d’incidence (qui sera publié), la directive peut imposer des exigences supplémentaires. Le processus est décrit à la figure 2.
  −
[[File:Aia fr.png|alt=Le processus d’évaluation de l’incidence algorithmique|center|thumb|661x661px|'''Figure 2 : Le processus d’évaluation de l’incidence algorithmique''']]
      
== Détection et atténuation des biais ==
 
== Détection et atténuation des biais ==
121

edits