Line 19: |
Line 19: |
| === Responsible AI === | | === Responsible AI === |
| L’IA responsable est un cadre de gouvernance qui documente la manière dont une organisation donnée relève les défis liés à l’intelligence artificielle (IA) d’un point de vue éthique et juridique. Afin de garantir des pratiques responsables en matière d’IA, les organisations ont défini des principes directeurs pour guider le développement d’applications et de solutions d’IA. | | L’IA responsable est un cadre de gouvernance qui documente la manière dont une organisation donnée relève les défis liés à l’intelligence artificielle (IA) d’un point de vue éthique et juridique. Afin de garantir des pratiques responsables en matière d’IA, les organisations ont défini des principes directeurs pour guider le développement d’applications et de solutions d’IA. |
− | [[File:5gp fr.png|alt=Cinq grands principes éthiques pour une IA responsable|thumb|417x417px|Figure 1 : Cinq grands principes éthiques pour une IA responsable]] | + | [[File:5gp fr.png|alt=Cinq grands principes éthiques pour une IA responsable|thumb|417x417px|'''Figure 1 : Cinq grands principes éthiques pour une IA responsable''']] |
| Selon l’étude ''The global landscape of AI ethics guidelines'' (Le paysage mondial des lignes directrices en matière d’éthique de l’IA) <ref name=":0">A. Jobin, M. Ienca and E. Vayena, "The global landscape of AI ethics guidelines," ''Nature Machine Intelligence,'' p. 389–399, 2019.</ref>, certains principes sont mentionnés plus souvent que d’autres. Cependant, Gartner a conclu qu’une convergence mondiale émerge autour de cinq principes éthiques : | | Selon l’étude ''The global landscape of AI ethics guidelines'' (Le paysage mondial des lignes directrices en matière d’éthique de l’IA) <ref name=":0">A. Jobin, M. Ienca and E. Vayena, "The global landscape of AI ethics guidelines," ''Nature Machine Intelligence,'' p. 389–399, 2019.</ref>, certains principes sont mentionnés plus souvent que d’autres. Cependant, Gartner a conclu qu’une convergence mondiale émerge autour de cinq principes éthiques : |
| | | |
Line 35: |
Line 35: |
| ==== Le processus d’évaluation de l’incidence algorithmique ==== | | ==== Le processus d’évaluation de l’incidence algorithmique ==== |
| L’outil d’EIA est un questionnaire qui détermine le niveau d’incidence d’un système décisionnel automatisé. Il est composé de 48 questions sur les risques et de 33 questions sur les mesures d’atténuation. Les scores d’évaluation sont basés sur de nombreux facteurs, notamment la conception des systèmes, l’algorithme, le type de décision, les incidences et les données. L’outil aboutit à un niveau de catégorisation de l’incidence entre I (présentant le moindre risque) et IV (présentant le plus grand risque). En fonction du niveau d’incidence (qui sera publié), la directive peut imposer des exigences supplémentaires. Le processus est décrit à la figure 2. | | L’outil d’EIA est un questionnaire qui détermine le niveau d’incidence d’un système décisionnel automatisé. Il est composé de 48 questions sur les risques et de 33 questions sur les mesures d’atténuation. Les scores d’évaluation sont basés sur de nombreux facteurs, notamment la conception des systèmes, l’algorithme, le type de décision, les incidences et les données. L’outil aboutit à un niveau de catégorisation de l’incidence entre I (présentant le moindre risque) et IV (présentant le plus grand risque). En fonction du niveau d’incidence (qui sera publié), la directive peut imposer des exigences supplémentaires. Le processus est décrit à la figure 2. |
− | [[File:Aia fr.png|alt=Le processus d’évaluation de l’incidence algorithmique|center|thumb|661x661px|Figure 2 : Le processus d’évaluation de l’incidence algorithmique]] | + | [[File:Aia fr.png|alt=Le processus d’évaluation de l’incidence algorithmique|center|thumb|661x661px|'''Figure 2 : Le processus d’évaluation de l’incidence algorithmique''']] |
| | | |
| == Détection et atténuation des biais == | | == Détection et atténuation des biais == |
Line 45: |
Line 45: |
| Les préjudices sont généralement considérés dans le contexte des taux d’erreur et/ou des taux de représentation. Dans le cas des taux d’erreur, les différences de taux de faux positifs ou négatifs entre différents groupes de personnes induisent un rendement disproportionné du système, entraînant des conséquences injustes ou des avantages réduits pour certains groupes. Les différences dans les taux de représentation, même en l’absence de différences dans les taux d’erreur, peuvent conduire à des répartitions injustes des avantages ou des pénalités entre les groupes de personnes. Les types de préjudices applicables à un système particulier dépendent fortement de l’utilisation prévue du système. La figure 2 présente un organigramme permettant de déterminer la mesure d’équité la plus pertinente pour un système. | | Les préjudices sont généralement considérés dans le contexte des taux d’erreur et/ou des taux de représentation. Dans le cas des taux d’erreur, les différences de taux de faux positifs ou négatifs entre différents groupes de personnes induisent un rendement disproportionné du système, entraînant des conséquences injustes ou des avantages réduits pour certains groupes. Les différences dans les taux de représentation, même en l’absence de différences dans les taux d’erreur, peuvent conduire à des répartitions injustes des avantages ou des pénalités entre les groupes de personnes. Les types de préjudices applicables à un système particulier dépendent fortement de l’utilisation prévue du système. La figure 2 présente un organigramme permettant de déterminer la mesure d’équité la plus pertinente pour un système. |
| | | |
− | [[File:FairnessTree.png|center|thumb|625x625px|Figure 3: Organigramme de sélection de la métrique d’équité.]] | + | [[File:FairnessTree.png|center|thumb|625x625px|'''Figure 3: Organigramme de sélection de la métrique d’équité.''']] |
| Après avoir exposé les risques de préjudice dans le système, l’étape suivante consiste à déterminer les attributs protégés. Dans le contexte de la détection et de l’atténuation des biais, un attribut protégé fait référence à un attribut catégorique pour lequel il existe des préoccupations de biais dans les catégories d’attributs. La race et le sexe sont des exemples courants d’attributs protégés. Les attributs protégés pertinents pour l’application du système doivent être définis afin d’étudier les incidences disproportionnées dans les catégories d’attributs. | | Après avoir exposé les risques de préjudice dans le système, l’étape suivante consiste à déterminer les attributs protégés. Dans le contexte de la détection et de l’atténuation des biais, un attribut protégé fait référence à un attribut catégorique pour lequel il existe des préoccupations de biais dans les catégories d’attributs. La race et le sexe sont des exemples courants d’attributs protégés. Les attributs protégés pertinents pour l’application du système doivent être définis afin d’étudier les incidences disproportionnées dans les catégories d’attributs. |
| | | |
| Une fois l’évaluation des préjudices potentiels et des groupes affectés effectuée, un ensemble d’outils de détection et d’atténuation des biais peut être appliqué pour tenter de remédier aux problèmes d’iniquité du système. Ce processus global peut donc être décomposé en quatre étapes : | | Une fois l’évaluation des préjudices potentiels et des groupes affectés effectuée, un ensemble d’outils de détection et d’atténuation des biais peut être appliqué pour tenter de remédier aux problèmes d’iniquité du système. Ce processus global peut donc être décomposé en quatre étapes : |
− | [[File:BiasProcess fr.png|alt=Processus de détection et d’atténuation des biais|center|thumb|548x548px|Figure 4: Processus de détection et d’atténuation des biais]] | + | [[File:BiasProcess fr.png|alt=Processus de détection et d’atténuation des biais|center|thumb|548x548px|'''Figure 4: Processus de détection et d’atténuation des biais''']] |
| Dans la section suivante, des détails sont fournis sur des preuves de concept (PDC) de l’un des projets pilotes d’IA utilisant le processus proposé. Grâce à cette enquête, des renseignements supplémentaires peuvent être glanés sur les considérations pratiques de la détection et de l’atténuation des biais. | | Dans la section suivante, des détails sont fournis sur des preuves de concept (PDC) de l’un des projets pilotes d’IA utilisant le processus proposé. Grâce à cette enquête, des renseignements supplémentaires peuvent être glanés sur les considérations pratiques de la détection et de l’atténuation des biais. |
| | | |
Line 63: |
Line 63: |
| == Étude de cas : Modèle prédictif pour la détection du comportement de pêche des navires == | | == Étude de cas : Modèle prédictif pour la détection du comportement de pêche des navires == |
| Grâce au travail sur l’IA financé par le Fonds des résultats 2020-2021, une preuve de concept a été développée pour la détection automatisée de l’activité de pêche des navires à l’aide d’un modèle d’apprentissage machine. Le modèle prédictif qui en résulte prend les traces du navire en entrée et produit les traces du navire annotées de son activité, c’est-à-dire pêche ou non. Le modèle utilise des caractéristiques telles que l’écart de vitesse du navire, l’écart de cap et le type d’engin pour détecter l’activité du navire. Les renseignements obtenus grâce au modèle prédictif sont ensuite combinés à d’autres données, telles que les zones de gestion des pêches et les conditions de permis, afin de détecter les cas de non-respect des règlements de pêche. | | Grâce au travail sur l’IA financé par le Fonds des résultats 2020-2021, une preuve de concept a été développée pour la détection automatisée de l’activité de pêche des navires à l’aide d’un modèle d’apprentissage machine. Le modèle prédictif qui en résulte prend les traces du navire en entrée et produit les traces du navire annotées de son activité, c’est-à-dire pêche ou non. Le modèle utilise des caractéristiques telles que l’écart de vitesse du navire, l’écart de cap et le type d’engin pour détecter l’activité du navire. Les renseignements obtenus grâce au modèle prédictif sont ensuite combinés à d’autres données, telles que les zones de gestion des pêches et les conditions de permis, afin de détecter les cas de non-respect des règlements de pêche. |
− | [[File:FishingDetectionModel fr.png|alt=Modèle prédictif pour la détection du comportement de pêche : entrée et sortie|center|thumb|614x614px|Figure 5 : Modèle prédictif pour la détection du comportement de pêche : entrée et sortie]] | + | [[File:FishingDetectionModel fr.png|alt=Modèle prédictif pour la détection du comportement de pêche : entrée et sortie|center|thumb|614x614px|'''Figure 5 : Modèle prédictif pour la détection du comportement de pêche : entrée et sortie''']] |
| Le modèle prédictif de détection de la pêche servira de base à la construction d’un système décisionnel automatisé pour la détection des comportements de pêche non conformes. Après consultation avec le SCT, le MPO a établi que la directive du SCT sur les systèmes décisionnels automatisés s’applique à la production du modèle. | | Le modèle prédictif de détection de la pêche servira de base à la construction d’un système décisionnel automatisé pour la détection des comportements de pêche non conformes. Après consultation avec le SCT, le MPO a établi que la directive du SCT sur les systèmes décisionnels automatisés s’applique à la production du modèle. |
| | | |