Changes

m
no edit summary
Line 111: Line 111:  
<p>La visualisation des données est un élément clé de nombreux projets de science des données. Pour certains intervenants, notamment les spécialistes du domaine et les cadres qui ne sont pas nécessairement des experts techniques, il s'agit de la principale voie par laquelle ils voient, comprennent et interagissent avec les projets de données. Par conséquent, il est important que les visualisations communiquent des renseignements aussi clairement que possible. Trop souvent, les visualisations sont entravées par certains défauts courants qui les rendent difficiles à interpréter ou, pire encore, sont trompeuses. Cet article passe en revue trois pièges courants de la visualisation que les communicateurs de données et les consommateurs de données devraient comprendre, ainsi que quelques suggestions pratiques pour les contourner.</p>
 
<p>La visualisation des données est un élément clé de nombreux projets de science des données. Pour certains intervenants, notamment les spécialistes du domaine et les cadres qui ne sont pas nécessairement des experts techniques, il s'agit de la principale voie par laquelle ils voient, comprennent et interagissent avec les projets de données. Par conséquent, il est important que les visualisations communiquent des renseignements aussi clairement que possible. Trop souvent, les visualisations sont entravées par certains défauts courants qui les rendent difficiles à interpréter ou, pire encore, sont trompeuses. Cet article passe en revue trois pièges courants de la visualisation que les communicateurs de données et les consommateurs de données devraient comprendre, ainsi que quelques suggestions pratiques pour les contourner.</p>
 
<p class="recco">Recommandé par le Bureau du DPI du Canada, Secrétariat du Conseil du Trésor du Canada, un partenaire de la Communauté des données du GC.</p>
 
<p class="recco">Recommandé par le Bureau du DPI du Canada, Secrétariat du Conseil du Trésor du Canada, un partenaire de la Communauté des données du GC.</p>
 +
 +
<h3 style="text-decoration:none;">[https://www.ineteconomics.org/perspectives/blog/hijacked-and-paying-the-price-why-ransomware-gangs-should-be-designated-as-terrorists Détournement et paiement du prix - Pourquoi les gangs de rançongiciels devraient être considérés comme des terroristes]</h3>
 +
<p class="author">Melissa Hathaway</p>
 +
<p>(En anglais - titre original : Hijacked and Paying the Price - Why Ransomware Gangs Should be Designated as Terrorists) Les gangs de ransomware ont causé d'importants dégâts. Il est temps que le gouvernement les prenne plus au sérieux.</p>
 +
<p class="recco">Recommandé par la Communauté des données du GC</p>
    
<h3 style="text-decoration:none;">[https://www.tbs-sct.gc.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]</h3>
 
<h3 style="text-decoration:none;">[https://www.tbs-sct.gc.ca/pol/doc-fra.aspx?id=32592 Directive sur la prise de décisions automatisée]</h3>
Line 150: Line 155:  
<p>(En anglais - titre original : <strong>Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead</strong>) Des modèles d'apprentissage automatique en boîte noire sont actuellement utilisés pour des prises de décision à fort enjeu dans toute la société, causant des problèmes dans les soins de santé, la justice pénale et d'autres domaines. Certaines personnes espèrent que la création de méthodes permettant d'expliquer ces modèles boîte noire atténuera certains des problèmes, mais essayer d'expliquer les modèles boîte noire, plutôt que de créer des modèles interprétables en premier lieu, risque de perpétuer les mauvaises pratiques et peut potentiellement causer un grand tort à la société. La voie à suivre consiste à concevoir des modèles qui sont intrinsèquement interprétables. Cette perspective clarifie le gouffre entre l'explication des boîtes noires et l'utilisation de modèles intrinsèquement interprétables, souligne plusieurs raisons clés pour lesquelles les boîtes noires explicables devraient être évitées dans les décisions à fort enjeu, identifie les défis de l'apprentissage automatique interprétable et fournit plusieurs exemples d'applications où les modèles interprétables pourraient potentiellement remplacer les modèles de boîtes noires dans la justice pénale, les soins de santé et la vision par ordinateur.</p>
 
<p>(En anglais - titre original : <strong>Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead</strong>) Des modèles d'apprentissage automatique en boîte noire sont actuellement utilisés pour des prises de décision à fort enjeu dans toute la société, causant des problèmes dans les soins de santé, la justice pénale et d'autres domaines. Certaines personnes espèrent que la création de méthodes permettant d'expliquer ces modèles boîte noire atténuera certains des problèmes, mais essayer d'expliquer les modèles boîte noire, plutôt que de créer des modèles interprétables en premier lieu, risque de perpétuer les mauvaises pratiques et peut potentiellement causer un grand tort à la société. La voie à suivre consiste à concevoir des modèles qui sont intrinsèquement interprétables. Cette perspective clarifie le gouffre entre l'explication des boîtes noires et l'utilisation de modèles intrinsèquement interprétables, souligne plusieurs raisons clés pour lesquelles les boîtes noires explicables devraient être évitées dans les décisions à fort enjeu, identifie les défis de l'apprentissage automatique interprétable et fournit plusieurs exemples d'applications où les modèles interprétables pourraient potentiellement remplacer les modèles de boîtes noires dans la justice pénale, les soins de santé et la vision par ordinateur.</p>
 
<p class="recco">Recommandé par le Bureau du DPI du Canada, Secrétariat du Conseil du Trésor du Canada, un partenaire de la Communauté des données du GC.</p>
 
<p class="recco">Recommandé par le Bureau du DPI du Canada, Secrétariat du Conseil du Trésor du Canada, un partenaire de la Communauté des données du GC.</p>
 +
 +
<h3 style="text-decoration:none;">[https://www.cigionline.org/publications/patching-our-digital-future-unsustainable-and-dangerous/ Le rafistolage de notre avenir numérique est insoutenable et dangereux]</h3>
 +
<p class="author">Melissa Hathaway</p>
 +
<p>(En anglais - titre original : Patching Our Digital Future Is Unsustainable and Dangerous) Ces dernières années, le monde a été témoin d'un nombre alarmant de cyberincidents très médiatisés, de pratiques préjudiciables dans le domaine des technologies de l'information et des communications (TIC) et d'actes répréhensibles à l'échelle internationale dus à une mauvaise utilisation des TIC. Au cours des 30 dernières années, une vulnérabilité unique et stratégique a été apportée à la société, en permettant à des produits commerciaux prêts à l'emploi, mal codés ou mal conçus, d'imprégner et d'alimenter chaque aspect de notre société connectée. Ces produits et services, qui présentent des faiblesses exploitables, sont devenus le ventre mou des systèmes gouvernementaux, des infrastructures et services essentiels, ainsi que des activités des entreprises et des ménages. La cyber-insécurité mondiale qui en résulte représente un risque croissant pour la santé, la sécurité et la prospérité publiques. Il est essentiel de devenir beaucoup plus stratégique dans la façon dont les nouvelles technologies numériques sont conçues et déployées, et de tenir les fabricants de ces technologies responsables de la sécurité numérique et de la sûreté de leurs produits. L'industrie technologique a rapidement mis sur le marché des produits vulnérables - maintenant, il est crucial de travailler ensemble pour réduire les risques créés et guérir notre environnement numérique aussi vite que la société le peut. Cet article a d'abord été publié dans le cadre de la récente série d'essais du CIGI, Governing Cyber Space during a Crisis in Trust.</p>
 +
<p class="recco">Recommandé par la Communauté des données du GC</p>
    
<!-- *** WEBSITES *** -->
 
<!-- *** WEBSITES *** -->
2,600

edits