Tendances Technologiques/Assistants Numeriques

From wiki
Jump to: navigation, search


Status Publié
Version originale 04 février 2020
Mise à jour 18 février 2020
Publication Officielle Assistants Numériques.pdf
Traffic cone.png Cette page est sujet à des mises à jours. On encourage toutes rétroactions. Veuillez utiliser la page de discussion pour apporter des commentaires et des suggestions. Une fois que cette version soit approuvée et finalisée, elle va être traduite.

Les interfaces utilisateur conversationnelles (IUC) visent à jeter une passerelle entre le langage naturel (écrit et parlé) et les appareils. Les interfaces utilisateur graphiques (IUG) traditionnelles permettent aux utilisateurs de naviguer sur un appareil électronique à l’aide de boutons, de repères visuels et de texte. Les IUC peuvent éliminer certaines des étapes potentiellement compliquées qu’un utilisateur doit franchir pour accomplir une tâche. Il peut s’agir d’obtenir de l’information, d’obtenir des indications, d’envoyer des courriels, de lire un fichier média, de commander de la nourriture, d’organiser un calendrier, etc.

Cacher la Vue Détaillée


Sommaire opérationnel

Dans le marché d’aujourd’hui, les interfaces utilisateur conversationnelles sont produites sous deux formes qui sont toutes deux constituées de technologies d’intelligence artificielle : les assistants vocaux et les agents conversationnels.[1] Les assistants vocaux comme Amazon Alexa, Google Assistant, Cortana et Siri permettent une communication vocale et textuelle entre les utilisateurs et les appareils, tandis que les agents conversationnels sont basés uniquement sur le texte.

Les possibilités en matière d’utilisation fonctionnelle des assistants vocaux et des agents conversationnels pourraient être assez vastes. Comme la plupart des assistants vocaux et des agents conversationnels peuvent interagir avec différentes applications, cela permet d’améliorer considérablement la résolution des problèmes lorsque l’utilisateur fait face à un problème dans une application. Par exemple, un assistant virtuel peut être utilisé pour fournir une aide pour des problèmes courants, qui nécessiteraient normalement l’intervention d’un agent en direct, comme la réinitialisation du mot de passe d’un utilisateur ou l’obtention d’un code d’activation pour un processus de connexion.[2] Microsoft utilise également un assistant automatisé pour fournir aux utilisateurs des codes d’activation pour leurs produits.[3]

Certaines grandes entreprises technologiques développent des assistants vocaux ou des agents conversationnels utilisables avec les applications ou les appareils les plus courants. Bien que leur concept existe depuis des décennies, ce n’est que récemment que les assistants numériques (un autre nom pour les assistants vocaux) ont commencé à offrir un large éventail de capacités solides et fiables. Ils peuvent effectuer un grand nombre de tâches diverses pour aider les utilisateurs. Les assistants numériques récents, comme Google Assistant et Siri d’Apple, ont été créés pour être activés par la voix et pour donner une réponse ou exécuter un service en réaction au langage naturel de l’utilisateur. Ces types d’assistants sont activés par les utilisateurs finaux et exécutent des tâches selon les instructions de l’utilisateur. Ils diffèrent ainsi des assistants numériques, qui peuvent communiquer avec d’autres assistants numériques.

L’interface utilisateur conversationnelle continuera de progresser et jouera un rôle crucial dans tous les appareils d’Internet des Objets (IdO) à l’avenir. Les tâches qui étaient traditionnellement exécutées par des postes de secrétaires peuvent être effectuées par des assistants numériques qui peuvent communiquer en arrière-plan avec d’autres applications. Ces tâches comprennent la gestion des renseignements personnels, les rappels de rendez-vous, le stockage de coordonnées, l’envoi de messages et bien plus encore. Grâce à leur profonde intégration technologique, à leurs diverses capacités fonctionnelles et à leurs interfaces faciles à utiliser, les assistants numériques sont tout à fait capables de fournir un soutien utile au sein de n’importe quelle organisation en utilisant la compréhension du langage naturel (CLN)[4] et le traitement du langage naturel (TLN)[5] pour permettre une communication avec les sites Web, les applications mobiles et les appareils externes qui est similaire aux communications entre humains.

Sommaire technique

L’interface utilisateur conversationnelle fonctionne en demandant à l’utilisateur de saisir un langage naturel, sous forme vocale ou écrite. L’entrée est ensuite traitée par des systèmes d’intelligence artificielle (IA) et une réponse est donnée. Plusieurs assistants vocaux, dont Siri d’Apple, Google Assistant, Bixby de Samsung[6] et Alexa d’Amazon, utilisent une technologie infonuagique pour traiter la parole saisie par l’utilisateur. L’avantage de ceci est la possibilité de construire de grandes bases de données audio permettant à l’assistant vocal de traiter l’entrée plus rapidement et de prédire ce que l’individu va dire.

De cette manière, il permet une conversation plus fluide entre les humains et les appareils. Comme le traitement de la parole saisie n’est pas effectué sur l’appareil, cela peut créer des préoccupations relatives à la confidentialité entourant le fait que les interactions entre l’utilisateur et l’appareil sont stockées ailleurs.

Les assistants numériques, également appelés agents conversationnels ou assistants virtuels, fonctionnent de manière similaire et peuvent être divisés en deux grandes catégories : ils sont généralement basés sur des scripts (interaction de base avec l’utilisateur) ou structurés (assistants virtuels engagés). Ils peuvent également être intégrés à des outils de collaboration et à des applications de messagerie.

Les agents conversationnels basés sur des scripts ont tendance à davantage faire partie intégrante du programme, ce qui signifie qu’ils s’attendent à recevoir des questions et des interactions d’un ensemble de cas d’utilisation et qu’ils formulent leurs réponses en conséquence.

On peut concevoir les agents basés sur des scripts[7] comme des agents qui fournissent une conversation dirigée. Bien que la mise en œuvre de ces agents soit moins complexe, elle impose également des limites plus strictes au niveau du type de communications qui peuvent être offertes. Les agents conversationnels structurés s’appuient sur l’intelligence artificielle et plus particulièrement sur la compréhension du langage naturel (CLN) infonuagique pour générer des données exploitables par la machine à partir des données saisies par les utilisateurs. Contrairement à leurs homologues scénarisés, ces types d’agents conversationnels sont plus complexes et nécessitent plus d’efforts pour être correctement mis en œuvre, mais l’utilisateur final est capable d’être moins rigide dans la façon dont il structure ses questions et ses interactions.

Les robots basés sur des scripts suivent des arbres de décision pour répondre à des questions prédéfinies. La raison pour laquelle les agents conversationnels avec les mêmes capacités finissent par avoir des expériences très différentes avec les clients est que la qualité des arbres de décision sous-jacents varie.[8] Ces agents doivent poser suffisamment de questions et de façon suffisamment approfondie pour fournir au client la réponse la plus précise possible, mais s’abstenir de poser des questions inutiles ou de faire tourner un client en rond sans lui fournir une réponse. Les cartes de parcours des clients[9] aideront à élaborer l’arbre décisionnel.

Les assistants numériques sont un agent logiciel qui exécute divers services et tâches pour son utilisateur. Les assistants numériques, comme Bixby[10] de Samsung, utilisent des commandes vocales pour contrôler les applications et traiter ces demandes. Ce développement récent des assistants virtuels permet aux utilisateurs finaux de maîtriser relativement facilement l’utilisation du logiciel. Les assistants numériques ont également des « skills » (compétences), qui sont des applications qui peuvent être acquises par le biais d’une boutique de compétences. Cela permet aux utilisateurs d’installer les commandes qui leur seraient les plus utiles.

Ces compétences comprennent, entre autres, des compétences de météo, de balados et d’entraînement. Certaines de ces compétences sont gratuites et d’autres coûtent de l’argent. Certaines sont construites par des fournisseurs, d’autres par la communauté, et il vous est possible de développer vos propres compétences.

Cependant, les questions doivent tout de même être clairement formatées pour que l’assistant puisse les comprendre. Le microphone intégré de l’appareil analyse la voix de l’utilisateur pour l’enregistrer à l’aide du traitement du langage naturel (TLP). Les demandes faites par les utilisateurs sont stockées dans des centres de données, ce qui facilite la prestation de services aux utilisateurs du logiciel. En se basant sur l’historique des demandes d’un utilisateur, les assistants numériques utilisent désormais les renseignements préexistants pour fournir des services aux utilisateurs avec une plus grande précision. Par exemple, « plusieurs fois par jour, Amazon utilise toutes les requêtes faites à Alexa qui ont été recueillies pour instruire son I.A. en matière de dialectes et de langage informel ».[11]

En général, les assistants numériques à commande vocale fonctionnent en permanence à un faible taux de traitement jusqu’à ce qu’un mot clé soit entendu, qui informe l’assistant qu’une demande est sur le point d’être faite. Par exemple, Google Home écoute son environnement jusqu’à ce que les mots « Ok Google » soient prononcés à haute voix. Les assistants numériques traduisent ensuite les commandes de l’utilisateur en texte, qui est analysé par de multiples algorithmes pour exécuter une tâche. Ces algorithmes divisent les demandes en parties clés, ce qui facilite l’envoi de courriels ou de messages ou le stockage de dossiers.

Trois principaux types d’algorithmes sont utilisés pour analyser votre demande : le traitement du langage naturel (TLN)[12], la compréhension du langage naturel (CLN)[13], et la génération de langage naturel (GLN).[14] Le TLN gère la façon d’écrire des programmes informatiques pour recueillir et traiter de grandes quantités de données liées au langage naturel. Cela peut être une tâche difficile lorsque certaines langues comme le japonais et le chinois utilisent des caractères qui représentent des mots et des lettres sans espaces entre eux, faisant en sorte qu’il est plus difficile pour l’ordinateur de comprendre ce qui est dit. Il est plus facile de détecter les mots dans des langues comme l’anglais, car ils sont presque toujours séparés par un espace. Un autre défi découle du fait que le même mot peut être utilisé comme différents éléments de la phrase (nom, verbe, etc.). Par exemple, on peut apporter son manger (nom), quelque chose peut être mangé (adjectif), vous pouvez manger quelque chose (verbe).

La compréhension du langage naturel (CLN)[15] fait référence à la compréhension des données transmises à un ordinateur sous forme de paroles ou de texte. Elle permet aux ordinateurs de comprendre la parole humaine sans utiliser une syntaxe préprogrammée et de répondre aux commandes ou aux questions de manière intelligente et cohérente. La CLN est ce qui se cache derrière les agents conversationnels qui interagissent avec les humains sans nécessiter d’intervention.

La génération de langage naturel (GLN)[16] est le processus de conversion de texte en langage naturel, ce qui est l’opposé de la CLN. La GLN peut recueillir des données à partir de textes, de graphiques ou même de narrations générées et créer des narrations réactives qui résument l’information. Le premier système commercial de GLN consistait à créer des prévisions météorologiques à partir de données météorologiques.[17] Un autre exemple de génération de langage naturel est une plateforme de veille stratégique qui peut générer des explications sur les visualisations de données dans un tableau de bord.[18]

Utilisation par l’industrie

L’interface utilisateur conversationnelle offre une autre façon pour les humains d’interagir avec les appareils. Ils permettent aux utilisateurs d’interagir avec un système, une application ou un appareil et d’y naviguer en utilisant uniquement la saisie conversationnelle. Les interfaces utilisateur conversationnelles et les assistants numériques peuvent ouvrir des applications, écrire du texte dans une zone de saisie et envoyer des commandes aux applications. Par exemple « Hé Siri, régler la minuterie à 30 secondes »). Ainsi, une interface utilisateur conversationnelle constitue un remplacement pour une interface utilisateur graphique (IUG).

Les interfaces conversationnelles se trouvent dans presque tous les appareils mobiles maintenant, car la plupart des téléphones cellulaires sont vendus avec l’assistant numérique du fabricant préinstallé.

Ces interfaces permettent une meilleure prestation des services en fournissant une technologie plus récente à laquelle les utilisateurs finaux s’attendent maintenant.

Certaines des interactions les plus simples avec les clients peuvent être automatisées pour permettre aux ressources humaines d’effectuer des tâches plus difficiles qui sont difficiles à automatiser dans l’industrie des services.

Par exemple, KLM, la compagnie aérienne néerlandaise, a commencé à utiliser un agent conversationnel qui dialogue avec l’application Messenger de Facebook.[19] Cela permet aux clients de vérifier les informations relatives à leur vol et même de modifier certains éléments de leur voyage, sans avoir à parler directement à un employé de KLM. C’est un grand avantage, car les représentants humains de KLM peuvent servir à régler les problèmes plus sérieux des clients.

Sephora, un détaillant populaire de maquillage aux États Unis, a intégré de façon réussie un robot à Kik. Kik est une application de messagerie mobile qui permet de clavarder entre individus, de discuter en groupe et d’utiliser un navigateur Web interne.[20] L’application possède également des sous-applications qui fonctionnent dans le navigateur, ce qui encourage les utilisateurs à rester dans l’application.

Aujourd’hui, le robot pose un certain nombre de questions aux utilisateurs sur leurs préférences en matière de maquillage et propose des contenus et des offres liés aux réponses qu’il reçoit. Bien qu’il ne s’agisse pas d’un processus très sophistiqué, plus les consommateurs communiquent avec le robot, plus le robot (ainsi que la marque) est renseigné au sujet des préférences des consommateurs, lui permettant d’offrir un contenu et des offres mieux personnalisés.

Plusieurs des plus grandes entreprises technologiques, comme Amazon, Google, Apple et Samsung, commercialisent déjà des assistants vocaux. Il existe également de nombreuses plateformes élaborées en combinaison avec une plateforme CLN, pour faciliter la création d’agents conversationnels. Parmi ces plateformes, mentionnons API.ai (Google), Wit.ai (Facebook), et le Microsoft Bot Framework.[21] Concevoir des agents conversationnels pour des tâches précises à l’aide de ces plateformes permet aux individus de dialoguer avec leurs applications et, ainsi, la communication est établie entre une pléthore d’applications. Par exemple, la création d’un agent à l’aide de API.ai de Google crée automatiquement une plateforme infonuagique.[22] Google pour l’agent. L’utilisation de la plateforme infonuagique de Google fournit une infrastructure sécurisée et performante, dont la maintenance est assurée par Google. La plateforme infonuagique de Google offre des services pour le calcul, le stockage, la mise en réseau, les mégadonnées, l’apprentissage machine et Internet des objets (IdO), ainsi que des outils de gestion, de sécurité et de développement du nuage.[23]

Les assistants numériques offrent aux utilisateurs une autre façon d’effectuer leurs tâches quotidiennes. Ils ont le potentiel de permettre aux gens de gagner beaucoup de temps qu’ils consacreraient à écrire des courriels et des documents, à vérifier les mises à jour et plus encore. Une industrie pourrait tirer d’innombrables avantages du temps que peuvent faire gagner les assistants numériques. Au fur et à mesure que les assistants numériques se développent, leurs capacités augmentent rapidement. Cela signifie que les entreprises peuvent utiliser les assistants pour envoyer des messages vocaux instantanés, envoyer des diffusions, écouter des fichiers audio et plus encore.

Des assistants numériques comme Alexa d’Amazon sont déjà en train d’être mis en œuvre dans des entreprises partout en Amérique du Nord. Les assistants numériques sont utilisés pour aviser les bureaux de service de TI de problèmes liés aux technologies, lancer des téléconférences[24], trouver des salles de réunion disponibles[25], allumer ou éteindre les lumières des bureaux[26] et même vérifier les images des caméras de sécurité.[27]

McDonalds utilise LivePerson[28], un service conversationnel offert par l’entremise de téléphones intelligents avec Google Assistant, pour permettre aux clients de bénéficier d’un certain nombre de fonctionnalités utiles, notamment des offres spéciales basées sur l’emplacement, la navigation mains libres et la possibilité de passer une commande en appuyant sur une offre. Ce service est actuellement offert à tous les clients au Canada qui utilisent le service Google Assistant.

Utilisation par le gouvernement du Canada

Les interfaces utilisateur conversationnelles auront plusieurs avantages pour le gouvernement du Canada. Puisque l’interface utilisateur conversationnelle améliore la qualité des interactions entre l’humain et l’appareil, le GC peut bénéficier de son utilisation dans la prestation des services. Par exemple, si l’interface utilisateur conversationnelle était utilisée pour traiter les problèmes techniques de base auxquels sont confrontés les employés du GC, cela allégerait la charge de travail du personnel de soutien de la TI et permettrait à ces employés de régler des problèmes plus complexes que l’interface utilisateur conversationnelle ne peut traiter.

L’IU conversationnelle pourrait également être utilisée sur les sites Web du GC. Cela aiderait les citoyens canadiens qui accèdent aux sites Web à obtenir rapidement l’information qu’ils recherchent au moyen de demandes utilisant le langage naturel, grâce à un agent conversationnel. Si l’agent conversationnel ne peut pas récupérer l’information ou diriger l’utilisateur, l’agent conversationnel pourrait donner à l’utilisateur les coordonnées du ministère approprié ou le mettre en contact avec un agent du service d’assistance approprié. Il pourrait également être utile, lorsqu’une personne doit remplir des formulaires ou des demandes, d’offrir la possibilité de donner une rétroaction immédiate pour savoir si les données inscrites sont valides ou doivent être modifiées.

De plus, les assistants numériques doivent avoir le potentiel d’améliorer la productivité d’un employé. Dans un sondage mené par AtTask et Harris Interactive, les employés ont indiqué qu’ils consacraient 45 % de leur temps à des tâches exigées par leur rôle principal.[29] Ils ont indiqué que les courriels excessifs étaient l’un des principaux facteurs réduisant la productivité. Les assistants numériques peuvent combler cette lacune en exécutant des tâches répétitives comme organiser et se joindre à des réunions[30], envoyer des courriels, répondre aux questions fréquemment posées et répondre aux questions simples des clients.

Les assistants numériques ont une capacité unique en ce sens que les utilisateurs et les entreprises peuvent ajouter des « compétences » ou des fonctions générées par les utilisateurs pour effectuer des tâches particulières. Le GC pourrait créer ses propres « compétences » pour faire face à des scénarios précis et propres au milieu de travail fédéral. Cela peut accroître la productivité en donnant plus de temps aux travailleurs pour se concentrer sur des tâches importantes; il est ainsi possible d’économiser de l’argent puisque moins de temps sera perdu avec des tâches répétitives.

Étant donné que les agents conversationnels et les assistants numériques ont récemment été introduits au GC, il existe peu d’exemples d’utilisation de ces technologies par le gouvernement fédéral. Au fur et à mesure que le temps passe et que les solutions dépassent la phase de prototypage, plus d’exemples d’utilisations possibles existeront.

Selon Sarah Turnbull, le GC a lancé un agent conversationnel pour la première fois entre le 25 décembre 2017 et le 28 février 2018, dans le cadre d’une campagne de sensibilisation de Sécurité publique Canada intitulée « Ne conduis pas gelé ».[31] L’agent conversationnel a été conçu pour éduquer de façon interactive les jeunes de 16 à 24 ans sur les risques de la conduite avec des facultés affaiblies, tout en leur fournissant un moyen de trouver de l’aide ou de rentrer chez eux.

Dans le cadre de l’initiative de Gestion des cotisations et des recettes de l’ASFC (GCRA)[32], l’Agence des services frontaliers du Canada (ASFC) offre actuellement un agent conversationnel[33] qui peut aider les partenaires de la chaîne commerciale (PCC) à obtenir plus rapidement des renseignements utiles. L’agent conversationnel proposé aide les PCC à comprendre les règlements de l’ASFC en ce qui a trait aux questions posées par le PCC. L’agent conversationnel aidera à atteindre l’objectif déclaré de l’initiative de GCRA, qui est de « moderniser et simplifier le processus d’importation de marchandises commerciales au Canada ».

Répercussions pour Services partagés Canada (SPC)

Proposition de valeur

Services partagés Canada (SPC) pourrait tirer profit de l’IU conversationnelle à l’interne, en lui permettant de gérer les problèmes techniques des employés en libre-service. L’IU conversationnelle peut aussi permettre à des personnes de l’externe d’obtenir rapidement de l’information sur SPC et de préciser leurs questions, sans avoir à naviguer sur un site Web riche en information qu’elles ne connaissent peut-être pas bien. Les données sur l’utilisation recueillies à partir des interactions avec les utilisateurs peuvent aider à obtenir des renseignements sur la manière d’améliorer la prestation des services aux intervenants, aux clients et aux Canadiens.

Les questions les plus fréquemment posées peuvent indiquer quels renseignements doivent être plus accessibles et si de nouveaux services doivent être créés. De plus, un avantage négligé des assistants numériques et des agents conversationnels est qu’ils ne jugent pas les questions posées, qu’ils ne paraissent pas impatients et qu’ils peuvent être plus abordables que les assistants en direct. Cela pourrait accroître les interactions avec les utilisateurs, car ils se sentiraient plus à l’aise de poser des questions qu’ils hésiteraient à poser autrement.

Les assistants numériques peuvent également accroître la productivité des employés[34] et les aider à se concentrer sur les tâches essentielles de leur mandat. Les assistants numériques et les agents conversationnels peuvent être utilisés pour remplir des formulaires, peuvent signaler aux utilisateurs qu’une section a été mal remplie et peuvent soumettre ces formulaires au nom de l’utilisateur pour gagner du temps.[35]

Défis

Le lancement de l’IU conversationnelle au sein du GC présente quelques défis. L’utilisation d’assistants à commande vocale ou d’agents conversationnels conçus à l’aide de plateformes comme API.ai et Wit.ai signifie que le GC utilisera le réseau d’infonuagique de Google ou d’une autre entreprise pour traiter l’information soumise à l’interface utilisateur conversationnelle. SPC devra évaluer les répercussions que cela entraîne sur les plans de la sécurité et de la protection des renseignements personnels. Si l’interface utilisateur conversationnelle était conçue sans utiliser ces plateformes, cela nécessiterait un investissement considérable pour la conception et la maintenance, à moins qu’une solution de source ouverte soit adoptée.

Il est très important de tenir compte des défis posés par les assistants numériques étant donné leur niveau de gravité. L’un des problèmes liés aux assistants numériques est la menace qu’ils constituent sur le plan de la sécurité. Comme la majorité des assistants numériques sont à commande vocale, ils sont vulnérables à des attaques comme la DolphinAttack[36] (attaque « dauphin »). La DolphinAttack est basée sur le fait que les dauphins peuvent entendre des fréquences inaudibles pour les humains.[37] Les cybercriminels peuvent transmettre des commandes à des appareils comme Siri à une fréquence inaudible à l’oreille humaine, mais qui peut être entendue par les assistants numériques.[38] Ainsi, ces cybercriminels peuvent utiliser les assistants numériques pour visiter des sites Web malveillants ou poser des questions aux assistants numériques sur des aspects essentiels du fonctionnement du GC.

Ces assistants numériques activés par la voix peuvent être ciblés par l’espionnage. Les cybercriminels peuvent compromettre le système de l’assistant, ce qui leur permet d’entendre des conversations très secrètes et d’utiliser les caméras intégrées pour voir les personnes concernées. En outre, la plupart des nouveaux assistants numériques sont constamment à l’écoute. Ils utilisent un traitement à faible puissance qui est constamment à l’écoute, attendant qu’une question soit posée.

Les enregistrements de fond sonore et les questions légitimes sont tous transmis à une base de données principale appartenant à l’exploitant de l’assistant numérique; la sécurité de ces fichiers est ensuite entre les mains des exploitants (p. ex : Google, Amazon, Microsoft, Samsung, etc.). Si une atteinte à la sécurité survient chez l’une ou l’autre de ces entreprises, les renseignements de nature délicate du GC pourraient être accessibles et transmis à des acteurs malveillants. Cela s’est produit accidentellement, à plus petite échelle, lorsqu’un appareil Amazon Echo a mal interprété une conversation qui avait lieu dans une autre pièce et a envoyé l’ensemble du fichier audio à une des personnes d’une liste de contacts.[39]

Les assistants numériques comportent d’autres failles de sécurité liées à l’utilisation des « compétences ». Les compétences peuvent être ajoutées à un assistant numérique à partir d’une boutique de compétences exploitée par le propriétaire de l’assistant numérique. Certaines d’entre elles sont soumises par des utilisateurs et cela peut poser quelques problèmes. La contrefaçon de commande vocale[40] consiste à exploiter un assistant numérique en utilisant la manière dont il lance les compétences. Si une compétence soumise par un utilisateur malveillant est épelée et prononcée de façon similaire à une compétence légitime, l’utilisateur peut accidentellement envoyer une commande à compétence malveillante. Par exemple, une commande comme « Hé Alexa, ouvre Capital One » pourrait aussi être interprétée comme « Hé Alexa, ouvre Capitol Won » et la commande pourrait ouvrir une compétence malveillante.

Il est aussi possible de « déguiser sa voix », en faisant passer une compétence malveillante pour une compétence légitime pour amener l’utilisateur à divulguer des renseignements sensibles. Le concept de « fausse désactivation » s’appuie sur cette technique; la compétence nuisible prétend être désactivée, mais en réalité, elle est toujours à l’écoute, enregistrant de l’information en arrière-plan.

Considérations

L’ébauche du livre blanc sur l’utilisation responsable de l’intelligence artificielle au sein du gouvernement du Canada[41] du Secrétariat du Conseil du Trésor du Canada présente de très bonnes considérations à l’intention des institutions du GC qui cherchent à déployer des agents conversationnels :

  • Les conversations des agents conversationnels devraient commencer par un bref avis de confidentialité conforme à la Norme sur la protection de la vie privée et le Web analytique du Conseil du Trésor du Canada.[42] Cet avis devrait fournir un lien vers une page contenant plus de renseignements sur l’information recueillie au cours de la conversation, y compris sur les métadonnées, par exemple : heure et date, durée, si la conversation a été terminée par l’utilisateur ou l’agent, si et quand la discussion a été transmise à un humain, etc.
  • Il faut se demander si le robot est capable d’avoir un ton professionnel en tant que représentant du gouvernement du Canada. Les agents conversationnels qui utilisent l’apprentissage machine peuvent apprendre un langage potentiellement non professionnel, abusif ou harcelant s’ils sont exposés à un nombre suffisant d’exemples. Dans la mesure du possible, les institutions devraient collaborer avec les fournisseurs pour les empêcher d’apprendre ce type de comportements, que ce soit au moyen d’une liste noire de mots clés ou d’une autre méthode. Il est important de surveiller en permanence le rendement des agents conversationnels à cet égard.
  • Les institutions devraient être conscientes du fait que les personnes vivant dans des régions rurales ou éloignées peuvent avoir une latence qui affectera leur capacité à répondre aux demandes de l’agent conversationnel. Il est important de s’assurer que les temps de réponse pour l’utilisateur sont permissifs.
  • Les agents conversationnels doivent être accessibles. Ils devraient utiliser un langage clair et simple afin d’être compris par les utilisateurs ayant un faible niveau de scolarité ou d’aisance dans les langues officielles du Canada. Il est également important que les agents conversationnels puissent être lus par des lecteurs d’écran ou qu’ils soient capables de communiquer vocalement pour les personnes ayant un handicap visuel.
  • Il devrait être facile pour les utilisateurs de comprendre comment quitter la conversation. Si un utilisateur trouve qu’un agent conversationnel n’est plus utile, ou est incapable de répondre à sa requête, il devrait y avoir un moyen clair de transférer la conversation à un agent humain (si disponible), ou d’envoyer une correspondance par courriel. De plus, si un agent conversationnel a répondu à une requête et que l’utilisateur a terminé la session ou s’est abstenu de répondre à une autre question, l’agent conversationnel doit mettre fin poliment à la conversation.

Le même livre blanc indique également les questions qui devraient être posées avant la création d’un agent conversationnel :

  • Existe-t-il un facteur opérationnel clair pour l’agent conversationnel?
  • Les demandes de renseignements les plus courantes sont-elles connues et est-il facile d’y répondre?
  • Qu’est-ce qui peut être automatisé sans nuire à l’expérience et à la satisfaction de l’utilisateur?
  • À quel point les renseignements que l’agent conversationnel est susceptible de recevoir ou de relayer sont-ils sensibles?
  • L’interaction sera-t-elle entièrement scénarisée ou permettra-t-elle à l’utilisateur de poser des questions ouvertes?
  • Y aura-t-il un processus d’acheminement vers un clavardage en direct avec un humain?
  • Les interactions peuvent-elles être stockées dans votre logiciel de gestion des relations avec les clients? Permettra-t-il un engagement par d’autres moyens (p. ex. courriel, téléphone, en personne)?

En ce qui concerne les assistants numériques, en plus des défis déjà énumérés, il est important de vérifier si les assistants numériques sont activés sur les appareils mobiles qui sont distribués aux employés du gouvernement. Compte tenu de tous les risques connus en matière de sécurité, les appareils mobiles pourraient constituer une nouvelle vulnérabilité si les assistants numériques préinstallés sont vulnérables aux attaques et si les renseignements recueillis lors des conversations sont sensibles et transmis à la base de données de l’assistant numérique. Les assistants numériques sur les appareils mobiles devraient être désactivés pour prévenir toute fuite de données et pour éliminer les nouveaux vecteurs d’attaque.

Conformément au passage vers l’adoption d’outils à source ouverte, le GC devrait envisager de tester et d’adopter des assistants numériques à source ouverte. Comme leurs homologues commerciaux, ils évoluent en permanence grâce à l’apport des utilisateurs et disposent des mêmes capacités, sans les risques liés à l’envoi d’information vers une base de données centrale. Ils permettent également l’utilisation de « compétences » personnalisées que le GC pourrait créer pour répondre à des problèmes précis.

En fin de compte, les interfaces utilisateur conversationnelles sont encore en cours d’élaboration et d’amélioration, car de plus en plus d’entreprises élaborent leurs propres solutions. Cela signifie qu’avec le temps, les défis posés par la technologie deviendront moins importants et les solutions deviendront plus utiles et intuitives.

À l’heure actuelle, il existe de nombreuses applications pour les agents conversationnels dans un contexte de service à la clientèle (p. ex : client sur le site Web), mais moins dans les contextes internes (p. ex : employé avec les RH).

Les assistants numériques sont une technologie potentiellement perturbatrice qui permettra de gagner du temps, mais aussi de réduire le besoin en employés dont les seules tâches pourraient être accomplies par un assistant numérique. Les assistants numériques n’ont actuellement pas beaucoup d’usages pour les entreprises comparativement au marché des consommateurs. Les assistants numériques ont le potentiel d’apporter une grande aide dans le monde des entreprises, mais ce potentiel n’a pas encore été exploité.

Références

  1. Browlee, J. (4 avril 2016). Conversational Interfaces, Explained. Récupéré de fastcompany.com
  2. Reddy, T. (17 octobre 2017). How chatbots can help reduce customer service costs by 30%. Récupéré de ibm.com: https://www.ibm.com/blogs/watson/2017/10/how-chatbots-reduce-customer-service-costs-by-30-percent/
  3. Costa, A. D. (8 novembre 2018). HOW-TOActivate Your Windows 10 License via Microsoft Chat Support. Récupéré de groovypost.com
  4. Wikipedia. (24 août 2019). Natural-language understanding. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural-language_understanding
  5. Wikipedia. (15 septembre 2019). Natural language processing. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural_language_processing
  6. Jansen, M. (13 mars 2019). How to use Samsung Bixby: Everything you need to know. Récupéré de digitaltrends.com
  7. Onlim. (11 mars 2019). How Do Chatbots Work? Récupéré de onlim.com: https://onlim.com/en/how-do-chatbots-work/
  8. Steele, I. (22 février 2018). Journey Mapping for Chatbots: How to Create a Chatbot Decision Tree from Scratch. Récupéré de comm100.com: https://www.comm100.com/blog/journey-mapping-chatbot-decision-tree-from-scratch.html
  9. Atlassian. (20 septembre 2019). Customer Journey Mapping. Récupéré de atlassian.com
  10. Agence France-Presse. (6 avril 2017). Samsung's new personal digital assistant Bixby faces a few tough challenges. Récupéré de scmp.com
  11. Moynihan, T. (5 décembre 2016). Alexa and Google Home Record What You Say. But What Happens to That Data? Récupéré de wired.com: https://www.wired.com/2016/12/alexa-and-google-record-your-voice/
  12. Wikipedia. (15 septembre 2019). Natural language processing. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural_language_processing
  13. Wikipedia. (24 août 2019). Natural-language understanding. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural-language_understanding
  14. Wikipedia. (6 septembre 2019). Natural-language generation. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural-language_generation
  15. Rouse, M. (20 septembre 2019). natural language understanding (NLU). Récupéré de searchenterpriseai.techtarget.com: https://searchenterpriseai.techtarget.com/definition/natural-language-understanding-NLU
  16. Wikipedia. (6 septembre 2019). Natural-language generation. Récupéré de en.wikipedia.org: https://en.wikipedia.org/wiki/Natural-language_generation
  17. Goldberg, E., Driedger, N., & Kittredge, R. I. (Avril 1994). Using Natural-Language Processing to Produce Weather Forecasts. Récupéré de dl.acm.org
  18. Automated Insights. (30 janvier 2018). The Ultimate Guide to Natural Language Generation. Récupéré de medium.com
  19. Mielke, C. (18 juillet 2016). Conversational Interfaces: Where Are We Today? Where Are We Heading? Récupéré de smashingmagazine.com
  20. webwise.ie. (20 septembre 2019). Explainer: What is Kik? Récupéré de webwise.ie: https://www.webwise.ie/parents/explainer-what-is-kik/
  21. Paulson, K. (23 mars 2017). A beginner's guide to designing conversational interfaces. Récupéré de webdesignerdepot.com: https://www.webdesignerdepot.com/2017/03/a-beginners-guide-to-designing-conversational-interfaces/
  22. Catanzariti, P. (22 mai 2017). How to Build Your Own AI Assistant Using Api.ai. Récupéré de sitepoint.com
  23. Rouse, M. (29 janvier 2016). Google Cloud Platform (GCP). Récupéré de searchcloudcomputing.techtarget.com: https://searchcloudcomputing.techtarget.com/definition/Google-Cloud-Platform
  24. Amazon. (13 août 2019). Alexa for Business. Récupéré de docs.aws.amazon.com
  25. Perez, S. (10 octobre 2018). Alexa can now reserve conference rooms. Récupéré de techcrunch.com: https://techcrunch.com/2018/10/10/alexa-can-now-reserve-conference-rooms/
  26. Smart Home Focus. (9 mars 2019). Alexa turn on the lights. Récupéré de smarthomefocus.com: https://www.smarthomefocus.com/alexa-turn-on-lights/
  27. Lamkin, P. (17 avril 2019). How to view security camera footage on your Amazon Echo devices. Récupéré de the-ambient.com
  28. Sutton, J. (9 avril 2019). LivePerson helps McDonald's Canada launch conversational commerce on Google Assistant. Récupéré de newswire.ca: https://www.newswire.ca/news-releases/liveperson-helps-mcdonald-s-canada-launch-conversational-commerce-on-google-assistant-802328181.html
  29. AtTask. (22 octobre 2014). AtTask Study Shows Miscommunication and Distractions Overshadow Work Productivity. Récupéré de prnewswire.com
  30. Amazon. (13 août 2019). Alexa for Business. Récupéré de docs.aws.amazon.com
  31. Turnbull, S. (9 avril 2018). Ottawa used Facebook chatbot for ‘driving high’ campaign. Récupéré de ipolitics.ca: https://ipolitics.ca/2018/04/09/facebook-chatbot-message-about-driving-high-on-pot-a-first-for-feds/
  32. Canada Border Services Agency. (4 septembre 2019). CBSA Assessment and Revenue Management. Récupéré de cbsa-asfc.gc.ca
  33. Canadian Society of Customs Brockers. (10 avril 2019). CARM Trade Chain Partners (TCP) Consultation Meeting, April 2019. Récupéré de cscb.ca
  34. Gibbison, M. (11 janvier 2017). 7 ways digital assistants and AI will help transform public services. Récupéré de diginomica.com
  35. Clifford, C. (23 novembre 2014). How Much Time Do Your Employees Spend Doing Real Work? The Answer May Surprise You. (Infographic). Récupéré de entrepreneur.com
  36. Arntz, P. (28 juillet 2018). What’s the real value—and danger—of smart assistants? Récupéré de blog.malwarebytes.com
  37. Khandelwal, S. (7 septembre 2017). Hackers Can Silently Control Siri, Alexa & Other Voice Assistants Using Ultrasound. Récupéré de thehackernews.com
  38. Khandelwal, S. (7 septembre 2017). Hackers Can Silently Control Siri, Alexa & Other Voice Assistants Using Ultrasound. Récupéré de thehackernews.com
  39. Machkovech, S. (24 mai 2018). Amazon confirms that Echo device secretly shared user's private audio. Récupéré de arstechnica.com
  40. Umawing, J. (30 mai 2018). Researchers discover vulnerabilities in smart assistants’ voice commands. Récupéré de blog.malwarebytes.com: https://blog.malwarebytes.com/cybercrime/2018/05/security-vulnerabilities-smart-assistants/
  41. Karlin, M. (16 octobre 2017). Responsible AI in the Government of Canada. Récupéré de gccollab.ca
  42. Treasury Board of Canada Secretariat. (31 janvier 2013). Standard on Privacy and Web Analytics. Récupéré de tbs-sct.gc.ca: https://www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=26761