(Montréal) Bien qu’on ait récemment davantage entendu parler de ses écueils et de ses dangers potentiels, l’intelligence artificielle peut aussi contribuer à sécuriser les données des individus.

Certaines institutions financières ont recours à la reconnaissance du locuteur, c’est-à-dire qu’elles authentifient le client qui utilise les services téléphoniques grâce aux caractéristiques distinctes de sa voix.

Desjardins a implanté cette technologie en juin 2021. Depuis, 1,5 million de membres, qui ont préalablement consenti au processus, ont pu être identifiés par leur voix dans le cadre de six millions d’appels.

« Le processus d’authentification [traditionnel] était nommé comme un irritant par nos membres quand ils appelaient, souligne Annie-Claude Jutras, directrice principale, Transformation des centres de relations clients chez Desjardins. Il fallait consacrer plusieurs dizaines de secondes au début de chaque appel pour réaliser toutes les étapes du processus. Avec l’authentification par la voix, c’est plus rapide, plus naturel et plus agréable. »

Cette méthode est aussi plus sécuritaire, précise Mme Jutras, puisque Desjardins a recours à un type d’authentification passif, où le système informatique reconnaît la voix pendant une simple conversation, et ce, à partir d’une centaine de paramètres. « On modélise la voix à l’aide de ces paramètres qui nous donnent une clé unique pour chaque membre, sous la forme d’un code alphanumérique, explique-t-elle. C’est comme une empreinte digitale. »

Ce faisant, le client n’a pas besoin de dire une phrase secrète pour être identifié, un type d’authentification qui a déjà été utilisé par des fraudeurs, qui enregistraient la voix d’une personne à son insu pour ensuite la personnifier et avoir accès à des renseignements personnels.

« Ce genre d’authentification se déroule dans un système automatisé, nuance Mme Jutras. Entraîner une voix synthétique ou utiliser un moteur d’intelligence artificielle pour calibrer la voix à la perfection, c’est beaucoup plus difficile dans le cadre d’une discussion fluide où il y a échange de questions et de réponses entre le membre et l’employé de Desjardins. »

Laurent Charlin, membre académique principal à Mila, professeur agrégé à HEC Montréal et titulaire d’une Chaire en intelligence artificielle Canada-CIFAR, abonde en ce sens.

« Nous, les humains, on peut reconnaître sensiblement la voix d’un interlocuteur, mais le système peut être entraîné pour en distinguer des intonations très spécifiques », avance-t-il.

« Si certaines institutions financières ont déployé ce système-là, elles doivent s’être assurées qu’il était mieux que la technologie qu’elles utilisaient auparavant », ajoute-t-il.

Truquer n’est pas aussi facile qu’on le croit

Selon Patrick Cardinal, professeur et directeur du Département de génie logiciel à l’École de technologie supérieure (ETS), la technologie ne permet pas encore de simuler une conversation improvisée avec la voix d’autrui à partir d’un simple échantillon de parole.

« Le fait que l’authentification se fait pendant une conversation, ça induit une incertitude sur les questions ou les échanges à venir, donc on peut difficilement prévoir les réponses. De plus, pour obtenir quelque chose de fiable, il faudrait énormément de données pour entraîner [l’intelligence artificielle] : la plupart des gens n’ont pas ces données en ligne », commente-t-il, en faisant référence à des extraits vocaux disponibles sur l’internet.

Il en va autrement pour les professionnels de la télévision, de la radio ou du cinéma, dont les extraits vocaux pullulent sur la Toile.

« On a déjà vu des vidéos d’acteurs ou de politiciens qui disaient des choses qu’ils n’avaient jamais dites, grâce à de l’hypertrucage (deep fake), souligne pour sa part Laurent Charlin. Il existe aussi des applications qui, à partir d’un petit extrait, arrivent à générer votre voix en vous faisant dire ce qu’ils veulent. »

En cas de doute, il est toujours possible de se replier sur les méthodes traditionnelles, comme les questions d’identification, rappelle Mme Jutras.

Vérification faite auprès du Centre antifraude du Canada, aucun signalement de fraude liée à l’intelligence artificielle avec clonage de la voix n’a été effectué, notamment pour accéder aux comptes bancaires d’une victime. « Cela dit, c’est quelque chose que le CAFC continuera à surveiller de près », a fait savoir par courriel Jeff Horncastle, agent de sensibilisation à la clientèle et de communication intérimaire.

Cette dépêche a été rédigée avec l’aide financière de la Bourse de Meta et de La Presse Canadienne pour les nouvelles.