Au printemps dernier, Clive Kabatznik, un investisseur de Floride, a appelé la représentante locale de la Bank of America pour discuter d’un important transfert d’argent qu’il prévoyait d’effectuer. Puis il a rappelé.

Sauf que le deuxième appel n’était pas de Kabatznik. Un logiciel avait généré artificiellement sa voix et tenté de tromper la banquière pour qu’il transfère l’argent ailleurs.

M. Kabatznik et sa banquière ont été la cible d’une tentative d’escroquerie de pointe qui attire l’attention des experts en cybersécurité : l’utilisation de l’intelligence artificielle pour générer des deepfakes vocaux, c’est-à-dire des rendus vocaux qui imitent la voix de véritables personnes.

Le problème est encore assez nouveau pour qu’il n’y ait pas d’évaluation complète de la fréquence des escroqueries. Mais un expert dont la société, Pindrop, surveille le trafic audio pour un nombre important de grandes banques américaines dit avoir constaté une augmentation du phénomène cette année – et de la sophistication des tentatives de fraude vocale des escrocs. Un autre grand fournisseur d’authentification vocale, Nuance, a vu sa première attaque réussie de deepfake contre un client du secteur des services financiers à la fin de l’année dernière.

Dans le cas de M. Kabatznik, la fraude était détectable. Mais la rapidité du développement technologique, la baisse des coûts des programmes d’intelligence artificielle générative et la grande disponibilité des enregistrements de voix sur l’internet ont créé les conditions parfaites pour les escroqueries à l’IA liées à la voix.

Échantillons audio

Les données relatives aux clients, telles que les coordonnées bancaires, qui ont été volées par des pirates informatiques – et sont largement disponibles sur les marchés clandestins –, aident les escrocs à mener à bien ces attaques. Celles-ci sont encore plus faciles à réaliser avec des clients fortunés, dont les apparitions publiques, notamment les discours, sont souvent largement publiées sur l’internet. Trouver des échantillons audio de clients ordinaires peut également être aussi simple qu’effectuer une recherche en ligne – par exemple sur des applications de médias sociaux comme TikTok et Instagram – pour trouver le nom d’une personne dont les escrocs possèdent déjà les coordonnées bancaires.

« Il y a beaucoup de contenu audio », explique Vijay Balasubramaniyan, PDG et fondateur de Pindrop, qui examine les systèmes de vérification vocale automatique de huit des dix plus grands prêteurs américains.

Au cours des dix dernières années, Pindrop a examiné les enregistrements de plus de 5 milliards d’appels reçus par les centres d’appels des sociétés financières qu’elle sert. Ces centres gèrent des produits comme les comptes bancaires, les cartes de crédit et d’autres services proposés par les grandes banques de détail. Tous les centres d’appel reçoivent des appels de fraudeurs, généralement entre 1000 et 10 000 par an. Selon M. Balasubramaniyan, il n’est pas rare de recevoir 20 appels de fraudeurs par semaine.

Jusqu’à présent, les fausses voix créées par des programmes informatiques ne représentent qu’une « poignée » de ces appels, précise le fondateur de Pindrop, et elles n’ont commencé à faire leur apparition qu’au cours de l’année écoulée.

La plupart des attaques par fausse voix que Pindrop a observées ont eu lieu dans des centres d’appels de services de cartes de crédit où des représentants humains traitent avec des clients qui ont besoin d’aide avec leur carte.

Voix d’automate

M. Balasubramaniyan a fait écouter à un journaliste l’enregistrement anonyme d’un appel de ce type qui a eu lieu en mars. Bien qu’il s’agisse d’un exemple très rudimentaire – dans ce cas, la voix est robotique et rappelle davantage un lecteur électronique qu’une personne –, l’appel illustre la manière dont les escroqueries peuvent se produire à mesure que l’IA permet d’imiter plus facilement les voix humaines.

On entend un banquier accueillir le client. Puis la voix, qu’on aurait dit automatisée, rapporte : « Ma carte a été refusée. »

Le banquier répond : « Puis-je vous demander à qui j’ai le plaisir de parler ? »

« Ma carte a été refusée », répète la voix.

Le banquier demande de nouveau le nom du client. Un silence suit, pendant lequel on entend un léger bruit de frappe. Selon M. Balasubramaniyan, le nombre de frappes correspond au nombre de lettres du nom du client. Le fraudeur tape des mots dans un programme qui les lit ensuite.

En l’occurrence, le débit artificiel de l’appelant a conduit l’employé à transférer l’appel à un autre service et à le signaler comme potentiellement frauduleux, explique M. Balasubramaniyan.

Les appels comme celui décrit ici, qui utilisent la technologie de synthèse vocale, font partie des attaques qu’il est le plus facile de contrer : les centres d’appels peuvent utiliser des logiciels de filtrage pour détecter les indices techniques indiquant que le discours est généré par une machine.

« La parole synthétique laisse des artefacts derrière elle, et de nombreux algorithmes anti-usurpation d’identité s’appuient sur ces artefacts », explique Peter Soufleris, PDG d’IngenID, fournisseur de technologies de biométrie vocale.

Mais comme pour de nombreuses mesures de sécurité, il s’agit d’une course aux armements entre les fraudeurs et les leurs cibles, qui a récemment évolué. Un escroc peut désormais simplement parler dans un microphone ou taper une invite et voir son propos traduit très rapidement avec la voix de la personne dont il a usurpé l’identité.

M. Balasubramaniyan a fait remarquer qu’un système d’IA générative, VALL-E de Microsoft, pouvait créer une fausse voix qui disait tout ce que l’utilisateur souhaitait en utilisant un échantillonnage audio d’à peine trois secondes.

Supercherie

Si les démonstrations effrayantes de deepfake sont monnaie courante dans les conférences sur la sécurité, les attaques réelles restent extrêmement rares, assure Brett Beranek, gestionnaire général de la sécurité et de la biométrie chez Nuance, un fournisseur de technologie vocale que Microsoft a racheté en 2021. La seule intrusion réussie chez un client de Nuance, en octobre, a nécessité plus d’une douzaine de tentatives de la part de l’auteur de l’attaque.

Ce qui préoccupe le plus M. Beranek, ce ne sont pas les attaques contre les centres d’appels ou les systèmes automatisés, comme les systèmes de biométrie vocale déployés par de nombreuses banques. Il s’inquiète des escroqueries dans lesquelles un appelant joint directement une personne, par exemple le PDG, en se faisant passer pour quelqu’un d’autre.

C’est ce qui s’est passé dans le cas de M. Kabatznik. Selon la description de la banquière, quelqu’un semblait essayer de lui faire transférer de l’argent vers un nouveau lieu, mais la voix était répétitive, parlait en même temps qu’elle et ses propos étaient confus. La banquière a raccroché.

Après avoir reçu deux autres appels de ce type en peu de temps, la banquière a signalé le problème à l’équipe de sécurité de la Bank of America, explique M. Kabatznik. Inquiète pour la sécurité du compte de M. Kabatznik, elle a cessé de répondre à ses appels et à ses courriels, même à ceux qui provenaient du vrai M. Kabatznik. Il a fallu une dizaine de jours pour qu’ils rétablissent le contact, lorsque M. Kabatznik s’est arrangé pour lui rendre visite à son bureau.

« Nous formons régulièrement notre équipe à identifier et à reconnaître les escroqueries et à aider nos clients à les éviter », explique William Halldin, porte-parole de la Bank of America. Il ajoute qu’il ne peut commenter le cas de clients en particulier ou leurs expériences.

Bien que les attaques soient de plus en plus sophistiquées, elles découlent d’une menace de cybersécurité de base qui existe depuis des décennies : une violation de données qui révèle les informations personnelles des clients d’une banque.

Entre 2020 et 2022, des données personnelles concernant plus de 300 millions de personnes sont tombées entre les mains de pirates informatiques, ce qui a entraîné des pertes de 8,8 milliards de dollars, selon la Federal Trade Commission.

Une fois qu’ils ont récolté un lot de numéros, les pirates passent au crible les informations et les font correspondre à des personnes réelles. Les personnes qui volent les informations ne sont presque jamais celles qui finissent par les utiliser. Au lieu de cela, les voleurs les mettent en vente. Les spécialistes peuvent utiliser l’un des nombreux programmes facilement accessibles pour usurper les numéros de téléphone des clients ciblés, ce qui a probablement été le cas de M. Kabatznik.

Il est facile de trouver des enregistrements de sa voix. Sur l’internet, on trouve des vidéos de lui s’exprimant lors d’une conférence et participant à une collecte de fonds.

« Je pense que c’est assez effrayant », a déclaré M. Kabatznik. « Le problème, c’est que je ne sais pas ce qu’il faut faire. Faut-il simplement entrer dans la clandestinité et disparaître ? »

Cet article a été publié à l’origine dans le New York Times

Consultez l’article original (en anglais ; offert avec abonnement payant)