La fraude se servant de l’intelligence artificielle en hausse dans le monde

3 minutes de lecture
22 janvier 2024

La Russie a récemment fait part d’escroqueries bancaires basées sur l’intelligence artificielle, alors que les organisations à travers le monde essayent tant bien que mal de sensibiliser le public pour se prémunir des imitations de la voix de plus en plus sophistiquées. Un extrait audio de trois secondes d’une personne est suffisant pour reproduire sa voix.

Graffiti écrit "fake"
© Markus Spiske

La semaine dernière, la Banque centrale de Russie a fait part de ses inquiétudes concernant l’augmentation du nombre de fraudeurs qui imitent de plus en plus la voix de parents et d’amis pour tromper financièrement leurs victimes par le biais d’escroqueries téléphoniques.

RIA Novosti, l’agence de presse publique russe, rapporte que les escrocs imitent de plus en plus les voix à l’aide de programmes qui convainquent une personne de fournir des informations essentielles ou d’effectuer des transferts d’argent de leurs comptes en banque.

« Nous recommandons aux personnes d’être prudentes lorsqu’elles publient des informations personnelles et financières sur les réseaux sociaux et d’autres ressources », prévient la Banque. « N’envoyez jamais d’informations provenant de documents dans les messageries instantanées et sociales, et ne saisissez pas vos données sur des sites douteux. Il n’est pas nécessaire d’effectuer des transactions monétaires à la demande de personnes par téléphone. » En cas de doute, ajoute la Banque, appelez directement une personne pour confirmer.

La Banque centrale a également publié une liste de phrases couramment utilisées au téléphone par les escrocs. En les entendant, les destinataires devraient immédiatement raccrocher. Ces phrases comprennent des termes tels que « une demande de prêt a été soumise », « employé de la Banque centrale », « compte spécial ou sécurisé » et bien d’autres encore.

La semaine dernière, le Financial Times s’est fait l’écho de cette inquiétude, car les données de Cifas, un service à but non lucratif de prévention des fraudes au Royaume-Uni, indiquent que les outils d’intelligence artificielle utilisés pour tromper les systèmes bancaires ont augmenté de 84 % par rapport à 2022.

Les experts mettent en garde contre les systèmes disponibles sur le dark web, notamment WormGPT, FraudGPT ou encore DarkBART, qui permettent de proposer des services de développement de logiciels malveillants ou d’écrire courriels d’hameçonnage (donner des informations personnelles à son insu) avancés. « De nos jours, il peut être difficile de distinguer l’authentique de l’artificiel », a déclaré au FT Natalie Kelly, Chief Risk Officer pour Visa Europe.

Grâce aux technologies les plus récentes, il suffit d’un extrait audio de trois secondes d’une personne parlant pour reproduire une voix humaine, ce qui est souvent possible grâce aux contenus publiés sur les réseaux sociaux. La voix est ensuite imitée à l’aide d’un programme d’IA de clonage vocal pour ressembler à l’extrait original.

Les cibles qui répondent au téléphone peuvent également être enregistrées, ce qui fournit encore plus d’informations aux escrocs.

Selon un rapport publié l’année dernière par la startup Hiya, basée à Seattle, les personnes interrogées dans 30 pays sur 39 ont montré une augmentation des appels frauduleux et intempestifs.

En conséquence, des augmentations significatives du taux de fraude ont été particulièrement observées à Porto Rico (375 %), en République tchèque (175 %) et en Australie (175 %). La société, qui vend des logiciels de blocage des spams, affirme avoir identifié jusqu’à 70 millions d’appels frauduleux et de spams téléphoniques par jour au cours du deuxième trimestre 2023.

Elle a également identifié les cinq principaux moyens par lesquels les escrocs peuvent être repérés : usurper l’identité d’employés d’Amazon, proposer de faux contrats d’assurance et de santé, se faire passer pour des représentants de sociétés de cartes de crédit, proposer des offres de crypto-monnaies ou se présenter comme un proche en difficulté par le biais de voix reproduites par l’IA.

La société américaine de logiciels McAfee est parvenue à une conclusion similaire l’année dernière en publiant son rapport « Artificial Imposters », basé sur une enquête internationale menée auprès de 7 000 personnes aux États-Unis, au Royaume-Uni, en France, en Inde, en Allemagne, en Australie et au Japon.

Il en ressort qu’un quart des personnes interrogées ont été victimes d’une forme ou d’une autre d’escroquerie à la voix artificielle, dont une sur dix a été ciblée personnellement et 15 % ont affirmé qu’elle visait quelqu’un qu’ils connaissaient. Par ailleurs, 77 % des victimes ont perdu de l’argent à la suite de cette escroquerie.

En outre, 70 % des personnes interrogées ont révélé qu’elles ne pouvaient pas faire la différence entre une voix réelle et un clone d’IA. Pour leur part, les chercheurs de McAfee ont appris qu’ils pouvaient reproduire des accents de n’importe où dans le monde grâce à la technologie de clonage vocal, mais que certains spécificités vocales, telles que le débit de parole, étaient plus difficiles à reproduire.

Le problème est devenu si inquiétant et répandu que la Commission fédérale du commerce, basée aux États-Unis, a organisé ce mois-ci sur son site un « Voice Cloning Challenge » (défi du clonage de voix).

Les candidats devaient proposer des moyens de limiter l’utilisation des logiciels de clonage de voix, offrir une solution pour détecter les voix clonées et fournir des moyens de déterminer si les clips audio sont des voix clonées. Le concours offre 25 000 dollars au gagnant.

Scott Murphy

Scott est journaliste pour Newsendip.

Scott est américain et vit à Hong Kong depuis de nombreuses années. Il possède une vaste expérience comme journaliste lifestyle, intervieweur et producteur de télévision. Ses articles sont également parus dans d'autres médias tels que CNN, Hollywood Reporter ou encore South China Morning Post.