You are currently viewing L’arnaque au clonage vocal : quand l’intelligence artificielle prend la voix de vos proches

« Maman ? Tu as besoin d’aide ? » c’était bien sa voix au téléphone… Mais ce n’était pas elle.

Une nouvelle ère de cybercriminalité

Imaginez recevoir un appel paniqué de votre mère vous demandant de l’argent en urgence. Sa voix est parfaitement reconnaissable. Les intonations, les expressions, même cette petite façon particulière qu’elle a de prononcer votre prénom. Mais ce n’est pas votre mère. C’est une Intelligence artificielle.

Bienvenue dans l’ère du deep voice, une technologie de clonage vocal qui révolutionne…

… Et inquiète.

 

Comment fonctionne cette arnaque sophistiquée ?

Les escrocs n’ont besoin que de quelques secondes d’audio pour reproduire fidèlement une voix. Un message vocal sur WhatsApp, une vidéo TikTok, un message sur répondeur, c’est tout ce qu’il leur faut. L’intelligence artificielle fait le reste, analysant chaque nuance de la voix pour créer une copie pratiquement indétectable.

Le saviez-vous ? Une étude de McAfee révèle que 77 % des victimes d’arnaque vocale ont effectivement perdu de l’argent. Ce n’est plus de la science-fiction.

De véritables histoires qui font froid dans le dos

  • Un couple américain réveillé en pleine nuit par la voix terrifiée de leur fille, apparemment kidnappée, suppliant pour une rançon.
  • Un directeur de banque aux Émirats arabes unis, berné par la voix clonée d’un PDG, effectuant un virement de 35 millions de dollars.
  • Un Angoumoisin recevant un appel de sa mère bloquée à la gare, demandant de l’aide financière.

La technologie derrière l’arnaque 

L’innovation revêt ces escroqueries d’extraordinaire. OpenAI, le géniteur de chatgpt, a récemment mis au point Voice Engine, une technologie qui peut cloner une voix après seulement 15 secondes d’échantillon ! Bien que cette invention fût créée à des fins légitimes, les gangsters l’ont également détournée.

Comment se protéger ? Les 5 règles d’or

La règle du mot secrété : choisir une phrase de sécurité avec vos proches, un mot de passe vocal que seuls vous connaissez.

La règle de la vérification croisée : en cas d’appel urgent demandant de l’argent, raccrochez et rappelez le numéro habituel de votre proche (vous-même).

La règle du temps : Ne cédez jamais à l’urgence. Les escrocs jouent sur la panique pour vous faire agir impulsivement.

La règle du doute : si quelque chose semble étrange dans la conversation, fiez-vous à votre intuition.

La règle de la communication : dites à vos proches, surtout aux personnes âgées qui sont souvent ciblées par cette arnaque.

L’avenir de cette menace :

Une enquête de Starling Bank a révélé que plus d’un quart des gens ont été victimes de cette arnaque au cours des 12 derniers mois. Mais ce n’est que le commencement. Les attaques deviennent de plus en plus sophistiquées à mesure que l’IA évolue rapidement.

L’impact psychologique du clonage vocal : 

Outre les pertes financières, le clonage vocal peut aussi causer de sévères traumatismes psychologiques. Écouter la voix de quelqu’un de son entourage en détresse, même si ce n’est pas sa vraie voix, peut traumatiser. Les arnaques vocales peuvent causer des problèmes psychologiques comme de l’anxiété, la peur d’avoir été trahi par un proche, et parfois même de la honte d’avoir été trompé. Ces sentiments peuvent être traumatisants. Les professionnels de la santé mentale disent qu’il est important d’offrir un soutien psychologique aux victimes, pour les aider à surmonter le choc émotionnel et à retrouver leur confiance en elles.

Les défis juridiques et éthiques :

Le clonage vocal pose des questions importantes sur le plan légal et moral. Avec les progrès rapides de cette technologie, les lois ont du mal à suivre, et cela crée des « zones grises » dans lesquelles les criminels peuvent agir. Par exemple, il n’y a pas encore de loi claire pour dire si copier la voix de quelqu’un sans permission est un vol d’identité.

En même temps, des entreprises comme OpenAI cherchent des solutions pour rendre ces technologies plus sûres. Elles travaillent sur des moyens comme le filigrane sonore. Une sorte de marque cachée dans les voix créées par l’IA, pour prouver qu’elles ne sont pas réelles. Malgré ces efforts, la lutte continue entre ceux qui inventent ces technologies et ceux qui veulent en abuser. Cela montre l’importance de travailler ensemble, législateurs, entreprises et citoyens, pour rendre l’utilisation de cette technologie plus sûre pour tout le monde.

Vigilance, mais pas paranoïa

Si le clonage vocal est une source d’inquiétude, il ne doit pas être une fin en soi. L’élément essentiel est l’information et la vigilance, sans verser dans la paranoïa. Comme en matière de toute innovation technologique, la meilleure défense est l’éducation et la tempérance.

Renseignez-vous, diffusez ces informations autour de vous, et gardez bien à l’esprit que dans le cas de doute, il faut toujours vérifier par d’autres moyens. Votre vigilance est votre meilleur rempart face à ces nouvelles ARNAQUES.

🔔 Pour aller plus loin, transmettez cet article à vos amis et parlez ensemble d’un mot de passe vocal familial. La prévention passe par l’éducation.

 

Https://www.leparisien.fr

Https://www.youtube.com/watch?V=jglckru6alm

Https://www.charentelibre.fr