On vit un drôle de moment, entre fascination et malaise. L’intelligence artificielle s’invite partout, que ce soit dans nos messages, nos vidéos, nos applis, nos réseaux sociaux, ou même dans ces petits coins de nos vies qu’on croyait tranquilles. Rien n’y échappe, pas même nos discussions les plus banales. Et comme toujours, là où il y a la moindre brèche, les escrocs rappliquent, flairant la bonne affaire. Leur dernier coup ? Voler des voix pour piéger et soutirer de l’argent. On croirait à un film de science-fiction, mais non, c’est bien réel. Maintenant, n’importe qui peut copier à la perfection la voix de ta mère, de ton frère, de ta meilleure amie, t’appeler, jouer sur l’émotion et t’entraîner dans un piège sans que tu t’en doutes.
Ce qui frappe, c’est que cette technologie n’est plus réservée à une poignée de génies de l’informatique. Plus besoin d’heures d’enregistrements ou d’un labo high-tech. Quelques secondes de ta voix suffisent, récupérées sur un vocal WhatsApp, une story Instagram, une vieille vidéo oubliée quelque part en ligne — bref, tout ce qui traîne. L’IA fait le reste : elle analyse le moindre détail, l’accent, le rythme, le souffle, le timbre. En un clin d’œil, elle sort une imitation bluffante, presque impossible à distinguer de l’original, prête à dire n’importe quoi.
Et là, les escrocs passent à l’action. Ils t’appellent, se font passer pour un proche, misent tout sur la panique. Le scénario tourne partout pareil : accident, urgence, arrestation. La voix — qui n’est qu’un deepfake — tremble, pleure, supplie. Tout est fait pour te paniquer, t’obliger à agir sans réfléchir. Rapidement, ils réclament un virement immédiat, sans délai. Beaucoup, submergés par l’émotion, cèdent et envoient l’argent. Cette méthode marche parfaitement parce qu’elle joue sur nos réflexes humains les plus profonds : peur, empathie, urgence.
Ce qui fait vraiment froid dans le dos, c’est la facilité d’accès à ces outils. Plus besoin d’être un hacker. Un smartphone, une connexion internet, et tu peux cloner une voix en quelques clics. Résultat : des gens ont déjà perdu des milliers, parfois des dizaines de milliers d’euros, convaincus de parler à leur enfant, leur frère, leur parent. Même la sécurité vocale, autrefois jugée fiable, ne tient plus face à ces imitations hyper réalistes. Le risque augmente encore si l’appel vient d’un numéro connu, facilement usurpé par d’autres moyens. Quand tout colle — la voix, le numéro, l’histoire — difficile de garder son sang-froid, surtout sous pression. C’est exactement ce que cherchent les escrocs : te pousser à agir dans la panique.
Les histoires s’accumulent, et les témoignages font froid dans le dos. Des familles entendent la voix de leur fils en détresse, paniquent et transfèrent de grosses sommes sans vérifier. À Hong Kong, une entreprise a perdu plusieurs millions d’euros après qu’un employé a assisté à une fausse visioconférence, persuadé de parler à son directeur financier, alors que tout était deepfake. Ces fraudes explosent, touchant tous les milieux, sans distinction d’âge ou de statut.
Alors, comment se protéger ? Première règle : ne jamais agir sous pression, surtout quand il s’agit d’argent. Si quelqu’un t’appelle en panique, soi-disant un proche en galère, prends une minute pour respirer. Raccroche, rappelle la personne sur un autre numéro, contacte-la autrement pour vérifier. Pose une question personnelle, un truc que seul le vrai proche saurait. Ne te fie pas à la voix, aussi crédible soit-elle, ni à l’émotion qui déborde. C’est justement là-dessus que les escrocs comptent.
Il faut en parler autour de soi, surtout avec les personnes âgées, souvent moins informées et plus vulnérables face à ces nouvelles arnaques. Beaucoup n’imaginent même pas que ce genre de manipulation existe et risquent de tomber dedans. Partager l’info, c’est déjà se protéger un peu plus.
Personne n’est vraiment à l’abri. Les outils de deepfake vocal sont rapides, gratuits, accessibles en quelques minutes, sans connaissances techniques. Ce n’est plus seulement une question d’argent : c’est la confiance qui vacille.
Sources :
Audio deepfake scams: Criminals are using AI to sound like family — Euronews
https://www.euronews.com/next/2023/03/25/audio-deepfake-scams-criminals-are-using-ai-to-sound-like-family-and-people-are-falling-fo
How deepfakes and voice cloning taps into your cash — Euronews (2024)
https://www.euronews.com/business/2024/04/10/its-a-scam-how-deepfakes-and-voice-cloning-taps-into-your-cash
AI Voice Cloning & Deepfake Phone Scams — GeekInsider
https://geekinsider.com/ai-voice-cloning-deepfake-phone-scams
Guide to deepfake scams and AI voice spoofing — McAfee
https://www.mcafee.com/learn/a-guide-to-deepfake-scams-and-ai-voice-spoofing
Rapport ONUDC 2025 — Emerging threats & AI / Deepfakes
https://www.unodc.org/roseap/uploads/documents/Publications/2025/UNODC_Report_Emerging_threats_-_The_intersection_of_criminal_and_technological_innovation_in_the_use_of_automation_and_AI.pdf
