You are currently viewing Faux Brad Pitt : quand l’intelligence artificielle construit l’illusion parfaite
Image générée par IA

Derrière le faux visage de la star américaine Brad Pitt se cachait en réalité une intelligence artificielle (IA) et une escroquerie sentimentale. L’affaire du « faux Brad Pitt » révèle une dérive inquiétante de l’IA : la manipulation en ligne par deepfake. Et lorsque la technologie efface la frontière entre réel et virtuel, le droit peine à évoluer. 

Qu’est-ce qu’un deepfake et comment fonctionne-t-il ? 

Selon la définition posée par l’Intelligence Artificial Act (ou AI Act), un deepfake désigne « une image, un contenu audio ou vidéo généré ou manipulé par l’IA qui ressemble à des personnes, des objets, des lieux, des entités ou des événements existants et qui semblerait faussement authentique ou véridique à une personne ».

L’IA est donc un outil à double face : même si l’IA en elle-même n’est pas coupable de ce type d’arnaque, car elle n’est pas intelligente, elle reflète l’usage que l’on en fait. Cette technologie peut ainsi servir à manipuler et même usurper une identité. C’est ainsi que les experts en cybersécurité avertissent sur la nécessité de développer des outils technologiques permettant la détection des deepfakes afin de se prémunir et d’instaurer des mécanismes juridiques stricts pour sanctionner la fraude numérique.

Aujourd’hui, un deepfake est un outil de prédilection pour des escrocs, créant des faux profils en ligne de célébrités, dans le but de manipuler, séduire et dépouiller les victimes. L’affaire du faux Brad Pitt a notamment mis en lumière l’efficacité et la dangerosité de ces techniques. En effet, on constate, 75% des français sont incapables d’identifier des contenus produit par IA.

En février 2023, éclate l’affaire du Faux Brad Pitt, dans laquelle une femme s’était faite arnaqué par des « brouteurs » : des escrocs qui repèrent une victime sur internet et envoi des message via un faux profil. Ainsi, pendant plus d’un an et demi, les cyberescrocs se faisaient passer pour la star américaine Brad Pitt. Résultat, plus de 830 000 euros soutirés à la victime.

Cette affaire illustre que souvent et de plus en plus aujourd’hui, les techniques de deepfake et l’escroquerie sentimentale sont combinés afin de rendre le tout plus crédible auprès des victimes. Ainsi, une escroquerie sentimentale, aussi appelée « arnaque aux sentiments » consiste pour l’escroc à faire en sorte que la victime développe des sentiments à son égard pour lui soutirer de l’argent et débute souvent sur les réseaux sociaux.

Une fois la confiance de la victime gagnée, l’escroc demande de l’argent à la victime sous divers prétextes. Aussi, ce type d’escroquerie se déroule uniquement en ligne et la victime ne rencontrera jamais physiquement l’escroc qui inventera toujours divers prétextes pour éviter les rencontres.

Pourquoi ces arnaques fonctionnent ? 

Ces arnaques que sont les deepfakes ainsi que l’escroquerie sentimentale fonctionnent notamment par leur crédibilité visuelle mais aussi par les techniques d’ingénierie sociale car les fraudeurs exploitent les émotions et l’isolement pour pousser les victimes à agir rapidement. Dans l’affaire du faux Brad Pitt, il s’agissait notamment de faux selfies, de documents d’identité falsifiés et bien que ces selfies étaient imparfaits, la victime a tout de même était prise au jeu, montrant ainsi que tout le monde n’est pas en mesure de reconnaître des images générées par IA.

Ces arnaques ont un fort impact sur les victimes qui affrontent humiliation, isolement, vague de cyberharcèlement, comme dans l’affaire du faux Brad Pitt, mais aussi traumatisme psychologique. À une échelle plus large, la diffusion de deepfakes nuit à la confiance dans l’information et peut servir à la désinformation politique, aux escroqueries commerciales et à la diffamation. 

Ces arnaques fonctionnent également du fait des barrières légales et des techniques de protection insuffisante. En effet, la rapidité d’évolution des outils dépasse souvent les réponses juridiques et la modération des plateformes. 

Avec la montée des deepfakes, diverses initiatives législatives et réglementaire émergent, notamment de l’UE avec le AI Act ayant pour objectif de mieux définir et de sanctionner la création et la diffusion de contenus trompeurs. Cependant, les experts en la matière constatent tout de même que le droit peine à suivre la vitesse d’évolution technologique. 

Aussi, se pose la question de la responsabilité car évidemment, les escrocs sont responsables mais aussi les plateformes qui hébergent les faux comptes de ces derniers. Malgré que les entreprises tech multiplient les outils permettant la détection de ces arnaques et les politiques de signalement, les résultats restent absents. 

Comment repérer un deepfake et s’en protéger

Avant toute chose, afin de repérer un deepfake, il convient évidemment de vérifier la source de celui-ci, mais aussi de rechercher la cohérence dans les propos. Il faut ne jamais envoyer d’argent ou d’informations sensibles et il est important de signaler immédiatement aux plateformes. Des outils de vérification existent par ailleurs afin de traquer ces escrocs. 

En effet, une startup française, Find my scammer, créée en 2023, spécialisée dans la lutte contre les arnaques en ligne permet d’aider des victimes d’escroquerie en ligne à retrouver les escrocs, mais aussi fournir une assistance professionnelle et efficace afin de traquer les auteurs de fraude.

Ainsi, on constate que les deepfakes ont quitté l’aspect divertissant pour devenir une véritable arme sophistiquée d’escroquerie et de manipulation. Les cas impliquant des célébrités comme Brad Pitt attirent évidemment l’attention et ne sont pas isolés, mais les vraies victimes restent surtout les personnes ordinaires dont la vie sera atteinte, par la tromperie, puisque ce type d’arnaque manipule l’affectif et la confiance des personnes. 

Sources : 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.