You are currently viewing Deepfakes-La menace aux services financiers
Deepfake or Deep Fake Concept as a symbol for misrepresenting or identity theft or faking identification and misrepresentation in a 3D illustration style.

Les outils d’intelligence artificielle (IA) deviennent, chaque jour, plus performants et créatifs. L’IA générative consiste à écrire une prose humaine et à créer des photographies réalistes. Les logiciels d’animation 3D donnent vie à ces images. Les outils de génération vocale reproduisent la voix humaine avec seulement une poignée de données.

Qu’est-ce qu’un Deepfake ?

Un « deepfake » est une image, une vidéo, une voix ou un texte créé par l’IA. Le « deep » vient du « deep learning », une méthode de formation des ordinateurs sur des quantités massives de données pour effectuer des tâches semblables à celles des humains. Le « fake » indique qu’il est généré par ordinateur et qu’il est difficile de le distinguer des médias générés par l’Homme.

L’augmentation des images deepfake dans la fraude à l’identité témoigne d’un problème qui prend rapidement de l’ampleur. Les données de Sumsub indiquent que la proportion de fraudes provenant de deepfakes a doublé entre 2022 et le premier trimestre 2023. 

À la base, la technologie deepfake s’appuie sur l’intelligence artificielle (IA) et l’apprentissage automatique pour manipuler les images, l’audio et la vidéo, créant ainsi des simulations hyperréalistes d’individus prononçant ou s’engageant dans des actions qu’ils n’ont jamais été faits. La croissance exponentielle des vidéos deepfake en ligne, doublant d’année en année, met en évidence la croissance rapide de cette technologie.

La menace inquiétante qui pèse sur les services financiers

La technologie Deepfake introduit plusieurs risques pour le secteur des services financiers, notamment :

  • Fraude fantôme : les criminels exploitent les données personnelles de personnes décédées, en utilisant la technologie des deepfakes pour présenter une figure parlante et en mouvement lors des demandes conférant ainsi un air de une crédibilité à leurs activités frauduleuses.
  • Réclamations frauduleuses du défunt : les auteurs peuvent souscrire une assurance ou d’autres réclamations au nom du défunt, en tirant parti des deepfakes pour tromper les autorités en leur faisant croire que l’individu est toujours en vie, ce qui pourrait entraîner des pertes financières prolongées.
  • Fraude aux nouveaux comptes : les Deepfakes peuvent être utilisés pour ouvrir des comptes bancaires en utilisant des identités volées ou fausses, en contournant les processus de vérification conventionnels et en facilitant des activités telles que le blanchiment d’argent ou l’accumulation de dettes.
  • Fraude à l’identité synthétique : les criminels créent des identités entièrement fictives en fusionnant des informations fausses, réelles et volées, en utilisant la technologie deepfake pour ajouter une couche supplémentaire d’authenticité à ces personnages synthétiques.

Le 19 mai 2022, il a été révélé que Deepfake pouvait être utilisé pour usurper l’identité d’une autre personne dans une banque.

La technologie Deepfake permet de contourner les systèmes de reconnaissance faciale.

Sensity, une société spécialisée dans l’identification des attaques utilisant la technologie deepfake, a étudié la vulnérabilité de 10 services d’identité. Sensity a utilisé des deepfakes pour superposer le visage d’un utilisateur sur une carte d’identité afin de la scanner, puis pour copier ce même visage dans le flux vidéo d’un attaquant à des fins d’identification.

Le test d’authenticité demande généralement à l’utilisateur de regarder la caméra de l’appareil, parfois en tournant la tête ou en souriant, et compare l’apparence de l’utilisateur à sa carte d’identité à l’aide d’une technologie de reconnaissance faciale. Dans le secteur financier, ce type de test est appelé “Know Your Customer” (KYC) et fait partie de la vérification des documents et des comptes.

Comment détecter un deepfake ?

Malheureusement, il n’existe pas de manière simple de répondre à cette question. Le problème et la technologie impliquée évoluent constamment. Cependant, les institutions financières utilisent certaines techniques pour résoudre le problème des deepfakes.

Il existe un test développé par le Massachusetts Institute of Technology. Il consiste en huit questions qui vous permettent de reconnaître si la technologie dipface est utilisée dans une vidéo :

  1. Le visage ne se transforme-t-il pas lorsqu’il bouge ?
  2. La peau de votre visage est-elle trop lisse ou trop ridée ?  Le vieillissement de la peau est-il similaire à celui des cheveux et des yeux?
  3. Les yeux et les sourcils. Les ombres apparaissent-elles aux endroits prévus ? Deepfake ne parvient souvent pas à capturer pleinement la physique naturelle de l’éclairage.
  4. Les lunettes sont-elles éblouissantes ? Y en a-t-il trop? L’angle de l’éblouissement change-t-il lorsque la personne se déplace?
  5. La pilosité faciale est-elle naturelle ? L’intelligence artificielle peut ajouter et supprimer des moustaches, des barbes et des favoris, mais ne parvient pas toujours à rendre les cheveux de manière extrêmement naturelle.
  6. Les grains de beauté sur le visage ont-ils l’air réels?
  7. La personne cligne-t-elle trop souvent des yeux?
  8. Faites attention à la taille et à la couleur des lèvres. Sont-elles en harmonie avec le reste du visage?

La technologie des deepfakes est une menace croissante pour la sécurité financière. Les institutions financières doivent constamment adapter leurs stratégies de défense pour protéger leurs clients. L’analyse comportementale, l’authentification multifactorielle et l’intégration de divers outils de détection sont des approches prometteuses. Une approche proactive et collaborative est essentielle pour relever les défis complexes posés par la fraude financière basée sur les deepfakes.

Sources

  1. https://edition.cnn.com/2019/04/26/tech/ai-deepfake-detection-2020/index.html
  2. https://www.adl.org/resources/blog/dangers-manipulated-media-and-video-deepfakes-and-more
  3. https://www.finextra.com/the-long-read/844/deepfake-fraud-the-rising-threat-in-financial-crime
  4. https://kpmg.com/kpmg-us/content/dam/kpmg/pdf/2023/deepfakes-real-threat.pdf
  5. https://www.ft.com/content/6ca90b12-3ee6-409c-968d-1cffe29ee973

 

A propos de Farangiz ASKHANOVA

Master 2 E-commerce à l'Université de Strasbourg, Faculté de Droit de sciences politiques et de gestion

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.