You are currently viewing L’IA au service des escrocs : quand l’intelligence artificielle devient votre pire ennemi

Avez-vous déjà entendu parler des arnaques téléphoniques (Hameçonnage téléphonique (ou vishing)) où de faux conseillers vous mettent en garde contre des virements suspects ou des comptes piratés ? Ces escroqueries ont évolué et les cybercriminels utilisent maintenant l’intelligence artificielle (IA) pour rendre leurs attaques plus crédibles. Fini les voix tremblantes et les accents douteux, l’intelligence artificielle peut parfaitement simuler la voix d’un agent du service clientèle et instiller le doute dans l’esprit des victimes.

Il y a maintenant quelques semaines, un consultant de Microsoft, lui-même victime de cette fraude, révèle l’ampleur de cette cyberattaque massive frappant les utilisateurs de Gmail. 

 

Pourquoi ces menaces sont-elles préoccupantes ?

L’une des clés de leur succès est la personnalisation des attaques. En utilisant les données recueillies lors de cyberattaques précédentes, les fraudeurs peuvent créer des scénarios personnalisés pour chaque victime. En analysant vos intérêts, vos craintes et vos habitudes de consommation, l’intelligence artificielle génère des scénarios ultra-réalistes. Par exemple, si vous avez récemment réservé un voyage, l’IA pourrait vous appeler pour vous avertir de l’existence d’un problème avec votre réservation.

De plus, l’IA peut adapter la conversation en temps réel. Si vous semblez réticent, l’ΙΑ peut essayer de vous convaincre en fournissant des détails supplémentaires sur vous pour asseoir sa légitimité. À l’inverse, s’il sent que vous êtes méfiant, il peut changer de tactique.

 

Comment reconnaître cette escroquerie ?

Bien que ces attaques soient de plus en plus sophistiquées, il existe quelques signes avant-coureurs : 

  • Une voix trop parfaite : les voix générées par l’intelligence artificielle peuvent sembler trop lisses et sans émotion.
  • Des pauses non naturelles : l’IA peut avoir du mal à reproduire des pauses naturelles dans une conversation.
  • Des demandes d’informations sensibles : aucune entreprise ne demanderait des mots de passe ou des coordonnées bancaires par téléphone.

 

Comment se protéger ?

  • Activez l’authentification à deux facteurs : cette mesure de sécurité augmente considérablement la protection de votre compte.
  • Ne cliquez pas sur des liens suspects et ne donnez pas d’informations personnelles par téléphone.
  • Tenez-vous informé des dernières menaces : suivez les actualités en matière de cybersécurité et découvrez les nouvelles méthodes utilisées par les escrocs.

 

Vous avez donné vos informations personnelles ? 

  • Si vous avez fourni vos informations bancaires, appelez votre banque et faites opposition sur votre compte / carte bancaire pour éviter les transactions frauduleuses.
  • Changez les mots de passe des comptes dont la sécurité est compromise suite à votre échange. 
  • Déposez plainte dès que possible ; vous pouvez également contacter la plateforme de lutte contre les SMS et appels indésirables au 33 700

 

Sources :

https://www.cybermalveillance.gouv.fr/tous-nos-contenus/fiches-reflexes/arnaques-au-faux-support-technique

https://www.ouest-france.fr/societe/cyberattaque/attention-a-cette-cyberattaque-dun-nouveau-genre-qui-cible-vos-comptes-gmail-grace-a-lia-83be57f4-8afa-11ef-8941-5d7a93e1e368#:~:text=Une%20nouvelle%20forme%20d’escroquerie,par%20intelligence%20artificielle%20(IA).

image : AndreySuslov/shutterstock.com

Cette publication a un commentaire

  1. Mélinda

    Super article, vraiment intéressant !
    On est dans un monde numérique où ce genre de thématique devrait être plus aborder. Nous, petits citoyens n’avons pas encore certains réflexes, et l’IA commence à prendre une place importante dans notre société, autant positive que négative.

    Heureusement que des professions dans le droit numérique se développent à vu d’œil pour permettre enfin une légalité.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.