Depuis leur apparition médiatique en 2017, les deepfakes ont bouleversé notre rapport à l’image et à la vérité. Ces contenus, générés par intelligence artificielle, mêlent apprentissage profond (deep learning) et falsification. Aujourd’hui, ils n’amusent plus vraiment, ils inquiètent. D’abord simple curiosité technique, ils sont rapidement devenus un outil de manipulation, d’usurpation, et de désinformation.
Des débuts anecdotiques à une menace globale
À l’origine, le terme « deepfake » émerge sur un forum Reddit. Un internaute bricole des vidéos pornographiques en y greffant des visages de célébrités grâce à l’IA. Le résultat choque. Mais ce n’est que le début. En moins de dix ans, la technologie explose. Aujourd’hui quelques minutes d’images, ou un échantillon de voix, suffisent à créer une vidéo réaliste, stupéfiante mais surtout trompeuse.
Les deepfakes s’infiltrent partout : réseaux sociaux, messageries, sites d’information. Leur capacité de nuisance est redoutable. Le Règlement sur l’Intelligence Artificielle (RIA), ou AI Act, les regroupe sous le terme d’ « hypertrucage » qu’il définit de contenus créés ou modifiés par IA, imitant le réel au point d’induire en erreur. Mais les régulations peinent à suivre, la technologie court plus vite.
Ainsi, les usages malveillants se multiplient : fraudes à l’identité, escroqueries, propagande, diffamation. Les deepfakes brouillent les repères. Qui croire ? Qu’est-ce qui est vrai ? Qu’est-ce qui est fabriqué ?
Manipuler l’opinion : quand le faux devient crédible
La sphère privée est la première touchée. Les femmes, en particulier, subissent des attaques ciblées. Leurs visages sont collés sur des corps, leurs voix utilisées dans des contextes humiliants. Objectif : nuire, exposer, discréditer.
Mais la manipulation touche également la politique de manière importante. En 2024, lors des élections européennes, de faux comptes TikTok diffusent des vidéos générées par IA. On y voit Marine Le Pen, Marion Maréchal ou Jordan Bardella. Le but : séduire un jeune public, promouvoir une idéologie, travestir le débat. L’effet est immédiat et insidieux. Au Royaume-Uni, une fausse présentatrice de la BBC annonce un scandale impliquant Rishi Sunak, premier ministre du Royaume-Uni au moment des faits. La vidéo est convaincante. Le doute s’installe. Même s’il est levé, la trace reste.
En janvier 2025, le célèbre panneau Hollywood apparaît en flammes. Une vidéo circule. Spectaculaire, saisissante, mais partiellement falsifiée. Des millions y croient. L’IA n’a pas tout inventé, elle a amplifié. Cette fusion du vrai et du faux rend la vérification plus difficile et le scepticisme, plus profond.
VEO 3 : la nouvelle machine à illusions made in Google
Google dévoile VEO 3 lors du Google I/O Connect 2025. Ce générateur vidéo impressionne. Une simple description textuelle suffit. Il produit des scènes entières, des dialogues, des ambiances. Fluidité des mouvements, réalisme des sons et précision des expressions faciales. Plus besoin de tournage, l’image est synthétique, mais semble authentique.
On peut créer un micro-trottoir, une publicité ou même une fiction complète. En quelques heures et cela sans acteurs, ni caméra. La technologie impressionne sur les réseaux sociaux, mais inquiète.
Google promet des garde-fous : filigranes, métadonnées C2PA, outils de vérification. Mais ces protections résisteront-elles à l’ingéniosité des faussaires ? Rien n’est moins sûr pour le moment.
Un défi pour la société et la justice
Les deepfakes ne se contentent pas de semer le doute. Ils minent la confiance. Dans les institutions, dans les médias, dans la justice. Comment juger si les preuves peuvent être truquées ? Comment débattre, si les faits peuvent être fabriqués ?
Les entreprises ne sont pas épargnées. Les fraudes à l’identité explosent. En trois ans, elles ont augmenté de plus de 2000 %: Voix clonées, visages copiés, agents trompés.
Face à cette vague, les contre-mesures s’organisent. L’AFP propose InVID, un outil pour détecter les manipulations. D’autres solutions émergent. Mais la course est inégale. Chaque avancée dans la détection pousse les deepfakes à se perfectionner.
Une responsabilité partagée
Il n’y aura pas de solution miracle. Mais l’éducation à l’image, l’esprit critique, la vérification systématique des sources, l’adoption d’outils de détection ou encore l’usage de technologies comme la blockchain pour garantir l’origine d’un contenu sont des leviers que nous devons mettre en place pour éviter de tomber dans le piège.
En effet, il ne faut pas céder à la confusion mais garder un regard lucide. Car si la frontière entre fiction et réalité devient floue, c’est à chacun de nous de la redessiner. Le numérique ne sera fiable que si nous en faisons un espace de responsabilité partagée.
Sources :
Image : Générée par Perplexity AI
https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/deepfake-3837765
https://www.forbes.fr/technologie/deepfakes-et-democratie-a-laube-dun-nouveau-defi-pour-les-elections-de-2024/
https://fibo-crypto.fr/blog/deepfakes-ia-blockchain-comme-solution
https://www.sfeir.dev/ia/veo-3-comment-google-propulse-la-video-ia-dans-une-nouvelle-ere-cinematographique/
https://www.futursmindsai.com/deepfakes-intelligence-artificielle/
https://goodtech.info/ia-deepfake-fraude-etude/
Étudiant Master 2 en droit de l’économie numérique à la faculté de droit de Strasbourg
