You are currently viewing L’IA, le nouvel eldorado des violences faites aux femmes
Image générée par IA

Le 8 mars, Journée internationale des droits des femmes proclamée par l’ONU, est un moment crucial de mobilisation pour rappeler que l’égalité entre les femmes et les hommes reste un combat inachevé et que les violences fondées sur le genre persistent de manière massive, y compris dans l’espace numérique. L’IA, souvent présentée comme une technologie neutre, logique et dénuée d’émotions humaines, cache une réalité plus sombre : loin d’être impartiale, elle agit comme un miroir grossissant de notre société, reflétant et amplifiant ses hiérarchies, stéréotypes et injustices.

Parmi les populations les plus vulnérables face à ces dérives, les femmes se trouvent en première ligne : effacées dans l’élaboration de ces technologies, elles en subissent pourtant de plein fouet les violences.

Grâce à son apprentissage à partir de données préexistantes, l’IA reproduit les biais du monde qui l’a créée. Quand elle découvre que les professeurs d’université, les PDG ou les ingénieurs sont principalement des hommes, elle en conclut que c’est la norme, et reproduit cette distribution inégalitaire. Ainsi, loin de favoriser l’égalité, l’IA la trahit souvent.

Selon l’OCDE, les femmes constituent seulement 29,2% de la main-d’œuvre dans le domaine des sciences et technologies, et un rapport de l’UNESCO, datant de 2019, indique qu’elles ne détiennent que 29% des postes en recherche et développement. Une sous‑représentation structurelle qui alimente des systèmes conçus sans elles, et parfois contre elles.

La violence numérique amplifiée : les deepfakes

Les technologies d’intelligence artificielle ont ouvert la voie à de nouvelles formes de violences sexistes et sexuelles. Les deepfakes, montages hyperréalistes générés par IA, constituent une arme redoutable. En 2023, leur production a bondi de 550% par rapport à 2019, et près de 96% de ces contenus sont pornographiques. Plus alarmant encore : 99% concernent des femmes et des jeunes filles.

Des applications permettent même de « dévêtir » n’importe qui à partir d’une simple photo. 

Ces pratiques, parfois réalisées par des adolescents dans les cours de récréation, alimentent la sextorsion et provoquent des traumatismes psychologiques profonds, même lorsque les images sont fausses. Le fait que des adolescents soient à l’origine de deepfakes pornographiques ciblant leurs camarades de classe révèle une inquiétante normalisation de la violence sexuelle, rendue possible par un accès précoce, considérable et peu réglementé à l’IA. À un âge où la personnalité se construit, la possibilité de créer et de partager des images humiliantes en un rien de temps signale une génération exposée dès son jeune âge, à une culture de la  violence numérique.

Face à cette prolifération, la loi française du 21 mai 2024 a introduit l’article L.226-8-1 du Code pénal pour tenter de réprimer la diffusion de ces contenus. Mais la régulation peine à suivre le rythme des innovations, laissant un espace de non‑droit où les victimes, souvent très jeunes, restent trop seules face à la violence de ces atteintes.

L’inégalité professionnelle à l’ère de l’IA

L’accès à l’emploi est déjà en partie modelé par l’IA. Cela pose problème car si les algorithmes de recrutement sont formés sur des données biaisées de préjugés sexistes, ils auront tendance à reproduire ceci. L’IA peut instinctivement associer les hommes à des rôles de direction et les femmes à des postes de soin ou d’aide. Derrière une apparente objectivité algorithmique se dissimule en réalité un processus d’exclusion automatisé.

Tant dans la recherche que dans l’industrie, la sous-représentation des femmes au sein des équipes de conception engendre des technologies modelées selon des paradigmes masculins. Cette asymétrie se manifeste par des détournements inquiétants, comme en témoigne Grok, l’IA d’Elon Musk, qui a autorisé des utilisateurs à créer des images pornographiques de femmes et de mineures via de simples prompts visant à dévêtir des femmes ou des jeunes filles.

L’Internet Watch Foundation a observé une explosion de 400 % de ces images générées par IA au cours du premier semestre 2025. Face à cette dérive, le gouvernement français a saisi l’Arcom pour d’éventuels manquements de la plateforme à ses obligations prévues par le Digital Services Act. Ce signalement pourrait, à terme, ouvrir la voie à de premières sanctions et décisions judiciaires exemplaires en Europe.

Un exemple marquant existe déjà en Inde, la Haute Cour de Delhi a rendu le 18 juillet 2025, une décision remarquable dans une affaire de deepfake visant l’universitaire Kamya Buch. Le tribunal y reconnaît les atteintes à la dignité et à la réputation subies par les victimes de contenus générés par IA, affirmant la responsabilité juridique des diffuseurs et des plateformes. Cette jurisprudence pourrait inspirer, en France comme dans l’Union européenne, une réponse judiciaire ferme face à l’exploitation numérique du corps des femmes.

Vers une intelligence artificielle féministe ?

Tout n’est pourtant pas perdu. L’IA pourrait être mobilisée pour identifier, mesurer et combattre les inégalités de genre. L’idée d’une intelligence artificielle féministe (FAI), défendue dès 1995 par Alison Adams, vise à concevoir des technologies sensibles aux rapports de pouvoir, ouvertes à la diversité, et conscientes de leurs biais. Cela suppose des femmes aux postes de décision, des analyses d’impact systématiques et une gouvernance éthique des systèmes d’IA.

La lutte contre les violences faites aux femmes par le biais de l’IA ne saurait se limiter au cadre juridique, mais exige également un engagement collectif et une posture critique. Face à des technologies qui aspirent à tout observer et tout saisir, la vigilance s’impose comme un geste féministe. 

L’IA, reflet des inégalités humaines, ne pourra devenir un outil d’émancipation que si nous décidons d’y incarner d’autres principes : ceux de la justice, de la dignité et de l’égalité.

Sources : 

https://www.lexisnexis.com/posts/femmes-ia-droit-technique 

https://wp.oecd.ai/FRENCH-The-Effects-of-AI-on-the-Working-Lives-of-Women.pdf

https://www.unwomen.org/fr/nouvelles/interview/2025/02/comment-lia-renforce-les-prejuges-sexistes-et-ce-que-lon-peut-faire-pour-tenter-dy-remedier

Deepfakes, quand l’IA trahit notre intimité – Radio France

https://www.lemonde.fr/pixels/article/2017/04/15/quand-l-intelligence-artificielle-reproduit-le-sexisme-et-le-racisme-des-humains

https://www.ddg.fr/actualite/deepfakes-et-contenus-generes-par-intelligence-artificielle-une-decision-pionniere-du-delhi-high-court 

https://www.lemonde.fr/pixels/article/2025/12/19/les-adolescentes-de-plus-en-plus-victimes-de-deshabillage-genere-par-l-ia 

https://www.lemonde.fr/pixels/article/2026/01/02/enleve-lui-ses-vetements-l-intelligence-artificielle-grok-detournee-pour-denuder-des-femmes-et-des-mineurs-sur-x 

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.