Depuis l’émergence fulgurante de l’intelligence artificielle, ces dernières sont pointées du doigt pour leur impact sur la sécurité des mineurs. En 2024, sept familles françaises ont porté plainte contre TikTok suite à des suicides et tentatives de suicide impliquant des enfants. Aux États-Unis, ChatGPT a fait l’objet de poursuites similaires. Plus récemment, une étude a mis en lumière les dangers de Gemini pour les jeunes utilisateurs.
Des conversations érotiques aux deepfakes, en passant par les algorithmes toxiques : les nouvelles menaces de l’IA pour les mineurs
C’est le 14 octobre 2025 qu’OpenAI annonce la possibilité d’ici la fin de l’année de pouvoir avoir des conversations érotiques avec son LLM, ChatGPT. Son dirigeant, Sam Altman a pris cette décision face à la concurrence croissante dans ce domaine. Cette justification est bancale, car elle met la sécurité des enfants en second plan derrière les profits potentiels et relance le débat sur la responsabilité des plateformes en la matière. La société a toutefois promis des garde-fous en mettant en place un système de vérification d’âge selon la façon dont l’enfant interagit avec le chatbot. Cependant, là encore, cette solution est loin d’être satisfaisante, car certains mineurs, parfois très jeunes, pourraient passer entre les mailles du filet et laisser transparaître leur majorité.
En plus des dangers mêmes que représentent l’utilisation de l’IA pour les enfants si cette dernière est mal contrôlée, c’est aussi l’essor des deepfakes qui posent un sérieux problème. En effet, ces photos ou vidéos que l’on peut modifier sans limite en y ajoutant la voix de la personne pour la faire dire des propos qu’elle n’a jamais tenus ou lui attribuer un corps qui n’est pas le sien, peuvent exacerber la criminalité. Depuis la démocratisation de l’IA, le phénomène de sextorsion ne cesse de croître. Cette pratique consiste pour une personne à soutirer de l’argent ou des contenus pornographiques en la menaçant de dévoiler des contenus sexuels si la victime ne cède pas. Aujourd’hui, avec les deepfakes, il n’est même plus nécessaire d’avoir recours au grooming, c’est-à-dire d’établir une relation de confiance avec l’enfant pour obtenir des photos compromettantes. L’IA peut désormais superposer un visage sur un corps avec un réalisme sidérant, capable de tromper les personnes les plus avisées. Il est donc parfaitement aisé pour des escrocs ou pire encore des pédocriminels d’accéder à la finalité qu’ils recherchent. Selon l’OFMIN (l’office pour les mineurs), il y a eu en 2024 quasiment 29 000 signalements pour sextorsion contre 12 000 deux ans plus tôt, ce qui démontre la croissance exponentielle de ces pratiques.
De plus, même la police peut se trouver démunie face à ce genre de pratiques qui prolifère et se perfectionne de manière exponentielle. En effet, là où l’analyse de l’environnement sur une photo ou une vidéo est cruciale pour retrouver un pédocriminel, il n’est aujourd’hui plus possible de s’y fier puisqu’il est possible de modifier le décor à l’aide de l’IA, et ce, sans avoir de connaissances techniques quelconque.
Outre les problèmes que posent les IA, ce sont aussi les algorithmes qui peuvent présenter un danger pour les enfants. L’ONG Amnesty International a publié un rapport dans lequel elle dénonce les dangers de TikTok pour les enfants. Elle y révèle en effet qu’il suffit de quelques minutes pour que l’enfant se voie proposer du contenu dépressif, qui glorifie le suicide. C’est ce que l’on appelle le « rabbit hole » en anglais qui permet de décrire de façon imagée le fonctionnement de l’algorithme de TikTok selon lequel plus on manifeste un intérêt pour un contenu, plus on se le verra proposer. En effet, c’est là tout le modèle économique de la plateforme : faire en sorte que les personnes passent le plus de temps possible sur le réseau, quitte à exploiter les failles psychologiques des enfants. L’ONG saisit donc l’ARCOM pour manquement au DSA à savoir l’obligation d’identifier et d’atténuer les risques systémiques et la transparence.
Entre régulation et obsolescence : le défi législatif
Les nouvelles technologies étant très mouvantes, la France, et plus largement l’UE peine à encadrer de façon efficace et pérenne leur utilisation puisque les usages évoluent en permanence. Les textes de loi n’étaient, en effet, pas conçus pour appréhender des contenus d’un tel réalisme. Or, compte tenu des délais nécessaires à l’élaboration d’une législation, les technologies évoluent bien plus rapidement que le cadre juridique censé les encadrer. Dans un souci d’équilibre, il est à la fois nécessaire de promouvoir la liberté d’expression tout en encadrant les contenus modifiés. Le RIA, qui entre en application progressivement, impose alors une obligation de transparence en exigeant que les contenus générés par IA soient clairement mentionnés. Dans un but également de responsabilisation des plateformes, ces dernières se doivent, selon le DSA, de retirer le contenu dès qu’elles ont connaissance de leur illégalité.
Comme nous l’avons vu, les plateformes ont l’obligation de mettre en place des garde-fous pour protéger les plus jeunes. Cette protection passe tout d’abord par des mesures simples en instaurant par exemple un contrôle parental ou une interdiction de s’inscrire sur un réseau social pour éviter que les algorithmes exploitent leur vulnérabilité ou pour que leur visage ne soit sur Internet. Par ailleurs, des moyens plus techniques peuvent permettre de détecter les deepfakes. En effet, chaque fichier laisse des métadonnées ou des watermarking c’est-à-dire une sorte de fichier invisible dans un fichier. Mais la encore, il est possible de détourner ces moyens en utilisant par exemple un simple VPN ou en supprimant ou en altérant les métadonnées des fichiers afin de rendre le deepfake indétectable.
Sources :
https://www.chambre-professions-sante-durable.fr/ia-effet-enfant/

