You are currently viewing Surveillance invisible : Filtrage des écrans par bot pour éviter les contenus choquants

La présence massive de contenus choquants en ligne

Chaque jour, des millions d’images, de vidéos et de messages circulent sur Internet, souvent porteurs de violence, de haine ou de désinformation. Les réseaux sociaux sont devenus un espace où se mêlent liberté d’expression et déferlement d’images traumatisantes. Pour protéger les internautes, et surtout les plus jeunes, les pouvoirs publics comme les grandes plateformes cherchent à renforcer la vigilance numérique.

Mais cette protection agit en silence. Aujourd’hui, les contenus numériques sont si nombreux que le recours à l’automatisation est indispensable pour les plateformes. Ils ont recours à des programmes informatiques appelés des bots qui filtrent, modèrent, voire suppriment automatiquement des contenus pour lesquels les modérateurs humains mais aussi les IA de modérations, sont sollicités.

Dans cet océan d’informations, un acteur discret mais essentiel est le bot. À l’origine, il s’agissait d’un programme pensé pour réaliser des tâches répétitives sans intervention humaine. Leur histoire se confond avec celle de l’informatique : dès les années 1990, avec l’explosion du web, les bots commencent à indexer les pages pour les moteurs de recherche. 

Depuis, leurs usages se sont multipliés : assistants virtuels, veille numérique en agence, gestion de communautés… et bien sûr, modération. C’est sur ce terrain que les bots sont les plus nombreux : ils parcourent et scrutent les plateformes, lisent à toute vitesse des milliards de contenus, détectent automatiquement ceux qui sont jugés choquants ou interdits selon les règles en vigueur, et les sanctionnent souvent sans intervention humaine directe. Des dizaines de milliers de bots assurent aujourd’hui cette surveillance de masse, là où une équipe 100 % humaine serait vite dépassée.  

Ce niveau d’automatisation s’explique aisément : les volumes de données à modérer sont tout simplement trop importants et la modération basée uniquement sur des ressources humaines coûte excessivement cher aux plateformes. Cela n’enlève rien aux interrogations légitimes que peuvent susciter ces pratiques autour de la fiabilité, le non-respect du secret des correspondances, la transparence ou le respect du droit fondamental à la liberté d’expression. ‍ ‌‍ ‍‌

Les bots au cœur de la modération

Sur YouTube, Instagram, X ou TikTok, des intelligences artificielles surveillent chaque seconde les nouvelles publications. Elles analysent textes et images, détectent les scènes violentes, la nudité explicite ou les propos haineux, puis effacent les messages jugés problématiques avant même qu’un humain ne les voie.

Chez Meta, entre 94 et 98% des suppressions sont opérées automatiquement. TikTok, plus prudent, s’appuie encore pour près de la moitié des retraits sur des modérateurs humains capables de replacer les contenus dans leur contexte. Car l’algorithme, malgré sa rapidité, reste incapable de comprendre la nuance ou l’intention.

Cette automatisation crée de nouvelles limites. Des publications artistiques ou militantes sont parfois censurées par erreur, tandis que de véritables contenus dangereux passent entre les mailles du filet. Les biais algorithmiques peuvent aussi amplifier certaines discriminations. Et lorsqu’un contenu violent reste en ligne quelques heures avant suppression, le dommage est déjà fait pour ceux qui l’ont vu.

De plus en plus de jeunes se tournent vers des plateformes plus permissives comme Telegram, où la modération est quasi inexistante. Ces espaces deviennent les zones grises d’un Internet fragmenté, où se diffusent librement des images que les réseaux traditionnels tentent de cacher.

Quand l’État encadre la modération

Les pouvoirs publics cherchent à contrôler cette nouvelle sphère de surveillance numérique. La loi Avia de 2020 a posé les premières obligations de retrait rapide des messages haineux. La loi SREN, entrée en vigueur depuis 2024, impose une plus grande transparence sur les algorithmes et met sous surveillance de l’Arcom les grandes plateformes.

Au niveau européen, le Digital Services Act (DSA), qui commence à être adopté, est majeur. Il contraint les géants du web à publier les rapports de transparence sur leur modération, tout en mettant en place des moyens permettant aux utilisateurs de contester la suppression de contenus. Dans ce dispositif, l’État joue un rôle de co‑régulateur aux côtés des plateformes, afin d’assurer un juste équilibre entre la sécurité en ligne et la liberté d’expression.

Ces dispositifs s’accompagnent d’un renforcement des contrôles. L’Arcom et la plateforme Pharos recueillent les signalements des citoyens et peuvent sanctionner les manquements. L’objectif est clair : éviter les abus tout en réduisant la circulation des contenus les plus extrêmes.

De la sécurité publique à la vigilance numérique

Cette logique de prévention rappelle le plan Vigipirate, appliqué depuis des années à la sécurité nationale. Sur Internet, la surveillance est devenue une présence constante, mais invisible. La menace n’est plus physique, elle agit par la visibilité et l’impact psychologique. 

Ce changement soulève une question essentielle : jusqu’où peut-on protéger sans entraver les libertés ? La ligne entre sécurité et liberté s’efface peu à peu, alors que les algorithmes prennent des décisions à notre place.

Les bots sont rapides et nécessaires, mais ils ne remplacent pas le discernement humain. Pour garder la confiance dans le monde numérique, la transparence et la présence d’un contrôle humain restent indispensables. La sécurité des utilisateurs ne saurait justifier une surveillance permanente et indiscriminée.

Au cœur de notre société ultra-connectée, la vigilance numérique s’est imposée comme un réflexe naturel. C’est ainsi que nous répondons à ce besoin fondamental de sécurité, tout en endossant notre part de responsabilité collective face à ces technologies dont l’influence ne cesse de croître, souvent dans la plus grande discrétion.

Quelques références utiles :

Note : Toutes les images incluses dans cet article ont été générées par intelligence artificielle (IA).

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.