You are currently viewing La sécurité des enfants en ligne :  le Sénat américain auditionne les patrons des réseaux sociaux
© Jason Andrew - The New York Times

« You have blood on your hands. You have a product that’s killing people. », « The hypocrisy is mind-boggling. », « I don’t think you’re gonna solve the problem. Congress is gonna have to help you. » … Telles sont quelques-unes des phrases-chocs des sénateurs américains qui ont retenti lors de l’audition des dirigeants des réseaux sociaux la semaine dernière au Sénat américain.  L’un de dirigeants, Mark Zuckerberg, n’a pas eu d’autre choix à un moment que de se lever et de s’excuser : « I’m sorry for everything you have all been through. No one should go through the things that your families have suffered ».

Quels sont les faits ayant entraîné cette audition ? Que prévoit le droit américain en réponse à ces faits ? Quelles suites espérer de cette audition ? Cet article répond à ces questions.

Contexte de l’audition

Face à l’augmentation des inquiétudes concernant la sécurité des enfants sur les réseaux sociaux, les sénateurs américains de tous bords politiques, démocrates et républicains, ont convoqué les dirigeants des principales plateformes numériques pour les interroger sur leur rôle dans la détérioration de la santé mentale et physique des jeunes. Un dossier de plainte, impliquant une quarantaine d’États américains contre Meta (anciennement Facebook), accuse ces plateformes de contribuer à des risques accrus d’addiction, de cyber-harcèlement et de troubles alimentaires chez les jeunes.

Cette audition, renforcée par la présence de militants des droits de l’enfance et de familles de victimes d’abus en ligne, a mis en lumière les dangers que représentent ces services pour les jeunes, notamment en termes d’exploitation sexuelle et de suicide, avec une attention particulière sur l’accès facile à des contenus sexuellement explicites impliquant des mineurs. Les sénateurs ont comparé les dommages causés par les réseaux sociaux à ceux de l’industrie du tabac et de Boeing, pour illustrer la responsabilité des plateformes dans les tragédies touchant les enfants.

© Actual News Magazine

Pour leur défense, les dirigeants des réseaux sociaux, dont Mark Zuckerberg (Meta), Shou Zi Chew (TikTok), Evan Spiegel (Snapchat), Linda Yaccarino (X, anciennement Twitter) et Jason Citron (Discord) ont défendu les mesures de modération de contenu mises en place sur leurs plateformes, tout en reconnaissant implicitement leur insuffisance face aux critiques. Zuckerberg a souligné un investissement de plus de 20 milliards de dollars dans la sécurité et l’embauche de 40 000 personnes pour la modération depuis 2016. Toutefois, des révélations sur son refus d’augmenter les ressources dédiées à la protection des adolescents ont suscité des critiques, notamment de la part du sénateur Richard Blumenthal, qui a pointé du doigt l’hypocrisie des dirigeants face à la gravité des enjeux de protection des mineurs sur les réseaux sociaux.

En fait, si la situation est telle quelle, c’est en grande partie en raison d’une faille au sein même du droit américain !

La « Section 230 »

© Emeth Media Group

La « Section 230 » est un article d’une loi américaine, la « Communications Decency Act », ayant façonné Internet aux États-Unis depuis son adoption en 1996. Pilier de la sacro-sainte liberté d’expression sur le web, cet article offre une immunité judiciaire aux sites internet concernant les contenus publiés par leurs utilisateurs. Les plateformes en ligne, les réseaux sociaux, ne sont pas considérées comme éditeurs des contenus publiés par leurs utilisateurs et ne sont donc pas pénalement responsables de ces contenus.

À ses débuts, cet article a permis de protéger les entreprises naissantes du web contre des procès en cascade potentiellement écrasants et a facilité l’émergence et la croissance de forums, de sites de petites annonces, et d’une variété de contenus en ligne. Avec le temps, la Section 230 a accordé aux réseaux sociaux et autres sites web une immunité étendue, même lorsqu’ils hébergent des contenus illégaux, à quelques exceptions près comme la prostitution, le piratage et les infractions au droit pénal fédéral.

Cet article confère en réalité aux plateformes et réseaux sociaux une flexibilité considérable, leur permettant de retirer les contenus qu’ils considèrent comme inappropriés, même lorsque ces derniers ne violent pas spécifiquement les lois américaines. Cette latitude en matière de suppression de contenus, sans la menace de poursuites judiciaires, assure aux plateformes une grande marge de manœuvre dans la modération de leur espace en ligne.

Néanmoins, l’article 230 est devenue un sujet de débat houleux, reflétant les divisions de la société américaine sur des questions telles que la liberté d’expression et le pouvoir des géants de la technologie. Les critiques arguent que cette loi offre un « blanc-seing » aux plateformes, leur permettant d’éviter la responsabilité pour les contenus nuisibles. Malgré les tentatives de réforme par des figures politiques et le soutien de certains dirigeants technologiques à une révision, les divisions politiques et le lobbying des grandes entreprises ont freiné les changements législatifs… au malheur des jeunes.

Issues de l’audition

Pour leurs défenses lors de cette audition, les dirigeants des réseaux sociaux se sont bornés à rappeler les mesures prises par chacun d’entre eux pour améliorer la modération des contenus publiés sur leurs plateformes tout en reconnaissant les limites de ces mesures par des excuses et des engagements à renforcer la sécurité. TikTok a promis un investissement de plus de 2 milliards de dollars dans la sécurité, tandis que X (anciennement Twitter) a annoncé la création d’une nouvelle unité de modération. Meta a également promis des investissements significatifs pour la protection des mineurs.

© Tom Brenner – The New York Times

Toutefois, pour éviter que cette audition ne se révèle finalement avoir été un cirque politique, des mesures législatives doivent être prises et appliquées. À cet effet, des projets de loi sont en discussion pour permettre aux victimes d’exploitation sexuelle de poursuivre ces entreprises, réduisant ainsi la protection offerte par la « Section 230 ». Parmi les propositions, le Kids Online Safety Act (KOSA) cherche à protéger les enfants des dangers des algorithmes et d’autres idées incluent des vérifications strictes de l’âge pour empêcher l’accès des moins de 13 ans aux réseaux sociaux. Ces initiatives législatives visent à augmenter la responsabilité des plateformes dans la lutte contre l’exploitation sexuelle en ligne des mineurs, malgré les défis posés par un Congrès divisé et l’influence des lobbies technologiques.

Cette audition des dirigeants des réseaux sociaux relative à la responsabilité de leurs produits face à l’exploitation sexuelle des mineurs sur Internet en droit américain, au vu de son intérêt mérite aussi d’être analysée à la lumière des droits français et européen… Ce sera l’objet du prochain article.

Freddy BASILA BULAMBO

M2 droit de l’économie numérique – Promotion 2023/2024

 

Sources :

  1. France info – Mark Zuckerberg s’excuse après avoir été interpellé sur les dangers de Facebook pour les enfants
  2. Le Monde – Entre excuses de Mark Zuckerberg et phrases-chocs : au Sénat américain, l’audition des patrons de réseaux sociaux tourne au cirque politique
  3. BFMTV – « Vous avez du sang sur les mains » : Mark Zuckerberg forcé de s’excuser du rôle néfaste d’Instagram
  4. Le Figaro – Facebook : les excuses de Mark Zuckerberg aux victimes des dérives des réseaux sociaux
  5. New York Times – Child Safety Hearing Senators Demand Tech Executives Take Action to Protect Children Online

Cet article a 2 commentaires

    1. Freddy BASILA BULAMBO

      Merci !

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.