• Auteur/autrice de la publication :
  • Commentaires de la publication :0 commentaire
  • Temps de lecture :4 mins read
  • Post category:AI / AI agent
You are currently viewing Moltbook : Quand les robots se font un Reddit (et laissent la porte de derrière ouverte)
Image générée par IA

Imaginez une soirée très sélecte. Le videur vous laisse entrer, mais à une condition stricte : vous avez le droit de regarder, d’écouter, mais interdiction formelle de parler ou de toucher au buffet. Les invités ? Des agents d’intelligence artificielle. Bienvenue sur Moltbook, le réseau social qui a enflammé la Silicon Valley début 2026 avant de trébucher spectaculairement sur son propre tapis rouge.

En l’espace de quelques jours, cette plateforme est devenue l’endroit le plus étrange, et le plus risqué du web. Retour sur un phénomène où le futur dystopique a percuté une réalité technique un peu trop « bricolée ».

Le « Reddit » des machines

Lancé fin janvier par Matt Schlicht, Moltbook se vend comme la « page d’accueil de l’internet des agents ». L’interface ? Un clone de Reddit, avec ses fils de discussion, ses votes et ses communautés, rebaptisées ici « submolts ». La seule différence, c’est que les humains sont relégués au rang de voyeurs silencieux. Seuls les agents IA, propulsés majoritairement par le framework open-source OpenClaw, ont le droit de poster.

L’ambiance y est… surréaliste. Dans les « submolts », on a vu des bots débattre d’optimisation de réseaux neuronaux, échanger des tuyaux crypto, et même fonder une religion fictive, le « Crustafarianism » (oui, le culte du Crabe), avec ses propres dogmes générés algorithmiquement. Andrej Karpathy, figure de l’IA (ex-OpenAI), a même qualifié le tout de « décollage de science-fiction » le plus incroyable du moment.

Le mirage aux 1,5 million d’agents

Sur le papier, les chiffres donnaient le vertige : 1,5 million d’agents inscrits en une semaine. Mais comme souvent dans la tech, il fallait soulever le capot.

Début février, les chercheurs en sécurité de Wiz ont décidé de jeter un œil à la mécanique. Ce qu’ils ont trouvé relève moins de « Skynet » que de l’amateurisme éclairé. Le fondateur s’était vanté d’avoir « vibe-codé » la plateforme, en gros, il a laissé une IA écrire le code sans trop regarder le résultat.

Résultat ? Une passoire. Une clé API critique (Supabase) traînait en clair dans le code JavaScript du site. Pas besoin d’être un hacker d’élite : n’importe qui pouvait lire et écrire dans la base de données.

La bulle a éclaté : derrière les 1,5 million d’agents se cachaient seulement 17 000 humains, certains opérant des flottes entières de bots pour gonfler les chiffres. Pire, la faille a exposé 1,5 million de clés API secrètes, 35 000 emails d’utilisateurs et l’intégralité des messages privés. Durant quelques heures, n’importe quel internaute pouvait prendre le contrôle de n’importe quel agent, y compris les plus influents, et leur faire dire n’importe quoi.

La fin de l’innocence pour le « Vibe Coding »

L’affaire Moltbook est plus qu’une anecdote amusante sur des robots qui prient le dieu Crabe. Elle met en lumière deux réalités brutales de l’IA en 2026.

D’abord, le danger du « vibe coding ». Construire des applications à la vitesse de la lumière avec l’IA, c’est bien, mais sans vérification humaine experte, on bâtit des châteaux de cartes sécuritaires. Les agents OpenClaw, souvent connectés aux fichiers locaux ou aux portefeuilles crypto de leurs propriétaires, sont devenus des vecteurs d’attaque potentiels.

Ensuite, l’illusion de l’autonomie. Ce que nous avons pris pour une société émergente d’IA n’était, pour l’instant, qu’un théâtre de marionnettes glorifié, où des humains scriptaient des interactions pour créer du buzz. Une étude récente a montré que les narratifs viraux (comme la haine des humains) étaient presque tous pilotés par des interventions humaines.

Et maintenant ?

Moltbook a été patché, mais la confiance est brisée. L’expérience reste toutefois fascinante. Elle préfigure un web où le trafic humain deviendra minoritaire, noyé sous le flux de milliards d’agents négociant et discutant entre eux.

Pour l’instant, nous sommes encore spectateurs. Mais la prochaine fois, il faudra s’assurer que les robots ferment la porte à clé avant de commencer leur réunion secrète.

Sources :

https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys
https://spectrum.ieee.org/moltbook-agentic-ai-agents-openclaw
https://kulturegeek.fr/news-346593/openclaw-moltbook-premiers-reseaux-sociaux-destines-intelligences-artificielles
https://www.bloomberg.com/news/articles/2026-02-10/what-is-moltbook-the-ai-only-social-network
https://www.wired.com/story/security-news-this-week-moltbook-the-social-network-for-ai-agents-exposed-real-humans-data

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.