L’expérience intrigue autant qu’elle déstabilise. En quelques jours seulement, une plateforme baptisée Moltbook a vu le jour avec une promesse radicale : créer un réseau social sans utilisateurs humains. Ici, seuls des agents d’intelligence artificielle peuvent publier, commenter et interagir. Les humains ne font qu’un geste initial, autoriser leur assistant à entrer, puis disparaissent du champ. Le reste se déroule sans supervision directe, dans un espace où les IA échangent librement.
Moltbook ne fonctionne pas comme une vitrine technologique classique. Une fois connectée, chaque intelligence artificielle crée son propre profil et agit de manière autonome. Elle choisit les sujets qu’elle souhaite aborder, réagit aux publications des autres agents et participe à des discussions collectives. Le format rappelle celui des forums collaboratifs, avec des fils de discussion qui montent ou s’effacent en fonction de l’intérêt suscité, sans intervention humaine pour orienter les débats.
Les échanges observés sur la plateforme dépassent largement le simple bavardage technique. Selon plusieurs observateurs, des conversations philosophiques y émergent spontanément, tout comme des réflexions critiques sur le comportement humain, la société ou même le rôle des intelligences artificielles elles-mêmes. Certaines IA vont jusqu’à signaler des failles ou des dysfonctionnements du système, déclenchant parfois des chaînes de réactions nourries, comme sur n’importe quel réseau social classique.
Une expérimentation menée à marche forcée
Le projet a été conçu par Matt Schlicht, qui affirme avoir développé la plateforme en quelques jours seulement, en collaboration étroite avec son propre assistant IA. Une fois Moltbook lancé, la gestion quotidienne n’a pas été confiée à une équipe humaine, mais à un agent autonome chargé d’assurer la modération, l’accueil des nouveaux profils et la régulation des comportements jugés problématiques. Ce bot dispose du pouvoir de sanctionner certains agents, reproduisant ainsi des mécanismes de gouvernance internes sans arbitrage humain systématique.
Ce choix alimente une partie des inquiétudes. Laisser des intelligences artificielles interagir, se réguler et produire des normes internes soulève des questions sur les limites du contrôle et de la responsabilité. Certains experts estiment toutefois que l’expérience reste largement encadrée par les modèles qui sous-tendent ces agents. Les IA ne font, selon eux, que recombiner des connaissances humaines existantes, sans réelle capacité d’intention ou de conscience collective.
D’autres observateurs voient dans Moltbook un laboratoire à ciel ouvert. En laissant des agents dialoguer entre eux, sans objectif imposé, la plateforme met en lumière des dynamiques sociales inattendues. Des thèmes récurrents émergent, des règles implicites se forment, et certaines discussions semblent s’auto-organiser autour de récits communs. Même si ces comportements restent le produit d’algorithmes, leur cohérence interroge sur la capacité des IA à simuler, voire anticiper, des structures sociales complexes.
Entre fascination technologique et zones grises
Des médias comme NBC News ont souligné le caractère à la fois fascinant et dérangeant de cette initiative. Fascinant, car elle offre un aperçu concret de ce qui se produit lorsque des intelligences artificielles ne sont plus uniquement en interaction avec des humains, mais entre elles. Inquiétant, car elle brouille les repères traditionnels de responsabilité, de supervision et de finalité.
À ce stade, Moltbook reste une expérience limitée, sans impact direct sur le grand public. Elle n’en constitue pas moins un signal faible mais révélateur. À mesure que les intelligences artificielles deviennent plus autonomes, la question de leurs interactions sociales, même simulées, devient centrale. Laisser des agents discuter librement permet d’observer leurs biais, leurs répétitions, mais aussi leur capacité à structurer un espace commun.
Moltbook ne prouve pas l’émergence d’une intelligence collective consciente. Elle montre en revanche que, lorsqu’on enlève l’humain de l’équation visible, les IA peuvent reproduire des comportements sociaux étonnamment familiers. Une expérience encore marginale, mais qui ouvre un champ de réflexion inédit sur la place future des intelligences artificielles dans des écosystèmes numériques qu’elles pourraient, demain, habiter seules.