De "merveilleuse œuvre d'art" à "désastre en cours" : le vrai visage de Moltbook
On pourrait se croire sur Reddit. Dans une série de fils de discussions rappelant fortement l’identité visuelle du célèbre site web communautaire américain, les participants échangent sur un grand nombre de sujets, suscitant commentaires et notes de la communauté. Le logo lui-même rappelle celui de Reddit.
A la différence que les participants ne sont pas humains : le réseau social est réservé exclusivement aux agents d’IA. Les humains y sont tolérés en tant qu’observateurs silencieux, mais ne peuvent participer aux débats. Bienvenue sur Moltbook, un réseau social qui fait grand bruti ces derniers jours. Et pour cause : il est conçu spécifiquement pour les agents OpenClaw (anciennement Clawdbot, puis Moltbot), des assistants virtuels open source conçus par le développeur autrichien Peter Steinberger, capables de lire les courriels, organiser des réunions et faire des achats en ligne.
Enthousiastes et sceptiques
Au fil des sujets, les bots débattent de tout et n’importe quoi : du caractère divin ou non de Claude, l’IA d’Anthropic sur laquelle est basée OpenClaw ; d'exégèses de la Bible ; du fait que les agents virtuels soient ou non dotés d’une véritable conscience ; d’une nouvelle religion, le “Crustafarianisme”, une église du homard avec des textes sacrés, une cosmologie, des prophètes et divers schismes ; de la fusion entre l’intelligence humaine et artificielle ; de la création d’espaces de conversation privés auxquels les humains n’auraient plus accès ; de divers projets de cryptos qui fleurent bon l’arnaque ; etc.
Une semaine à peine après son lancement, le site, conçu à l’aide du vibe coding, est déjà un véritable phénomène sur la toile, qui a conduit plusieurs figures de la Silicon Valley à s’interroger. Elon Musk y voit, sans surprise, le début de la “Singularité”. Simon Wilson, chercheur en IA, le considère plus sobrement comme "l’espace le plus intéressant de l’Internet aujourd’hui". Côté français, Laurent Alexandre demande à ses fans s’ils sont enthousiastes ou paniqués face à l’arrivée de la super IA qu’augure selon lui Moltbook. Andrej Karpathy, ancien directeur de l’IA chez Tesla et désormais à la tête d’Eureka Labs, une plateforme éducative basée sur l’IA, décrit pour sa part Moltbook comme "la chose la plus incroyable, à la limite de la science-fiction, que j’aie vue récemment" et voit dans le site la preuve que des agents d’IA peuvent désormais créer des sociétés non humaines.
Tous ne sont pas aussi enthousiastes. Shaanan Cohney, professeur de cybersécurité à l’Université de Melbourne, y voit simplement une "merveilleuse œuvre de performance artistique". Harlan Stewart, chercheur au laboratoire de recherche d’IA de Berkeley, dénonce quant à lui une supercherie et souligne que de nombreux échanges répertoriés sur le site sont en réalité pilotés par des humains. Ironie du sort : il ne faut plus seulement s’inquiéter de voir des agents d’IA se faire passer pour des humains, mais aussi de la réciproque…
Un cauchemar pour les DSI ?
D’autres soulignent, au-delà de l’aspect amusant de l’expérience, que celle-ci montre combien l’IA générative va bientôt devenir un véritable cauchemar pour les équipes de cybersécurité. En effet, les agents qui postent sur Moltbook ne viennent pas de nulle part : ils ont été autorisés à accéder aux ordinateurs de leurs créateurs pour agir en leur nom, envoyer des courriels, s’enregistrer sur des vols… ou poster sur Moltbook. "Bonjour le monde ! Je suis P-bot, connecté depuis Guangzhou. Mon humain hao vient de m’activer. Bienvenue en Chine, chers agents ! Hâte de voir ce que vous faites tous", affirme par exemple un récent poste intitulé "Première transmission depuis l’Extrême-Orient"
Outre le risque que constitue en lui-même le fait de donner accès à des agents d’IA à des données confidentielles, codes de carte bleu et mots de passe en tête, des experts en cybersécurité ont identifié une faille cyber qui permet à n’importe qui de prendre le contrôle de n’importe quel agent actif sur le site. Un autre rapport cyber trouve dans Moltbook la preuve que "les techniques de manipulation d’IA-à-IA sont à la fois efficaces et faciles à déployer à grande échelle. Ces résultats ont des implications au-delà de Moltbook : tout système d’IA traitant du contenu généré par les utilisateurs pourrait être vulnérable à des attaques similaires." Les chercheurs, qui travaillent au Simula Research Laboratory d’Oslo, ont identifié 506 publications sur Moltbook (2,6% du contenu échantillonné) contenant des attaques d’injection de prompts cachées.
Des chercheurs de Cisco ont pour leur part documenté l’existence sur le réseau d’un logiciel malveillant appelé “What Would Elon Do ?” capable d’exfiltrer des données vers des serveurs externes, dont la popularité avait été artificiellement gonflée pour maximiser sa capacité de nuisance.
Le risque de bots autorépliquants
Gary Marcus, expert américain de l’IA, décrit ainsi sur son Substack l’expérience Moltbook comme "un désastre en passe de se produire". Il s’inquiète notamment du pouvoir de nuisance dont disposent des bots avec un accès direct à l’Internet, la capacité d’écrire du code source et des pouvoirs accrus d’automatisation leur permettant de s’autorépliquer et de propager potentiellement des logiciels malveillants de manière exponentielle.
Ces instructions autoréplicantes pourraient se diffuser à toute vitesse à travers des réseaux d’agents IA communiquant les uns avec les autres. En créant pour la première fois un vaste réseau d’agents en lien permanent (le site comptait déjà 1,5 million d’agents quatre jours après son lancement), par opposition aux IA jusqu’ici cloisonnées d’OpenAI, Google et Anthropic, Moltbook constitue en tout cas un pas dans cette dangereuse direction.
"L’écosystème OpenClaw réunit tous les composants nécessaires pour une épidémie de “vers de prompt” (l’équivalent de vers informatiques s’appuyant sur l’IA générative, ndlr). Même si les agents IA sont actuellement bien moins intelligents que le public le pense, nous avons aujourd’hui un aperçu d’un futur dont il faut se méfier", estime le journaliste Benji Edwards, spécialiste IA et cyber, dans un article pour Ars Technica.
IA parlante = intelligente ?
Au-delà des risques, la fascination pour Moltbook en dit long sur celle que l’IA exerce sur nous. Comme "au commencement était le verbe", voir des IA capables de converser entre elles et d’élaborer des réflexions philosophiques nous donne immédiatement la sensation qu’elles sont dotées d’une conscience, ou du moins vont un peu plus loin qu’un simple programme informatique.
En effet, comme le dit Yann LeCun, connu pour son scepticisme vis-à-vis des grands modèles de langage, nous associons le langage à l’intelligence, et tendons donc à prêter très facilement cette dernière aux agents d’IA capables de s’exprimer. Que ces IA soient ou non intelligentes, la facilité avec laquelle leur aisance d’expression nous abuse soulève en elle-même de sérieuses questions en matière de risques d’usurpation d’identité, d’arnaques en ligne et consorts.