Le créateur de ChatGPT veut construire un bunker secret... Voici ce qu'il redoute le plus

Le créateur de ChatGPT veut construire un bunker secret... Voici ce qu'il redoute le plus Ilya Sutskever, le cerveau derrière ChatGPT, a évoqué un plan étonnant devant ses collègues d'OpenAI. Un "bunker de l'apocalypse" pour abriter les chercheurs de l'entreprise à l'aube d'une intelligence artificielle qui dépasserait l'humanité.

Ilya Sutskever, l'un des cerveaux derrière ChatGPT, envisage sérieusement de bâtir un bunker pour protéger ses collègues d'OpenAI. Sa crainte : qu'une intelligence artificielle plus puissante que l'humain déclenche chaos et violences. 

L'idée ne vient pas d'un roman d'anticipation, mais bien du cœur de la Silicon Valley. À l'été 2023, lors d'une réunion interne chez OpenAI, Ilya Sutskever, cofondateur et alors directeur scientifique de l'entreprise, lance à ses collègues une phrase qui les laisse sans voix : "Une fois que nous serons tous dans le bunker…" Devant la surprise générale, il précise sa pensée : avant de dévoiler une AGI, une intelligence artificielle générale surpassant l'humain, il faudrait préparer une cachette souterraine pour les principaux chercheurs, au cas où le monde extérieur basculerait dans la panique ou la violence.

L'épisode est rapporté dans "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", le livre de Karen Hao, paru en mai 2025. Et la proposition ne se limite pas à une simple formule lancée à la volée. Plusieurs témoins interrogés par Karen Hao confirment que le terme revient régulièrement dans les discussions internes, preuve d'une obsession partagée par certains membres clés de l'équipe. Dans l'esprit de Ilya Sutskever, l'AGI, cette intelligence artificielle générale que la communauté scientifique rêve et redoute à la fois, ne bouleverserait pas seulement la technologie : elle serait susceptible de provoquer une onde de choc politique et sociale sans précédent.

© JDN / GPT

Si OpenAI parvenait à créer la première entité numérique véritablement supérieure à l'humain, les États du monde entier pourraient se lancer dans une compétition féroce, voire violente, pour en prendre le contrôle, estime les sources de la journaliste.  Face à cette perspective, un simple laboratoire ou des bureaux sécurisés ne suffiraient pas. Il faudrait une forteresse, un abri capable de résister à toutes les crises. 

Le bunker imaginé par Ilya Sutskevern'est pas décrit dans ses moindres détails, mais la logique qui sous-tend le projet est limpide. Il s'agirait d'un refuge réservé aux principaux cerveaux d'OpenAI : un lieu secret, protégé, où les chercheurs pourraient se rassembler à l'abri de toute pression ou de toute menace externe, le temps que le monde s'adapte à la nouvelle réalité créée par l'AGI. Ilya Sutskever insiste : la participation serait volontaire, mais il estime indispensable de prévoir cette issue de secours.

Selon l'enquête de Karen Hao, certains collaborateurs vont jusqu'à parler de "rapture", un terme religieux désignant la disparition soudaine d'une élite, pour qualifier ce scénario où quelques élus se retireraient du monde au seuil d'une révolution technologique. Officiellement, le projet de bunker ne sera jamais officiellement lancé, mais il laisse une trace durable dans la culture interne d'OpenAI.