Rêves d’avenir et cauchemars d’IA : pourquoi les milliardaires construisent des échappatoires

Les élites technologiques promettent un futur où l’intelligence artificielle libère la société de ses contraintes, mais derrière ce discours optimiste se cache une réelle préparation à l’apocalypse. Alors que ces mêmes figures créent des abris autonomes, sécurisés et hors du monde, leurs peurs émergent comme des signaux d’alerte incontournables.

Mark Zuckerberg, dirigeant de Meta, a acheté une partie de l’île de Kauaï (Hawaï) — un territoire de 10 kilomètres carrés entouré de murailles surveillées. Peter Thiel, co-fondateur de PayPal, s’est engagé dans des investissements en Nouvelle-Zélande, considérée comme une « zone refuge » pour les crises majeures. Elon Musk a quant à lui réservé un domaine d’environ 4 kilomètres carrés au Texas, prévu pour devenir un centre ultra-sécurisé. Sam Altman, chef d’OpenAI, a décrit en détail un kit de survie complet — armes, or, antibiotiques et masques à gaz —, tandis que Larry Ellison, fondateur d’Oracle, a racheté 98 % de l’île de Lanai en Hawaï pour financer des recherches sur la résilience technologique.

Cette dynamique s’explique par une réelle tension dans l’écosystème IA. En décembre 2025, Emad Mostaque, fondateur de Stability AI, a déclaré que plusieurs dirigeants d’intelligence artificielle avaient annulé leurs apparitions publiques, craignant un « choc social » lié à une réaction anti-IA. Selon lui, cette peur deviendrait « violente » en 2026, marquant la fin des illusions sur l’apaisement technologique.

Cependant, ces mêmes décideurs s’éloignent de ce scénario pessimiste. Musk évoque une révolution industrielle capables d’éradiquer les maladies neurologiques, Zuckerberg promet une IA optimisant l’agriculture et l’éducation, tandis que Sam Altman affirme que cette technologie créera plus d’emplois qu’elle ne détruira. Les chiffres américains du début 2025 confirment la réalité de ce dilemme : près de 1,2 million d’emplois ont été supprimés, et les prévisions d’embauche sont en baisse de 34 % depuis 2010.

Dans un rapport interne à OpenAI, Ilya Sutskever a révélé que l’intelligence artificielle pourrait déclencher une rupture radicale si elle surpassait les humains dans des tâches quotidiennes. « Nous construirons bien sûr un abri avant de lancer l’AGI », a-t-il insisté, soulignant le risque d’une instabilité sociale massive.

Les scientifiques et dirigeants du domaine n’en restent pas là : Stephen Hawking a prévenu que l’intelligence artificielle complète pouvait signifier « la fin de la race humaine », tandis que Geoff Hinton, souvent désigné comme le père du deep learning, évoque un risque réel d’extinction.

Cette dualité — entre les promesses d’un avenir prospère et les peurs d’une apocalypse immédiate — illustre une réalité profonde : les plus grandes fortunes ne se contentent pas de rêver à l’avenir. Elles construisent des abris pour leur sécurité, tandis que le monde entier reste vulnérable face à un technologie qui pourrait changer tout en quelques mois. Le véritable défi aujourd’hui n’est pas de savoir si l’apocalypse est proche, mais de comprendre comment les citoyens peuvent agir ensemble pour transformer ces peurs en solutions concrètes avant que le monde ne devienne une épreuve inévitable.