Dans les collines verdoyantes de Kauai, au cœur de l’archipel hawaïen, se cache un secret qui alimente les conversations depuis des années. Mark Zuckerberg, le fondateur de Facebook devenu Meta, a entrepris dès 2014 la construction d’un complexe tentaculaire s’étendant sur près de 1 400 acres. Ce qui intrigue particulièrement ? Un abri souterrain d’environ 450 mètres carrés, équipé de ses propres réserves d’énergie et de nourriture, dissimulé derrière un mur de six pieds qui bloque la vue depuis la route. Les ouvriers travaillant sur ce chantier pharaonique sont liés par des accords de confidentialité si stricts qu’ils ne peuvent même pas évoquer ce qu’ils construisent réellement.
Lorsqu’on l’a interrogé sur la nature de cette installation, Zuckerberg a balayé d’un revers de main les spéculations, affirmant qu’il s’agissait simplement d’un « petit abri, une sorte de sous-sol ». Pourtant, cette explication minimaliste n’a convaincu personne, surtout quand on découvre qu’il a également acquis 11 propriétés dans le quartier chic de Crescent Park à Palo Alto, en Californie, pour la modique somme de 110 millions de dollars, avec apparemment un espace souterrain de 7 000 pieds carrés en dessous. Ses voisins ne s’y trompent pas : ils qualifient ouvertement ces installations de bunkers ou de « cavernes de milliardaire » 🏰
Quand la Silicon Valley joue aux preppers version luxe
Cette tendance ne se limite absolument pas à Zuckerberg. Reid Hoffman, le cofondateur de LinkedIn, a utilisé une expression qui résonne comme un aveu : « assurance apocalypse ». Selon ses estimations, environ la moitié des ultra-riches auraient souscrit à cette forme particulière d’assurance, avec une prédilection marquée pour la Nouvelle-Zélande comme destination d’achat de propriétés refuge. Sam Altman, le directeur d’OpenAI, a même spéculé publiquement sur l’idée de rejoindre Peter Thiel dans une propriété isolée néo-zélandaise en cas de catastrophe mondiale.
Ce n’est plus un simple fantasme de quelques excentriques fortunés, mais bien un phénomène structuré qui touche une partie significative de l’élite technologique. Ces projets souterrains ne sont pas de simples caves à vin améliorées : on parle d’installations sophistiquées, capables de soutenir la vie pendant des mois, voire des années, avec des systèmes de filtration d’air, des générateurs autonomes, et des stocks alimentaires conséquents. L’ironie de la situation n’échappe à personne : ceux qui construisent le futur numérique semblent profondément inquiets de ce que ce futur pourrait réserver.
Dire que vous « achetez une maison en Nouvelle-Zélande » est devenu dans ces cercles un euphémisme transparent, un code que tout le monde comprend sans qu’il soit nécessaire d’en dire davantage.
L’intelligence artificielle
Si les bunkers se multiplient, c’est notamment parce qu’une nouvelle menace existentielle s’est ajoutée à la liste déjà longue des catastrophes potentielles. L’intelligence artificielle, et plus particulièrement l’AGI (intelligence artificielle générale), cristallise les peurs de ceux-là même qui travaillent à son développement. Ilya Sutskever, scientifique en chef et cofondateur d’OpenAI, incarne parfaitement ce paradoxe troublant. À l’été 2023, alors que ChatGPT venait d’être lancé et connaissait un succès planétaire avec des centaines de millions d’utilisateurs, Sutskever aurait suggéré lors d’une réunion interne de creuser un abri souterrain pour les meilleurs scientifiques de l’entreprise avant qu’une technologie aussi puissante ne soit diffusée dans le monde. Sa phrase aurait été sans équivoque : « Nous allons certainement construire un bunker avant de lancer AGI ».
Cette déclaration soulève une question vertigineuse : comment peut-on continuer à développer quelque chose dont on craint à ce point les conséquences ? 🤔 Les leaders technologiques semblent pris dans une course folle où l’innovation prime sur la prudence, tout en étant parfaitement conscients des dangers potentiels. Sam Altman a déclaré en décembre 2024 que l’AGI arriverait « plus tôt que la plupart des gens ne le pensent », tandis que Sir Demis Hassabis, cofondateur de DeepMind, prédit son émergence dans les cinq à dix prochaines années.
Dario Amodei, fondateur d’Anthropic, va encore plus loin en suggérant que son concept d' »IA puissante » pourrait se matérialiser dès 2026. Ces prédictions alimentent un climat d’urgence où la préparation devient une nécessité rationnelle plutôt qu’un simple caprice de milliardaires anxieux.
Entre promesses utopiques et scénarios cauchemardesque
Les défenseurs de l’AGI et de son évolution vers l’ASI (superintelligence artificielle) adoptent un discours presque évangélique sur les bénéfices potentiels. Selon eux, ces technologies permettraient de découvrir de nouveaux remèdes contre des maladies mortelles, de résoudre définitivement le problème du changement climatique, et d’inventer une source inépuisable d’énergie propre. Elon Musk pousse le raisonnement encore plus loin en affirmant qu’une IA super-intelligente pourrait inaugurer une ère de « revenu élevé universel », où l’abondance serait telle que chacun bénéficierait des meilleurs soins médicaux, de la meilleure nourriture, des meilleurs transports, sans avoir besoin de travailler.
Il soutient l’idée que tout le monde voudra son « propre R2-D2 et C-3PO personnel », en référence aux droïdes de Star Wars, tellement l’IA deviendra accessible et omniprésente 🤖. Cette vision optimiste contraste violemment avec les craintes exprimées par ces mêmes personnalités. Le concept de « singularité », attribué à titre posthume au mathématicien John von Neumann dès 1958, désigne ce moment hypothétique où l’intelligence informatique dépasserait l’entendement humain. Le livre Genesis, publié en 2024 et co-écrit par Eric Schmidt, Craig Mundy et feu Henry Kissinger, explore l’idée terrifiante d’une technologie si efficace dans la prise de décision que l’humanité finirait par lui céder complètement le contrôle.
Pour les auteurs, ce n’est pas une question de « si », mais de « quand ». Tim Berners Lee, créateur du World Wide Web, résume la position prudente : « Si c’est plus intelligent que vous, alors nous devons le contenir. Il faut pouvoir l’éteindre. »
Les voix sceptiques face au battage médiatique
Tous les experts ne partagent pas cet enthousiasme apocalyptique. Dame Wendy Hall, professeure d’informatique à l’Université de Southampton, exprime son exaspération face aux prédictions changeantes : « Ils changent constamment les règles du jeu. Cela dépend à qui on parle. La communauté scientifique dit que la technologie de l’IA est incroyable, mais elle est loin d’égaler l’intelligence humaine. » Neil Lawrence, professeur d’apprentissage automatique à l’Université de Cambridge, va plus loin en qualifiant tout ce débat d’absurde. Il compare l’idée d’intelligence artificielle générale à celle d’un « véhicule artificiel général » : absurde parce que contextuelle.
Vous prenez un Airbus A350 pour traverser l’océan, une voiture pour aller travailler, vous marchez jusqu’à la cafétéria – aucun véhicule ne pourrait accomplir toutes ces tâches. Pour lui, parler d’AGI constitue une distraction dangereuse qui nous détourne des vrais enjeux. La technologie actuelle permet déjà, pour la première fois dans l’histoire, à des personnes normales de communiquer directement avec une machine et potentiellement de lui faire exécuter leurs volontés. C’est absolument extraordinaire et profondément révolutionnaire, sans qu’il soit nécessaire d’invoquer une hypothétique superintelligence.
Vince Lynch, PDG de IV.AI en Californie, se méfie également des déclarations exagérées : « C’est un excellent marketing. Si vous êtes l’entreprise qui construit la chose la plus intelligente qui ait jamais existé, les gens voudront vous donner de l’argent. » Il ajoute qu’atteindre une véritable AGI demandera énormément de calcul, beaucoup de créativité humaine, et d’innombrables essais et erreurs – certainement pas dans les deux prochaines années comme certains le prétendent.
Les limites fondamentales de l’intelligence artificielle actuelle
Les outils d’IA contemporains, aussi impressionnants soient-ils, reposent sur des montagnes de données et excellent dans la reconnaissance de schémas, qu’il s’agisse de détecter des signes tumoraux sur des scanners ou de prédire le mot le plus susceptible de suivre dans une séquence. Mais ils ne « ressentent » rien, aussi convaincantes que puissent paraître leurs réponses. Babak Hodjat, directeur technique chez Cognizant, explique qu’il existe des moyens « trompeurs » de faire agir un grand modèle de langage comme s’il avait de la mémoire et apprenait, mais ces méthodes restent bien inférieures aux capacités humaines.
Le cerveau humain demeure biologiquement supérieur avec ses 86 milliards de neurones et 600 000 milliards de synapses, largement plus que n’importe quel équivalent artificiel. Surtout, le cerveau n’a pas besoin de pause entre les interactions et s’adapte constamment aux nouvelles informations. Si vous annoncez à un humain que de la vie a été découverte sur une exoplanète, il l’apprendra immédiatement et cela influencera sa vision du monde. Pour un LLM, cette information ne sera intégrée que tant que vous continuerez à la lui répéter.
Les modèles de langage ne possèdent pas non plus de métacognition – ils ne savent pas ce qu’ils savent. Les humains possèdent cette capacité d’introspection, parfois appelée conscience, qui leur permet de connaître les limites de leur propre savoir. Cet élément fondamental de l’intelligence humaine n’a pas encore été reproduit en laboratoire et représente peut-être l’obstacle majeur vers une véritable AGI 🧠
Ce que révèlent vraiment ces bunkers high-tech
Au-delà des considérations techniques sur l’IA, ces projets de bunkers révèlent quelque chose de profondément humain et paradoxal. D’un côté, nous avons des individus qui ont bâti des empires en pariant sur la technologie, l’interconnexion mondiale, et le progrès. De l’autre, ces mêmes personnes investissent des millions pour se préparer à un effondrement qui rendrait justement ces empires caducs.
Un ancien garde du corps d’un milliardaire propriétaire d’un bunker a confié un détail révélateur : en cas de véritable catastrophe, la priorité de l’équipe de sécurité serait d’éliminer ledit patron et de s’emparer du bunker. Cette anecdote souligne une faille typiquement humaine dans ces plans d’évacuation : même avec toutes les ressources du monde, la loyauté et la confiance demeurent les fondations fragiles sur lesquelles reposent ces stratégies de survie. Les gouvernements tentent de mettre en place des garde-fous.
Le président Biden avait adopté en 2023 un décret obligeant certaines entreprises à communiquer les résultats de leurs tests de sécurité au gouvernement fédéral, bien que le président Trump ait depuis révoqué une partie de ce décret, le qualifiant d’obstacle à l’innovation. Au Royaume-Uni, l’AI Safety Institute a été créé il y a deux ans pour mieux comprendre les risques posés par l’IA avancée.
Les vraies questions que personne ne pose
Cette fascination pour les bunkers et l’apocalypse cache peut-être des préoccupations plus prosaïques mais tout aussi légitimes :
- L’instabilité sociale : L’automatisation massive pourrait créer des tensions sociales explosives si des millions d’emplois disparaissent sans solutions de remplacement
- Les catastrophes climatiques : Les effets du réchauffement deviennent de plus en plus tangibles, avec des événements météorologiques extrêmes qui se multiplient
- La militarisation de l’IA : La course aux armements dans le domaine de l’intelligence artificielle pourrait déboucher sur des systèmes d’armes autonomes incontrôlables
- Les pandémies futures : Le Covid-19 a montré la vulnérabilité de nos sociétés interconnectées face aux menaces biologiques
- L’effondrement des infrastructures : La dépendance croissante aux systèmes numériques crée des points de défaillance critiques
Ce qui frappe dans toute cette histoire, c’est le décalage entre le discours public optimiste de ces milliardaires sur l’avenir radieux que la technologie nous promet, et leurs actions privées qui trahissent une anxiété profonde. Peut-être que ces bunkers ne sont pas tant une préparation rationnelle à une menace précise qu’un symptôme du malaise de ceux qui, ayant acquis un pouvoir et une richesse inimaginables grâce à la disruption technologique, réalisent soudain la fragilité des systèmes sur lesquels repose leur fortune.
Ou peut-être savent-ils quelque chose que nous ignorons encore 😰 Dans tous les cas, une chose est certaine : quand les architectes du futur numérique commencent à construire des abris souterrains, il est peut-être temps pour le reste d’entre nous de nous interroger sérieusement sur la direction que prend notre civilisation.