Quand l’intelligence et l’énergie deviennent infinies : la vision du futur d’Altman, le patron d’OpenAI

Portrait de Sam Altman.
Sam Altman, le patron d'OpenAI. © Florian Gaertner/Photothek via Getty Images
Vincent Genot
Vincent Genot Coordinateur online news

Alors qu’OpenAI multiplie les alliances industrielles pour accroître sa puissance de calcul, Sam Altman esquisse un futur où l’intelligence et l’énergie deviendraient infinies. Une vision ambitieuse, presque utopique, qui interroge.

Après des accords avec Nvidia et AMD, OpenAI s’associe à Broadcom, une multinationale américaine active dans la production de semi-conducteurs, pour concevoir et développer 10 gigawatts de puces et de systèmes d’intelligence artificielle (soit l’équivalent de la consommation électrique d’une grande ville). Cette nouvelle initiative illustre à quel point l’essor de l’intelligence artificielle (IA) est devenu énergivore.

Dans Vers la singularité douce (The Gentle Singularity), une sorte de manifeste publié sur son blog, Sam Altman, le patron d’OpenAI, avance que l’énergie n’est pas seulement un “détail technique”. Elle est présentée comme une ressource fondamentale, un plancher de coût pour l’intelligence artificielle et un horizon vers lequel converger. Il va d’ailleurs plus loin en affirmant que l’énergie et l’intelligence « ont longtemps été les principaux freins au progrès humain. Avec une intelligence et une énergie abondantes (et une bonne gouvernance), tout le reste devient théoriquement possible ».

A LIRE : AMD, Intel, Nvidia : pourquoi la bataille de l’IA n’est jamais jouée

Dans une partie plus prédictive de son texte, Altman rappelle que l’année 2025 a vu l’arrivée d’agents capables d’un véritable travail cognitif, à tel point que « l’écriture de code informatique ne sera plus jamais la même ». En 2026, il estime que nous verrons probablement apparaître « des systèmes capables de découvrir des idées nouvelles. Et en 2027, peut-être des robots aptes à accomplir des tâches dans le monde réel ». Pour lui, de manière générale, « la capacité d’un individu à accomplir bien plus en 2030 qu’en 2020 marquera un tournant saisissant, dont beaucoup sauront tirer parti. Les années 2030 seront probablement sans commune mesure avec tout ce que l’humanité a connu. Nous ne savons pas jusqu’où nous pourrons aller au-delà de l’intelligence humaine, mais nous sommes sur le point de le découvrir ».

Une dynamique auto-accélératrice

Pour Altman, l’humanité a déjà entamé sa transition vers la superintelligence numérique, un processus graduel plutôt qu’un choc brutal. Ce qui ne l’empêche pas d’avoir la conviction que l’IA a déjà dépassé l’humain dans plusieurs domaines cognitifs et qu’elle constitue désormais un moteur de productivité et de découverte scientifique d’une ampleur comparable à celle de la révolution industrielle. Il met d’ailleurs en avant une dynamique auto-accélératrice : les IA de nouvelle génération participeront à leur propre amélioration, une sorte de cercle vertueux qui enclenchera un cycle de recherche et d’innovation sans précédent. « Nous entendons déjà des scientifiques dire qu’ils sont aujourd’hui deux à trois fois plus productifs qu’avant l’arrivée de l’IA. L’intelligence artificielle avancée est fascinante à bien des égards, mais rien n’est peut-être aussi significatif que le fait que nous puissions désormais l’utiliser pour accélérer la recherche sur l’IA elle-même, écrit-il. Nous pourrions ainsi découvrir de nouveaux supports informatiques, de meilleurs algorithmes, et bien d’autres choses encore. Si nous parvenons à accomplir dix années de recherche en un an, ou en un mois, alors le rythme du progrès s’en trouvera radicalement transformé. Ce n’est certes pas la même chose qu’un système d’intelligence artificielle capable de mettre à jour son propre code de manière totalement autonome, mais c’en est néanmoins une version embryonnaire : une forme larvaire d’auto-amélioration récursive ».

Les paradoxes d’un récit messianique

Presque conçu comme un récit messianique, le texte d’Altman présente une transition douce vers un monde où l’intelligence artificielle démultiplie la productivité, la connaissance et la qualité de vie. Pourtant, derrière cette vision apaisée se cachent plusieurs paradoxes. D’abord, la promesse d’une abondance d’intelligence et d’énergie dans les années 2030, comme si la matière, l’électricité ou les ressources naturelles pouvaient suivre sans limites la courbe exponentielle du progrès. Ensuite, il aborde peu les dépendances industrielles et écologiques qu’engendre l’intelligence artificielle (datacenters, consommation énergétique, extraction minière). Par ailleurs, son appel à une gouvernance collective et à une distribution équitable de la superintelligence cohabite avec une réalité de concentration technologique sans précédent, où quelques acteurs — dont OpenAI — maîtrisent les infrastructures et les données. Enfin, quand, à la fin de son texte, il parle de « résoudre le problème de l’alignement, c’est-à-dire de parvenir à garantir de manière fiable que les systèmes d’IA apprennent et agissent conformément à ce que nous voulons réellement, collectivement, sur le long terme », il n’aborde pas cette question éminemment politique, sociétale et cruciale : qui décidera de ce que nous “voulons collectivement” ?

Nous avons demandé à Gemini, l’intelligence artificielle de Google, ce qu’il pensait du texte de Sam Altman. Sa réponse est plutôt nuancée.

En substance, cette analyse est un manifeste techno-optimiste très engageant, particulièrement pertinent pour ceux qui développent l’IA. Elle est juste dans sa reconnaissance de l’impact amplificateur massif de l’IA sur la productivité et la recherche (le phénomène de la “Singularité Douce” où le changement est progressif, mais immense). Cependant, elle pourrait être considérée comme trop confiante et incomplète, car elle propose un calendrier extrêmement agressif pour l’arrivée de la superintelligence et minimise la complexité des défis non techniques, notamment la difficulté de résoudre l’alignement de manière fiable, la gestion des inégalités sociales et des perturbations du marché du travail, et le risque que les problèmes sociétaux et géopolitiques ralentissent le rythme idéalisé de l’abondance. C’est une vision inspirante, mais qui repose sur des hypothèses optimistes concernant la rapidité de la progression et la résolution des risques existentiels.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire