Les véritables limites de l’intelligence artificielle (IA)
Préparez-vous pour les superpuces, les superordinateurs et les super… maux de tête, vu les contraintes très réelles qui pèsent sur l’Intelligence artificielle (IA).
Quinze ans après sa mort, le nom de David Blackwell sera sur les lèvres de tous les passionnés de technologie en 2025. Nvidia, le géant des semi-conducteurs, a baptisé sa dernière superpuce du nom du mathématicien et théoricien des jeux. La production à grande échelle de la puce Blackwell débutera en début d’année. Son lancement suscite de grandes attentes. Elle sera au cœur des premiers centres de données dédiés à l’intelligence artificielle générative. Cependant, elle mettra aussi en lumière les goulots d’étranglement. Ces derniers concernent aussi bien la fabrication des puces que la construction des centres de données. Ils sont causés par la forte demande en puissance de calcul liée à l’IA.
La Blackwell est un processeur graphique (GPU ou graphics processing unit), le type de puce d’IA qui a fait de Nvidia un géant pesant 3.000 milliards de dollars. Cette superpuce fait partie intégrante d’une nouvelle plateforme Nvidia. Nvidia incitera certaines des plus grandes entreprises d’IA, notamment les “hyperscalers” des services cloud (Amazon, Microsoft et Google), à construire de nouvelles fermes de serveurs nécessaires aux calculs d’intelligence artificielle générative à grande échelle, avec des besoins énergétiques sans précédent. L’Agence internationale de l’énergie (AIE) estime qu’au cours des deux prochaines années, la consommation mondiale d’électricité des centres de données pourrait plus que doubler par rapport à son niveau de 2022, pour atteindre 1.000 térawattheures d’ici à 2026, soit l’équivalent de la consommation électrique du Japon.
Ni l’Est ni l’Ouest ne trouveront facile de construire la prochaine vague d’IA générative.
Production, composants de l’intelligence artificielle (IA)…
Mais l’énergie et les puces ne sont pas les seules contraintes qui pèsent sur l’IA dans le monde réel. La pression pour construire des modèles d’IA générative plus grands et plus performants pourrait également créer des tensions tout au long de la chaîne d’approvisionnement en semi-conducteurs. Nvidia a déjà rencontré des problèmes d’ingénierie dans la production de ses puces Blackwell par la firme taïwanaise TSMC, ce qui a retardé leur lancement.
Si la demande de GPU reste forte, il pourrait également y avoir des pénuries de mémoire à large bande passante et de packagings avancés.
L’AIE indique que certains pays, comme les Pays-Bas, ont déjà mis un frein à la construction de centres de données en raison de contraintes liées au réseau électrique. Certaines entreprises technologiques chercheront à réduire la pression sur le réseau en installant des générateurs sur place. Mais ces générateurs sont souvent alimentés au gaz naturel.
Les nouveaux centres de données ont besoin d’énergie pour alimenter leurs serveurs d’intelligence artificielle, mais aussi pour les refroidir. Les systèmes construits autour des GPU Blackwell s’appuieront sur le refroidissement liquide en boucle fermée. Une technique pour laquelle la demande devrait exploser au cours de l’année à venir. De tels changements nécessiteront plus qu’une simple mise à niveau.
Certains pays auront plus de facilité à mettre en place une infrastructure d’IA générative. Le système de planification centrale de la Chine facilite le regroupement des fermes de serveurs, des centrales électriques et des travailleurs. Mais elle n’a pas accès aux GPU les plus sophistiqués de Nvidia en raison des restrictions imposées par les États-Unis. Ni l’Est ni l’Ouest ne trouveront facile de construire la prochaine vague d’IA générative.
Par Henry Tricks, rédacteur en chef tech US de “The Economist”
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici