On pensait la partie pliée, Nvidia roi incontesté de l’IA. C’était sans compter sur le retour des challengers : AMD en embuscade avec OpenAI, et Intel qui refuse d’être relégué au musée des processeurs. Le match des puces recommence.
Le rapprochement entre OpenAI et le fabricant de semi-conducteurs AMD rappelle qu’en matière d’architectures informatiques liées à l’intelligence artificielle (IA), rien n’est jamais joué et que les cartes peuvent être redistribuées rapidement.
Au début des années 2000, le fondeur Intel domine sans partage le marché des processeurs (CPU) avec sa gamme Pentium. AMD s’impose alors sur le segment des ordinateurs à bas prix grâce à ses puces plus abordables, tandis que Nvidia règne sur le monde des cartes graphiques — un achat obligé pour quiconque joue sur ordinateur. À l’époque, la suprématie d’Intel est telle que plusieurs observateurs s’attendent à ce que l’entreprise de Santa Clara rachète Nvidia et ses cartes graphiques a destination « des gamins ». Il n’en sera rien. Et, rétrospectivement, on se dit que les dirigeants d’alors doivent s’en mordre les doigts : vingt ans plus tard, la star incontestée de la tech et de la Bourse, c’est bien Nvidia.
Quand le deep learning a commencé à se développer dans les années 2010, la recherche en IA s’est appuyée massivement sur les GPU (Graphics Processing Unit), ces puces conçues à l’origine pour le jeu vidéo. Leur architecture s’est, en effet, révélée idéale pour entraîner des réseaux de neurones. Nvidia, qui fabriquait déjà des GPU haut de gamme, saisit immédiatement cette opportunité. De son côté, Intel reste centré sur le CPU, son cœur historique. À l’époque, Intel imagine que ses processeurs, plus polyvalents, finiraient par suffire grâce à des optimisations logicielles. Mais l’écart de performance entre CPU et GPU pour les tâches d’intelligence artificielle se creusent très vite. Nvidia prend plusieurs années d’avance, et Intel perd la bataille de l’entraînement des modèles d’IA.
Une solution tout-en-un, mais
L’ avantage de Nvidia n’est pas seulement matériel. Depuis plus de dix ans, avec son écosystème logiciel appelé CUDA, Nvidia propose à ses clients – les géants du cloud et de la Tech, les laboratoires d’IA ou les studios de jeux – un environnement complet (outils, bibliothèques, partenariats, etc.) et des solutions clés en main (pas seulement des puces) qui facilitent la vie des ingénieurs de ses partenaires dans l’optimisation de l’exécution des modèles d’IA les plus gourmands. Nvidia domine donc grâce à un écosystème ultra-performant, mais fermé. Une position enviable, mais qui crée aussi une dépendance pour ses clients qui recherchent de plus en plus des solutions complémentaires pour ne pas se retrouver poings et mains liées avec un seul fournisseur.
C’est en partie dans ce cadre-là qu’intervient le rapprochement entre OpenAI et AMD. Longtemps dans l’ombre, AMD joue aujourd’hui le rôle de challenger ambitieux. Sa stratégie repose sur une alternative ouverte et plus abordable que les solutions de Nvidia : des GPU puissants, mais moins chers, capables de rivaliser sur les performances et un écosystème plus ouvert, appelé ROCm (Radeon Open Compute), qui permet aux développeurs de travailler sans dépendre d’un logiciel propriétaire comme CUDA. Cette approche attire de plus en plus les entreprises soucieuses de leurs coûts et les acteurs qui veulent garder une certaine liberté technologique.
Intel n’a pas dit son dernier mot
Depuis 2022, Intel a changé de stratégie et tente de repositionner l’IA au centre de son modèle, non pas en essayant de battre Nvidia sur le terrain du GPU, mais en intégrant l’IA dans tous ses types de processeurs à destination des datacenters, et surtout des Neural Processing Unit (NPU), des puces spécialement dédiée à l’IA et intégrées dans ses nouvelles générations de processeurs “Meteor Lake” pour les PC portables. Autrement dit, si Intel a raté le premier train de l’IA, celui du deep learning centralisé, l’entreprise tente aujourd’hui de prendre le suivant : celui de l’IA embarquée, distribuée et énergétiquement moins gourmande, un secteur où son expérience en processeurs généralistes pourrait redevenir un atout. Comme l’entreprise l’a déjà annoncée à plusieurs reprise, Intel veut démocratiser l’IA, en la rendant disponible sur tous les types d’appareils, pas seulement dans les grands centres de calcul.
CPU – GPU – NPU
Le CPU (Central Processing Unit) est le cerveau d’un ordinateur, conçu pour gérer un large éventail de tâches informatiques générales. Spécialisé à l’origine dans le traitement des graphiques et des images, le GPU (Graphics Processing Unit) s’est avéré très utile pour l’apprentissage automatique, où sa capacité à traiter de nombreuses opérations simultanément est un atout. Enfin, le NPU (Neural Processing Unit) est une unité conçue spécialement pour accélérer les tâches liées à l’intelligence artificielle (IA). Il offre dès lors une meilleure efficacité énergétique et de meilleures performances pour ces tâches par rapport à un CPU ou un GPU.