Les multiples révolutions d’IBM

Arvind Krishna, PDG, et le président Joe Biden, lors d'une visite de l'usine de Poughkeepsie, un des bastions historiques du groupe, dans l'Etat de New York, en octobre dernier. © Getty Images

En plus d’un siècle d’existence, “Big Blue” a survécu à toutes les révolutions technologiques, de la carte perforée au “cloud computing”. Arvind Krishna, PDG depuis 2020, a déjà les yeux rivés sur la prochaine frontière: l’informatique quantique.

Au siège social d’Armonk, à une heure de route au nord de Manhattan, la salle ultramoderne où se réunit le conseil d’administration d’IBM ne compte que deux grands tableaux en guise de décoration. Le premier reproduit, façon dessin technique, la console de commande de l’IBM System/360, un des premiers ordinateurs centraux (appelés mainframes) adoptés par les entreprises, sorti en 1964. Le second montre, dans le même style, le coeur d’un ordinateur quantique, le Quantum System One d’IBM, dévoilé en 2019.

Pendant les 55 années qui séparent ces deux machines, l’informatique a connu de multiples transformations, des lampes sous vide aux microprocesseurs, du PC de bureau au smartphone, des grands systèmes propriétaires aux data centers partagés dans le cloud… Chaque vague technologique a balayé les champions de l’ère précédente – Univac, Commodore, Sun Microsystems ou Bull, pour n’en citer qu’une poignée. IBM, lui, est toujours là. Non seulement son histoire se confond avec celle de l’informatique moderne, mais elle est en fait bien plus longue: l’entreprise a été fondée en 1911, sous le nom de CTR Company (pour “Computing- Tabulating-Recording“).

Nous avons été les premiers à démontrer que l’IA pouvait être très réelle, et appliquée à des questions concrètes.

“Connaissez-vous beaucoup d’entreprises centenaires qui soient toujours dans le top 100 mondial?” Arvind Krishna, PDG d’IBM depuis avril 2020, ne cache pas sa fierté devant une telle longévité. Arrivé aux commandes après une décennie de doute, qui a vu le modèle d’IBM perdre du terrain face à de nouveaux géants apparus avec internet, cet ingénieur né en Inde a orchestré la dernière mutation majeure du groupe: le rachat de Red Hat, un spécialiste des logiciels libres, pour 34 milliards de dollars. A 60 ans, Arvind Krishna, fils d’un général de l’armée indienne, a consacré la moitié de sa vie à travailler pour IBM. Arrivé aux Etats-Unis pour son doctorat, il a été embauché comme chercheur en 1990, au Thomas J. Watson Research Center, le quartier général de la recherche du groupe.

Coauteur d’une quinzaine de brevets, Arvind Krishna a gravi tous les échelons, jusqu’à diriger l’activité recherche de 2015 à 2019, avant d’être nommé vice-président du cloud et de “l’informatique cognitive”, le terme maison pour désigner l’intelligence artificielle. Son profil de scientifique – il se définit comme “technologue” – tranche avec ceux des précédents PDG. “Tous ceux qui ont dirigé l’entreprise avant lui avaient, à des degrés divers, travaillé pour les ventes et le marketing, et c’était leur culture”, rappelle James Cortada, historien et ancien d’IBM, auteur d’un essai sur la trajectoire du groupe (IBM, The Rise and Fall and Reinvention of a Global Icon, MIT Press, 2019).

Trancheuses à viande

Même Thomas J. Watson Sr, l’homme qui fut le premier véritable patron d’IBM, venait des ventes, pas de la technologie. Embauché en 1914 pour diriger CTR, un conglomérat de cinq entreprises et 1.300 employés produisant des balances, des pointeuses, des caisses enregistreuses et même des trancheuses à viande, cet ancien vendeur ambulant est resté aux commandes jusqu’en 1956, date de son départ en retraite à l’âge de 82 ans. C’est sous sa direction que, dans les années 1930, IBM a permis la création du système de sécurité sociale américain, voulu par Franklin D. Roosevelt, en fournissant les machines à cartes perforées permettant de traiter les données de 36 millions d’Américains.

IBM System/360 Ce
IBM System/360 Ce “mainframe” assurera la suprématie d’IBM pendant près de deux décennies.© belga image

En parallèle, l’entreprise, qui a pris le nom d’International Business Machines en 1924, a très vite exporté ses appareils vers l’Asie, l’Amérique du Sud ou l’Europe. Y compris, par le biais de sa filiale allemande, Dehomag, en fournissant au régime nazi des outils de recensement des populations, ce qui lui vaudra d’être accusée d’avoir contribué à l’Holocauste.

Au sortir de la Seconde Guerre mondiale, IBM contribue à l’invention des premiers ordinateurs, d’abord en remplaçant les contacteurs électriques par des tubes à vide, puis par des composants électroniques. Son premier “calculateur automatique”, l’ASCC, ancêtre de l’informatique, est construit en 1944 à l’université d’Harvard. Dès 1945, IBM ouvre le Watson Scientific Computing Laboratory sur le campus de l’université de Columbia – le premier d’une longue liste de laboratoires de recherche.

Dépourvu de formation scientifique, le premier PDG d’IBM a compris l’importance de la R&D, et la nécessité de créer des ponts entre le monde académique et celui de l’entreprise. Mais c’est son fils, Thomas J. Watson Jr., qui fait entrer IBM dans l’informatique moderne. Après des débuts au service des ventes, il quitte le groupe en 1940 pour devenir pilote dans l’US Air Force. A son retour, il est nommé vice-président en 1946, puis président en 1952, et enfin PDG en 1956, au moment où son père accepte enfin de prendre sa retraite. Convaincu que les progrès de l’électronique vont rendre l’informatique accessible à l’ensemble des entreprises, et pas seulement aux universités et aux grandes administrations, Thomas Jr. pense que les ordinateurs doivent être produits en grande série. Le premier d’entre eux, l’IBM 1401, sorti en 1959, est souvent comparé à la Ford T pour l’automobile.

Après le succès de cette première gamme, Thomas Watson Jr. va faire le pari d’une approche révolutionnaire pour l’époque: le System/360, une famille d’ordinateurs de différentes tailles, partageant les mêmes jeux d’instructions, alors que les machines précédentes étaient incompatibles entre elles. Développée en deux ans, pour un montant de 5 milliards de dollars (équivalant à 45 milliards de dollars d’aujourd’hui), la nouvelle gamme va assurer la suprématie d’IBM pendant près de deux décennies. C’est l’âge d’or du groupe, qui multiplie les innovations (mémoire DRAM, disquette, code-barres, etc.), conquiert les entreprises (“On ne peut pas être licencié pour avoir choisi IBM”, dit-on dans les services informatiques), et aide la Nasa à envoyer l’homme sur la Lune. Désigné par le magazine Fortune comme le “plus grand capitaliste de tous les temps”, Thomas Watson Jr. quitte son poste de PDG en 1971. Le groupe compte alors 250.000 employés – 200 fois plus que quand son père avait pris la direction de CTR!

Le PC, un succès presque fatal

Dans les années qui suivent, un minuscule objet va forcer le géant IBM à changer de stratégie. Le microprocesseur, inventé par Intel en 1971, permet la conception d’ordinateurs plus petits et beaucoup moins chers, proposés à partir de 1977 par de nouveaux venus comme Commodore ou Apple. Destinés au départ à un marché familial, les micro-ordinateurs menacent d’arriver en entreprise, et “Big Blue” se doit de réagir. L’IBM PC, lancé en octobre 1981, est au départ une réussite, générant 1 milliard de dollars de revenus en 12 mois. En décembre 1982, Time Magazine fait de l’ordinateur personnel sa personnalité de l’année.

Mais, en coulisses, le succès de l’IBM PC cache de nombreux problèmes. Il a été développé très vite, par une petite équipe, sans le soutien des responsables du mainframe, qui le voient d’abord comme un produit peu sérieux, puis comme un danger pour leurs marges. Conséquence, deux composants essentiels de la machine ne viennent pas d’IBM: le système d’exploitation est confié à une jeune start-up, Microsoft, et le microprocesseur est fourni par Intel. Tous deux peuvent les proposer à d’autres constructeurs, et ils ne s’en privent pas. Compaq, Digital ou Dell vont en profiter en lançant des modèles “compatibles PC”, mais moins coûteux et parfois meilleurs. “Si IBM a continué de vendre des millions de machines, le profit unitaire n’a cessé de se réduire. Pire encore, leur part de marché a fondu, passant de 80% en 1983 à moins de 20% dix ans plus tard”, écrit dans son livre James Cortada.

L’épopée du PC manque d’être fatale à IBM, d’autant qu’elle va de pair avec une stagnation des mainframes. En 1993, les pertes du groupe atteignent 8,1 milliards de dollars. Pour sortir de la crise, le conseil d’administration choisit pour la première fois un patron venu de l’extérieur, Louis “Lou” Gerstner. Ancien dirigeant d’American Express, il ne connaît rien à l’informatique, mais va pourtant sauver le groupe. Sa stratégie? Sortir du PC, revendre des activités historiques (disques durs, matériel de réseau, etc.) et se concentrer sur les logiciels et les services pour entreprises, un secteur bien plus rentable.

IBM PC 5150 (et son imprimante). En 1982,
IBM PC 5150 (et son imprimante). En 1982, “Time Magazine” fit de l’ordinateur personnel sa personnalité de l’année.© Getty Images

Les occasions perdues

Quand Lou Gerstner quitte la direction d’IBM, en 2002, le groupe est redevenu largement bénéficiaire, mais au prix d’une “rupture dans le contrat social”, juge James Cortada. L’emploi à vie, voulu et défendu par Watson père et fils, a disparu au gré des restructurations et des fermetures d’usines, et les effectifs ont fondu. Le nouveau PDG, Samuel Palmisano, continue la transformation à marche forcée, avec l’acquisition de la division conseil de PricewaterhouseCoopers (PwC) et la vente de la division PC au constructeur chinois Lenovo – tout un symbole.

En 2011, IBM dépasse les 100 milliards de dollars de chiffre d’affaires, et fête son centenaire par un coup d’éclat: son superordinateur Watson, dont l’intelligence artificielle (IA) a absorbé 200 millions de pages d’encyclopédies, de dictionnaires et d’articles de presse, remporte le jeu télévisé Jeopardy! en battant les meilleurs champions humains, devant 15 millions de téléspectateurs. “Même si plusieurs autres entreprises ont fait progresser l’intelligence artificielle, IBM doit être crédité d’une chose: nous avons été les premiers à démontrer que l’IA pouvait être très réelle, et appliquée à des questions concrètes”, analyse aujourd’hui Arvind Krishna.

La recette de la longévité, c’est de ne pas avoir peur de laisser le passé derrière soi.

Mais cette prouesse ne se transforme pas en succès commercial. La première application envisagée pour Watson, dans le traitement du cancer, est un échec. “Parce que Jeopardy! était un défi énorme, nous avons eu peut-être trop confiance dans les capacités de l’IA à s’attaquer à des sujets très difficiles, reconnaît le PDG. Nous aurions dû appliquer l’IA au service client, à l’automatisation des magasins… des problèmes plus simples et plus concrets. Je pense toujours que l’utiliser contre le cancer est le bon objectif, mais qu’il faudra 20 ans pour y arriver, et non pas cinq comme nous le pensions.”

Pour IBM, la décennie 2010 est celle des occasions manquées. Dans l’intelligence artificielle, les géants du web comme Google ou Facebook occupent le devant de la scène, dépensant des milliards pour s’offrir les meilleurs scientifiques ou les start-up les plus en vue. Et dans son coeur de métier, IBM tarde à réagir à la montée en puissance du cloud computing. Ses grands ordinateurs mainframes installés dans les entreprises sont concurrencés par des centres de données accessibles via internet, soit pour un usage exclusif (“cloud privé”), soit en les partageant avec d’autres (“cloud public”). Amazon Web Services, pionnier du cloud public, est le grand bénéficiaire de cette transformation, suivi de Microsoft et Google.

Nommée PDG en 2012, Virginia “Ginni” Rometty continue de satisfaire les actionnaires grâce à une généreuse politique mêlant dividendes et rachats d’actions. Mais cela cache le lent déclin d’IBM, dont le chiffre d’affaires recule pendant 22 trimestres d’affilée! Comme en 1993, le groupe a besoin d’un électrochoc. Il a lieu en 2018, avec le rachat de Red Hat, champion des logiciels open source, pour 34 milliards de dollars – l’acquisition la plus chère de toute l’histoire d’IBM.

L’ère du “cloud hybride”

En proposant des logiciels basés sur Linux, un système d’exploitation libre de droits auquel il ajoute des fonctionnalités et un support technique, Red Hat a su séduire les entreprises. Il leur permet notamment de répartir leurs besoins informatiques entre leurs propres ordinateurs et ceux des géants du cloud, qui eux aussi utilisent Linux. Cette approche, appelée “cloud hybride”, autorise à changer plus facilement de prestataire au gré des évolutions technologiques… ou des hausses de prix.

Artisan du rachat de Red Hat, Arvind Krishna est un fervent défenseur du cloud hybride: “Nos clients veulent pouvoir utiliser plusieurs clouds à la fois, car aucune entreprise ne souhaite dépendre d’un seul prestataire. Et, pour au moins la moitié de nos clients, il y aura aussi une part significative de l’informatique qui restera hors des clouds publics, que ce soit pour des raisons de sécurité, de souveraineté, de vitesse d’accès, etc.” En parallèle, le nouveau PDG lance une autre transformation majeure: la séparation des services d’infrastructures informatiques – ceux-là mêmes qui avaient contribué à sauver IBM dans les années 1990. Jugés moins prometteurs que les outils de Red Hat, ils ont été regroupés au sein d’une entreprise extérieure, Kyndryl, rassemblant 90.000 salariés, et cotée en Bourse depuis novembre 2021.

A l’arrivée, une fois de plus, le profil du groupe se retrouve profondément modifié. Arvind Krishna l’assume, en faisant le parallèle avec l’abandon du PC par Lou Gerstner. “La recette de la longévité, c’est de comprendre les business models, et de ne pas avoir peur de laisser le passé derrière soi. Avec ce spin-off, nous pouvons nous concentrer sur le cloud hybride et l’intelligence artificielle pour les entreprises. Et, d’un point de vue business, séparer les deux permet de libérer leur valeur.”

La magie des bits quantiques

En cet automne 2022, “Big Blue” reprend un peu de couleurs. A contre-courant de Google, Amazon ou Facebook, dont les performances s’essoufflent, IBM a affiché au troisième trimestre des résultats meilleurs que prévu et une croissance en hausse.

Le groupe repart à l’offensive, y compris en investissant dans le domaine très stratégique des semi-conducteurs. Mi-octobre, Joe Biden est venu en personne visiter l’usine IBM de Poughkeepsie, un des bastions historiques du groupe dans l’Etat de New York, pour saluer un investissement de 20 milliards de dollars dans la région. Le projet devrait bénéficier du Chips Act, un plan de soutien aux semi-conducteurs made in USA voté par le Congrès.

A Poughkeepsie se trouve aussi un site jugé crucial pour l’avenir d’IBM: son centre de calcul quantique, dont la vingtaine d’ordinateurs est accessible dans le cloud à des étudiants, chercheurs et entreprises partenaires. Des machines ultra-complexes, dont le processeur doit être refroidi à une température proche du zéro absolu pour pouvoir manipuler des “bits quantiques”, ou qubits. Ces particules présentent la particularité de pouvoir se trouver dans une superposition des états 0 et 1, alors qu’un bit, unité de calcul d’un ordinateur classique, doit obligatoirement être 0 ou 1. A la clef, une puissance sans commune mesure pour certaines applications de calcul intensif, comme la simulation de phénomènes naturels ou l’intelligence artificielle.

IBM Quantum System One Le groupe est sans doute celui qui a le plus investi dans la course au quantique.
IBM Quantum System One Le groupe est sans doute celui qui a le plus investi dans la course au quantique.© Getty Images

L’informatique quantique est encore un secteur balbutiant, et IBM est un des premiers grands acteurs de la tech à s’y être intéressé. En 2011, le groupe a embauché Jay Gambetta, un pionnier de la discipline, pour développer ses premiers ordinateurs quantiques. Dans les années 1960, IBM s’était intéressé à une technologie appelée l’électronique supraconductrice, qui a ensuite été abandonnée dans les années 1980. Il y a une dizaine d’années, ils ont réutilisé des éléments de cette technologie, ainsi que des travaux menés à l’université de Yale, où Jay Gambetta avait étudié, pour mettre au point des qubits supraconducteurs”, relate Olivier Ezratty, spécialiste de l’informatique quantique et auteur d’un livre de référence, Understanding Quantum Technologies.

Un futur plein de promesses

“Notre objectif est d’arriver à une informatique quantique qui soit sans frictions pour les entreprises, indique aux Echos Jay Gambetta, nommé en 2019 vice-président d’IBM pour l’ensemble du quantique. Cela ne veut pas dire qu’elle deviendra facile et que tout le monde sera expert en physique quantique. Mais elle pourra s’intégrer dans la même architecture informatique qui fait fonctionner le cloud.” Avec une équipe estimée à plus de 600 personnes, et un investissement “compris entre 1,5 milliard et 2 milliards de dollars à ce jour”, selon les calculs “au doigt mouillé” d’Olivier Ezratty, IBM est sans doute le groupe qui a le plus investi dans la course au quantique.

Il y affronte Google, Microsoft et des start-up comme D-Wave, Rigetti ou Pasqal. “C’est aussi, par rapport à ses concurrents, l’acteur qui a montré le plus de sérieux dans sa communication, en ne cherchant pas trop à survendre ses avancées, juge l’expert français. IBM a publié une feuille de route, et pour l’instant, il s’y tient.” Début novembre, les équipes de Jay Gambetta ont ainsi dévoilé Osprey, le premier processeur au monde doté de 433 qubits, soit trois fois plus que le précédent, sorti en 2021. Arvind Krishna le “technologue” ne cache pas son enthousiasme pour l’informatique quantique, tout en reconnaissant qu’elle demandera encore des années de recherche.

“Quand arriverons-nous au premier usage commercial? Je dirais dans trois ou quatre ans. Mais, en 2015, je me souviens que nous donnions déjà un horizon de quatre ou cinq ans, donc il faut être prudent! Nous avons déjà prouvé que l’informatique quantique n’était pas un jouet. Mais le plus excitant, c’est de penser aux problèmes qu’elle va permettre de résoudre. Cela concerne la mise au point d’engrais plus efficaces ou de matériaux ultralégers, mais aussi la gestion des risques financiers ou l’entraînement de l’intelligence artificielle. Des problèmes que nous ne pourrions jamais résoudre avec l’informatique classique!” Même quand on en est l’inventeur, il y a plus de 50 ans.

Benoît Georges (“Les Echos” du 8 décembre 2022)

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content