Sam Altman (OpenAI): Messie visionnaire ou PDG avide d’influence ?

Dirk Vandenberghe Journaliste freelance

Sam Altman, visage public d’OpenAI, intrigue et divise.

Dans sa biographie, The Optimist, Keach Hagey, journaliste au Wall Street Journal, dresse le portrait nuancé d’un homme complexe, à la fois stratège implacable, innovateur technologique et figure centrale des tensions autour de l’intelligence artificielle mondiale. « C’est stupéfiant de voir à quelle vitesse Sam a su conclure des accords avec Donald Trump », note Hagey, soulignant le pragmatisme d’Altman dans les rapports de force géopolitiques liés à l’IA.

Réputée pour ses enquêtes sur les géants technologiques — notamment The Facebook Files — Hagey a vu dans l’ascension fulgurante de ChatGPT un tournant majeur. Si elle utilise l’IA à titre personnel, elle admet l’employer très peu dans son travail journalistique. « En écrivant le livre, j’ai demandé à ChatGPT quels livres je devrais lire, et il m’a suggéré The Culture of Narcissism de Christopher Lasch. Une lecture qui s’est révélée étonnamment utile. »

Un projet que Sam Altman jugeait “abominable”

Altman n’était guère enthousiaste à l’idée d’un livre sur lui. Il a toutefois partiellement coopéré à l’ouvrage. Sa réaction publique ? Un simple tweet signalant la sortie du livre. « On peut y voir une forme d’aval discret », commente Hagey. « Il m’avait néanmoins bien précisé qu’il ne le lirait jamais. »

Il me semble que Sam Altman est un homme difficile à cerner en quelques mots. Même après avoir lu ce livre, je ne sais toujours pas si je peux lui faire confiance ou au contraire m’en méfier. Et vous, qu’en pensez-vous ?

HAGEY. « La confiance est, au fond, quelque chose de très personnel. J’ai interrogé des dizaines de personnes qui ont travaillé avec Sam ces dernières années. Et là aussi, les avis sont très partagés. Certains ont une confiance presque aveugle en sa vision, d’autres estiment qu’il manipule un peu trop souvent la vérité pour qu’on puisse lui faire entièrement confiance. J’ai essayé de retranscrire ces points de vue divergents aussi honnêtement que possible. »

Comprenez-vous les inquiétudes de ceux qui jugent dangereux de voir autant de pouvoir concentré entre les mains d’un seul homme, surtout dans un domaine aussi crucial que l’intelligence artificielle générale ?

HAGEY. « Oui, je les comprends tout à fait. C’est effectivement angoissant de se dire que l’IA pourrait bouleverser notre société de manière aussi profonde, en y ajoutant une couche complètement nouvelle. Il y a pourtant eu des tentatives pour instaurer une structure de gouvernance destinée à éviter qu’un seul individu ne concentre tout le pouvoir. Mais ces tentatives ont échoué de façon spectaculaire.

En novembre 2023, Sam Altman a été démis de ses fonctions de CEO par le conseil d’administration d’OpenAI, justement grâce à ces règles censées limiter son autorité. Mais cinq jours plus tard, il était réintégré dans ses fonctions. Au final, il a donc récupéré le pouvoir. À mes yeux, cet épisode tumultueux baptisté “blip” est l’expression brute d’une lutte de pouvoir. Et comme l’a dit l’un de ses mentors, Paul Graham (Y Combinator) : Sam est surtout très doué pour conquérir le pouvoir. »

« Les tentatives de mettre en place chez OpenAI une structure visant à empêcher toute concentration de pouvoir entre les mains d’un seul homme ont échoué de façon retentissante. »

Ce qui est paradoxal, c’est que c’est justement Altman qui met régulièrement en garde contre les dangers de l’IA et la concentration du pouvoir…

HAGEY. « Il y a une ligne très fine entre lancer un avertissement et faire du battage médiatique. D’un côté, vous avez les boomers — les enthousiastes de l’IA — et de l’autre, les doomers, ceux qui redoutent ses dérives. Mais pour moi, ces deux camps sont les deux faces d’une même pièce, car ils prennent tous les deux très au sérieux l’idée d’une intelligence artificielle générale. Il existe pourtant un troisième groupe, beaucoup plus discret, qui pense que l’IA restera un outil parmi d’autres, et qu’elle ne sera pas aussi révolutionnaire que le prétendent les uns ou les autres. »

Le conflit entre les “boomers” (pro-IA) et les “doomers” (alarmistes) au sein d’OpenAI a culminé avec le bref renvoi, puis le retour de Sam Altman. Cet épisode, désormais connu sous le nom de “la blip”, est l’un des moments les plus révélateurs du livre, et se lit comme un scénario de série Netflix sur une guerre de pouvoir en salle de conseil. Je me suis demandé pourquoi les administrateurs, pourtant inquiets du comportement d’Altman qu’ils accusaient de leur avoir menti délibérément, avaient formulé leurs critiques de manière aussi prudente. Ils ont qualifié sa communication de “pas toujours claire et cohérente”. Cela semble une base bien mince pour justifier une éviction.

HAGEY. « C’est une formulation dictée par les juristes, qui craignaient des poursuites judiciaires. Ils voulaient aussi protéger les lanceurs d’alerte au sein de l’organisation. Mais cela s’est avéré être une grave erreur, car la réaction du public a été submergée par des messages de soutien à Altman, notamment de ses amis de la Silicon Valley comme Brian Chesky, fondateur d’Airbnb. C’est une leçon importante en matière de communication : on ne peut pas annoncer une décision de cette ampleur sans être extrêmement clair, ni se réfugier derrière des motifs juridiques pour rester vague. Cela ne tient pas la route. D’autant plus que la grande majorité des 770 employés a pris le parti de Sam – non seulement par loyauté, mais aussi pour des raisons économiques évidentes : sans lui, le financement d’OpenAI était menacé, et donc sa survie. »

Altman est revenu à la tête d’OpenAI, mais cet épisode n’a-t-il pas profondément affecté sa relation avec Microsoft, l’un des partenaires et actionnaires clés du groupe ?


HAGEY. « Je pense que oui. Même si Microsoft a soutenu Altman pendant la blip, la crise a très vite fait naître une prise de conscience : il leur fallait un plan B, au cas où OpenAI s’effondrerait – ce qui a bien failli se produire. C’est l’une des raisons pour lesquelles Microsoft a recruté Mustafa Suleyman, cofondateur de DeepMind (acquis par Google), comme CEO de sa propre division IA. Microsoft veut désormais développer davantage de capacités IA en interne. Je pense qu’on verra les deux entreprises s’éloigner progressivement.

On sent d’ailleurs chez OpenAI une frustration croissante vis-à-vis de Microsoft. Les négociations sur la part que Microsoft détiendra dans la nouvelle entité qu’OpenAI compte créer avancent très difficilement. Microsoft reste un partenaire important, mais moins influent et un peu plus en retrait qu’auparavant. C’est aussi ce qui explique pourquoi Sam Altman a engagé des discussions avec les Émirats arabes unis pour y installer une partie de ses centres de données. »

« Il est quasiment impossible de lever les capitaux massifs nécessaires à l’IA lorsqu’on est une organisation à but non lucratif et que l’on ne peut pas promettre de retour sur investissement aux investisseurs. »

Voilà une autre des nombreuses contradictions de Sam Altman : il avertit contre les risques de confier l’IA à des régimes non démocratiques, mais cherche à collaborer avec la Chine, l’Arabie saoudite et les Émirats arabes unis.


HAGEY. « La seule raison, c’est qu’ils ont l’argent nécessaire. Sous l’administration Biden, Altman a lancé un projet de réseau mondial de centres de données, chiffré à… 7 000 milliards de dollars. L’administration américaine a jugé irresponsable de collaborer avec la Chine ou les pays du Golfe pour un tel projet. Et c’est là qu’on voit toute l’ambiguïté : Donald Trump, pourtant très dur à l’égard de la Chine, a réagi en disant simplement : OK, vas-y. Et c’était tout aussi frappant de voir à quelle vitesse Altman – qui s’identifie pourtant aux Démocrates – était prêt à négocier avec Trump… et donc, indirectement, avec son rival Elon Musk. Parallèlement, OpenAI continue de proclamer vouloir bâtir une ‘IA démocratique’, alors même qu’une des conditions du projet de data centers était que tous les citoyens des Émirats arabes unis aient un accès privilégié à ChatGPT. J’ai travaillé comme journaliste dans un quotidien à Abou Dhabi – un pays magnifique, mais on ne peut pas dire que ce soit une démocratie. Il est, par exemple, interdit d’y critiquer la famille royale. Je suis curieuse de voir comment ils vont contourner cela avec ChatGPT, tout en continuant à parler d’‘IA démocratique’. »

La nouvelle structure que vous évoquiez devrait être une société commerciale, placée sous l’égide d’OpenAI, qui reste officiellement une organisation à but non lucratif. Est-ce qu’Altman a vraiment changé de position à ce sujet ?

HAGEY. « Oui, je pense que Sam a effectivement changé d’avis concernant le modèle à but non lucratif. Après “la blip”, il a activement travaillé sur un plan pour que la structure associative perde le contrôle sur OpenAI, mais cela n’a pas abouti. C’est ce qui a conduit à l’idée de créer une entité commerciale sous la tutelle de la structure sans but lucratif. Je pense qu’il regrette ce modèle, notamment parce qu’il est extrêmement difficile de lever des fonds en restant une ASBL. Il est pratiquement impossible d’attirer les capitaux massifs nécessaires au développement de l’IA sans pouvoir promettre un retour sur investissement aux investisseurs. »

Ce virage vers une structure commerciale est aussi l’une des raisons pour lesquelles Elon Musk a claqué la porte et intenté une action en justice contre OpenAI. Est-ce une menace réelle pour l’organisation ?

HAGEY. « Oui, la plainte de Musk est sérieuse et elle plane comme une épée de Damoclès au-dessus d’OpenAI. L’enquête est toujours en cours, donc il est encore trop tôt pour tirer des conclusions, et un procès ne devrait pas avoir lieu tout de suite. Mais c’est sans aucun doute une menace bien réelle pour l’avenir de l’entreprise. »

Dans le podcast Good Bad Billionaire de la BBC, où les milliardaires sont passés au crible éthique, Altman a finalement été qualifié de “mauvais milliardaire”, notamment en raison de sa tendance à travestir la vérité. Partagez-vous cette évaluation ?

HAGEY. « Je pense qu’il est encore trop tôt pour trancher. Beaucoup dépendra de la manière dont l’intelligence artificielle évoluera et de l’impact réel qu’elle aura sur nos sociétés. »

“Au final, ce sont nos gouvernements qui devront assumer la responsabilité de la régulation, et non des entreprises comme OpenAI.”

Ce débat rappelle beaucoup celui sur les réseaux sociaux, que l’on voyait autrefois comme une bénédiction, avant de comprendre les dégâts qu’ils pouvaient causer. Ne court-on pas le même risque avec l’IA et le manque de régulation ?

HAGEY. « Oui, absolument. Ce seront à terme nos gouvernements qui devront fixer les règles du jeu, pas les entreprises privées. Mais la réalité, c’est que la régulation arrive toujours en retard par rapport aux grandes innovations technologiques. L’État de New York, par exemple, vient d’adopter une loi interdisant l’usage du smartphone en milieu scolaire pendant les heures de cours. C’est un grand pas en avant, mais cela ressemble tout de même à une tentative de remettre le dentifrice dans le tube. Espérons que, cette fois, les autorités prendront de l’avance sur l’intelligence artificielle. »

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content