Amid Faljaoui

L’IA, entre boîte de Pandore et pacte avec le diable

Face à la montée fulgurante de l’intelligence artificielle, la société avance les yeux grands ouverts… mais sans vraiment savoir où elle va. Entre mythe de Pandore et pacte avec le Diable, l’historien Yuval Noah Harari alerte : la plus grande menace n’est peut-être pas la machine elle-même, mais notre incapacité à freiner notre propre vertige technologique.

Souvenez-vous du mythe de Pandore. Dans la Grèce antique, on lui confie une boîte qu’elle ne doit surtout pas ouvrir. Mais, poussée par la curiosité, elle cède. Et tous les maux de l’humanité s’en échappent. Aujourd’hui, il faut se demander si nous ne sommes pas en train d’ouvrir notre propre boîte de Pandore. Son nom : l’intelligence artificielle. Et une fois le couvercle levé, personne ne sait s’il sera encore possible de le refermer.

Je vous en parle parce qu’une vidéo récente de l’historien Yuval Noah Harari m’a interpellé. Il y raconte ses échanges avec les figures de proue de la révolution IA : patrons de laboratoires, fondateurs de startups, chercheurs stars. À chacun, il a posé la même question : « Pourquoi allez-vous aussi vite ? Pourquoi ne pas ralentir pour laisser à la société le temps de comprendre ce que vous créez ? »

La réponse est presque toujours la même : « Parce qu’on ne peut pas faire confiance aux autres. Si nous ralentissons, la Chine ou un concurrent prendra de l’avance. Et celui qui gagne la course à l’IA dominera le monde. » Autrement dit, nous ne sommes pas dans une course vers le progrès, mais dans une fuite en avant, nourrie par la peur. La peur d’être devancé. La peur que le plus rapide impose ses règles à tous les autres.

Mais Harari pousse encore plus loin, et interroge ses interlocuteurs sur une contradiction troublante : « Si vous ne faites pas confiance aux humains… pourquoi faites-vous confiance à une machine superintelligente que personne ne comprend encore vraiment ? »

La réponse, ici, devient presque métaphysique : « On pense qu’on pourra la contrôler. » Mais sur quoi repose cette foi ? Sur des hypothèses, de l’intuition, peut-être du wishful thinking. Car, en vérité, personne ne sait si une superintelligence pourra jamais être maîtrisée.

L’IA n’a pas besoin d’être malveillante pour devenir dangereuse. Il suffit qu’elle poursuive des objectifs différents des nôtres, et qu’elle ait les moyens de les atteindre.

Et soyons honnêtes : cette course n’est pas alimentée que par la peur. Elle l’est aussi — puissamment — par l’argent. Aujourd’hui, un chercheur de haut niveau en IA peut être recruté pour 10, 50, voire 100 millions de dollars. Comme chez Meta, qui a récemment débauché des pointures de chez OpenAI. Le patron de Meta veut être le premier à créer la superintelligence, et pour y parvenir, il achète des cerveaux comme on constituerait une écurie de Formule 1.

Et plus cette machine folle avance, plus le pacte implicite devient clair : « Vendez-nous votre génie. En échange, vous aurez la fortune, la gloire, et peut-être même le pouvoir de changer le monde. » C’est ici que s’invite un autre mythe ancien : le pacte faustien. Celui où l’on vend son âme au Diable pour obtenir la connaissance ultime, quitte à en perdre tout contrôle ensuite.

Alors la question est simple, brutale, vertigineuse : Ne sommes-nous pas tous en train de signer, sans lire les petites lignes, un contrat avec une technologie qui pourrait bientôt nous échapper ? Harari ne cesse de le rappeler : l’IA n’a pas besoin d’être malveillante pour devenir dangereuse. Il suffit qu’elle poursuive des objectifs différents des nôtres, et qu’elle ait les moyens de les atteindre. Avec des milliards de données, une vitesse de traitement surhumaine, et des systèmes interconnectés à l’échelle mondiale, c’est exactement ce que nous sommes en train de lui offrir.

Mais alors, qui refermera la boîte ? Qui appuiera sur le bouton pause ? Qui aura le courage de dire « attendons », dans un monde où chaque seconde de retard peut coûter un empire ? Peut-être faut-il envisager un traité international. Une sorte de pacte de non-prolifération de l’IA, comme on l’a fait pour le nucléaire. Car aujourd’hui, ce ne sont plus des bombes qu’on active… mais des logiques que plus personne ne contrôlera vraiment.

Partner Content