Alors que l’intelligence artificielle s’impose dans tous les secteurs, plus de 1.000 personnalités – dont Richard Branson, Steve Wozniak, et les « parrains » de l’IA Yoshua Bengio et Geoff Hinton – appellent à suspendre le développement de la superintelligence, une IA théorique capable de surpasser l’humain dans toutes les tâches cognitives.
Alors que le monde commence à peine à mesurer les bienfaits – mais aussi les dérives – de l’intelligence artificielle, les géants de la tech, dont OpenAI et Meta, regardent déjà vers l’étape suivante : la « superintelligence », une forme hypothétique d’IA capable de surpasser l’être humain dans presque toutes les tâches cognitives.
Un horizon qui inquiète de plus en plus de scientifiques et de figures publiques.
Un appel à la prudence
Adressée aux gouvernements, aux entreprises technologiques et aux législateurs, cette déclaration signée par plus de 850 personnes de tous horizons — experts, pionniers de l’IA, dont lauréats du prix Nobel, et personnalités politiques — met en garde contre les conséquences d’une IA qui dépasserait le contrôle humain. Les signataires évoquent des menaces allant de « l’obsolescence économique et de la déresponsabilisation de l’humanité à la perte de liberté, de dignité et de contrôle, jusqu’à des risques pour la sécurité nationale et même l’extinction potentielle de l’humanité ».
Ils appellent donc à un moratoire immédiat sur ces recherches. « Pour progresser en toute sécurité vers la superintelligence, nous devons déterminer scientifiquement comment concevoir des systèmes d’IA fondamentalement incapables de nuire aux gens, que ce soit par un mauvais alignement ou une utilisation malveillante », explique Yoshua Bengio, spécialiste canado-marocain en intelligence artificielle. « Le public doit également avoir davantage voix au chapitre dans les décisions qui façonneront notre avenir collectif. »
Une technologie potentiellement incontrôlable
La superintelligence, selon l’hypothèse largement répandue, représenterait l’ultime étape du développement de l’IA : un système capable de raisonner, d’apprendre et de s’améliorer seul, jusqu’à dépasser l’intellect collectif humain. Si une telle technologie pourrait résoudre des crises majeures – climat, santé, énergie -, elle pourrait aussi échapper à tout contrôle humain.
Et c’est précisément cet aspect qui inquiète.
Un débat qui fracture la Silicon Valley
Cette initiative illustre le fossé croissant entre ceux qui voient l’IA comme une force d’innovation et ceux qui y perçoivent une menace existentielle. Elle interroge aussi la course effrénée à l’IA dans laquelle sont engagés les géants de la tech, souvent motivés avant tout par la rentabilité, au détriment de la prudence.
De là, une question s’impose : faut-il ralentir pour mieux comprendre, ou avancer pour ne pas être dépassés ?
Ironie du sort, plusieurs dirigeants aujourd’hui à la tête d’entreprises d’IA avaient eux-mêmes tiré la sonnette d’alarme : Sam Altman (OpenAI) estimait dès 2015 qu’une intelligence surhumaine représentait « la plus grande menace pour l’humanité », tandis qu’Elon Musk évoquait récemment « 20 % de chances d’annihilation » de l’humanité.