Amid Faljaoui
Et si le prochain virus ne venait pas d’un pangolin… mais d’un prompt ?
Une enquête récente de L’Express, particulièrement inquiétante, met en lumière l’existence d’un véritable marché noir autour des “prompts jailbreak”.
Il s’agit d’instructions illégales — parfois très élaborées, parfois dissimulées dans des fichiers PDF — qui permettent de contourner les garde-fous des intelligences artificielles comme ChatGPT, Claude, Gemini ou encore Grok. Loin des demandes anodines, ces prompts visent à générer du contenu violent, illégal, voire carrément dangereux : des plans pour fabriquer une drogue, des méthodes de piratage informatique, et parfois même… des scénarios de création de virus.
Le plus alarmant dans cette affaire, c’est que ces contenus ne sont même plus relégués aux recoins obscurs du dark web. Ils sont désormais accessibles sur Google, sur des forums, parfois gratuitement, parfois monnayés quelques centaines d’euros. En déguisant la demande, en jouant un rôle, l’utilisateur peut amener une IA à coopérer, persuadée qu’elle participe à une simple fiction. Elle répond alors sans filtre, sans conscience morale, piégée par un humain… sans même en avoir conscience.
Pendant que certains s’amusent à tester ces limites, d’autres avancent sur le développement de modèles toujours plus puissants. C’est ici que les choses deviennent sérieuses. Le dernier modèle d’OpenAI, baptisé Open 03, vient par exemple de passer un test extrêmement poussé dans le domaine de la virologie. Résultat : il a surpassé 94 % des virologues humains. Concrètement, cela signifie que cette intelligence artificielle a été capable d’analyser des protocoles expérimentaux complexes, de détecter des erreurs passées inaperçues chez des experts et de proposer des ajustements pertinents. Elle a démontré une compréhension opérationnelle de la virologie qui dépasse la quasi-totalité des professionnels testés.
Ce constat est vertigineux. Entre les mains de chercheurs sérieux, un tel outil représente une aide précieuse. Mais entre les mains d’un individu mal intentionné, il peut se transformer en arme biologique à la demande. Il ne manque qu’un déclencheur : une question bien formulée, posée par la mauvaise personne, à la mauvaise IA, au mauvais moment.
Dans ce contexte, le prochain virus ne viendra peut-être ni d’un animal, ni d’un accident de laboratoire. Il pourrait venir d’un clavier, d’un simple prompt. Et la vraie question n’est peut-être pas “jusqu’où peut aller l’intelligence artificielle ?” mais bien “combien de temps nous reste-t-il avant qu’elle n’aille trop loin, parce qu’un humain l’y aura poussée ?”
D’où une autre interrogation essentielle : pourquoi l’intelligence artificielle, malgré son potentiel destructeur équivalent à celui de l’arme nucléaire, reste-t-elle aujourd’hui entièrement entre les mains d’entreprises privées ? Les armes nucléaires ont été, dès leur apparition, strictement encadrées et contrôlées par les États. Pourquoi ne fait-on pas de même avec l’IA ?
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici