OpenAI rapporte que des hackers russes, nord-coréens ou chinois se servent de ChatGPT

ChatGPT app
© Getty Images

Des pirates informatiques affiliés aux gouvernements russe, chinois, iranien ou nord-coréen utilisent ChatGPT pour identifier des vulnérabilités dans les systèmes informatiques, préparer des opérations de “phishing” ou désactiver des logiciels antivirus, rapportent OpenAI et Microsoft dans des documents publiés mercredi.

Dans un message posté sur son site, OpenAI indique avoir “perturbé” l’utilisation de l’intelligence artificielle (IA) générative par ces acteurs para-gouvernementaux, avec la collaboration de Microsoft Threat Intelligence, cellule qui répertorie les menaces posées aux entreprises en matière de cyber-sécurité. “Les comptes OpenAI identifiés comme affiliés à ces acteurs ont été clôturés”, a précisé le créateur de l’interface d’IA générative ChatGPT.

Emerald Sleet, groupe de hackers nord-coréens, et Crimson Sandstorm, associé aux Gardiens de la Révolution iraniens, se sont servis du robot conversationnel pour générer des documents susceptibles d’être utilisés pour du “phishing”, selon l’étude. Le “phishing” consiste à se présenter à un internaute sous une fausse identité pour obtenir de lui l’accès, illégal, à des mots de passe, codes, identifiants, ou directement à des informations et documents non publics.

Crimson Sandstorm a également utilisé des modèles de langage (LLM), à la base des interfaces d’IA générative, pour mieux comprendre comment désactiver des logiciels antivirus, selon Microsoft. Quant au groupe Charcoal Typhoon, considéré comme proche des autorités chinoises, il a eu recours à ChatGPT pour tenter de détecter des vulnérabilités en prévision de possibles attaques informatiques.

“L’objectif du partenariat entre Microsoft et OpenAI est de s’assurer de l’utilisation sûre et responsable des technologies appuyées sur l’intelligence artificielle, comme ChatGPT, selon Microsoft. Le groupe de Redmond (Etat du Washington) indique avoir contribué à renforcer la protection des modèles de langage (LLM) d’OpenAI. Le rapport relève que l’interface a refusé d’aider un autre groupe de pirates proche du gouvernement chinois, Salmon Typhoon, à générer du code informatique à des fins de piratage, “adhérant ainsi aux règles éthiques” intégrées au logiciel.

“Comprendre comment les acteurs malveillants les plus avancés utilisent nos programmes à des fins malveillantes nous renseigne sur des pratiques qui pourraient devenir plus répandues à l’avenir”, explique OpenAI. “Nous ne parviendrons pas à bloquer toute tentative” mal intentionnée, prévient OpenAI. “Mais en continuant à innover, collaborer et partager, nous compliquons la tâche des acteurs malveillants qui veulent passer inaperçus.”

Partner Content