Gare aux programmes malveillants qui se font passer pour de l’IA
Des hackers surfent sur la vague de l’intelligence artificielle générative en promouvant des programmes qui ressemblent à des outils d’IA, mais servent en réalité à piéger leurs utilisateurs, a averti mercredi Meta (Facebook, Instagram, WhatsApp).
Depuis le mois de mars, nos analyses ont repéré 10 groupes de logiciels malveillants qui se font passer pour ChatGPT et d’autres interfaces similaires pour compromettre des comptes sur internet, a indiqué Guy Rosen, le responsable de la sécurité des systèmes d’information du groupe californien, lors d’une conférence de presse. Il a rappelé que les acteurs malveillants (hackers, spammers, etc.) sont toujours à l’affût des dernières tendances, celles qui “capturent l’imagination” du public, comme les cryptomonnaies, avant leur chute.
Or la capacité de l’interface d’OpenAI, ChatGPT, à converser de manière fluide avec les humains et à générer aussi bien du code que des emails et des dissertations, suscite un engouement massif.
Les équipes de sécurité de Meta ont détecté des fausses extensions de navigateurs internet assurant contenir des outils d’IA générative. “Certaines en comportaient d’ailleurs vraiment”, a souligné Guy Rosen, “probablement pour avoir l’air crédible aux yeux des plateformes de téléchargement ou des utilisateurs”. Mais une fois installées sur un appareil, elles permettent aux hackers de pirater des données personnelles, par exemple.
Guy Rosen a précisé que Meta avait détecté et bloqué plus d’une centaine de liens malveillants comportant des références à ChatGPT ou d’autres programmes similaires, afin qu’ils ne puissent pas être mis en ligne dans des publicités ou d’autres contenus sur Facebook et Instagram.
Comme ses voisins de la côte Ouest américaine, le géant des réseaux sociaux investit massivement dans l’IA, dont le potentiel semble dépasser même les spécialistes et ingénieurs du secteur. Mais la nouvelle coqueluche de la tech présente aussi de nombreux risques, notamment si elle est utilisée à des fins de désinformation sur les grandes plateformes.
“Nous nous y préparons”, a souligné Nathaniel Gleicher, le responsable des pratiques en matière de sécurité de Meta. “Nous avons des équipes qui réfléchissent à comment (l’IA générative) pourrait servir à des abus et quelles défenses doivent être mises en place pour les empêcher”.