“J’utilise ChatGPT en secret au bureau”: des menaces pour la sécurité des entreprises

De plus en plus d’employés utilisent des logiciels d’intelligence artificielle pour simplifier leurs tâches quotidiennes, bien souvent sans que leurs patrons et collègues le sachent. Ces pratiques peuvent causer des menaces pour la cybersécurité des organisations.

“J’utilise l’IA en secret dans le cadre de mon travail”, avoue cet employé à la BBC. L’IA est de plus en plus exploitée par les employés, parfois sur encouragement de leur hiérarchie qui leur donne un encadrement pour l’utilisation des différents outils à disposition. Mais, de nombreux employés utilisent également ChatGPT et consorts en secret, sans l’approbation officielle de leur société. Ils y font appel à leur propre initiative afin de  faciliter leurs tâches quotidiennes, comme la rédaction de documents, la gestion des emails et l’automatisation des processus. Certains employés dissimulent leur utilisation de l’IA. Ils redoutent le fait qu’une machine accomplisse leur travail plus rapidement et plus efficacement qu’eux ne les fasse paraître incompétents, explique la BBC.

Cette adoption discrète soulève des risques importants pour la cybersécurité des sociétés. Parmi ces menaces figurent la fuite de données sensibles sur des plateformes non sécurisées, augmentant le risque de violations de données ou d’attaques externes.

L’usage non contrôlé des IA expose également à des risques spécifiques :

Phishing et ingénierie sociale : ChatGPT peut être utilisé pour générer des emails de phishing convaincants, rendant ces attaques plus difficiles à identifier.

Fuite de données sensibles : en utilisant des outils comme ChatGPT, les employés peuvent accidentellement divulguer des informations confidentielles sur des plateformes non sécurisées qui pourraient être utilisées pour améliorer les modèles d’IA.

Manipulation de l’IA : les attaquants peuvent exploiter des vulnérabilités dans les systèmes IA, comme les injections de prompts, pour contourner des filtres de sécurité ou produire des contenus malveillants.

Accès non autorisé et exploitation : des failles dans les systèmes d’IA pourraient permettre à des cybercriminels d’accéder à des informations sensibles ou de compromettre les systèmes pour d’autres attaques.

Des mesures de sécurité

Pour limiter ces risques, les entreprises doivent mettre en place des mesures de sécurité, telles que l’intégration de logiciels licenciés pour surveiller l’usage des IA par leurs employés et garantir la protection des données. Certaines optent pour le développement de leurs propres solutions d’IA ou la personnalisation de plateformes existantes. Parallèlement, il est crucial de former les employés aux dangers spécifiques liés à l’IA, notamment en matière de phishing, et d’établir des protocoles de sécurité stricts, préconisent les experts en informatique.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?
Lire plus de:

Partner Content