Une chronique d’Amid Faljaoui.
Je vais vous poser une question très simple. Est-ce que, dans votre entreprise, des gens utilisent ChatGPT sans vous le dire ? Si la réponse est non, deux possibilités : soit tout le monde respecte parfaitement les règles, soit ils sont simplement plus discrets que vous ne l’imaginez.
Ce phénomène a un nom : le Shadow AI. Concrètement, des salariés utilisent des outils d’intelligence artificielle à titre personnel, sans cadre officiel, pour rédiger des mails, structurer des rapports, analyser des données ou gagner du temps.
Sur le papier, l’intention est bonne. Dans la réalité, les risques sont bien réels. Lorsqu’un collaborateur copie-colle un document interne dans une IA grand public, il peut y avoir des données clients, des informations financières, des stratégies commerciales, du code ou même des données RH. Or, ces outils ne sont pas forcément conformes au RGPD ni aux exigences de sécurité de l’entreprise. Les données peuvent être stockées hors Europe, conservées trop longtemps ou utilisées pour entraîner des modèles IA sans contrôle réel.
Inutile de vous préciser que dans des secteurs comme la banque, l’assurance, l’administration fiscale, la santé, l’industrie ou le conseil, cela devient rapidement un risque juridique, financier et réputationnel.
Mais le Shadow AI ne pose pas qu’un problème de conformité. Il crée aussi un malaise managérial. Quand un manager découvre qu’un rapport qu’il a jugé excellent a été largement aidé par l’IA, il ressent souvent une gêne, parfois un sentiment de tromperie. Comme si le collaborateur avait triché. Pourtant, on n’a jamais reproché à quelqu’un d’utiliser Excel pour faire un modèle financier, Google pour vérifier une information ou un template PowerPoint pour structurer une présentation.
Alors, pourquoi l’IA dérange-t-elle autant ? Parce qu’elle rend invisible l’effort intellectuel et bouscule nos critères d’évaluation. Des études montrent que les contenus générés avec l’IA sont souvent mieux évalués par les managers… tant qu’ils ne savent pas qu’il y a de l’IA derrière. Autrement dit, le problème n’est pas la qualité du travail, mais notre difficulté à savoir ce que nous évaluons vraiment.
Le Shadow AI n’est donc ni une triche, ni une désobéissance. C’est un symptôme. Celui d’entreprises qui n’ont pas posé de règles claires, pas fourni d’outils sécurisés et pas encore clarifié ce qui est autorisé, et ce qui ne l’est pas.
Soyons clairs : interdire l’IA serait une erreur. Fermer les yeux aussi. La seule approche raisonnable consiste à encadrer les usages, sécuriser les outils et former les équipes, pour éviter que des initiatives individuelles bien intentionnées ne deviennent, sans le vouloir, un vrai problème pour l’entreprise.