Un rapport à 290.000 euros pour du vent : quand les entreprises jouent avec l’IA sans la comprendre

Un rapport à 290 000 euros, signé par une IA. L’affaire Deloitte en Australie aurait pu passer pour une anecdote si elle ne révélait pas un mal profond : la croyance, de plus en plus répandue, que l’intelligence artificielle se maîtrise d’instinct. Ce n’est pas le cas. Et les entreprises qui l’oublient s’exposent à des déboires coûteux – financiers, réputationnels, voire stratégiques.

L’affaire est désormais bien connue : un audit commandé par le gouvernement australien à Deloitte a donné naissance à un rapport de 237 pages, entaché d’erreurs, de citations inventées et de références fictives. Une partie du document avait été rédigée par une IA générative, sans mention ni contrôle rigoureux.

Cela a de quoi surprendre, voire faire sourire. Mais elle dit beaucoup de notre rapport collectif à l’intelligence artificielle. Ce n’est pas une simple bourde technique, c’est le symptôme d’une illusion de maîtrise. L’idée que, parce qu’on utilise ChatGPT ou Copilot, on sait gérer une IA. Or, la vérité est plus prosaïque : la plupart des organisations bricolent sans savoir.

Chez Deloitte, le rapport a été en partie rédigé par un modèle GPT-4 via Azure OpenAI. Rien de choquant en soi, si l’usage avait été assumé, contrôlé et validé par des humains compétents. Mais voilà : personne ne s’est aperçu que certaines citations de juges n’existaient pas, que des ouvrages cités étaient imaginaires. Il aura fallu un chercheur de l’Université de Sydney pour déceler la supercherie. Depuis, Deloitte a corrigé le rapport et remboursé partiellement la facture. Le mal, lui, est fait.

Le vrai problème n’est pas la technologie, mais l’incompétence collective à la gouverner. On s’extasie sur la rapidité de l’IA sans comprendre ses biais, ses hallucinations, ses limites. On confond expérimentation et maîtrise. Et cette imprudence n’épargne personne : ni les cabinets de conseil, ni les PME, ni les institutions publiques.

Dans nombre d’entreprises, on délègue à ChatGPT la rédaction d’études, la synthèse de données, voire la communication client. On fait confiance à des outils qu’on ne comprend pas, persuadés qu’ils sont neutres, objectifs, infaillibles. On oublie qu’une IA ne pense pas : elle prédit. Elle ne sait pas ce qui est vrai, elle produit ce qui semble plausible. Sans contrôle humain, elle invente.

Ce qui s’est passé chez Deloitte n’est pas une exception, c’est une alerte. Une alerte pour toutes les organisations qui, sous la pression de l’innovation, intègrent des IA sans cadre, sans charte, sans gouvernance. Une alerte aussi pour les dirigeants qui croient que l’IA se pilote comme un tableur Excel. La compétence précède toujours la technologie. C’est une loi simple que beaucoup oublient.

Cette ignorance a un coût : des erreurs qui se payent en crédibilité, en image et en confiance. En Europe, l’AI Act arrive avec une exigence claire : la transparence. Chaque entreprise devra bientôt prouver qu’elle sait encadrer ses usages d’IA. Or, combien de dirigeants aujourd’hui seraient capables d’expliquer comment leurs outils IA prennent des décisions, où vont leurs données, ou comment détecter une hallucination dans un rapport ? Peu.

Pourtant, les solutions existent. Mettre en place des processus de relecture, tracer les sources, créer des comités de validation, définir un référent IA. Rien de tout cela n’exige un doctorat en data science. Il s’agit de bon sens, d’organisation et de responsabilité.

Le plus ironique, dans l’histoire Deloitte, c’est que l’IA aurait pu les aider à éviter cette erreur. Utilisée intelligemment, elle aurait pu vérifier les sources, détecter les incohérences, structurer la rédaction. Mais encore faut-il savoir la diriger.

La vraie maîtrise de l’IA ne réside pas dans le code, mais dans la capacité à poser les bonnes questions, à vérifier les réponses, à comprendre les risques. C’est une culture à construire. Et elle ne s’improvise pas.

Les entreprises qui gagneront demain ne seront pas celles qui auront le plus d’outils, mais celles qui sauront transformer l’IA en avantage maîtrisé. L’incident australien le rappelle : la technologie n’est pas un raccourci vers la compétence. C’est un test de maturité.

Ce n’est pas l’IA qui trahit notre confiance. C’est notre paresse à la comprendre.

Stéphane Peeters, Fondateur Captain IA Academy+

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire