Comment miser sur le Règlement européen sur l’IA pour booster sa croissance et faire la différence

Wim Rymen, associé chez PwC Belgique
Powered by PwC

L’été dernier entrait en vigueur le Règlement sur l’intelligence artificielle de l’UE, un cadre législatif qui vise en particulier à maîtriser les risques associés à l’IA. Au terme d’une mise en œuvre progressive, toutes les règles seront d’application à compter de l’été 2026. Si l’impact sur le monde des affaires est loin d’être négligeable, Wim Rymen, associé chez PwC Belgique, y voit surtout des opportunités. Selon lui, les entreprises peuvent tirer un avantage concurrentiel de cette législation. « Dans l’économie numérique, la confiance est cruciale. »

Au sein de PwC Belgique, Wim Rymen dirige l’équipe qui épaule les entreprises dans toutes les questions ayant trait à la « confiance dans l’IA ». Par conséquent, il suit de près le déploiement de la nouvelle législation sur l’IA. « Je suis plutôt satisfait et optimiste concernant ce nouveau règlement, indique-t-il. Le législateur a trouvé le bon équilibre entre le contrôle des risques et la facilitation de l’innovation axée sur les applications de l’IA, qui se mettent au service de la société et des entreprises d’une manière sûre et équitable. »

Un garde-fou solide

Selon Wim Rymen, ce juste équilibre découle d’une approche réfléchie qui répond à la réalité complexe du paysage multiforme de l’IA. « La panacée n’existe pas. En travaillant avec plusieurs niveaux de risque, la législation reconnaît qu’il y a des différences significatives entre les systèmes d’IA. Les exigences les plus strictes portent sur les applications qui entraînent les plus grands risques pour la société, telles que la sélection des CV des candidats par le biais d’un outil tiers. C’est une approche adéquate et proportionnée. »
Toutefois, certains points d’interrogation subsistent. « La valeur réelle de la législation se manifeste à travers son application et, sur certains points, il faudra encore faire un effort de clarification. Il faut notamment définir très précisément les catégories de risques, la manière dont ceux-ci se manifestent dans la pratique et la signification concrète de l’exigence de “transparence suffisante”. »

Une autre réserve concerne les start-ups et les scale-ups, qui jouent souvent le rôle d’éclaireurs en matière d’innovation. « Il est important que la bureaucratie ne freine pas ces acteurs en étouffant leur capacité d’innovation. En bref, l’application de la législation doit se concentrer sur les résultats et non sur les listes de contrôle. Elle doit être suffisamment flexible, notamment parce que la technologie elle-même est en constante évolution. Si nous parvenons à trouver cet équilibre, ce règlement sur l’IA deviendra un solide garde-fou, et non un fardeau ; ce sera un véritable catalyseur de croissance. »

Inventaire et évaluation des risques

En effet, ces règles ne concernent pas seulement ceux qui développent des applications d’IA, mais aussi les entreprises qui, dans une plus ou moins large mesure, recourent à de tels outils – c’est-à-dire à peu près toutes les entreprises en 2025. Qu’attend-on exactement d’elles ? « Tout d’abord, les entreprises opérant en Europe doivent dresser un inventaire complet de leur utilisation de l’IA. Nombreuses sont celles qui ne réalisent pas à quel point la technologie est déjà intégrée dans leurs rouages. Il est crucial d’en dresser l’inventaire. L’étude “Bridging the AI Gap” de PwC Belgique, par exemple, montre qu’à l’heure actuelle, seuls 17 % des cols blancs peuvent compter sur des conseils clairs en matière d’IA au travail. 35 % indiquent que le recours à l’IA découle de l’initiative individuelle, de sorte que l’employeur n’a aucune idée des outils utilisés. L’inventaire a donc toute son importance. Ensuite, il est essentiel de bien comprendre le rôle que l’on occupe dans le paysage de l’IA et les niveaux de risque et de responsabilité qui y sont associés. »

Wim Rymen donne encore un bon conseil aux entreprises : « N’attendez pas pour appliquer et respecter cette réglementation. Vous avez encore du temps pour la mettre en œuvre, mais ne le gaspillez pas ! » Et il ne s’agit pas seulement de dresser l’inventaire des outils d’IA. Il faut aussi vérifier si les partenaires et les clients se conforment à la réglementation et réfléchir à des éléments essentiels comme la protection des données – « sans qu’il soit nécessaire de réinventer l’eau chaude : on peut très bien partir des mécanismes de contrôle existants » – et la maîtrise de l’IA. « C’est un aspect crucial de la réglementation sur l’IA. Investissez dans des formations sur mesure et assurez-vous que vos collaborateurs connaissent à la fois la valeur ajoutée et les risques de l’intelligence artificielle. Actuellement, seuls 19 % des cols blancs reçoivent une formation à l’IA sur leur lieu de travail, tandis que 26 % d’entre eux s’informent sur l’Internet. Si vous voulez que vos employés manient correctement les outils adéquats, vous devez leur proposer des formations de qualité. »

Les entreprises ont tout intérêt à adopter une approche proactive. « Les acteurs qui s’y attellent tôt seront mieux armés pour affronter la concurrence sur un marché où la fiabilité est un facteur de différenciation », affirme Rymen.

Les acteurs qui se conforment rapidement à la réglementation sur l’IA seront mieux armés pour affronter la concurrence sur un marché où la fiabilité est un facteur de différenciation

Des amendes aux occasions manquées

La proactivité permet également d’éviter les sanctions inséparablement liées à cette législation. « Mais, en réalité, le coût de la non-conformité est ailleurs. Plus grand que l’impact d’une amende est en effet celui d’une réputation ternie, d’une innovation retardée ou d’un accès au marché réduit. Les dommages causés par le développement ou l’utilisation de systèmes d’IA dangereux ou contraires à l’éthique peuvent prendre des proportions bien plus importantes et durables que n’importe quelle sanction financière. »
Quoi qu’il en soit, chez PwC, on préfère se concentrer sur l’autre face de la médaille, en considérant la conformité au règlement sur l’IA comme une opportunité, et non comme une stratégie défensive. « En sensibilisant votre organisation aux dangers de l’IA et à l’importance d’un traitement éthique, vous jetez les bonnes bases pour des innovations évolutives, durables et fiables. »

Vu l’importance de l’éthique, de la responsabilité et de la transparence dans cette question, Rymen n’hésite pas à affirmer : « Les meilleures entreprises sont celles qui placent la barre encore plus haut par rapport aux exigences de ce règlement. Elles mettent en place des structures de gouvernance solides autour de l’IA, commandent des audits indépendants et examinent dans quelle mesure d’autres cadres normatifs, tels que l’ISO 42001, peuvent renforcer leur valeur distinctive. C’est bien vu, car dans l’économie numérique, la confiance est cruciale. »

Les meilleures entreprises sont celles qui placent la barre encore plus haut par rapport aux exigences de ce règlement

Monitoring continu

Qu’une entreprise s’efforce simplement de se conformer au règlement sur l’IA ou qu’elle passe effectivement à la vitesse supérieure, le fait est que tout type de mise en conformité représente un véritable défi. « Par exemple, dans les grandes organisations, il n’est absolument pas facile de dresser un inventaire précis du recours à l’IA. En particulier lorsque les employés se voient confier une grande part de responsabilité et peuvent définir eux-mêmes leurs tâches, ou lorsque les fournisseurs de technologie (américains) font preuve d’un manque de transparence sur leurs solutions. » Il peut en résulter des zones grises. « Or, il est nécessaire d’avoir une vue d’ensemble claire et complète pour pouvoir procéder à une analyse correcte des risques. Mais cette dernière est en outre un exercice complexe qui nécessite des connaissances à la fois techniques et juridiques. »

Quel conseil Wim Rymen peut-il donner à cet égard, en plus de s’y prendre à temps et d’adopter une approche proactive ? « Il ne faut pas considérer cela comme un exercice à faire une fois pour toutes, mais mettre en place un monitoring continu pour faciliter les tâches documentaires et disposer à chaque instant d’évaluations des risques à jour afin de répondre aux plus hautes exigences éthiques. »

Heureusement, le règlement européen tient compte du fait que le paysage de l’IA évolue à une vitesse fulgurante. « Il prévoit divers mécanismes qui offrent une certaine flexibilité et permettent d’ajuster certains détails techniques au fil du temps, sans avoir à repasser par l’ensemble du processus législatif. » Mais les entreprises doivent également faire preuve d’agilité afin de jeter des bases solides en termes de gouvernance et de confiance dans l’IA. « Les organisations qui gardent constamment un œil sur les évolutions et qui s’adaptent de manière ambitieuse mais pragmatique aux développements technologiques et réglementaires, seront en mesure de conserver la longueur d’avance qu’elles sont en train de prendre aujourd’hui. »

Cet article a été rédigé dans le cadre d’un partenariat avec PwC concernant les opportunités offertes par l’IA. D’autres analyses sont disponibles sur notre plateforme AI innovators.