AI Act: pourquoi les entreprises demandent “d’arrêter l’horloge”

L’AI Act, le Règlement européen sur l'intelligence artificielle, a pour ambition de devenir la première loi au monde encadrant l'IA de manière exhaustive. © Getty Images
Pierre-Henri Thomas
Pierre-Henri Thomas Journaliste

L’AI Act, qui réglemente l’intelligence artificielle pour tous les acteurs en Europe, entre progressivement en vigueur. Mais les normes qui doivent accompagner le texte ne sont toujours pas définies. Et la Belgique attend encore de nommer un régulateur. Un casse-tête pour les entreprises, qui demandent une pause.

La Commission doit adopter une orientation davantage tournée vers le marché.” Cette déclaration cinglante, lancée par Ola Källenius, le patron de Mercedes-Benz, lors du salon automobile de Munich en septembre 2024, visait principalement les directives européennes jugées trop contraignantes pour l’industrie, comme l’interdiction des ventes de voitures thermiques à partir de 2035. Mais elle résonne aussi dans un autre domaine crucial : celui de l’intelligence artificielle (IA). Là encore, les réglementations européennes, en voulant forcer le calendrier, peinent à trouver un équilibre entre protection des citoyens et compétitivité des entreprises.

Adopté en mars 2024 et entré en vigueur en août de la même année, le Règlement européen sur l’intelligence artificielle, baptisé AI Act, a pour ambition de devenir la première loi au monde encadrant l’IA de manière exhaustive. Ce texte classe les systèmes d’IA en quatre catégories selon leur niveau de risque : inacceptable, élevé, limité ou minimal. Il impose un calendrier serré de mise en œuvre, échelonné jusqu’en 2027, avec des sanctions sévères en cas de non-conformité – jusqu’à 7% du chiffre d’affaires mondial de l’entreprise fautive.

Arrêter l’horloge

Depuis le 2 février 2025, les pratiques à risque inacceptable sont prohibées : notations sociales discriminatoires, surveillance biométrique de masse en espace public ou outils de manipulation cognitive sont désormais interdits. Depuis le 2 août de cette année, des obligations spécifiques encadrent les modèles d’IA à usage général (GPAI), comme ChatGPT, imposant transparence et gestion des risques. Mais la date cruciale est celle du 2 août 2026, qui marquera l’entrée en vigueur des règles pour les IA à haut risque, utilisées dans des secteurs critiques tels que la biométrie, les infrastructures essentielles, l’éducation, l’emploi ou la justice. Enfin, en août 2027, ces exigences s’étendront aux IA intégrées dans des produits réglementés, comme les jouets, dispositifs médicaux ou équipements industriels.

L’objectif affiché ? Protéger les droits fondamentaux et promouvoir une “IA de confiance” en Europe. Mais cette ambition suscite une levée de boucliers chez les acteurs économiques du continent, des start-up aux géants industriels.

Risques d’un texte trop rigide

Dès 2023, 150 entreprises européennes avaient alerté sur les risques d’un texte trop rigide. Mais cette année, l’opposition du secteur s’est renforcée, appelant les autorités à “arrêter l’horloge”. Dans une lettre ouverte publiée en juillet dernier, une cinquantaine d’acteurs, réunis au sein d’une jeune association – EU AI Champions Initiative – comprenant des mastodontes comme Airbus, TotalEnergies, Mistral AI, Siemens, ASML, Carrefour et BNP Paribas, mais aussi de plus petits acteurs, ont imploré la Commission européenne de suspendre pour au moins deux ans l’application des principales obligations de l’AI Act.

“L’Europe s’est longtemps distinguée par sa capacité à trouver un équilibre subtil entre régulation et innovation (…) Malheureusement, cet équilibre est actuellement rompu par des réglementations européennes incertaines, chevauchantes et de plus en plus complexes. Cela met en péril les ambitions européennes en matière d’IA, car cela compromet non seulement le développement de champions européens, mais aussi la capacité de toutes les industries à déployer l’IA à l’échelle requise par la concurrence mondiale”, estiment ces entreprises.

Un lourd fardeau

Les griefs sont en effet multiples. D’abord, l’impact sur la compétitivité : les exigences en matière d’évaluation des risques, de documentation et d’audits sont vues comme un frein à l’innovation face aux géants chinois et américains, qui opèrent sous des régimes réglementaires bien plus souples. “L’Europe risque de se tirer une balle dans le pied”, avertit un signataire anonyme, soulignant que ces contraintes pourraient chasser les talents et les investissements hors du continent. Ensuite, le texte est critiqué pour son côté trop vague et les chevauchements avec d’autres réglementations, comme le RGPD (Règlement général sur la protection des données) ou les directives sectorielles.

Pour les PME et start-up, le fardeau est très lourd : les coûts de conformité peuvent grimper à plusieurs millions d’euros, avec des processus administratifs disproportionnés. L’extraterritorialité de l’AI Act, qui s’applique à toute entreprise impactant le marché européen, pénalise aussi les fournisseurs tiers, fragilisant les chaînes d’approvisionnement locales.

La Commission a rejeté un moratoire général, mais sous la pression des lobbies européens, et même du gouvernement américain – qui déplore un cadre “trop lourd” pour ses entreprises –, elle prépare un “paquet de simplification numérique” (un omnibus, dans le jargon), d’ici fin 2025.

Les coûts de conformité peuvent grimper à plusieurs millions d’euros, avec des processus administratifs disproportionnés.

Chez nous, Agoria, qui rassemble les entreprises technologiques du pays, demande également d’arrêter l’horloge. “Les entreprises ne pourront se préparer correctement que lorsque les normes seront publiées, explique Bart Steukers, CEO d’Agoria. Nous demandons donc que les obligations liées à l’IA n’entrent en vigueur qu’un an après la publication des normes. Cela permettra d’éviter le chaos et d’apporter la clarté nécessaire. De très nombreuses entreprises belges développent actuellement des services et produits basés sur l’IA. Sans délai de préparation suffisant, elles risquent de ne pas respecter la loi, malgré elles.”

Où sont les normes ?

Jelle Hoedemaekers, expert en économie des data chez Agoria, suit ce dossier depuis sa genèse il y a six ans. “Chez Agoria, nous reconnaissons des aspects positifs à l’AI Act, explique-t-il. Les entreprises européennes apprécient que nous bannissions certaines utilisations risquées, comme la surveillance de masse. Il est nécessaire d’avoir une réglementation pour graduer les risques. Les interdictions spécifiques ne posent pas de problème.”

Mais le revers de la médaille est lourd. “Les exigences pour les IA à risque élevé ou limité sont particulièrement pesantes pour les PME, poursuit-il. Mettre des normes contraignantes en œuvre, comme les normes ISO qui existent dans divers domaines, impliquent des processus complexes : évaluations, documentation, audits.” Le problème est que l’Europe est allée trop vite : la réglementation est déjà à l’œuvre, mais les normes techniques sont encore en développement. “On connaît le niveau d’exigence, pas comment s’y conformer précisément”, souligne l’expert d’Agoria.

La date butoir d’août 2026, pour les nouveaux systèmes IA à haut risque, cristallise les angoisses. “À ce moment, tout nouveau produit mis sur le marché européen devra être conforme, insiste l’expert. Or, développer une norme n’est pas anodin : il faut des mois pour implémenter procédures et documents. Aujourd’hui, les entreprises naviguent à vue, sans certitudes légales.” Ce flou paralyse l’innovation. “Les clients des fournisseurs IA – souvent de grandes entreprises – exigent une absence totale de risque juridique, et la situation actuelle freine les commandes”, souligne-t-il.

“Aujourd’hui, les entreprises naviguent à vue, sans certitudes légales.” – Jelle Hoedemaekers (Agoria)

Les PME fragilisées

Ce sont les PME qui sont les plus touchées par la situation. “Lorsque l’on regarde les chaînes de valeur en Belgique, on constate que la plupart des fournisseurs innovants sont des PME. Typiquement, ce sont des sociétés créées par des ingénieurs sortis récemment de l’école. Ils ont développé un produit et veulent le vendre. Si le problème est plus aigu pour les petits fournisseurs, c’est parce que ces petites entreprises disposent de moins de ressources, moins d’expérience ou moins de connaissances concernant ces procédures à mettre en place que les grandes sociétés qui possèdent une équipe légale, disposent de ressources et ont déjà implémenté des normes par le passé”, explique Jelle Hoedemaekers.

Face aux inquiétudes et aux levées de boucliers, la réaction de la Commission européenne est encore dans le flou. “Ce n’est pas un secret, la nouvelle Commission désire axer ses efforts sur la compétitivité”, observe Jelle Hoedemaekers. Elle a ainsi annoncé diverses mesures de simplification administrative dans un paquet “omnibus”. La Commission travaille d’ailleurs sur un “omnibus digital”. Mais que contiendra-t-il ? “La communication de la Commission est assez maigre sur le sujet, constate Jelle Hoedemaekers. Certains points de cet ‘omnibus digital’ devraient concerner directement l’intelligence artificielle. Mais lesquels ? Nous ne savons pas. Tout ce que nous savons, c’est que fin de ce mois d’octobre, ce sujet est à l’agenda du conseil. Cela laisse supposer que cet ‘omnibus digital’ ne sera prêt qu’en décembre, alors que la date d’application est fixée à août 2026”,dit-il.

Pas encore de régulateur

Et un dernier point, spécifiquement belge, doit aussi être réglé rapidement : l’AI Act oblige chaque pays à nommer un régulateur qui aura la charge de l’IA. La date butoir était fixée au 2 août. Mais notre pays n’a toujours pas de gendarme.

“Nous sommes encore en pleine discussion en Belgique pour savoir qui régulera et comment, constate Jelle Hoedemaekers. Il y a beaucoup de régulateurs impliqués dans ce dossier et ça n’avance pas. Le principe est que comme nous avons déjà beaucoup de régulateurs en Belgique, nous n’allons pas encore en créer un nouveau. L’accord de gouvernement indique ainsi que l’IBPT (le régulateur fédéral compétent pour le marché des communications, ndlr) assumera aussi la coordination pour l’IA. Mais de nombreuses institutions sont concernées : les autorités de protection des données, le SPF Économie, les régulateurs financiers (Banque nationale, FSMA…, ndlr).

Une vingtaine d’institutions sont impliquées dans ce dossier, aux niveaux fédéral, régional et communautaire. L’IA touche par exemple l’enseignement. Mais personne n’est là, en Belgique, pour répondre aux nombreuses questions qui se posent : comment appliquer l’IA Act ? Que faire si jamais les normes ne sont pas prises à temps ? Etc. Nous n’avons pas d’interlocuteur officiel. Il est donc primordial d’avancer très vite aussi de ce côté.”

Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire