Report ou pas, les entreprises belges n’ont plus le luxe d’attendre. L’AI Act finira par s’appliquer, et celles qui auront anticipé la mise en conformité sortiront gagnantes. Entre gouvernance des données, formation interne et éthique numérique, les acteurs du secteur doivent déjà se mettre en ordre de marche.
L’Union européenne envisagerait de retarder l’application d’une partie de son règlement sur l’intelligence artificielle (en anglais : Artificial Intelligence Act ou AI Act), en raison de tensions politiques et de critiques venant du secteur technologique. Cette pause permettrait de simplifier certains aspects du texte, jugés trop complexes, notamment pour les modèles d’IA dits “à usage général” comme ChatGPT ou Mistral. Pour les entreprises belges, un tel report représenterait un double enjeu. D’un côté, il offrirait un répit et donc davantage de temps pour comprendre les obligations à venir et intégrer les exigences éthiques et techniques.
Cela pourrait aussi favoriser une approche plus progressive et réaliste pour les PME et start-up locales, souvent dépourvues de moyens juridiques et technologiques comparables aux grands groupes. Mais cette suspension prolongerait aussi une période d’incertitude réglementaire, susceptible de freiner les investissements et d’entretenir la prudence chez les dirigeants d’entreprise. Sans visibilité sur le cadre final, certaines sociétés pourraient différer leurs projets d’IA ou hésiter à commercialiser des solutions en Europe.
“Ce qui est clair aujourd’hui, c’est qu’il existe une prise de conscience croissante que des règles trop strictes pourraient nuire à la compétitivité de l’Union européenne face à d’autres régions du monde, observe Peter Van Dyck, avocat spécialisé en droit du numérique et des technologies chez A&O Shearman. Le fameux ‘effet Bruxelles’, selon lequel les autres marchés s’aligneraient sur l’AI Act, ne s’est pas produit. Les États-Unis, notamment, ont choisi une approche beaucoup plus souple, centrée sur la dérégulation et la rapidité d’exécution. L’AI Act a d’ailleurs été proposé en 2021, une éternité à l’échelle de l’intelligence artificielle. Depuis, la technologie et la géopolitique ont énormément évolué. Il serait donc logique que l’Europe prenne un moment pour réévaluer si le texte est toujours adapté et n’entrave pas excessivement l’innovation.”
Ne pas retarder indéfiniment le processus
Avec plus de 3.700 employés, le groupe informatique NRB, qui accompagne les secteurs public et privé dans leur transformation numérique, dispose d’une solide vision de l’adoption de l’IA dans les entreprises belges. À sa tête Laurence Mathieu ne s’inquiète pas d’un éventuel report de l’AI Act.
“Je comprends la demande de report, formulée notamment par Agoria. Beaucoup d’entreprises se sentent prises de court. Traduire la réglementation en mesures concrètes prend du temps. Il est donc raisonnable de laisser un délai d’adaptation suffisant, sans pour autant retarder indéfiniment le processus. L’important, c’est de commencer dès maintenant. Le mot-clé, c’est flexibilité : la réglementation évoluera, comme l’IA elle-même. Il faudra donc mettre en place une gouvernance solide autour de la gestion des données et du suivi des évolutions technologiques. Chez NRB, nous le faisons pour nous-mêmes, mais aussi pour certains clients. Je ne conseillerais donc pas de mettre les projets IA en pause, mais plutôt de se faire accompagner par des experts capables d’analyser les risques et de définir les étapes à suivre. Les entreprises doivent commencer dès maintenant à se préparer, car la réglementation finira de toute façon par s’appliquer.”
“La réglementation finira, de toute façon, par s’appliquer.” -Laurence Mathieu (NRB SA)
Un constat partagé par Peter Van Dyck, qui signale que la pression n’est pas uniquement sur les entreprises. Les autorités nationales chargées de vérifier la bonne application de l’AI Act, comme le SPF Économie en Belgique, se préparent, elles aussi, mais elles sont également confrontées aux défis d’un calendrier serré. Un report partiel de l’AI Act pourrait leur permettre d’apporter davantage de clarté aux entreprises sur les priorités de contrôle.
“Beaucoup d’entreprises aimeraient savoir sur quelles obligations les autorités se concentreront en premier. À ce stade, cela reste flou, et une meilleure visibilité aiderait les acteurs économiques à concentrer leurs efforts là où cela compte le plus. Une pause offrirait également le temps d’un dialogue plus approfondi entre régulateurs et secteur privé. Nous échangeons régulièrement avec les autorités, qui sont ouvertes à cette concertation. Elle leur permet de mieux comprendre les réalités du terrain et d’adapter leurs priorités de supervision.”
Déséquilibre concurrentiel
L’incertitude réglementaire qui entoure encore la mise en œuvre de l’AI Act crée un déséquilibre concurrentiel croissant entre l’Europe et les États-Unis. Tandis que les acteurs américains évoluent dans un cadre beaucoup plus souple et disposent déjà d’infrastructures massives pour déployer leurs modèles d’intelligence artificielle, les entreprises européennes, et belges en particulier, avancent avec prudence, soucieuses de se conformer à des règles encore en discussion.
Cette prudence, si elle garantit un développement plus éthique, risque aussi de freiner l’innovation, d’alourdir les coûts et de voir une forme de lassitude s’installer peu à peu parmi les acteurs du secteur.
En Belgique, l’intégration de l’intelligence artificielle dans les entreprises progresse, mais demeure, en effet, inégale. Selon une étude menée par TOPdesk auprès de 6.000 professionnels de l’informatique, dont 1.000 dans notre pays, seules 26% des organisations belges ont pleinement intégré l’IA dans leur stratégie et leurs processus, un niveau supérieur à la moyenne européenne, mais encore loin d’une adoption généralisée. Plus interpellant, ce sont principalement les départements IT qui portent le mouvement, tandis que la direction ne joue un rôle moteur que dans 30% des cas.
Si les professionnels de l’informatique perçoivent l’IA avant tout comme un levier d’efficacité et d’optimisation, sa mise en œuvre reste clairement freinée par des enjeux de gouvernance et de conformité.
Beaucoup d’interrogations
“Je ne ressens pas de lassitude chez nos clients, mais plutôt des interrogations, parfois même une incompréhension face à la multiplication des normes. Les entreprises font déjà face à des contraintes économiques fortes, comme la décarbonation, l’électrification de la flotte de véhicules ou la conformité IA. Mais ces règles restent nécessaires. L’enjeu, c’est de les mettre en œuvre avec pragmatisme et d’accompagner les entreprises. Il est également indispensable de favoriser la collaboration entre certains acteurs – grandes entreprises, PME, start-up, monde académique – afin d’éviter que chacun ne réinvente la roue dans son coin”, ajoute Laurence Mathieu.
“Il reste énormément à faire, et s’arrêter n’est tout simplement pas une option.”- Peter Van Dyck (A&O Shearman)
“Le pire réflexe serait de se figer, de considérer la suspension de l’AI Act comme une raison d’interrompre les efforts de conformité, poursuit Peter Van Dyck. Il reste énormément à faire, et s’arrêter n’est tout simplement pas une option. Les entreprises devraient plutôt voir cette pause comme un cadeau.”
“Report ou pas, il ne faut pas perdre de vue que l’AI Act est avant tout une réglementation essentielle pour encadrer l’utilisation responsable de l’intelligence artificielle en Europe. Elle vise à garantir une approche éthique, à éviter les biais, les discriminations ou encore les atteintes aux droits de propriété intellectuelle”, conclut la CEO de NRB.
L’AI Act en cinq points clés
1. Une première mondiale – Adopté en 2024, le règlement européen sur l’intelligence artificielle (AI Act) est la première législation mondiale encadrant le développement, la commercialisation et l’usage de l’IA. Il s’applique directement dans les 27 États membres de l’Union européenne, sans transposition nationale.2. Une approche fondée sur le risque – L’AI Act distingue quatre niveaux de risque.
– Risque inacceptable: systèmes interdits (notation sociale, manipulation comportementale, surveillance de masse).
– Risque élevé: systèmes critiques (recrutement, éducation, santé, justice, sécurité).
– Risque limité: obligations de prévenir l’utilisateur (chatbots, IA générative).
– Risque minimal: usage libre (jeux vidéo, filtres d’image).
3. Des obligations fortes pour l’IA à risque élevé – Les systèmes d’intelligence artificielle classés “à risque élevé” seront soumis à des obligations strictes avant leur mise sur le marché. Les entreprises devront identifier et gérer les risques liés à ces technologies, garantir la qualité et la traçabilité des données utilisées pour l’entraînement des modèles, et assurer une supervision humaine effective. Ces systèmes devront également faire l’objet de tests, d’audits et d’évaluations de conformité afin de vérifier leur fiabilité, leur transparence et leur respect des droits fondamentaux.
4. Un calendrier sous tension – Adopté en 2024, l’AI Act entrera progressivement en vigueur d’ici 2026, avec des obligations renforcées pour les usages à haut risque. Mais face aux retards techniques et aux pressions économiques, la Commission européenne envisage désormais un report partiel de six à douze mois pour laisser aux entreprises le temps de s’adapter.
5. Un équilibre entre innovation et protection – L’objectif de l’AI Act est de protéger les citoyens sans freiner l’innovation. L’Europe cherche à maintenir son rôle de leader éthique et réglementaire, tout en évitant de perdre du terrain face aux États-Unis et à la Chine. Le défi : transformer la conformité en levier de confiance et de compétitivité pour les entreprises européennes.
À faire dès maintenant : les trois priorités pour les entreprises
1. Cartographier les systèmes d’IAAvant toute chose, il faut savoir où l’IA se trouve dans l’entreprise. Identifier les outils déjà utilisés, les cas d’usage en développement et leur niveau de risque au regard de l’AI Act. Cet exercice, en apparence simple, reste complexe tant que les lignes directrices européennes sur les systèmes “à haut risque” ne sont pas finalisées.2. Structurer la gouvernance interneRevoir les politiques internes, les procédures de contrôle et les programmes de formation. L’objectif : instaurer une culture de l’IA à tous les niveaux de l’organisation et s’assurer que les structures existantes sont adaptées à un environnement piloté par les données et les algorithmes.
3. Sécuriser les relations avec les fournisseursExaminer les partenariats technologiques : les contrats conclus avec les prestataires d’IA reflètent-ils les exigences de conformité et la stratégie de l’entreprise ? Des modèles de clauses et de guides de négociation doivent être mis en place pour garantir la cohérence entre gouvernance interne et obligations légales.
(d’après Peter Van Dyck, avocat spécialisé en droit du numérique et des technologies chez A&O Shearman)
Suivez Trends-Tendances sur Facebook, Instagram, LinkedIn et Bluesky pour rester informé(e) des dernières tendances économiques, financières et entrepreneuriales.