À compter du 2 aout, les entreprises belges vont devoir se soumettre aux mêmes règles que les géants de la tech en matière d’IA au sein de l’Union européenne. Au risque de se voir infliger des sanctions.
Ce 2 août 2025 marque une nouvelle étape dans l’application de l’AI Act, le règlement européen sur l’intelligence artificielle. L’Union européenne élargit désormais son champ d’action aux modèles d’IA à usage général (GPAI), ce qui entraîne des conséquences concrètes pour toutes les entreprises qui utilisent – ou envisagent d’utiliser – des outils d’IA, y compris en Belgique.
Des sanctions lourdes en cas de non-conformité
À compter de cette date, des amendes pourront être infligées en cas de non-respect des obligations fixées par l’AI Act. Le texte prévoit des sanctions pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial d’une entreprise. Autrement dit, l’inaction ou l’ignorance réglementaire peut coûter très cher – y compris pour les sociétés belges.
Et ce, même si la Belgique n’a pas encore transposé la législation dans son droit national : l’obligation de conformité s’impose malgré tout, en vertu de l’application directe du droit européen.
Pas seulement une affaire de géants technologiques
Contrairement aux idées reçues, l’AI Act ne s’adresse pas uniquement aux développeurs de technologies IA ou aux grandes plateformes numériques. Les entreprises utilisatrices – y compris les PME – sont, elles aussi, concernées, dès lors qu’elles intègrent des systèmes d’IA dans leurs opérations.
Elles doivent s’assurer que les outils utilisés respectent les règles européennes en matière de transparence, d’équité et de sécurité, comme le prévoit le règlement. Cette conformité doit être assurée à tous les niveaux de l’organisation. Or, un tiers des travailleurs se sentent aujourd’hui insuffisamment formés pour faire face aux nouvelles technologies, selon SD Worx.
L’introduction d’un cadre éthique et de nouvelles obligations en matière d’égalité risque d’aggraver cette situation et de mettre certaines entreprises en difficulté, simplement faute de préparation. Car s’initier à l’IA est une chose ; en maîtriser les implications juridiques et éthiques en est une autre. Or, pour atteindre les objectifs de l’AI Act – à savoir garantir des intelligences artificielles dignes de confiance, avec l’humain au centre – un effort d’apprentissage et de formation sera indispensable.
D’où l’importance de mettre en place une stratégie claire.
Des impacts concrets pour les ressources humaines
Dans un premier temps, il est recommandé d’élaborer une politique d’entreprise spécifique à l’intelligence artificielle. Celle-ci doit encadrer les cas d’usage, définir des principes en matière d’éthique, de transparence et de gouvernance, comme le recommande le centre de formation Cevora.
Un inventaire précis des systèmes d’IA déployés dans l’entreprise est également essentiel pour avoir une vue d’ensemble et identifier les règles à appliquer à chaque usage.
Il est tout aussi crucial d’évaluer les connaissances des collaborateurs en matière d’intelligence artificielle, afin d’identifier les lacunes à combler via des formations ciblées.
Enfin, la mise en place de mécanismes d’évaluation réguliers des systèmes et outils d’IA permettra d’éviter les mauvaises surprises… et les sanctions potentielles.