Carte blanche

Un simple rouage dans la machine juridique: 1 an de l’AI Act

Il y a un an entrait en vigueur l’AI Act, une législation européenne ambitieuse visant à encadrer les défis posés par l’intelligence artificielle, tels que les hallucinations des chatbots, la manipulation émotionnelle de personnes vulnérables ou les décisions algorithmiques incompréhensibles. Le législateur entend rendre l’IA plus transparente, plus sûre et davantage respectueuse des droits fondamentaux, sans freiner l’innovation pour autant.

La législation est déployée par étapes. À partir du 2 août 2025, de nouvelles obligations s’appliqueront aux fournisseurs de modèles d’IA “à usage général”, comme GPT d’OpenAI, sur lequel repose ChatGPT. Ces fournisseurs devront garantir la transparence, la gestion des risques, la cybersécurité, ainsi qu’élaborer une politique en matière de droits d’auteur. Reste à voir quelle sera l’efficacité de ces mesures : les systèmes d’IA les plus utilisés sont développés aux États-Unis, mais proposés sur le marché européen.

Depuis février 2025, les systèmes d’IA présentant des risques inacceptables sont déjà interdits, comme le scoring social ou les pratiques exploitant des groupes vulnérables. À cela s’ajoutent désormais les obligations concernant les modèles d’IA à usage général (avec ou sans risque systémique), et à partir d’août 2027, l’ensemble de l’AI Act s’appliquera, y compris les règles pour les systèmes d’IA à « haut risque » (par exemple dans les dispositifs médicaux, le recrutement, les services publics et l’application de la loi).

Cependant, l’IA Act ne régit qu’une partie de l’ensemble. L’intelligence artificielle n’atterrit pas en terrain juridique vierge : les lois existantes, même si elles ne sont pas spécifiques à une technologie, doivent également s’appliquer autant que possible à cette nouvelle réalité.

Prenons l’exemple du droit d’auteur : personne ne sait combien d’œuvres sont utilisées comme matériel de formation pour les systèmes d’IA, souvent sans autorisation ni rémunération. Les journalistes, les photographes et les designers voient leurs marchés s’évaporer et risquent d’être remplacés par des systèmes d’IA qui, assez cyniquement, ont été formés à partir de leur propre matériel. On dit au secteur créatif d’embrasser l’IA et de transformer ce défi en atout… mais comment ?

La protection des données est également une source de préoccupation. L’IA permet d’analyser des données à caractère personnel à une échelle sans précédent, de profiler les individus et d’influencer leur comportement. Les individus, en particulier les minorités, ont peu de moyens de se défendre efficacement contre une surveillance basée sur l’IA, malgré l’existence du règlement général sur la protection des données (RGPD) et de l’Ai Act.

La concentration des technologies d’intelligence artificielle entre les mains des géants technologiques américains et chinois, qui occupent des positions dominantes et exploitent d’importantes bases de données, rend la tâche d’autant plus ardue. Cette situation soulève des questions en matière de droit de la concurrence et de géopolitique.

Le volontarisme de l’IA Act ne suffit pas à lui seul pour faire face à cette technologie puissante qui ébranle véritablement nos certitudes dans tous les domaines. Les entreprises doivent veiller d’une part à se conformer à l’IA Act, au RGPD et aux réglementations sectorielles, tout en s’assurant d’autre part que leurs données et leurs droits intellectuels ne disparaissent pas discrètement dans les rouages de ces systèmes d’IA, sans perdre de vue leurs intérêts stratégiques.

 Il faut garder un regard précis pour exploiter pleinement le potentiel immense de l’IA, sans que cela se fasse au détriment de nos intérêts économiques, culturels, civiques, voire militaires. Cela exige une vision claire de l’IA, où décideurs politiques, entreprises, société civile et citoyens parviennent à fixer des priorités à court et long terme, sans se laisser distraire par des questions secondaires. Il vaut mieux s’habituer à la complexité juridique que cette technologie amorphe impose, et avancer de manière itérative, flexible, ouverte mais critique vers un nouvel équilibre technologique, économique et juridique.

Sari Depreeuw, professeure à l’ULB et associée chez Crowell & Moring Brussels

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content