Comment l’Europe va contrôler l’intelligence artificielle
L’Union européenne se pose en pionnière en matière de régulation de l’intelligence artificielle: les législateurs viennent d’édicter les premières règles au monde visant à contrôler cette technologie. Petit aperçu des décisions les plus marquantes.
Trois jours de négociations auront été nécessaires pour que l’UE accouche d’une nouvelle loi historique: l’artificial intelligence act. L’objectif? Imposer des limites et des règles au développement de cette technologie considérée comme dangereuse par beaucoup. Le projet vise ainsi à garantir que les systèmes d’intelligence artificielle disponibles sur le marché européen sont sûrs et surtout contrôler qu’ils respectent les droits fondamentaux et les valeurs de l’UE.
L’idée principale est de réguler l’IA en fonction de sa capacité à nuire à la société selon une approche « basée sur le risque »: plus le risque est élevé, plus les règles sont strictes. Pas de quoi freiner la course à l’IA pour autant, rassurent les législateurs. Cette proposition historique aspire aussi à stimuler l’investissement et l’innovation dans ce domaine en Europe.
« L’accord répond efficacement à un défi mondial, dans un environnement technologique en constante et rapide évolution, dans un domaine clé pour l’avenir de nos sociétés et de nos économies », s’est réjouie Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle.
Aperçu des principaux éléments de l’accord
Ces règles mettraient en œuvre des garanties pour l’utilisation de l’IA tout en évitant de pénaliser inutilement les entreprises du secteur.
Classification des systèmes selon le risque
L’accord prévoit un niveau de protection horizontal. Comment? En imposant des règles plus strictes aux systèmes d’IA jugés à haut risque, qui sont susceptibles de causer des préjudices pour la santé, la sécurité, les droits fondamentaux… Cette classification vise à garantir que les systèmes d’IA qui ne sont pas susceptibles de provoquer de graves violations des droits fondamentaux ne soient pas impactés inutilement.
- Risque limité: soumis à des obligations de transparence très légères.
- À haut risque: soumis à un ensemble d’exigences et d’obligations pour accéder au marché de l’UE.
- Risque inacceptable: ces systèmes seront interdits dans l’UE, dont notamment la manipulation cognitivo-comportementale, la suppression non ciblée d’images faciales provenant d’Internet ou d’images de vidéosurveillance, la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, la notation sociale, la catégorisation biométrique pour déduire des données sensibles, telles que l’orientation sexuelle ou religieuse…
Reconnaissance faciale exceptionnellement autorisée
Compte tenu de la nécessité de préserver les capacités des autorités à utiliser l’IA dans leur travail, des exceptions ont été formulées. Ainsi, l’usage de la reconnaissance faciale en temps réel par les forces de l’ordre, à des fins strictement répressives, est autorisé. Mais pour garantir une sécurité supplémentaire, les législateurs ont posé quelques limites: elle n’est autorisée qu’en cas de recherche de victimes, de prévention de menace terroriste ou de localisation et identification de personnes soupçonnées de crimes.
Bureau de surveillance et de contrôle
Pour s’assurer que tout se déroule correctement, l’UE va instaurer une nouvelle architecture de gouvernance.
Afin notamment de superviser les modèles d’intelligence artificielle les plus avancés et de faire respecter la loi, un bureau de l’IA sera créé à la Commission. Un groupe scientifique d’experts indépendants donnera des conseils à ce fameux bureau.
À côté de cela, on retrouvera également le conseil d’administration de l’IA, qui comprendrait des représentants des États membres. Il s’agirait d’une plateforme de coordination et d’un organe consultatif auprès de la Commission.
Enfin, un forum consultatif composé notamment de représentants de l’industrie, de PME, de start-ups, de la société civile et du monde universitaire, sera mis en place pour fournir une expertise technique au Conseil de l’IA.
Pénalités adaptées
En cas de violation de l’artificial intelligence act, des pénalités sont évidemment prévues. Celles-ci ont été fixées en pourcentage du chiffre d’affaires annuel global (CA) de l’entreprise incriminée au cours de l’exercice précédent ou d’un montant prédéterminé, le plus élevé des deux étant retenu.
Ces amendes s’élèveraient à 35 millions d’euros ou 7% du CA pour les violations des applications d’IA interdites, à 15 millions d’euros ou 3% pour les violations des obligations prévues par la loi sur l’IA et à 7,5 millions d’euros ou 1,5% pour la fourniture d’informations inexactes.
Toutefois, l’accord provisoire prévoit des plafonds plus proportionnés pour les amendes administratives infligées aux PME et aux jeunes entreprises en cas d’infraction aux dispositions de la loi sur l’IA.
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici