Face à la montée en puissance de l’intelligence artificielle dans nos sociétés, de plus en plus d’initiatives sont créées pour encadrer cette technologie, dont les actions peuvent avoir des effets indésirables.
L’IA est aujourd’hui partout et, au vu de l’intérêt grandissant pour cette technologie, elle est amenée à prendre toujours plus de place dans nos vies, que ce soit dans notre quotidien ou dans des domaines plus sensibles, tels que la finance, la défense, les médias ou encore la santé. Une utilisation qui pose question, notamment en termes de risques, de responsabilité, mais aussi d’accès et de gestion des données qui lui permettent de s’entraîner.
Depuis de nombreux mois déjà, des voix s’élèvent pour alerter sur les risques liés à son utilisation et demandent à ce que des cadres soient mis en place pour éviter les abus. Cela a notamment entraîné la création de l’AI Act dans l’Union européenne. Mais d’autres initiatives, moins contraignantes, se développent également, comme le GAIGI (Geneva Artificial Intelligence Governance Institute).
Réguler l’IA sensible
Lancée à Genève par le docteur Axel Mazolo, cette initiative vise à réguler l’intelligence artificielle sensible à travers une certification à plusieurs niveaux. “L’idée est que la technologie doit servir l’humanité, et non l’inverse”, explique l’initiateur. Et le temps presse puisque “l’IA sensible n’est pas une question futuriste : elle trie déjà, soigne, surveille et décide. Ses applications doivent être encadrées par une supervision stricte centrée sur la dignité humaine, la traçabilité et la responsabilité.”
C’est dans ce but que le GAIGI a été créé, afin de permettre de “garantir la fiabilité et la sécurité des systèmes d’IA dites sensibles”. Il propose une charte non rigide, une boussole morale pour aider les entreprises et les secteurs à “naviguer vers une IA digne de confiance, juste et soutenable.” Une initiative qui se veut internationale, pour répondre aux problèmes de fragmentation des régulations mises en place (ou non) par les différents pays et organisations.
“Nous voulons toucher tout le monde, tous les pays, car nous voulons que le GAIGI soit international, et ce, tout simplement parce que nous croyons qu’il n’existe pas une IA américaine, une IA européenne ou une IA chinoise, mais une IA au service de l’humanité“, explique le docteur Axel Mazolo. “C’est pourquoi nous sommes en discussion avec toutes les parties du monde, et pas seulement les régulateurs. Nous avons la volonté de parler avec tous les acteurs, petits et grands, afin que le plus grand nombre désire obtenir notre certification.”
Lancé en juillet dernier seulement, le GAIGI n’en est encore qu’à ses prémices, mais sent que le secteur est demandeur : “après une conférence au Maroc la semaine dernière, une ici à Bruxelles et une autre à Paris dans les prochains jours, nous allons très prochainement parler devant l’OMC, preuve que l’intérêt pour une certification de l’IA est réel.”
Comment cela se traduit-il concrètement ?
Obtenir la certification du GAIGI montre qu’une entreprise ou, tout simplement, une IA est digne de confiance, car elles répondent à “des standards techniques, éthiques et de gouvernance développés à Genève”. Une certification obtenue au terme d’un contrôle poussé et vérifié par des “audits réguliers, une supervision humaine significative et des processus transparents.”
Mais, à l’inverse d’un régulateur qui peut imposer à des acteurs de se soumettre à sa législation, la certification du GAIGI s’obtient sur une base volontaire et “est une preuve du sérieux de l’acteur et de son utilisation éthique de l’IA”. Ainsi, les développeurs ou entreprises pourront décider de se soumettre volontairement à la charte de l’initiative : le premier niveau.
Après quoi, ils pourront obtenir la certification de “second niveau”, qui indique qu’ils respectent les directives établies pour chaque secteur d’activité (santé, militaire, finance, médias) par des experts.
Enfin, le dernier niveau de certification, dit algorithmique, assure que l’IA a été testée par des experts et que les réponses qu’elle produira ne seront pas problématiques. “Aujourd’hui, des ressources et des outils existent pour tester l’IA et prédire ce qu’elle va dire, notamment en Suisse avec l’ISO”, qui développe justement des normes techniques internationales pour tester, auditer et certifier les algorithmes sensibles.
Un intérêt économique
Mais comment pousser des géants tels que Meta, Google ou OpenAI à vouloir obtenir l’une de ces certifications puisque, contrairement à une régulation, aucune sanction n’est prévue ? Ce n’est pas le but de l’initiative. “Nous devons d’abord convaincre les décideurs, acteurs des différents secteurs et entreprises d’adhérer à notre charte, mais aussi informer et éduquer le public, afin que ce dernier privilégie les outils qui sont certifiés éthiques et non dangereux. C’est en procédant de la sorte que les géants de l’IA seront indirectement forcés de répondre aux exigences de notre certification.”
De plus, “certains perçoivent les régulations comme des freins à l’innovation, ce que nous ne voulons pas, au contraire. Nous voulons aider au développement technologique de l’IA en construisant la confiance autour de cet outil. C’est parce qu’ils seront sûrs de pouvoir lui faire confiance qu’ils miseront dessus dans leur quotidien ou dans leur travail”, conclut Axel Mazolo.
Le GAIGI lancera officiellement son système de certification à la fin du mois de septembre, lorsque des experts des différents secteurs sensibles auront rejoint le projet – et les candidats sont nombreux, nous confie l’initiateur du projet -, avec un calendrier détaillé sur deux ans pour “protéger l’humanité des dérives algorithmiques”, et le lancement, dès le mois d’octobre, d’un premier projet pilote décrivant les lignes directrices pour le secteur des médias.