L’OCDE planche sur des mesures pour atténuer les risques liés aux systèmes d’intelligence artificielle
L’Organisation de coopération et de développement économiques (OCDE) a récemment annoncé le lancement d’une phase pilote visant à suivre la mise en œuvre du Code de conduite international du processus d’Hiroshima pour les organisations développant des systèmes d’intelligence artificielle (IA) avancés.
L’initiative de l’OCDE vise à tester et recueillir des informations sur la mise en œuvre des actions énoncées dans ce code, marquant ainsi une étape cruciale dans l’engagement continu du G7 en faveur du développement, du déploiement et de l’utilisation sécurisés des systèmes d’IA avancés.
Le Processus du G7 sur l’IA, initié en mai 2023 à Hiroshima, a conduit à l’élaboration d’un cadre d’action global. Ce cadre comprend notamment le rapport de l’OCDE intitulé “Vers une vision commune à l’échelle du G7 sur l’IA générative“, des principes directeurs internationaux pour tous les acteurs de l’IA, le Code de conduite international pour les organisations développant des systèmes d’IA avancés, ainsi qu’une coopération sur des projets centrés sur l’IA. Sous la présidence italienne actuelle, les membres du G7 s’efforcent de concrétiser ces travaux.
La phase pilote du cadre de rapports, qui se déroulera jusqu’au 6 septembre 2024, représente une première étape vers l’établissement d’un mécanisme de suivi de la mise en œuvre du Code de conduite, tel que souhaité par les dirigeants du G7. Ce projet de cadre, élaboré en collaboration avec des développeurs d’IA des pays du G7, inclut une série de questions basées sur les 11 actions du Code de conduite. Une fois finalisé, ce cadre devrait favoriser la transparence et la comparabilité des mesures prises pour atténuer les risques liés aux systèmes d’IA avancés, et contribuer à l’identification et à la diffusion des bonnes pratiques.
Les organisations développant des systèmes d’IA avancés sont invitées à participer à cette phase pilote. Les réponses recueillies durant cette période permettront de peaufiner et d’améliorer le cadre, avec pour objectif la publication d’une version finale dans l’année. L’adoption d’un cadre commun pourrait améliorer la comparabilité des informations disponibles au public et simplifier les rapports des organisations situées dans différents pays et territoires.
Depuis 2016, l’OCDE se positionne en matière d’IA. Sa Recommandation du Conseil sur l’intelligence artificielle, première norme intergouvernementale en la matière adoptée en 2019 et mise à jour en 2024, sert de référence mondiale pour l’élaboration des politiques d’IA. L’OCDE promeut de longue date la collaboration internationale entre les pays pour traiter des enjeux complexes dépassant les frontières nationales.
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici