Les régulateurs européens pris de vitesse par l’essor fulgurant de l’intelligence artificielle

© BelgaImage

Face aux prouesses de l’intelligence artificielle (IA), les mises en garde se multiplient, jusqu’au créateur de chatGPT, tandis que l’UE s’efforce lentement de réguler. Mais tous semblent pris de vitesse par l’essor fulgurant de cette technologie.

« Il faut une régulation mondiale », a plaidé mardi devant le Sénat américain le patron d’Open AI, Sam Altman. Le créateur de chatGPT craint que cette technologie ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. 

Comme lui, les géants américains de la tech appellent à un encadrement. Prudemment, et tout en rivalisant de nouveaux services d’IA annoncés chaque semaine.

Ainsi la vice-présidente « Confiance et confidentialité » d’IBM, Christina Montgomery, a réclamé une régulation, mais qui n’entrave pas l’innovation. En avril, le patron de Google, Sundar Pichai, a convenu « qu’à terme il faudra élaborer une régulation mondiale » mais que « nous n’en sommes qu’au début ». 

Les « repentis » des Gafa sont les plus virulents. Geoffrey Hinton, 75 ans, l’un des pères fondateurs de l’IA, a démissionné de Google début mai pour alerter sur les menaces.

Fin mars, plus de 1.000 personnalités demandaient un moratoire de six mois sur la recherche en IA et des instances de régulation. Dont Elon Musk qui, lui aussi, développe sa propre société d’IA. Ou encore le penseur Yuval Noah Harari (« Sapiens »), convaincu que l’IA peut détruire l’humanité.

« Nous ne voulons pas d’un monde où cinq entreprises embarquent l’humanité sur l’avion de l’IA sans réfléchir au futur que nous voulons », a réclamé le militant Tristan Harris, ex-responsable éthique de Google.

La leçon du RGPD?

En Europe, ce sont surtout des chercheurs, des experts et des régulateurs qui tirent la sonnette d’alarme. Depuis quelques semaines, les tribunes anti-IA se multiplient. 

« La génération de fausses images et vidéos par l’IA font courir un risque inédit aux prochaines élections », soulignent des consultants du cabinet Vae Solis dans le journal Le Monde. « Il est urgent de reprendre le contrôle de l’intelligence artificielle, qui recèle de quoi provoquer des désordres sociaux sans précédent », renchérit le chercheur en IA, Hugues Bersini.

Pendant ce temps, l’UE progresse sur son « IA Act ». La semaine dernière, le Parlement européen est tombé d’accord sur une version de travail qui doit être votée en juin. Mais il faudra encore des années avant une mise en oeuvre.

Le texte soumettrait les IA génératives comme ChatGPT à une autorisation préalable et leur imposerait une transparence de leurs algorithmes et leurs données. 

« Tout le monde est d’accord sur la nécessité de règles, même les entreprises », se félicite l’experte Ivana Bartoletti, responsable Confidentialité de la société de conseil Wipro. Des réflexions existent au niveau du Conseil de l’Europe, des Etats-Unis et de l’ONU, souligne-t-elle. « Nous devons être moins apocalyptiques, cela ne fait que terrifier les gens plutôt que de les aider à apprendre à utiliser l’IA de manière responsable », fait-elle valoir.

Importance géopolitique

Mais en Europe comme aux Etats-Unis, les milieux économiques sont focalisés sur la course à l’IA, pour son potentiel économique comme son importance géopolitique. « C’est un élément de la sécurité nationale », souligne le PDG de Google. 

En Europe, les entreprises et les politiques pro-IA craignent qu’avec son « IA Act », l’UE ne se tire une balle dans le pied.

« Le RGPD (Règlement européen sur les données personnelles) devrait nous servir de leçon. Loin de ralentir les grandes entreprises numériques, il leur a donné l’avantage », car seuls les Gafa avait l’armée de juristes nécessaires, avertit dans le journal La Tribune Gilles Babinet, président du Conseil national du numérique, aux membres nommés par le gouvernement. 

Pour lui, pas question de suivre l’exemple de la CNIL italienne qui a bloqué ChatGPT pendant trois semaines pour avoir collecté des données sans consentement. L’IA américaine a été réautorisée après des engagements de conformité mais elle fait l’objet de plaintes similaires ailleurs dans l’UE.

« L’Europe ne peut pas se permettre de manquer une nouvelle fois une rupture technologique aussi critique. La version de l’IA Act revient de facto à interdire l’émergence de modèles de langages européens », assure Cédric O, ex-ministre français du Numérique.

Sans préciser les raisons, Google a annoncé cette semaine le déploiement de Bard, rival de ChatGPT, dans 180 pays. Mais pas dans l’UE.

Partner Content