Kirsten Rulf, “partner & associate director” au Boston Consulting Group : “L’AI Act offre un cadre pour innover en toute sécurité”

Kirsten Rulf: "L’IA, ce n’est pas que de la technologie : 70% du succès dépend des personnes qui l’utilisent, et seulement 30% des algorithmes."
Christophe Charlot
Christophe Charlot Journaliste

Depuis peu, toutes les entreprises sont tenues de respecter la nouvelle législation européenne en matière d’intelligence artificielle, l’AI Act. Trends-Tendances a rencontré Kirsten Rulf, l’une des expertes ayant participé aux premières moutures du texte.

Ancienne conseillère principale en politique numérique auprès des chanceliers allemands Angela Merkel et Olaf Scholz, dirigeant le département de la politique numérique à la Chancellerie fédérale allemande, Kirsten Rulf en connaît en rayon en matière de digital. Elle compte même parmi les premiers experts à avoir rédigé les bases de l’AI Act, la réglementation européenne sur l’intelligence artificielle entrée en vigueur au début du mois de février. Elle a rejoint le Boston Consulting Group en avril 2023 en tant que partner et directrice associée. Nous avons pu l’interroger sur cette réglementation qui concerne d’ores et déjà toutes les entreprises belges.

TRENDS-TENDANCES. L’AI Act est désormais en vigueur depuis quelques semaines. Pensez-vous que les entreprises sont bien préparées à cette nouvelle réglementation ?

KIRSTEN RULF. Pas vraiment. L’AI Act a fait l’objet de nombreuses discussions lorsqu’il a été décidé, puis il est un peu passé au second plan. Maintenant qu’il est appliqué, une grande partie des entreprises réalisent qu’elles ne sont pas prêtes. D’après nos chiffres, 72% des dirigeants reconnaissent qu’ils n’ont pas anticipé cette réglementation. Beaucoup d’entreprises n’ont pas utilisé le temps entre son adoption et sa mise en œuvre de manière judicieuse. Elles sous-estiment le travail nécessaire pour comprendre la loi, l’appliquer et l’intégrer concrètement dans leur organisation. Pourtant, celles qui ont déjà mis en place l’AI Act bénéficient d’un véritable avantage…

Ah bon, concrètement, comment l’AI Act peut-il constituer un avantage pour les entreprises ?

Les entreprises qui se sont préparées à l’AI Act accélèrent et se développent beaucoup plus vite que celles qui ne l’ont pas fait. Contrairement à l’idée reçue, cette réglementation ne freine pas l’innovation, elle la structure et l’encadre pour mieux la favoriser. Elle établit un cadre de gestion des risques et de la qualité de l’intelligence artificielle. C’est un outil essentiel pour toute entreprise qui souhaite déployer l’intelligence artificielle à grande échelle. Nous connaissons tous les problèmes que peuvent poser certains chatbots et l’hésitation des employés à utiliser l’IA. L’AI Act, grâce à son approche claire et fondée sur l’analyse des risques, apporte des garanties en matière de formation et d’utilisation des modèles d’IA. Il aide aussi les entreprises à répondre à des questions cruciales sur la propriété intellectuelle, la protection des données et les droits des travailleurs.

Toutes les entreprises sont-elles concernées de la même manière par cette réglementation ?

Il y a plusieurs catégories d’entreprises affectées par l’AI Act. D’un côté, il y a les grands fournisseurs de modèles d’IA, qui sont sceptiques quant à certains aspects de cette réglementation car elle leur impose des contraintes. De l’autre, il y a les entreprises dites traditionnelles, qui en bénéficient directement. C’est le cas des secteurs de la banque, de l’automobile, de la pharma ou encore de l’industrie manufacturière. Pour ces acteurs, le principal risque est d’intégrer l’IA dans leurs produits sans en comprendre réellement les implications. L’AI Act leur offre plus de transparence et clarifie la responsabilité entre ceux qui fournissent la technologie et ceux qui l’intègrent dans leurs solutions.

La question de la responsabilité en cas de problème lié à l’IA est souvent débattue. Compte tenu de l’AI Act, qui sera tenu responsable en cas de dysfonctionnement ?

Il est encore difficile de désigner un responsable unique d’un point de vue juridique, mais les entreprises doivent prendre conscience du “coût de l’erreur”. Une mauvaise utilisation de l’IA peut avoir un impact financier énorme, que ce soit via des amendes pour non-conformité, des pertes de clients ou des litiges. De grands groupes en ont déjà fait l’expérience, avec des coûts imprévus liés à des erreurs d’IA. Les entreprises doivent donc anticiper ces risques en structurant leur gouvernance interne et en participant aux discussions réglementaires pour faire entendre leurs préoccupations.

Les entreprises doivent prendre conscience du ‘coût de l’erreur’. ​​​​​​​Une mauvaise utilisation de l’IA peut avoir un impact financier énorme.
Kirsten Rulf, “partner & associate director” au Boston Consulting Group

Kirsten Rulf, “partner & associate director” au Boston Consulting Group

La transparence est un enjeu majeur. Pensez-vous que les entreprises communiquent suffisamment sur leur usage de l’IA ?

Pas encore. Aujourd’hui, peu d’entreprises annoncent clairement qu’elles utilisent l’IA, notamment parce que les consommateurs ne lui font pas encore totalement confiance. De plus, beaucoup de sociétés n’ont pas encore pleinement déployé l’IA dans leurs services clients, préférant éviter tout risque d’erreur visible. Cela dit, avec le temps et une meilleure acceptation par le grand public, nous verrons sans doute une communication plus ouverte.

En interne, l’IA est de plus en plus utilisée par les employés, parfois sans que l’entreprise ne le sache. Comment les entreprises doivent-elles gérer cela ?

C’est un vrai sujet. Beaucoup d’employés utilisent déjà des outils comme ChatGPT pour optimiser leur travail, parfois sans en informer leur hiérarchie. D’où l’importance des nouvelles obligations de formation imposées par l’AI Act depuis le 2 février. Les entreprises doivent encadrer ces usages pour éviter ce que nous appelons le shadow AI, c’est-à-dire l’usage non contrôlé de l’IA. Il vaut mieux former et accompagner les employés plutôt que de leur interdire l’IA, ce qui les pousserait à l’utiliser de manière non maîtrisée.

Quel conseil donneriez-vous aux dirigeants d’entreprise face à ces évolutions ?

Mon principal conseil est de faire de la gestion de risques liés à l’IA un sujet stratégique piloté au niveau de la direction générale. Beaucoup d’entreprises confient ce sujet uniquement à leur département juridique. Or, l’AI Act requiert une approche transversale impliquant différents départements. Si on cantonne cette réglementation aux services juridiques ou aux managements intermédiaires, on risque de bloquer toute innovation. Il faut une vision claire, un engagement fort et une prise en compte des enjeux humains. Car au final, l’IA, ce n’est pas que de la technologie : 70% du succès dépend des personnes qui l’utilisent, et seulement 30% des algorithmes. Les entreprises qui comprendront cela auront une longueur d’avance.

L’Europe est souvent critiquée pour son approche réglementaire, qui serait un frein à l’innovation. Qu’en pensez-vous ?

Il y a effectivement un débat récurrent entre réglementation et innovation, surtout en Europe. Nous ne sommes pas aussi avancés technologiquement que les États-Unis ou la Chine en matière d’IA. Mais la réglementation peut aussi être un levier de compétitivité. Si l’Europe veut rester dans la course, elle doit adopter une vision commune et coordonnée sur l’IA. Aujourd’hui, nous avons encore trop de disparités nationales dans la mise en œuvre des réglementations, comme on l’a vu avec le RGPD. Il faut éviter que l’AI Act se transforme en une mosaïque de règles nationales qui freinerait le marché unique numérique.

L’IA évolue très vite. Ne risque-t-on pas de voir l’AI Act rapidement dépassé ?

L’AI Act a l’intelligence de ne pas réglementer directement la technologie, mais son usage. Cela signifie que peu importe les avancées futures, ce cadre pourra s’adapter. De plus, la loi prévoit une réévaluation annuelle des risques. Par exemple, si une technologie aujourd’hui considérée comme risquée devient courante et maîtrisée, elle pourra être reclassée. C’est un cadre évolutif qui permet d’assurer un équilibre entre innovation et sécurité.

L’intelligence artificielle est présente dans la plupart des secteurs, ou presque, avec ses partisans et ses détracteurs, mais quel est son impact?

Partner Content