Dans un monde post-coronavirus, où entreprises et employés peuvent réussir où qu'ils soient, l'augmentation sensible de la demande de technologies IA implique que les entreprises doivent respecter des normes plus strictes afin de garantir le développement de technologies qui soient dûment fondées. Si l'on fait l'impasse sur une totale compréhension des implications, les coûts de création, de commercialisation et d'implémentation de la technologie seront beaucoup trop importants pour être négligés.

Pour concevoir et appliquer l'IA en toute confiance, nous devons nous tourner vers des démarches inclusives et des intentions éthiques, en prenant des mesures visant à expliquer en toute transparence l'impact et les motivations d'actions et de recommandations. A l'heure où une technologie éthique et justifiée devient une obligation organisationnelle, les entreprises peuvent gagner notre confiance de trois manières différentes -- en misant sur la légitimation, la transparence et l'équité.

Renforcer les pratiques d'IA éthique

A l'échelle d'une entreprise, l'éthique en IA implique de susciter et de préserver, du côté des employés, une culture de la pensée critique. Il n'est pas réaliste d'exiger d'un seul groupe de personnes qu'il assume la responsabilité d'identifier les risques éthiques lors de la phase de développement. Une approche éthique des projets IA exige plutôt une multitude de perspectives diverses formulées au départ de cultures, d'ethnicités, de genres et de domaines d'expertises variés.

Au final, chaque employé doit faire sien un sentiment de responsabilité vis-à-vis des autres au sein de l'entreprise et vis-à-vis de la clientèle. Cultiver une mentalité d'"ethics by design" exige une implication systématique, où tous les collaborateurs se voient octroyer le rôle de consultants produit et où les équipes data science identifient et s'emparent des questions éthiques ayant trait à leurs projets.

Comprendre la nature et l'ampleur des préjugés

Bien que l'IA puisse très certainement avoir un impact positif sur le monde des entreprises et sur la collectivité, nous devons également prendre conscience du côté problématique que peuvent revêtir ces technologies, notamment en termes de renforcement des préjugés. C'est une chose que de créer de l'IA en laboratoire. C'en est une autre de prévoir de manière précise la manière dont elle opèrera dans le monde réel.

La prise de responsabilité doit être une priorité absolue tout au long du cycle de vie d'un produit. Les équipes doivent également appréhender parfaitement la nature et l'intensité des biais et préjugés dans les jeux de données qu'elles utilisent ainsi que ceux des modèles qui sont entraînés sur ces jeux de données. Cet aspect des choses vaut tout naturellement aussi pour leurs propres jeux de données. Il est essentiel que des équipes d'IA éthique favorisent les questionnements sur la manière dont elles peuvent rendre les modèles IA davantage explicables, transparents et vérifiables. Le fait de pouvoir élaborer des méthodes et des pratiques soigneusement définies et validées par des tiers, en support à la prise de décision, constitue une garantie de transparence pour toutes les parties concernées.

Si les développeurs procurent des plates-formes IA, ce sont les utilisateurs de l'IA qui sont en fait les propriétaires et les responsables de leurs données. Et même si les développeurs peuvent procurer des formations et des outils afin de contribuer à identifier les biais et de limiter les préjudices, les algorithmes ont la capacité de renforcer des stéréotypes dommageables s'ils ne sont par exemple pas suffisamment entraînés ou s'ils ne sont pas contrôlés. Il est dès lors important que les entreprises procurent les bons outils aux clients et aux utilisateurs afin qu'ils puissent utiliser les technologies de manière sûre et responsable, et qu'ils sachent comment reconnaître et résoudre les problèmes. Moyennant une formation et un accompagnement adéquats, les clients pourront mieux comprendre les conséquences de l'exploitation qu'ils font des données.

La transparence comme condition d'application des bonnes pratiques

En pouvant déterminer la manière dont les équipes collectent des données, il devient possible d'éviter les effets inattendus d'algorithmes, que ce soit en environnement de labo ou dans le cadre des futurs scénarios du monde réel. En procurant le plus de transparence possible sur la manière dont le modèle IA a été créé, l'utilisateur final se fait une meilleure idée des précautions qui ont été prises afin de limiter les biais au maximum. La chose est notamment possible en publiant les cartes de modèles, avec une description de la finalité visée, des utilisateurs destinataires, des chiffres de performances et toute autre considération éthique. Cela contribuera à susciter la confiance, non seulement auprès de clients existants et potentiels, mais également auprès des législateurs et de la société dans son ensemble.

Pour pouvoir faire confiance à l'IA, le public doit, au final, comprendre pourquoi l'IA formule certaines recommandations ou prédictions. Les utilisateurs IA abordent ces technologies avec différents degrés de connaissance et d'expertise. Des scientifiques des données ou des statisticiens voudront par exemple découvrir tous les paramètres qui sont utilisés dans un modèle. Par contre, des prestataires n'ayant pas de bagage particulier en sciences des données ou en statistiques seront sans doute noyés sous une telle masse de détails. Pour susciter la confiance et éviter de jeter le trouble, les équipes doivent comprendre comment elles peuvent aborder ces thèmes et ces explications, de manière judicieuse, avec les différents utilisateurs.

Gianni Cooreman, Country Lead Solutions chez Salesforce Belux

Dans un monde post-coronavirus, où entreprises et employés peuvent réussir où qu'ils soient, l'augmentation sensible de la demande de technologies IA implique que les entreprises doivent respecter des normes plus strictes afin de garantir le développement de technologies qui soient dûment fondées. Si l'on fait l'impasse sur une totale compréhension des implications, les coûts de création, de commercialisation et d'implémentation de la technologie seront beaucoup trop importants pour être négligés.Pour concevoir et appliquer l'IA en toute confiance, nous devons nous tourner vers des démarches inclusives et des intentions éthiques, en prenant des mesures visant à expliquer en toute transparence l'impact et les motivations d'actions et de recommandations. A l'heure où une technologie éthique et justifiée devient une obligation organisationnelle, les entreprises peuvent gagner notre confiance de trois manières différentes -- en misant sur la légitimation, la transparence et l'équité.Renforcer les pratiques d'IA éthiqueA l'échelle d'une entreprise, l'éthique en IA implique de susciter et de préserver, du côté des employés, une culture de la pensée critique. Il n'est pas réaliste d'exiger d'un seul groupe de personnes qu'il assume la responsabilité d'identifier les risques éthiques lors de la phase de développement. Une approche éthique des projets IA exige plutôt une multitude de perspectives diverses formulées au départ de cultures, d'ethnicités, de genres et de domaines d'expertises variés.Au final, chaque employé doit faire sien un sentiment de responsabilité vis-à-vis des autres au sein de l'entreprise et vis-à-vis de la clientèle. Cultiver une mentalité d'"ethics by design" exige une implication systématique, où tous les collaborateurs se voient octroyer le rôle de consultants produit et où les équipes data science identifient et s'emparent des questions éthiques ayant trait à leurs projets.Comprendre la nature et l'ampleur des préjugésBien que l'IA puisse très certainement avoir un impact positif sur le monde des entreprises et sur la collectivité, nous devons également prendre conscience du côté problématique que peuvent revêtir ces technologies, notamment en termes de renforcement des préjugés. C'est une chose que de créer de l'IA en laboratoire. C'en est une autre de prévoir de manière précise la manière dont elle opèrera dans le monde réel.La prise de responsabilité doit être une priorité absolue tout au long du cycle de vie d'un produit. Les équipes doivent également appréhender parfaitement la nature et l'intensité des biais et préjugés dans les jeux de données qu'elles utilisent ainsi que ceux des modèles qui sont entraînés sur ces jeux de données. Cet aspect des choses vaut tout naturellement aussi pour leurs propres jeux de données. Il est essentiel que des équipes d'IA éthique favorisent les questionnements sur la manière dont elles peuvent rendre les modèles IA davantage explicables, transparents et vérifiables. Le fait de pouvoir élaborer des méthodes et des pratiques soigneusement définies et validées par des tiers, en support à la prise de décision, constitue une garantie de transparence pour toutes les parties concernées.Si les développeurs procurent des plates-formes IA, ce sont les utilisateurs de l'IA qui sont en fait les propriétaires et les responsables de leurs données. Et même si les développeurs peuvent procurer des formations et des outils afin de contribuer à identifier les biais et de limiter les préjudices, les algorithmes ont la capacité de renforcer des stéréotypes dommageables s'ils ne sont par exemple pas suffisamment entraînés ou s'ils ne sont pas contrôlés. Il est dès lors important que les entreprises procurent les bons outils aux clients et aux utilisateurs afin qu'ils puissent utiliser les technologies de manière sûre et responsable, et qu'ils sachent comment reconnaître et résoudre les problèmes. Moyennant une formation et un accompagnement adéquats, les clients pourront mieux comprendre les conséquences de l'exploitation qu'ils font des données.La transparence comme condition d'application des bonnes pratiquesEn pouvant déterminer la manière dont les équipes collectent des données, il devient possible d'éviter les effets inattendus d'algorithmes, que ce soit en environnement de labo ou dans le cadre des futurs scénarios du monde réel. En procurant le plus de transparence possible sur la manière dont le modèle IA a été créé, l'utilisateur final se fait une meilleure idée des précautions qui ont été prises afin de limiter les biais au maximum. La chose est notamment possible en publiant les cartes de modèles, avec une description de la finalité visée, des utilisateurs destinataires, des chiffres de performances et toute autre considération éthique. Cela contribuera à susciter la confiance, non seulement auprès de clients existants et potentiels, mais également auprès des législateurs et de la société dans son ensemble.Pour pouvoir faire confiance à l'IA, le public doit, au final, comprendre pourquoi l'IA formule certaines recommandations ou prédictions. Les utilisateurs IA abordent ces technologies avec différents degrés de connaissance et d'expertise. Des scientifiques des données ou des statisticiens voudront par exemple découvrir tous les paramètres qui sont utilisés dans un modèle. Par contre, des prestataires n'ayant pas de bagage particulier en sciences des données ou en statistiques seront sans doute noyés sous une telle masse de détails. Pour susciter la confiance et éviter de jeter le trouble, les équipes doivent comprendre comment elles peuvent aborder ces thèmes et ces explications, de manière judicieuse, avec les différents utilisateurs.Gianni Cooreman, Country Lead Solutions chez Salesforce Belux