Laurent Sorber

Si nous voulons promouvoir l’équité dans l’intelligence artificielle, nous devrons faire des choix difficiles

Laurent Sorber CTO et cofondateur de Radix

Au fur et à mesure que l’IA s’intègre dans notre société et nos entreprises, nous réalisons que nos intelligences artificielles sont “bien trop humaines” : elles reflètent les biais provenant des données qu’elles utilisent. L’intelligence artificielle est-elle dès lors condamnée à reproduire sans cesse nos propres travers ? Peut-être pas. Les biais sont plus facilement détectés dans une IA que chez l’humain. C’est un avantage que nous pouvons exploiter.

Un débat fondamental

Les systèmes de prise de décision automatisés se déploient à une échelle sans précédent. L’IA étant appelée à prendre ou à influencer de plus en plus de décisions qui influencent nos opportunités sociales et économiques, la notion d’équité (fairness) est vivement débattue dans le microcosme de l’intelligence artificielle. Entravera-t-elle votre entrée ou votre retour sur le marché du travail parce que vous êtes une femme ou parce que vous êtes issu(e) de l’immigration ? Cette question suscite une grande inquiétude, et c’est bien légitime.

Comment aborder cette question ? Comment devrions-nous “réguler” l’IA ? D’une certaine manière, elle est déjà réglementée en Europe. Lorsqu’une IA prend des décisions qui affectent les sujets liés au RGPD, le propriétaire du logiciel doit pouvoir expliquer comment le logiciel a pris ses décisions, comme indiqué dans l’article 22 du RGPD. Et ce n’est que le début.

Technologie de pointe, débat millénaire

Plutôt que d’attendre une vague de régulation, le C-level des entreprises peut déjà s’atteler à la création d’intelligences artificielles “équitables”. Mais qu’est-ce que l’équité, exactement ? Ce concept est débattu depuis des siècles. L’appellation anglaise “ fairness“, la plus utilisée dans le domaine, englobe plusieurs définitions en français : équité, justice, impartialité, … Une partie de ce qui nous rend humains est notre capacité à faire des choix réfléchis. Ceux-ci sont influencés par d’innombrables variables dont nous ne sommes souvent mêmes pas conscients. Sommes-nous vraiment capables de prendre des décisions réfléchies parfaitement impartiales et 100% objectives ? Les biais sont partout. Ils sont difficiles à mesurer, et encore plus à combattre.

Ce qu’il est important de comprendre à propos de l’équité en matière d’IA, c’est qu’il faudra faire des choix difficiles. Et ces choix nous définiront en tant qu’ingénieurs, en tant que développeurs, mais surtout en tant qu’êtres humains. Actuellement, lors de la mise en oeuvre de solutions IA, l’attention des ingénieurs se porte principalement sur l'”utilité” du modèle. Lorsqu’ils présentent leur algorithme, ces ingénieurs se posent souvent la même question : “Le modèle que je livre est-il aussi précis que possible ?

La réponse est que la précision n’est pas (ou plus) le seul grand objectif. La précision des algorithmes est un défi technique qui est aujourd’hui très bien apprivoisé dans le monde de l’IA. Cependant, dès que l’on ajoute l’exigence que le système soit équitable, un compromis devient inéluctable : votre système deviendra nécessairement moins “précis”.

C’est logique. Dans les faits, vous pourriez constater que plus votre modèle est précis, plus il est biaisé – car l’IA apprendra à partir de données venant du monde réel. L’IA pourrait, par exemple, orienter les femmes vers des emplois d’infirmières et les hommes vers des métiers d’ingénieurs. Un exemple tristement célèbre est le récent outil de recrutement d’Amazon qui faisait preuve d’une certaine aversion envers les femmes. COMPAS, un algorithme utilisé aux États-Unis pour évaluer la probabilité qu’un accusé devienne récidiviste, a été et est toujours critiqué aujourd’hui pour les biais dont il fait preuve à l’égard des Afro-Américains.

Si ces exemples nous rappellent qu’il nous reste encore beaucoup de chemin à parcourir, le débat sur l’équité en matière d’IA est également une incroyable opportunité. L’IA nous permet en effet d’implémenter les convictions spécifiques d’une entreprise en matière d’équité. Les politiques de fairness en intelligence artificielle doivent être considérées comme un nouvel outil puissant, basé sur les données, qui permet d’approfondir des questions millénaires sur l’équité, la discrimination et la justice. C’est précisément parce que les modèles de machine learning sont désespérément formels que nous sommes obligés de définir précisément nos valeurs et d’opérer des choix. Nos choix en tant qu’êtres humains et en tant que société.

Comment rendre une IA “équitable” ?

Les préférences d’une entreprise en matière d’équité doivent être débattues par sa direction, voire par son conseil d’administration. Si vous n’abordez pas les questions d’équité avant de lancer un projet IA, certains développeurs pourraient choisir la solution de facilité : opter pour la précision et s’assurer que le logiciel fonctionne et obtienne d’excellents résultats, sans se soucier des conséquences ou des considérations primordiales en matière d’équité. Il est cependant possible de se préparer et de répondre à ces questions d’équité. Ensuite, des stratégies peuvent être mises en oeuvre, expliquées et défendues.

Songez aux biais courants et aux groupes de personnes qui en sont victimes : sexe, race, origine socioéconomique et migratoire, âge, handicap, antécédents médicaux, ou encore religion. Avant de lancer un projet IA, vous devez décider en tant qu’entreprise comment vous voulez contrer ces biais. Il existe de multiples manières d’examiner la question. Mais tout commence par l’objectif que nous voulons atteindre. Que définir comme norme ? Souhaitez-vous refléter les biais (implicites) de la société dans votre système ? Voulez-vous vous assurer que chaque groupe soit traité de manière représentative ? Voulez-vous créer une équité dans le résultat final ? La stratégie que vous définirez aura un grand impact sur l’équité des décisions prises par le modèle IA mais aussi sur sa précision, et in fine, sur les bénéfices que vous en tirerez.

L’équité transcende l’IA et nécessite une réflexion de la société dans son ensemble

Si vous n’êtes pas prêt à répondre à ces questions d’équité, vous devriez au moins vous efforcer de faire preuve de transparence (expliquer comment l’IA fonctionne) et respecter la vie privée des personnes (expliquer aux personnes concernées par l’IA comment le système prend ses décisions). En fin de compte, le Saint-Graal de l’équité en matière d’IA n’est pas de trouver une intelligence artificielle idéale, celle qui sera précise à 100% tout en étant parfaitement impartiale, car c’est tout simplement impossible. Il s’agit de se poser la question “Comment être un bon membre de la société ? Comment pouvons-nous utiliser l’IA pour apporter de la valeur à la société, tout en posant des choix conscients et moraux qui seront reflétés dans nos logiciels ” ?

Ces aspects doivent être abordés avant de développer une IA. Il est essentiel de se rendre compte qu’il n’existe pas de définition standard de l’équité. Une telle définition nécessiterait … un biais. C’est vrai pour les décisions humaines, et c’est vrai pour les décisions faites par des machines. Sans une mesure parfaite de l’équité, un compromis doit être trouvé. La promotion de l’équité et la réduction des inégalités transcendent l’IA et le machine learning et nécessitent une approche pluridisciplinaire, impliquant notre société dans son ensemble. En fin de compte, ce sont nos choix qui feront la différence.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content