Carte blanche

Intelligence artificielle et éthique? La technologie a souvent bon dos

On a déjà beaucoup disserté sur la dimension éthique de l’intelligence artificielle (IA). Les exemples d’applications connaissant des cas de discrimination ne sont pas rares. Rejeter la faute sur l’algorithme, c’est oublier qu’il y a d’abord un être humain pour le paramétrer. Autrement dit : la responsabilité éthique de l’intelligence artificielle repose avant tout sur la personne qui développe ladite technologie.

Quand on parle d’intelligence artificielle, beaucoup de gens ont tendance à se projeter dans un film de science-fiction. Cette technologie, qui n’a rien à voir avec les scénarios parfois alarmistes de films à succès comme ‘The Terminator’ ou ‘Minority Report’, est pourtant largement répandue. En fait, la plupart des gens emploient une intelligence artificielle sans le savoir. La capacité de détecter un chat dans l’album photo sur nos smartphones est basée sur la même technologie que les programmes de reconnaissance faciale très poussés.

Si, à certains égards, la “computer vision” peut être utilisée dans un but inapproprié (notamment dans la répression de certaines minorités), dans beaucoup d’autres situations, elle facilite considérablement la vie : pour déverrouiller un smartphone, voire pour diagnostiquer des maladies bien plus tôt. Clouer au pilori toutes les applications de l’IA à cause des abus de l’une d’entre elles serait donc aller trop vite en besogne.

La technologie connaît deux visages et peut être autant utilisée à des fins vertueuses que nuisibles. Il en a toujours été ainsi. Le marteau a d’abord été imaginé pour enfoncer des clous ou marteler le fer ; mais il peut tout autant causer de graves blessures. Quand on lutte contre la fraude fiscale, on ne s’en prend pas à l’usage d’Excel. Le vrai défi est donc de s’accorder sur le bon niveau d’examination.

Mauvaises intentions ou incompétence ?

Ce qui est clair, c’est la nécessité d’un code éthique pour l’IA. L’Union européenne a par exemple récemment dévoilé son projet de réglementation pour booster la confiance du citoyen dans celle-ci. Mais au moment d’en fixer les règles, il ne faut en aucun cas oublier que toute forme de technologie doit son existence à un développeur humain. On a trop souvent tendance à attribuer immédiatement un échec de l’IA à des intentions malveillantes, alors que dans de nombreux cas, la cause relève davantage de l’erreur humaine. Si les données sont incomplètes, de mauvaise qualité ou biaisées, on ne peut s’attendre à ce que le résultat soit meilleur.

Prenons l’exemple de Stanford, qui a récemment utilisé un algorithme pour déterminer l’ordre de vaccination contre la Covid-19. Ce système tenait compte de facteurs comme l’âge et la santé, mais pas de la profession. C’est ainsi que le personnel médical chargé de veiller sur les patients atteints du virus fut soudainement relégué tout en bas de la file d’attente. La technologie fit l’objet d’un feu roulant de critiques, mais l’algorithme a été accusé d’une erreur d’origine humaine. Certes, l’objectif n’était certainement pas d’exclure le personnel médical de la vaccination, mais les développeurs, en saisissant les données, ont simplement commis une erreur qui ne fut révélée qu’à l’usage de l’application.

D’un côté, on surestime les dégâts que peut provoquer l’IA suite à des intentions malveillantes ; mais de l’autre, on sous-estime la fréquence à laquelle elle échoue en raison d’une exécution erronée. Quand l’IA ne fonctionne pas, il convient avant tout de se poser la bonne question : est-ce dû à une action de personnes malintentionnées qui cherchent à utiliser les données à leur avantage, ou à des personnes bien intentionnées qui ont mal utilisé les informations disponibles ? Rejeter systématiquement la faute sur l’algorithme revient à fuir ses responsabilités.

Une check-list éthique

Tout algorithme doit-il subir un contrôle éthique ? Dans son livre ‘Weapons of Math Destruction’, Cathy O’Neill énumère 3 critères. Tout d’abord, il faut rester prudent face aux algorithmes qui peuvent influencer la vie des gens à grande échelle. Deuxièmement, notre attention est requise quand on ne sait pas expliquer clairement comment certains calculs ont lieu. Et enfin, il faut vérifier le potentiel de dégât des algorithmes. Un logiciel qui détermine les priorités de vaccination ou décide qui est susceptible de souscrire une assurance-vie a des conséquences éminemment plus graves qu’une application d’intelligence artificielle utilisée pour choisir la couleur optimale d’un papier peint.

Déterminer si la technologie est éthique ou pas commence dès les prémices du développement. Les ingénieurs doivent vérifier si leur algorithme ne provoque pas de discrimination, qu’il s’agisse de l’origine ou du genre.

Des lois, régulations et codes déontologiques peuvent certainement être établis, et certaines existent déjà dans de nombreux secteurs. Le monde de l’assurance est par exemple soumis à une interdiction légale de discrimination sur le genre depuis (seulement) 2013.

Ces garde-fous peuvent également servir de point de départ au développement de l’IA. Comme l’a dit un jour Jeff Bezos, fondateur d’Amazon : “Ne vous focalisez pas sur ce qui change, mais sur ce qui restera identique.” Les gens auront toujours besoin de souscrire des contrats d’assurance ou d’acheter un logement ; partir de là est donc une bonne base.

Une check-list éthique ne doit pas nécessairement s’avérer complexe. C’est le reflet de ce qui est considéré comme éthiquement correct dans la société ou un secteur d’activité déterminé. Quand les intentions sont bonnes, il faut toujours vérifier qu’il n’y a pas de zone grise susceptible de provoquer des dégâts ou des discriminations. Et, tant qu’un modèle intelligence artificielle ne s’est pas soumis à ce test, sa production ne devrait pas être lancée.

Julien Theys, Managing Partner Agilytic

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content