Peut-on débarrasser l’intelligence artificielle de ses préjugés?
L’intelligence artificielle (IA), qui repose sur des montagnes d’informations bourrées de préjugés humains, transforme peu à peu notre quotidien, facilitant des tâches banales ou complexes, au risque d’automatiser des discriminations. Mais peut-on rendre l’IA neutre?
Pour l’instant, non, répondent les experts interviewés par l’AFP, expliquant, en somme, qu’on ne peut pas retirer la levure d’un gâteau après l’avoir cuit. Surtout à l’heure de l’IA générative, où des modèles nourris sur internet (sites web, réseaux sociaux, vidéos, etc) produisent, en retour, toutes sortes de contenus, à la demande. Le résultat est bluffant, mais les interfaces comme ChatGPT restent des machines mathématiques qui prédisent les mots ou pixels les plus probables à la suite les uns des autres.
“Les modèles de langage ne savent pas ce qu’ils savent, ni pourquoi ils le savent”, explique Jayden Ziegler, directeur produit de la start-up d’IA Alembic. “Ils ne peuvent pas discerner ce qui est partial ou pas, inclusif ou pas. Donc ils ne peuvent rien y faire”. En l’absence de réglages supplémentaires, si un utilisateur demande une image de responsable d’entreprise, il obtient donc plutôt des photos d’hommes blancs en costume, la quarantaine grisonnante.
“Ces modèles agissent comme des miroirs de notre histoire et de notre culture”, commente Joshua Weaver, directeur d’une ONG texane sur les droits humains dans la justice. “Ils ne vont pas produire des résultats substantiellement différents des informations emmagasinées”.
“Filtre social”
Le danger? “On risque de se retrouver dans un cycle infernal où nos préjugés se retrouvent dans l’IA, qui en retour renforce nos idées préconçues”, note cet avocat. Les solutions technologiques sont limitées. Réentraîner complètement les modèles de fondation avec des données non-biaisées prendrait beaucoup de temps, coûterait très cher, et il n’existe pas de corpus d’informations “neutres” à grande échelle.
Les entreprises essaient donc d'”aligner” les modèles avec les valeurs désirées, en leur imposant des règles. La plupart des chatbots ont ainsi cessé de faire part de sentiments qu’ils ne sauraient avoir, et produisent des résultats plus divers. “On leur met un filtre social”, résume Tomás Puig, cofondateur d’Alembic. “Comme les personnes aux idées bien arrêtées qui ont appris à ne pas dire ce qu’elles pensent en public”. La méthode a montré ses limites en février, quand Gemini (Google) a répondu à des requêtes d’images de soldats allemands de la Seconde Guerre mondiale avec des personnages incluant un homme noir et une femme asiatique.
Pressés par la rivalité, les géants de la tech innovent et déploient très rapidement leurs assistants IA. Elles adoreraient pouvoir faire du “machine unlearning” (par opposition au “machine learning”, ou apprentissage automatisé), remarque Sasha Luccioni, chercheuse de Hugging Face, une plateforme collaborative d’IA générative. “Mais chercher une solution technologique, c’est aller dans la mauvaise direction”, avertit-elle.
“Thérapie”
Le plus urgent est d’éduquer les humains à ces nouveaux outils, des machines qui donnent l’impression d’avoir une conscience. “Un peu de bon sens serait le bienvenu”, souligne Joshua Weaver. Il recommande aussi de diversifier les équipes d’ingénieurs à la manoeuvre, “trop homogènes, composées principalement de jeunes hommes qui viennent de milieux similaires, et n’intègrent pas beaucoup de points de vue différents”.
Dans la dernière démonstration d’OpenAI, ChatGPT “lit” les émotions de ses utilisateurs sur leur visage. Mais sera-t-il capable d’interpréter correctement les expressions faciales de toutes les cultures? Les experts rappellent cependant que l’IA générative n’en est qu’à ses débuts. De nombreuses start-up explorent des méthodes différentes.
Pinecone, par exemple, s’est spécialisée dans le “RAG” (retrieval-augmented generation), qui consiste à créer des bases de données strictement contrôlées, dans lesquelles l’assistant IA vient piocher des éléments factuels. Ram Sriharsha, directeur technologique de l’entreprise, prend l’exemple d’une application dans un cabinet juridique : “L’assistant IA – le modèle de langage – est un expert en anglais, pas en droit. Imaginez qu’il ait accès à un avocat qui connaisse tous les dossiers, alors il pourrait répondre à n’importe quelle question juridique!”.
A terme, des ingénieurs espèrent donner aux machines la capacité de prendre du recul sur leur propre comportement. “Pour l’instant, ce sont des boîtes noires” insondables, constate Jayden Ziegler. “Mais peut-être qu’à l’avenir, on pourra concevoir un niveau supérieur où le modèle fera le tri entre les bonnes et les mauvaises informations, avec un système de récompenses”. “Les modèles pourront aller en thérapie, en somme”, plaisante Tomás Puig.
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici