Paul Vacca

Volerons-nous bientôt les emplois des robots?

Paul Vacca Romancier, essayiste et consultant

En cliquant sur nos applications, nous pensons avoir affaire à de l’IA alors qu’en réalité, ce sont le plus souvent des êtres humains qui s’activent de l’autre côté de nos écrans.

De 1769 à 1820, il suscita l’admiration d’un public nombreux qui se pressait pour le voir remporter quasiment toutes les parties d’échecs contre ses adversaires. Il était même capable de résoudre le problème du cavalier, ce casse-tête qui exige de déplacer la pièce de façon à n’occuper qu’une seule fois les 64 cases de l’échiquier. Il fut reçu, scruté et applaudi lors de ses tournées dans les cours royales européennes et jusqu’en Amérique. Impassible, habillé d’une cape et d’un turban, il se tenait toujours assis derrière son meuble en bois d’érable.

On l’appelait le Turc mécanique. C’était un automate. C’est en tout cas ainsi qu’il fut vendu par son imprésario Johann Maelzel: une fois ouvertes, les portes du meuble révélaient des mécanismes internes se mettant en branle lors de son activation. Si de nombreux soupçons de supercherie coururent sur son compte, personne ne parvint à apporter la preuve formelle qu’il ne s’agissait pas d’une machine.

Edgar Poe, quelques années plus tard, dézingua in absentia la supercherie dans sa nouvelle Le Joueur d’échecs de Maelzel. Il procéda à coups d’hypothèses déductives, comme il en chargera quelques années plus tard son célèbre détective Auguste Dupin dans Double assassinat dans la rue Morgue. Car il s’agit là aussi d’une énigme de chambre close, mais en négatif: selon Poe, le meuble en érable devait abriter un être humain.

En cliquant sur nos applications, nous pensons avoir affaire à de l’IA alors qu’en réalité, ce sont le plus souvent des êtres humains qui s’activent de l’autre côté de nos écrans.

On peut aisément se gausser aujourd’hui qu’une telle illusion ait pu duper tant de crédules. On aurait tort car nous sommes quotidiennement victimes d’un canular de même nature: en cliquant sur nos applications, nous pensons avoir affaire à de l’intelligence artificielle alors qu’en réalité, ce sont le plus souvent des êtres humains qui s’activent de l’autre côté de nos écrans.

Notre Edgar Poe d’aujourd’hui s’appelle Antonio Casilli. Sociologue et chercheur, il dissèque notamment dans En attendant les robots (Le Seuil, 2019) la mécanique trompeuse d’un certain nombre de sociétés technologiques qui se livrent à une supercherie similaire. Derrière un habillage IA dûment valorisé par le marché et les investisseurs ou partenaires, celles-ci emploient en effet du personnel à Madagascar, dans un cybercafé à Manille, depuis des salles au Kenya ou dans la Creuse en télétravail. Leur mission: rectifier les erreurs des systèmes automatisés. En exécutant à grande échelle ce que finalement nous faisons à longueur de journée quand nous corrigeons nous-mêmes notre correcteur d’orthographe, pourtant boosté au deep learning. Cet ” IA washing” (comme on parle de ” green washing”) produit ce que Casilli appelle le digital labor : des jobs à base de micro-opérations invisibilisés et précarisés. Et précarisés parce qu’invisibilisés.

C’est transitoire, l’IA progresse, nous dira-t-on? Voire! Car Casilli soulève bien la perversité du mécanisme: pourquoi ces entreprises investiraient-elles pour développer aujourd’hui une IA qu’elles possèdent déjà aux yeux de tous? L’IA – en tant que mythe – prend alors la consistance du “couteau sans manche qui perdu sa lame” de Lichtenberg: celle d’une pure menace fantôme. Inexistante mais dont l’ombre pèse d’autant plus lourd sur certains métiers qui sont dès à présent démonétisés. Qui seront les prochains assistants des pseudo-assistants intelligents?

On évoque souvent la révolte des robots en ligne avec le mythe de la “singularité technologique”, ce moment où la machine est censée dépasser l’homme. Il serait surtout temps que l’être humain se révolte pour faire prévaloir sa propre singularité et voler les métiers que les robots usurpent.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content