Paul Vacca
Les Gafa: Big Brother ou apprentis sorciers?
L’algorithme n’est qu’une suite d’instructions explicites. Alors pourquoi en faire l’agent occulte de tous les maux?
Il est, pense-t-on, la source de tous nos maux, l’artisan de notre aliénation numérique. N’est-ce pas lui qui a incité les Américains à voter Trump et a provoqué le Brexit? Lui qui nous rend dépendants aux réseaux sociaux et nous pousse à acheter ce que nous ne voulons pas? Encore et toujours lui qui fait prospérer les fake news et qui nous surveille dans toutes nos actions? Lui? L’algorithme, bien sûr.
Il faut dire qu’il a la tête du suspect idéal: cryptique, occulte, tarabiscoté, on l’imagine en formule cabalistique aux mains des géants des big techs, tapi dans le secret de nos smartphones et de nos ordinateurs se gavant de nos données personnelles pour mieux nous manipuler.
Il y a 15 jours, la Bibliothèque nationale de France a proposé au public une expérience intitulée Replay Memories, une création immersive documentaire signée Gordon et Andrés Jarach, où chaque participant armé de son casque de réalité virtuelle pouvait découvrir à la manière de Minority Report comment trois événements de notre mémoire collective – la chute du mur de Berlin en 1989, le 11-Septembre 2001 et l’explosion de la centrale nucléaire de Fukushima en 2011 – nous parviennent aujourd’hui à travers les mailles des algorithmes d’internet.
L’algorithme n’est qu’une suite d’instructions explicites. Alors pourquoi en faire l’agent occulte de tous les maux?
S’ensuivit une table ronde menée par Delphine Jenart, consultante en médiation culturelle numérique, réunissant autour des auteurs de l’oeuvre trois experts: Cécile Boëx, maîtresse de conférences à l’EHESS, Frédéric Clavert, docteur en histoire contemporaine, et Christian Delage, historien et réalisateur. Comment aujourd’hui, et à travers quels filtres, l’historien – ou le simple internaute – peut-il appréhender via les moteurs de recherche ou les réseaux sociaux un événement et mener un travail de mémoire? Un débat passionnant qui fut aussi l’occasion de dépassionner le débat.
Car il y fut évoqué le fait que la surcharge informationnelle, dont on se plaint à juste titre aujourd’hui, n’est en rien un phénomène nouveau. Elle existait déjà du temps de l’imprimerie et à chaque fois sous une forme adaptée à son époque. Mais surtout, on procéda à une forme de réhabilitation ou pour le moins de dédiabolisation de l’algorithme: celui-ci – qui existe depuis le 9e siècle de notre ère – n’est finalement qu’une suite d’instructions explicites. Mutatis mutandis, une recette de cuisine. Alors pourquoi en faire l’agent occulte de tous les maux? D’autant qu’aujourd’hui, nous apprend Frédéric Clavert, à la faveur de l’IA et du deep learning, ce ne sont pas les algorithmes qui sont véritablement aux manettes. Autant ceux-ci sont relativement transparents dans leur fonctionnement – ils disent ce qu’ils font -, autant l’apprentissage profond de l’IA nous fait glisser vers quelque chose de beaucoup plus opaque. Car si l’on sait comment démarrer la machine (par un gavage de data), on ignore absolument comment et pourquoi tel ou tel résultat en sort.
Pour qualifier ce phénomène, Frédéric Clavert utilise la métaphore de la “boîte noire”. Une boîte noire pour nous, certes, mais chose plus étonnante, pour les géants de l’internet aussi. La preuve: lorsque Facebook tenta de paramétrer différemment son newsfeed afin de réduire la propagation de fake news, il obtint de façon inexpliquée l’effet contraire. De Big Brother omniscient, les voilà devenus sous nos yeux de simples apprentis sorciers.
Le problème, évidemment, c’est qu’ils ne l’avoueront jamais. Ils préfèrent de loin être traités de Big Brother, il en va de leur business. Alors, comme dans la phrase de Cocteau, puisque ces mystères les dépassent, ils feignent d’en être les organisateurs.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici