Paul Vacca
Face aux Gafa, “menaces fantasmées contre risques réels”
Une des craintes récurrentes concernant les big techs emprunte sa trame à Minority Report, le film de Steven Spielberg sorti en 2002 avec Tom Cruise, tiré d’une nouvelle de Philip K. Dick.
Cette nouvelle décrivait dès 1956 une société qui, en 2054, aurait éradiqué le meurtre grâce à un système de prévention particulier : trois êtres extra-lucides prescients appelés les Précogs – pour ” précognition ” – dissimulés au coeur du ministère de la Justice, capables de capter les signes précurseurs de violences homicides et ainsi de permettre à la police de prévenir un crime avant qu’il ne se produise.
Comme tous les récits de Philip K. Dick, celui-ci pose une question philosophique : celle de notre libre arbitre. Si quelqu’un est en mesure de prévoir et prévenir nos actions avant que nous les exécutions, n’est-ce pas la fin de notre liberté ?
Or, aujourd’hui, certains prêtent aux géants technologiques ce même pouvoir de divination. Ceux-ci tiendraient leur force d’un raisonnement à la logique apparemment imparable : récoltant des milliards de données sur nous, ils connaîtraient tout de nous – le postulat du big data – et puisqu’ils connaissent tout de nous, ils sont donc capables de prédire ce que nous allons faire. Et c’est ainsi que le big data se mue en big data prédictif. C’est simple. Peut-être un peu trop justement…
Car comme l’a fort judicieusement remarqué Robert Shrimsley dans une tribune du Financial Times, ” si le big data était si effroyablement efficace pour connaître tous les aspects de ma personne, pourquoi donc Facebook s’entêterait-il à essayer de me fourguer des pantoufles à 80 livres que je n’achèterai jamais ? ” On nous dit que les algorithmes sophistiqués développés par les plateformes à partir de l’extraction des données et le machine learning permettent de nous connaître mieux que nos amis ou que nos proches. Etonnant, car il eût suffi, selon lui, d’un petit quart d’heure en sa compagnie pour comprendre qu’il était peu susceptible de dépenser un jour 80 livres en pantoufles.
Il semble que le pouvoir prédictif des plateformes s’apparente plutôt à une capacité à prédire… le passé.
Idem pour les publicités en ligne. Que nous recevions des sollicitations de la part d’un hôtel lorsque nous visitons le site d’une ville, passe encore. Mais comment se fait-il alors que dans notre ère de prétendue omniscience numérique, on continue de nous solliciter même après avoir réservé notre chambre ? Et ce pendant plus de six semaines parfois.
Pour Robert Shrimsley, loin de ressembler à des génies malfaisants et machiavéliques des données, les plateformes avec leur bégaiement publicitaire lui suggèrent plutôt l’image d’un vieil oncle un peu gâteux qui se souviendrait que vous aimiez la guimauve lorsque vous étiez enfant et qui continuerait de vous en offrir alors que vous avez passé 45 ans.
Il semble bien que le pouvoir prédictif des plateformes s’apparente plutôt à une capacité à prédire… le passé. Logique après tout, les algorithmes dits prédictifs sont en réalité conçus à partir de l’hypothèse que notre futur sera une reproduction de notre passé. La prémonition vire alors rapidement à la duplication du même, jusqu’à la tautologie. Il faudrait donc cesser de fantasmer sur ce supposé don de prescience des plateformes. L’entretenir ne fait que valoriser l’image de toute-puissance que celles-ci cherchent à se donner auprès de leurs clients.
Avec son mix de pensée magique et de complotisme, le fantasme du prédictif en rappelle un autre, vintage, qui sévissait dans les années 1960-1970 : celui des messages subliminaux dans les spots publicitaires. On prétendait qu’au détour d’une imperceptible 25e image, on forçait la porte de notre inconscient à ” Voter Nixon ” ou à nous précipiter sur une bouteille de Coca-Cola.
Le problème, c’est qu’en forgeant des menaces fantasmées, on passe à côté des risques réels. Par les données qu’elles récoltent sur nous, les plateformes sont capables non pas d’agir sur notre libre arbitre, mais bien sur nos libertés civiles. Elles sont en mesure non pas de nous connaître mieux que nos proches, mais bien de nous ficher. Et, avec l’aide d’un Etat, de nous attribuer des scores. Si votre score est trop bas, elles pourront vous interdire de prendre un avion, empêcher votre fille de postuler dans l’université de son choix, vous refuser une chambre d’hôtel et faire exploser le montant de votre mutuelle… La vie ressemblerait alors à un jeu vidéo. Sauf que ce serait dans la vie réelle. Un peu comme en Chine aujourd’hui.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici