Que s'est-il passé ? Facebook a réagi aux reproches qui lui ont été adressés à la suite de l'élection présidentielle américaine de 2016 et du referendum du Brexit au Royaume-Uni la même année. Il était alors apparu qu'il avait été très aisé pour des organes de désinformation comme l'Internet Research Agency (Saint-Pétersbourg) ou Cambridge Analytica (Londres), de cibler de manière extrêmement personnalisée des individus à partir de leurs préférences manifestées sur Facebook en vue, aux Etats-Unis, de les faire voter Trump s'ils étaient conservateurs et de les décourager d'aller voter s'ils étaient progressistes, et au Royaume-Uni, de les faire choisir l'option Leave.
...

Que s'est-il passé ? Facebook a réagi aux reproches qui lui ont été adressés à la suite de l'élection présidentielle américaine de 2016 et du referendum du Brexit au Royaume-Uni la même année. Il était alors apparu qu'il avait été très aisé pour des organes de désinformation comme l'Internet Research Agency (Saint-Pétersbourg) ou Cambridge Analytica (Londres), de cibler de manière extrêmement personnalisée des individus à partir de leurs préférences manifestées sur Facebook en vue, aux Etats-Unis, de les faire voter Trump s'ils étaient conservateurs et de les décourager d'aller voter s'ils étaient progressistes, et au Royaume-Uni, de les faire choisir l'option Leave. Qu'a fait Facebook pour décourager un tel ciblage venu de l'extérieur ? La compagnie a privilégié dans les messages diffusés à un utilisateur, ceux en provenance de son groupe d'amis. Premier effet non escompté : une baisse catastrophique de 31% de la diffusion de la presse en ligne. Deuxième effet inattendu : une dérive complotiste de l'information, les groupes d'amis ayant tendance à faire circuler entre eux des récits sensationnalistes coupés de la vérification par des sources fiables. L'aspect " incestueux " de l'information circulant dans les petits groupes d'amis encourage ainsi la diffusion de fake news et la généralisation d'un tel mode de fonctionnement rend plausible l'idée que notre société contemporaine serait celle de la post-vérité : il serait très difficile désormais de distinguer le vrai du faux. Or il s'agit bien entendu là d'une illusion : le vrai est aussi vrai qu'autrefois, et le faux... tout aussi faux. Mais comment ce sentiment a-t-il pu naître ? J'en ai décrit le mécanisme dans un ouvrage consacré à l'intelligence artificielle, intitulé Principes des systèmes intelligents. Deux formes distinctes de vérité sont produites quand les êtres humains dialoguent. La première est la vérité globale que chacun connaît, c'est celle qu'on apprend en principe à l'école : celle des faits avérés, des mathématiques, du discours scientifique. La seconde est moins connue, c'est la vérité locale. Voici l'exemple que j'en donnais. Une personne dit à une autre : " Je crois personnellement que la Terre est plate ! " A quoi l'interlocuteur répond : " Ah ! Mais je suis tout à fait de votre avis : je crois la même chose ". Sur quoi le premier conclut : " Très bien et puisque nous savons que la Terre est plate, etc. ". Il dit " nous savons " au lieu de " nous croyons ", parce que c'est bien comme cela que nous nous exprimons : comme ils sont d'accord entre deux, il n'est plus question de " croire ", mais de " savoir ". En deux temps trois mouvements, une vérité locale a ainsi été créée. Bien sûr, il ne s'agit que d'une vérité locale, car selon la vérité globale que nous partageons vous et moi, la Terre est toujours aussi ronde qu'avant, mais des vérités locales peuvent se créer de cette manière entre gens qui se mettent d'accord sur telle ou telle représentation. La nouvelle politique de Facebook ne rend pas plus vraisemblable l'idée d'un monde ayant désormais capitulé devant une prétendue post-vérité, mais il est clair que le renfermement " incestueux " des groupes d'amis sur eux-mêmes peut faire émerger des milliers de vérités locales qui qualifieront la vérité globale de fake news : " Dans mon groupe Facebook, tout le monde sait qu'Einstein, ce n'est qu'un ramassis de sornettes ! "