Il décrit le double effet d'illusion ( filter) et d'isolement ( bubble) induit par nos parcours fléchés par les algorithmes sur Internet. Avec, pour conséquence, de nous laisser croire que le monde est conforme à notre vision, alors que notre horizon numérique est paramétré pour nous. L'illusion est parfaite : nous pensons être sur Internet nous sommes en réalité sur " notre " Internet. Notre opinion - quelle qu'elle soit - semble comme par enchantement être la plus partagée du monde. Certes, nous circulons librement sur Internet, mais toujours munis de nos propres filtres qui agissent comme des oeillères.
...

Il décrit le double effet d'illusion ( filter) et d'isolement ( bubble) induit par nos parcours fléchés par les algorithmes sur Internet. Avec, pour conséquence, de nous laisser croire que le monde est conforme à notre vision, alors que notre horizon numérique est paramétré pour nous. L'illusion est parfaite : nous pensons être sur Internet nous sommes en réalité sur " notre " Internet. Notre opinion - quelle qu'elle soit - semble comme par enchantement être la plus partagée du monde. Certes, nous circulons librement sur Internet, mais toujours munis de nos propres filtres qui agissent comme des oeillères. Face à cela, nous pensions avoir trouvé une parade. Dévoyer les algorithmes de personnalisation, sortir de nos parcours fléchés en choisissant par exemple de nous mettre en contact avec des idées, des opinions ou des goûts différents des nôtres. En élargissant le plus possible notre horizon numérique pour y faire entrer la plus grande diversité de points de vue. Et ainsi nous libérer un tant soit peu de notre bulle de filtre. Une attitude de bon sens qui nous semblait saine. Et que l'on croyait efficace. Naïvement, semble-t-il. Car, cet été, une équipe de chercheurs américains en sciences sociales du centre de recherches PNAS a douché nos illusions. Leur étude publiée fin août intitulée Exposing to opposing views on social media can increase political polarization montre que s'exposer à des idées contraires ne nous libère pas de notre bulle. C'est en tout cas la conclusion qu'en tire l'équipe suite à une expérience. Celle-ci proposait à un échantillon de personnes aux penchants politiques affirmés de suivre un compte Twitter publiant automatiquement des points de vue opposés aux leurs pendant un mois. Ainsi, des Démocrates se trouvèrent exposés à des posts conservateurs et les Républicains à des publications de médias libéraux ou d'élus démocrates... Est-ce que cela a contribué à ouvrir leur horizon ? A mettre de l'eau dans leur vin ? A pondérer leurs opinions ? Non. Loin de les avoir aidés à comprendre le point de vue opposé, cela les a, au contraire, confortés dans leur propre opinion, la radicalisant même légèrement. A l'issue de l'expérience, les Républicains se révélèrent donc un peu plus conservateurs et les Démocrates un peu plus de gauche... De prime abord, c'est plutôt désespérant : de quoi nous ôter toute velléité d'ouverture. Presque un appel à rester cloîtré dans sa bulle. Or, à y regarder de près, c'est finalement plutôt encourageant et instructif. Car cela ne prouve pas que l'ouverture de nos chakras numériques soit vaine. Cela démontre seulement que l'exposition à des thèses contraires aux nôtres ne suffit pas à nous convertir ni même à infléchir notre point de vue. En effet, contrairement au monde pré-Internet, nous sommes aujourd'hui abondamment exposés aux thèses contraires aux nôtres ne serait-ce que, mécaniquement, par le retentissement qui en est donnée par leurs opposants. Chaque camp relaie à l'envi le point de vue adverse pour mieux le démolir. Ce n'est donc pas que nous n'en ayons pas connaissance, c'est que nous ne l'entendons pas. Cela prouve aussi que les méchants algorithmes ne sont pas la seule cause de notre aveuglement qui peut également être imputé à notre " algorithme intérieur ", celui qui nous pousse à toujours aller vers ce qui conforte nos choix. Mais alors, comment sortir de notre bulle de filtre ? Si l'on veut avoir une chance d'y parvenir, au moins faut-il faire une chose : quitter les réseaux sociaux dont ces bulles semblent inhérentes à leur fonctionnement. Parfaits pour nous renseigner sur les opinions contraires ou différentes aux nôtres, elles ne nous permettent pas de dialoguer avec elles. Internet et les réseaux sociaux ont réussi à faire que toute opinion puisse être portée à la connaissance de chacun. C'est la première partie du programme des humanistes. Ce qu'il n'a pas encore réussi en revanche, c'est de permettre que ces opinions contradictoires puissent dialoguer entre elles. Comme filière éducative d'avenir, on parle beaucoup de l'enseignement du code. A notre sens, tout aussi important sera l'apprentissage du " décodage " de notre bulle de filtre et de l' "art perdu d'être en désaccord ".