Paul Vacca
‘La puissance du small data contre le big data’
Un des postulats sur lequel reposent les prévisions de la toute-puissance de l’intelligence artificielle à venir découle de la “loi de Moore”. Cette loi – ou plus exactement, cette conjecture – postule que la capacité de calcul des ordinateurs continuera d’augmenter de façon exponentielle en doublant tous les 18 mois, comme l’avait observé et consigné en 1965 Gordon E. Moore, l’un des fondateurs d’Intel, dans un article du magazine Electronics.
D’où la possibilité pour les machines de collecter toujours plus de données dans un monde hyper-connecté où désormais tout être vivant ou objet émet des milliards de données. Un big bang des données qui a donné naissance au big data. Aussi vertigineux que le paradoxe de l’univers : infini et pourtant toujours en expansion.
Comme enivré par le déluge de données, on est rapidement tenté de passer de la science à la science-fiction. Guidés par un animisme numérique, certains s’empressent d’ailleurs de prêter à cette production illimitée de données des pouvoirs infinis : l’omniscience.
Une ” omniscience ” qui fut même théorisée dès 2008 par le magazine Wired dans un article intitulé… La fin de la théorie (The end of Theory). Dans cet article-manifeste, Chris Anderson proclamait que le déluge des données allait renvoyer la méthode scientifique à la casse. En effet, pourquoi chercher à comprendre le réel à coup d’hypothèses forcément hasardeuses – ce que s’attache à faire la science – puisque désormais le réel pouvait nous être livré dans sa totalité par les data ? Selon lui, le déluge de données nous permet d’accéder à une connaissance complète du réel sans avoir à s’embarrasser de la science. Le big data, c’est donc l’omniscience sans la science. Cela tient à la conviction que ce big data devenant toujours plus big, le réel se révélerait avec toujours plus de précision.
Or cette idée que l’exhaustivité rendrait maître de la complexité du réel, en le dupliquant en quelque sorte, repose sur une conception comptable de la réalité. Comme dans les films où une photo se prête à des zooms sans fin révélant tous les détails les plus cachés. Cette réalité augmentée par le big data, c’est au mieux une carte à l’échelle 1/1 qui se confondrait avec le territoire : elle posséderait toutes les garanties de précision, mais serait parfaitement inapte à nous guider. Bien sûr, plus de connaissances mène à la vérité. Mais moins aussi. Dans ce domaine également, moins c’est parfois mieux. La clef du réel ne s’obtient pas par une compilation de données si exhaustive soit-elle, mais par hypothèse, c’est-à-dire en faisant le choix dans la masse de connaissances de certaines au détriment d’autres.
Plus de connaissances mène à la vérité. Mais moins aussi. Dans ce domaine également, moins c’est parfois mieux.
L’illustration parfaite de ce less is more est offerte par la nouvelle d’Edgar Poe, La Lettre Volée. Alors que les équipes de Scotland Yard – adeptes du big data avant l’heure – s’escriment à passer au peigne fin le moindre millimètre carré de l’appartement à la recherche de la lettre compromettante, le détective Auguste Dupin décide d’ignorer totalement ce qui se passe dans cet appartement. Il construit une hypothèse en partant des seules données qui lui semblent pertinentes. Et découvre au nez et à la barde de Scotland Yard où se trouve la lettre… De la puissance du small data contre le big data.
C’est qu’une trop grande connaissance des choses nous aveugle non seulement sur le réel, mais aussi sur nos propres capacités à le comprendre. La conviction de tout connaître procure aussi un sentiment trompeur d’invulnérabilité. C’est l’un des enseignements de la campagne d’Hillary Clinton dopée au big data. Les machines étaient formelles : elle ne pouvait pas perdre. La montée démographique des minorités dans le pays allait priver mécaniquement les Républicains d’une possible élection dans le futur. De plus, les équipes démocrates ont fait appel, grâce aux milliards de données collectées, aux techniques les plus pointues pour adresser en masse des messages ciblés auprès des électeurs. Big data, invincible armada. C’est pour une part ce sentiment d’invincibilité – cette arrogance auront même souligné certains – qui a rendu la candidate vulnérable.
Nous sommes convaincu que si Napoléon avait eu accès au big data, il n’aurait pas perdu à Waterloo. Pour la simple raison qu’il aurait déjà été défait 10 ans plus tôt à Austerlitz.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici