Paul Vacca
L’IA qui se rêve en Big Brother
A la fin du 18e siècle, le philosophe anglais utilitariste Jeremy Bentham a mis au point le panoptique en formant le mot à partir du grec ancien panóptês signifiant “qui voit tout”. Il s’agissait d’une architecture carcérale qui permettait à un gardien logé dans une tour centrale d’observer tous les prisonniers à la fois, enfermés dans des cellules individuelles autour de ce point de vue imprenable, sans que ceux-ci puissent savoir qu’ils étaient observés.
Ce panoptique, certains ont eu l’idée notamment depuis les années 1990 de le réinventer dans les villes et les espaces publics grâce à la vidéosurveillance. Avec un argument simple martelé pour garantir la sécurité à ses citoyens : voir, c’est prévenir. Promue à la fois comme un outil de dissuasion qui éloignerait le danger par sa seule présence et aussi pour le traçage qui peut être effectué. La vidéosurveillance a d’ailleurs été tellement bien vendue que les caméras ont pullulé dans les espaces autant publics que privés au point qu’il est devenu inenvisageable désormais de traiter tout le flux d’images produit par ses caméras. Les caméras peuvent bien filmer 24h/24, il est devenu en revanche impossible de tout visionner ou alors au prix d’une armée mexicaine derrière les écrans. Que faire dès lors de tout ce déluge d’images ? Est-ce vraiment utile de filmer si l’on ne peut traiter ces images ?
C’est là qu’intervient l’IA, avec la mise en place de ce que l’on appelle la vidéosurveillance algorithmique (ou automatisée). Le principe de la VSA consiste à augmenter la vidéosurveillance de capacités d’analyse automatisées grâce à l’installation de logiciels visant à repérer, identifier et classer des situations, des personnes et des objets. En clair, à façonner une IA dotée de capacités à détecter des situations en lieu et place d’un être humain et à les signaler lorsqu’elles sortent de la norme. Une sorte d’IA lanceuse d’alerte entraînée, par exemple, à repérer une voiture qui grille un feu rouge ou qui ne respecte pas un sens de circulation, mais aussi capable de détecter d’autres situations louches comme le franchissement d’une zone interdite, la présence d’une arme, le départ d’un feu, un mouvement de foule suspect ou la présence d’un colis abandonné, etc.
Comme tout ce qui concerne l’IA, on dira pudiquement que les résultats sont perfectibles. Ou pour le moins très inégaux au regard des missions qui lui sont fixées et des situations envisagées. Car si les résultats sont fiables concernant un véhicule ou un humain qui franchit une zone interdite, brûle un feu rouge ou se dirige en sens inverse, il est beaucoup plus délicat d’enseigner à la machine à reconnaître une arme ou à détecter un colis abandonné.
Comme tout ce qui concerne l’IA, on dira pudiquement que les résultats sont perfectibles.
Car ces événements sont plus complexes à démêler car ils sont avant tout contextuels. Il n’est pas rare que l’IA confonde une arme avec un smartphone. Et comment enseigner à une machine à reconnaître un mouvement de foule suspect ? Qu’est-ce qui différencie objectivement une animation insurrectionnelle d’une liesse dans une fanzone ou un concert ? La foule est un phénomène par essence complexe très difficile à décoder et relevant avant tout d’une évaluation globale.
On arrive alors un paradoxe posé par l’IA. Si celle-ci a pour vocation d’augmenter les capacités humaines pour nous aider à prendre des décisions, elle nécessite toujours en retour d’être surveillée et orientée par des humains pour être efficace. Encore une fois, les rêves d’autonomie de l’IA se heurtent à la réalité. Car le fantasme panoptique de la vidéosurveillance peut virer au cauchemar : celui d’un Big Brother qui filme tout, mais ne voit rien.
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici