Ivan Vandermeersch
Protéger le citoyen à l’ère de l’intelligence artificielle: une question de liberté… et de responsabilité
La célèbre phrase « La forme, c’est le fond qui remonte à la surface » n’a jamais été aussi actuelle. À l’heure où l’intelligence artificielle génère des images plus vraies que nature, où la manipulation visuelle devient arme politique, cette maxime doit plus que jamais guider notre vigilance.
Les progrès sont fascinants. OpenAI, Mistral, Midjourney… Trois prompts identiques, trois visions différentes, trois esthétiques qui racontent autant d’univers. Mais derrière cette prouesse technique se cache une question cruciale : sommes-nous encore maîtres de ce que nous voyons ? Ou pire : maîtres de ce que nous croyons ?
Le risque n’est pas théorique. Les fermes à trolls, ces structures coordonnées pour diffuser de la désinformation sur les réseaux, existent bel et bien. Poutine en a fait une arme d’influence, notamment pour manipuler l’opinion publique lors des élections américaines ou du Brexit. Ces entités exploitent les failles émotionnelles, s’appuient sur la viralité des images et parasitent l’espace démocratique.
Un exemple glaçant : deux jours avant les élections parlementaires de 2023 en Slovaquie, un enregistrement audio diffusé sur Facebook fait surface. On y entend deux voix familières : celle de Michal Šimečka, chef du parti libéral pro-européen Progressive Slovakia, et celle de Monika Tódová, journaliste reconnue du quotidien Denník N. Ensemble, ils semblent discuter d’une opération de fraude électorale — en achetant les votes de la minorité des Roms marginalisée. Le scandale est immédiat… mais impossible à contrecarrer efficacement. Car la diffusion intervient pendant le moratoire électoral de 48 heures, période durant laquelle médias et politiciens ont l’interdiction de s’exprimer publiquement. Le camp libéral ne peut donc ni se défendre ni corriger les faits à grande échelle. Le contenu reste en ligne, viral, et trouble gravement le scrutin. Tout laisse penser qu’il s’agissait d’un deepfake audio sophistiqué. Mais le mal était fait.
L’histoire nous l’a enseigné. Le nazisme s’est aussi construit sur une stratégie esthétique redoutablement efficace. Leni Riefenstahl, réalisatrice du tristement célèbre Triomphe de la volonté, a façonné une propagande visuelle fondée sur la grandeur, l’ordre et la puissance. Une mise en scène si percutante qu’elle a contribué à faire du totalitarisme un idéal séduisant.
Aujourd’hui, l’IA générative a le pouvoir de reproduire, amplifier — ou détourner — ce type de narratif. Laisser l’intelligence artificielle “s’éduquer seule” est une illusion dangereuse. Laisser les extrêmes exploiter sans frein les nouvelles technologies l’est tout autant. Dans un monde où la radicalisation en ligne progresse, protéger le citoyen devient un impératif éthique et démocratique.
C’est d’autant plus dangereux que l’être humain est malléable. Christophe Busch, dans son livre «De Duivel is in elk van ons » ( Le diable en chacun de nous), explore comment des personnes ordinaires — ni monstres ni psychopathes — peuvent basculer vers des comportements extrêmes, par effet de groupe, d’obéissance ou d’indifférence. Les célèbres expériences de Milgram et Zimbardo ont démontré combien la désindividuation ou l’autorité peuvent désactiver le sens critique. Busch met en garde : face à une mécanique bien huilée, la majorité obéit, quelques-uns jouissent, et très peu s’y opposent. Ce constat dérange, mais il est essentiel. Car si l’homme peut sombrer collectivement dans la violence ordinaire, il peut aussi, collectivement, s’en prémunir — à condition de le vouloir lucidement.
C’est ici qu’intervient la notion d’individualisme responsable, pilier du libéralisme moderne. Oui à la liberté d’expression, oui à l’innovation technologique, mais non à l’abandon de la pensée critique et de la responsabilité collective. Nous avons, en tant que communicants, marketeurs, éducateurs, designers, un devoir civique : celui de garantir que la forme reste au service d’un fond porteur de sens.
Cela suppose une régulation intelligente, un effort d’éducation esthétique, un engagement pour la transparence des algorithmes et une vraie politique de lutte contre les fermes à trolls. Car la liberté sans garde-fous devient licence. Et une démocratie sans discernement devient proie. Un exemple ? L’obligation claire d’étiqueter tout contenu généré ou modifié par IA. Ce principe simple — déjà inscrit dans le projet de l’AI Act européen — permettrait à chaque citoyen de savoir ce qu’il regarde. C’est une mesure équilibrée : elle ne bride pas la créativité, mais elle renforce la transparence et protège la confiance.
La technologie n’est jamais neutre. Elle est ce que nous en faisons. Et ce que nous choisissons d’en faire dira, au fond, ce que nous sommes prêts à défendre comme société.
Ivan Vandermeersch, Secrétaire général honoraire BAM, Belgian Association of M Parketing
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici