L’IA dans le marketing : “la frontière entre personnalisation et manipulation est mince”

Grâce à l’intelligence artificielle, les entreprises peuvent renforcer considérablement leur marketing. Mais jusqu’où vont-elles, et peuvent-elles aller ?
Le marketing explore activement, avec l’IA, les possibilités de l’hyperpersonnalisation : un marketing entièrement adapté à chaque consommateur. Cela repose sur des quantités massives de données. Mais la collecte et l’analyse de ces données soulèvent aussi des questions éthiques.
L’un des premiers à avoir ouvert le débat éthique autour de l’IA est le Belge Marc Coeckelbergh, professeur de philosophie des médias et de la technologie à l’Université de Vienne. En 2020, il a publié son ouvrage AI Ethics. « La frontière entre personnalisation pertinente et manipulation est mince », avertit-il. « Si l’IA sait exactement comment un consommateur pense et réagit, la tentation est grande d’en tirer profit. Il y a un risque que les entreprises influencent trop les consommateurs et qu’ils ne choisissent plus vraiment par eux-mêmes. » Ce risque est encore plus préoccupant pour les groupes vulnérables, comme les enfants ou les personnes âgées, qui sont moins conscients de l’influence de l’IA sur leur comportement.
Transparence
Fait notable : l’utilisation de l’IA dans le marketing est encore peu réglementée. L’AI Act européen, adopté en 2024, impose des règles strictes pour les applications à haut risque, comme la reconnaissance faciale, mais son impact sur le marketing reste pour l’instant limité. « La législation est à la traîne par rapport à la technologie », confirme Coeckelbergh. « “De plus en plus de gens comprennent qu’on ne peut pas laisser l’IA-marketing agir sans limites. »
Un point de référence reste le RGPD, le règlement européen encadrant l’usage des données personnelles. Mais l’IA soulève de nouvelles questions juridiques, notamment autour de la transparence. Les consommateurs doivent-ils être informés explicitement lorsqu’une publicité est générée par l’IA ? Jusqu’où les entreprises peuvent-elles combiner et analyser les données pour prédire le comportement ?
Dès la mi-2023, peu après l’essor de ChatGPT, la Harvard Business Review révélait que 70 % des consommateurs estiment que les entreprises ne sont pas assez transparentes sur l’usage de leurs données personnelles.
Biais et stéréotypes
S’ajoutent à cela les questions autour des biais dans les algorithmes d’IA, qui peuvent favoriser des discriminations dans les campagnes publicitaires — par exemple en excluant inconsciemment certains groupes. Les plateformes d’IA ont vite constaté que les tentatives d’éviter les images stéréotypées pouvaient produire des résultats maladroits. Quand on demandait à Gemini (l’assistant IA de Google) de générer des images de soldats allemands des années 40, il produisait, suite à une correction bien intentionnée, des nazis aux origines ethniques diversifiées
Un appel à plus de transparence
Tant que la technologie et la législation laissent des zones grises, la responsabilité revient en grande partie aux entreprises. « Beaucoup veulent utiliser l’IA en marketing, mais sans réelle stratégie éthique derrière», déplore Coeckelbergh. “Pour que ce soit le cas cela demande des règles internes, des choix réfléchis et un regard critique sur la manière dont l’IA est utilisée. » On pourrait envisager des comités d’éthique ou des équipes IA dédiées à l’éthique, mais ces initiatives restent rares. De plus, les récents licenciements chez des géants comme Microsoft — qui a supprimé son équipe “Ethics & Society” — montrent à quel point les considérations éthiques peuvent être sacrifiées sous pression commerciale ou politique.
Initiatives en Belgique
En 2024, le secteur publicitaire belge a pris les devants en créant un cadre éthique pour l’usage de l’IA dans le marketing. Les fédérations professionnelles ACC (agences de communication) et UBA (annonceurs) ont élaboré dix principes directeurs, incluant le renforcement des connaissances sur l’IA, protection des publics fragiles et l’identification claire des contenus générés ou modifiés par l’intelligence artificielle.
Elles plaident aussi pour plus de transparence entre marques et agences, et abordent les impacts écologiques et inclusifs de l’IA. Le cadre fait référence aux lois sur la vie privée et aux droits d’auteur/image. Il reste évolutif, pour s’adapter aux progrès technologiques et juridiques.
Deux responsabilités
Au niveau européen, la Fedma (Fédération européenne des données et du marketing) a franchi une étape importante avec la publication de la Charte éthique pour un marketing boosté à l’IA, en collaboration avec la Belgian Association of Marketing (BAM). Ce texte engage le secteur à une intégration responsable de l’IA via des lignes directrices sur la transparence, l’équité et l’usage éthique de l’IA.
L’éthique de l’IA est une préoccupation croissante, comme le révèle une enquête de la World Federation of Advertisers (WFA) : 80 % des grands annonceurs s’inquiètent de la manière dont leurs agences utilisent l’IA en leur nom, évoquant des risques juridiques, éthiques et d’image.
Le débat sur l’éthique de l’IA dans le marketing est loin d’être terminé. La technologie évolue plus rapidement que les lois ou les mécanismes d’autorégulation ne peuvent suivre. Ce qui est considéré comme éthique aujourd’hui peut être remis en question demain. C’est pourquoi, selon Mark Coeckelbergh, l’éthique doit faire partie intégrante de la façon dont les entreprises intègrent l’IA : « Cela doit venir des deux côtés. Les entreprises doivent prendre des initiatives, mais les autorités doivent aussi définir un cadre clair. C’est aussi un débat démocratique, car les citoyens doivent pouvoir y faire entendre leur voix. Ils doivent avoir la possibilité de porter plainte contre l’usage de l’IA, même si ce n’est pas strictement sur une base juridique. »
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici