Quand les médias se liguent contre ChatGPT
De plus en plus de médias bloquent leur accès à GPTBot, le robot de la société OpenAI qui aspire leurs données pour l’agent conversationnel ChatGPT. Touchée, la Belgique n’échappe pas à la tendance.
C’est un courant qui est parti des Etats-Unis, qui se répand en Europe et qui gagne aujourd’hui la Belgique. De plus en plus de médias ont en effet décidé de bloquer leur accès à GPTBot, ce robot « aspirateur de données » lancé il y a deux mois par la start-up OpenAI, créatrice du fameux ChatGPT dopé à l’intelligence artificielle. Motif : ces médias accusent la société américaine de piller leurs contenus, sans leur consentement, pour alimenter son business model et se faire de l’argent à leur insu.
The New York Times, la chaîne d’info CNN, l’agence de presse Bloomberg… Ils sont déjà nombreux à avoir barré la route numérique à GPTBot aux Etats-Unis et ils sont désormais imités par d’autres médias étrangers comme, par exemple, le diffuseur australien ABC ou encore l’agence de presse britannique Reuters. Outre-Quiévrain, Radio France a aussi reconnu avoir bloqué, cet été, l’accès de ses contenus à OpenAI. « C’est une question de cohérence, explique Sibyle Veil, présidente de Radio France, à l’AFP. Cela fait six ans que je me bats dans cette maison pour valoriser la valeur des contenus audios et la valeur du travail de ses créateurs. Nous avons donc bloqué le robot d’OpenAI qui reprenait nos contenus sans notre consentement. Mais pour que ce type de position ait de l’effet, il faut que d’autres médias le fassent aussi».
Effet boule de neige
Sibyle Veil semble avoir été entendue. Dans la foulée, GPTBot est également devenu « robot non grata » sur les sites du groupe TF1, de France Médias Monde (qui possède les chaînes France 24 et RFI) et de Mediapart. « L’idée, c’est de ne pas être le dindon de la farce, se défend Vincent Fleury, directeur des environnements numériques de France Médias Monde. Se faire piller par ces entreprises qui font ensuite des profits sur la base de nos productions, ça va bien à un moment ! »
Pour ces médias, il est donc temps de passer à une phase de discussion avec la société OpenAI et les autres acteurs de l’IA générative afin d’obtenir des accords de licence et une rémunération des médias de manière équitable.
Et en Belgique ?
Chez nous, les médias semblent tâtonner face à cette problématique. Renseignements pris à la RTBF, aucun blocage de GPTBot n’est à l’ordre du jour, même si l’administrateur général Jean-Paul Philippot nous confie que « c’est une vraie préoccupation qui pose la question de l’opacité des sources et aussi celle du respect de l’intégrité de l’œuvre ». Le patron de la RTBF en a d’ailleurs discuté au sein de l’Union Européenne de Radio-Télévision (UER) et invite ses homologues à réfléchir au développement d’outils d’IA générative, non seulement entre services publics (qu’ils soient francophones ou membres de l’UER), mais aussi entre médias publics et privés d’un même territoire. « C’est comme cela qu’on pourra tirer, de cette technologie, un outil qui renforce plutôt qu’un outil qui affaiblit », conclut Jean-Paul Philippot.
Du côté de RTL Belgique, pas de réaction officielle pour l’instant par rapport à cette problématique, même si chez l’un de ses deux actionnaires (Rossel), on semble avoir déjà pris quelques mesures, comme l’expliquait hier Pierre Leerschool, directeur général de Sudinfo, dans un reportage de notre chaîne Canal Z dédiée à l’intelligence artificielle : « En Belgique, nous en avons parlé avec l’ensemble des éditeurs et nous avons pris la décision des mettre des ‘marqueurs’ sur nos articles qui bloquent leur utilisation. Nous sommes aujourd’hui en attente de négociations pour voir comment nous pourrions les mettre éventuellement à disposition. Car il est normal, pour un travail fait par l’un de nos journalistes, de voir comment on peut régler ça sur le plan financier si quelqu’un veut l’utiliser, mais également sur le plan du droit international, du droit d’auteur et des droits voisins. »
Intelligence artificielle
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici