L’industrie de l’intelligence artificielle est aux aguets alors que l’un de ses principaux acteurs, Anthropic à qui l’on doit l’IA générative Claude, affronte une action en justice d’envergure aux États-Unis. Au cœur de cette affaire : les données sur lesquelles l’entreprise, fondée par d’anciens employés d’OpenAI, a bâti une partie de ses modèles d’IA.
Un aspect régulièrement pointé du doigt par les associations de protection des données et autorités. Mais qui prend une ampleur particulière ici, puisqu’il ne s’agit pas d’un simple procès, mais d’une action collective historique, la plus vaste jamais engagée pour violation du droit d’auteur contre une entreprise technologique.
En cas de condamnation, l’entreprise pourrait se voir contrainte de fermer boutique, en raison de l’amende de potentiellement plusieurs centaines de milliards de dollars dont elle pourrait se voir écoper. Mais plus que ça, si l’action collective venait à aboutir, c’est toute l’industrie qui pourrait être bouleversée.
Les faits reprochés
Entre 2021 et 2023, l’entreprise américaine, soutenue par des géants tels qu’Amazon, a utilisé des bibliothèques clandestines d’œuvres piratées pour entrainer ses modèles d’intelligence artificielle. Le procédé s’inscrivait dans une démarche plus globale visant à bâtir une « bibliothèque centrale » numérique, incluant « tous les livres du monde » et conservée « à jamais », sans qu’ils ne soient nécessairement utilisés pour entrainer des modèles d’IA, rappelle Le Soir.
Prenant conscience du risque juridique, la startup a acheté des centaines de milliers de livres au printemps 2024 pour remplacer les copies pirates. Cependant, les copies numériques obtenues illégalement sont toujours stockées dans ses bases de données internes.
Avec plus de 7 millions d’œuvres piratées, la liste des auteurs concernés est longue. Pour l’instant, seuls trois d’entre eux ont porté plainte. Il s’agit d’Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, mais le piratage de masse concerne des auteurs plus connus, dont Stephen King. Et, étant donné que l’action collective a été validée par la justice, d’autres ayants droit pourraient se joindre à la plainte.
Deux décisions distinctes
Le juge à la cour fédérale de San Francisco William Alsup, qui a statué sur la validité de l’action en justice, a également rendu deux décisions. La première va dans le sens d’Anthropic : entrainer des modèles d’IA sur base de livres acquis légalement peut être considéré comme un « usage loyal » et ne nécessite pas d’obtenir une licence des détenteurs des droits d’auteur.
En revanche, la seconde décision peut faire plus de mal à la startup. En effet, le juge a statué que posséder et conserver des versions numériques obtenues illégalement ne relève pas d’un usage loyal. Et donc, la constitution d’une bibliothèque interne à partir de ces copies obtenues illégalement ne peut être justifiée par le droit à l’innovation ou à la recherche.
Jusqu’à 750 milliards de dollars de dommages et intérêts
Les dommages et intérêts auxquels la startup s’expose pourraient tout simplement signer son arrêt de mort, alors que ses revenus annuels sont de 4 milliards de dollars. C’est pourquoi l’entreprise a décidé de déposer un recours en appel pour éviter le procès. Outre sa disparition certaine, l’entreprise assure que, si l’action en justice venait à être maintenue, cela pourrait ouvrir à des procès en cascade qui pourraient nuire à tout un secteur.
« Les erreurs d’un tribunal de district ne devraient pas décider du sort d’une entreprise transformatrice de l’intelligence artificielle comme Anthropic, ni influencer aussi profondément l’avenir du secteur de l’intelligence artificielle en général », a écrit Anthropic dans sa demande de recours.
A lire aussi | Chantage, mensonge et duplicité: quand l’IA vous manipule
Un soutien insoupçonné
Étonnamment, l’entreprise a reçu le soutien de plusieurs associations de défense d’auteurs, de bibliothèques et de groupes de défense des droits numériques. Car, si pour l’heure, seuls trois auteurs concernés se sont ligués contre Anthropic, d’autres pourraient venir se joindre à l’action collective. Du moins, en théorie, car, pour les défenseurs des auteurs, ce type d’action est voué à l’échec, car ce n’est pas adapté aux droits d’auteur. Ils estiment même que le juge a mal fait son travail en validant la requête.
Prouver la propriété d’une œuvre, diviser une œuvre par auteur selon le travail effectué, contacter chaque auteur concerné, s’assurer que les éditeurs et auteurs sont d’accord sur la marche à suivre ne sont que des exemples de problème soulevé par les défenseurs d’auteurs vis-à-vis des actions collectives.
Un séisme pour le secteur
Ce procès, s’il venait à avoir lieu, pourrait amener les régulateurs américains à réguler la manière dont les entreprises acquièrent des données, ce qui pourrait mettre en péril le développement du secteur. Outre le risque de nouveaux procès et d’amendes particulièrement salées – qui représentent bien évidemment un danger à part entière -, c’est véritablement l’impact sur l’innovation technologique que pointent Anthropic, ainsi que la Consumer Technology Association et la Computer and Communications Industry Association.
La régulation du processus d’acquisition des données pourrait également nuire à la concurrence, car cela voudrait dire que seules les entreprises ultra-riches seraient capables d’en acheter pour former leurs modèles d’IA.
À noter que le président américain Donald Trump plaide pour la suppression pure et simple du droit d’auteur pour préserver l’avance technologique des États-Unis en matière d’intelligence artificielle. Une lueur d’espoir pour Anthropic.