Comment OpenAI étouffe les lanceurs d’alerte
Alors que les progrès de l’intelligence artificielle semblent se multiplier à un rythme effréné, une série d’anciens et d’actuels employés de la firme derrière ChatGPT pointent du doigt le manque d’action des géants de la tech pour encadrer et divulguer les risques liés à cette technologie. Pire : ils dénoncent certaines pratiques visant à faire taire d’éventuels lanceurs d’alerte.
À l’heure du bouillonnement de l’intelligence artificielle, des innovations technologiques et des promesses de progrès, de plus en plus de voix s’élèvent pour en dénoncer les risques… D’Elon Musk à certaines scientifiques, en passant par des employés des géants du Net, nombreux sont ceux qui alertent sur les dangers potentiels.
Pas plus tard que la semaine dernière, plusieurs employés anonymes d’OpenAI, le géant derrière ChatGPT, ainsi que d’autres figures du secteur, ont écrit une lettre ouverte pour témoigner de leurs inquiétudes si l’on ne met pas de garde-fous aux développements de ces algorithmes intelligents.
Mais au-delà des risques eux-mêmes, qui commencent à être de plus en plus connus, des pratiques alarmantes ressortent des lignes de cette lettre ouverte : la gestion opaque des dangers liés à l’IA et, pire, l’étouffement des lanceurs d’alerte.
D’abord, sur l’attitude de ces entreprises hyper-puissantes qui dessinent le futur de l’IA, la lettre souligne qu’elles « possèdent des informations substantielles, non publiques, sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection, et les niveaux de risque de différents types de dommages. Cependant, elles n’ont actuellement que des obligations limitées de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’on puisse toutes compter sur elles pour les partager volontairement. »
Absence de cadres législatifs contraignants à échelle globale
D’après eux aussi, les lanceurs d’alerte se heurtent à d’importantes barrières lorsqu’ils tentent de partager leurs préoccupations, bridés par de multiples accords de confidentialité très contraignants qui les empêchent de s’exprimer librement. Certaines entreprises, comme OpenAI, conditionnent l’octroi de stock options à la signature d’accords très fermes de confidentialité.
Le cri d’alarme de cette lettre ouverte souligne aussi un défaut majeur dans la gouvernance de ces technologies d’IA. Les entreprises, poussées par des incitations financières et par la course pour emporter la part du lion de ce marché en pleine croissance, résistent à une supervision adéquate, selon les signataires. Les entreprises derrière les IA génératives les plus puissantes du moment auraient, selon eux, bien connaissance des risques, sauraient ce qu’elles peuvent faire pour les encadrer (au moins en partie), mais ne font rien de bien sérieux pour y parvenir. Cette résistance est, bien sûr, facilitée par l’absence de cadres législatifs contraignants à échelle globale, malgré les efforts de certains gouvernements et organismes internationaux.
La récente législation de l’Union européenne, visant à encadrer le développement et l’utilisation de l’IA, est un pas dans la bonne direction, mais son application ne sera effective qu’en 2026. D’ici là, les géants de l’IA peuvent continuer à opérer avec relativement peu de contraintes.
Pourtant, la lettre ouverte publiée par les employés d’OpenAI mentionne explicitement la perte de contrôle de systèmes d’IA autonomes comme une menace réelle, pouvant aller jusqu’à l’extinction humaine… De quoi faire sérieusement réfléchir…
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici