Lire la chronique d' Amid Faljaoui

ChatGPT, ou l’argument du couteau neutre et de l’intention de son propriétaire

Lire la chronique d' Amid Faljaoui Amid Faljaoui, directeur des magazines francophones de Roularta.

C’est durant cette chronique économique quotidienne que nous avons été parmi les tout premiers à vous parler de la révolution ChatGPT. Vous savez, ce robot conversationnel capable de rédiger à la vitesse de l’éclair un devoir scolaire, un rapport pour notre supérieur hiérarchique, un poème, une chanson ou des voeux de début d’année. Ou bien encore, pisser des lignes de code pour informaticiens en panne de créativité, voire même établir une campagne de publicité.

Bien entendu, les résultats, s’ils peuvent être bluffants de réalisme dans certains cas, manquent encore leur coup dans pas mal d’autres cas. Mais bon, l’intelligence artificielle en question n’en est qu’à ses débuts, et elle s’autoaméliore là aussi à la vitesse de l’éclair. Depuis que la start-up californienne OpenAI l’a mise en ligne en novembre dernier, c’est simple : le site ChatGPT est pris d’assaut par les internautes du monde entier. Comme toujours, face à l’éruption d’une nouvelle technologie, les questions sont plus nombreuses que les réponses.

Première question, la question du remplacement de l’homme par la machine. En effet, face au réalisme des réponses données par ChatGPT, cette IA ne signe-t-elle pas la fin de certains métiers exercés par des cols blancs ? Oui et non. Oui, pour les plus radicaux : pour eux, c’est juste une question de temps avant que l’homme ne soit remplacé par l’IA. Ceux qui pensent cela sont dans l’optique de Warren Bennis, un spécialiste du management aux États-Unis, qui disait que “l’usine du futur aura seulement deux employés. Un homme et un chien. L’homme aura pour tâche de nourrir le chien. Et le chien sera là pour empêcher l’homme de saboter les machines”. Et puis d’autres, plus optimistes, imaginent que ChatGPT sera plutôt un auxiliaire de l’homme plus que son remplaçant. Je vous cite un exemple parmi d’autres : ChatGPT pourra aider un automobiliste, cité en justice pour excès de vitesse, en lui donnant des arguments de défense, mais ce n’est pas pour cela que l’avocat sera remplacé automatiquement, il faudra bien plaider l’affaire devant un juge. De même, les progrès de l’IA en matière d’imagerie médicale sont très rapides et spectaculaires, mais ce sera toujours à l’humain (au corps médical) qu’il reviendra la tâche d’annoncer ou non un cancer au patient. Et de prendre la responsabilité du diagnostic et de la thérapie, indique Murielle Popa-Fabre, chercheuse au Collège de France et experte au Conseil de l’Europe à nos confrères du Figaro.

Mais ces réponses en nuances peuvent aussi ne pas satisfaire et on peut se poser la question – légitime – de savoir, si les professions du futur ne seront pas reléguées à être des postes de surveillants d’IA plus ou moins complexes. Cette experte que je viens de citer pose la bonne question sans vraiment pouvoir y répondre à l’heure actuelle. Exactement comme ce danger maintes fois évoqué de voir ChatGPT être détourné par des escrocs pour générer des e-mails très convaincants pour nous abuser ou nous escroquer en incitant à cliquer sur des liens malveillants ou en livrant des informations sensibles. ChatGPT pourrait aussi être détourné pour répandre de fausses informations ou manipuler l’opinion publique qui l’est déjà avec les réseaux asociaux.

De son côté, ChatGPT se défend de toutes ces attaques en précisant que la société mère OpenAI n’est pas responsable des abus de sa technologie par des tiers. C’est le vieil argument entendu mille fois : un couteau peut servir à beurrer votre tartine ou à égorger votre voisin. Manière polie de dire que le couteau est neutre, c’est son propriétaire qui est responsable de son usage.

Avec ChatGPT, ce genre d’argument va revenir sur la table. Mais pour l’heure, ce vrai sujet, structurant pour notre avenir, ne fait pas la UNE des médias ; ce sont les chars, livrés à l’Ukraine, qui occupent le terrain. Nous ne sommes pas une IA, nous ne pouvons traiter qu’un problème à la fois, et c’est sans doute cela notre problème.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content