IA et ChatGPT: quels dangers pour votre entreprise?

Jusqu’où OpenAI est-elle une société en qui on peut faire totalement confiance? © Getty Images
Christophe Charlot
Christophe Charlot Journaliste

ChatGPT, emblème actuel de l’intelligence artificielle générative, a fait l’objet d’attaques majeures ces dernières semaines, perturbant son service. De quoi interroger sur les risques réels de cette technologie pour votre entreprise.

Personne n’est infaillible. Et aucune entreprise de la tech, pas même les plus grandes, n’est à l’abri de cyberattaques. ChatGPT, le phénomène tech du moment, en est la preuve. La firme spécialisée dans l’intelligence artificielle générative a fait l’objets d’attaques majeures voici deux semaines, perturbant son service. Elle avait été sujette à des “pannes périodiques” provenant d’un “trafic anormal” qui témoignait bel et bien d’une tentative de piratage.

En bref, ChatGPT a été victime d’un envoi massif de demandes qui avaient pour unique but de saturer ses algorithmes et d’en empêcher l’accès. Il faut dire qu’avec le buzz dont profite OpenAI depuis quelques mois et ses audiences faramineuses (100 millions de personnes l’utiliseraient chaque semaine), la firme a de quoi attirer les pirates en tout genre. Cette attaque a rendu ChatGPT inaccessible pour les utilisateurs. En soit, rien de très grave en apparence si ce n’est la question de la disponibilité du service.

Mais cette attaque d’ampleur, admise par OpenAI, a néanmoins constitué une bonne piqûre de rappel à la prudence. Car si l’outil offre d’innombrables opportunités d’efficacité et de gains substantiels de productivité pour les entreprises, mieux vaut avoir conscience des risques éventuels et des précautions à prendre au moment de les utiliser. Voici un tour d’horizon de quelques dangers à tenir à l’œil autour de ChatGPT et des IA génératives en général.

Usage des données sensibles

L’intelligence artificielle générative (comme ChatGPT et d’autres) répond à vos questions de manière bluffante. Pour y parvenir, elle a été entraînée sur des milliards d’informations. Et si vous avez l’impression que les réponses sont toujours plus pertinentes, c’est parce que son entraînement continue grâce, notamment, aux données encodées par les utilisateurs, leurs questions, sous-questions, etc.

Si les informations entrées par les utilisateurs permettent d’obtenir des réponses toujours plus précises, “il peut aussi s’agir de l’un des dangers principaux liés à ChatGPT pour les entreprises”, analyse Ivan Westerhof, cofondateur de Campfire.IA, start-up spécialisée dans l’intégration de l’IA en entreprise. En effet, l’usage de cette intelligence artificielle s’est largement répandue dans les entreprises. Et pas forcément de manière structurée ou transparente.

Beaucoup d’employés utilisent déjà ChatGPT, sans forcément le dire à leurs responsables ou leurs collègues, enchaîne Ivan Westerhof. Cela peut être pour résumer un e-mail ou générer des contenus. Pour cela, ils vont faire des copier-coller de données qui concernent l’entreprise, parfois des contenus anecdotiques et peu sensibles, mais parfois ils utiliseront des informations hautement confidentielles.”

Et d’évoquer les fonctionnalités de ChatGPT qui vont plus loin que la seule génération de texte. “ChatGPT est un outil puissant pour analyser des fichiers remplis de chiffres, poursuit-il. Il suffit de lui transmettre les informations brutes et de l’interroger pour obtenir des réponses. Si l’utilité ne fait aucun doute, cela implique dans la plupart des cas de donner à ChatGPT accès aux données… Dans certains cas, ce n’est même pas légal du point de vue du RGPD. Dans beaucoup d’autres, cela pose question.” Le risque concret? Que des informations sensibles encodées par des utilisateurs dans le cadre de leurs demandes servent dans des réponses aux questions d’autres utilisateurs. Voire que des attaques sur les serveurs permettent de récupérer les discussions du chatbot “intelligent” avec les internautes…

Le danger du hackage

Laurent Alexandre, auteur expert en intelligence artificielle, ne craint toutefois pas vraiment l’encodage de données sensibles dans ChatGPT. “On peut penser que Microsoft qui est investisseur dans OpenAI, la firme derrière ChatGPT, ne va pas prendre de risque de réputation au travers de l’usage des données transmises dans ChatGPT. C’est une question majeure que Microsoft ne va pas laisser au hasard. D’ailleurs, dans sa version payante, OpenAI promet de ne pas conserver les données encodées. Le risque peut être plus grand sur des plus petites plateformes d’IA.”

De son côté, Ivan Westerhof conserve sa prudence. “Si l’on imagine bien qu’OpenAI met le paquet pour sécuriser ses accès, tout service connecté au web peut être hacké, avance-t-il. Certains plus difficilement que d’autres. Par ailleurs, la question est aussi de se demander jusqu’où OpenAI est une société en qui on peut faire totalement confiance, même si Microsoft est derrière. La firme dispose d’un accès phénoménal à une multitude de données et malheureusement, depuis l’affaire Cambridge Analytica ayant touché Facebook, mieux vaut toujours se méfier. De grandes entreprises comme Facebook n’ont pas toujours été de confiance avec les internautes.”

La prudence reste donc bel et bien de mise. D’ailleurs, voici quelques mois, tant Amazon que Microsoft avaient encadré strictement l’usage de ChatGPT en interne chez eux. Voilà pourquoi l’expert suggère de loger des versions locales et intégrées de ChatGPT sur des serveurs européens, sur lesquels sont stockées les données et sur lesquels tournent les algorithmes de ChatGPT. Il convient, également, de former les employés et de leur apprendre à utiliser correctement les IA génératives, éventuellement en leur indiquant les informations à ne pas transmettre…

Usurpation d’identité

Les intelligences artificielles vont toujours plus loin dans la génération de contenu. La simple traduction de texte fait d’ores et déjà partie du quotidien. Aujourd’hui, les IA permettent de générer des vidéos d’orateurs dans d’autres langues. Vous avez peut-être vu passer sur les réseaux sociaux la vidéo d’un ami qui parle en japonais ou en allemand, alors qu’il ne connaît absolument pas ces langues. Merci Heygen, le logiciel d’IA vidéo qui permet d’uploader une capsule vidéo de vous (ou votre boss) en français et de lui demander une version en d’autres langues. Le mouvement des lèvres se perfectionne de même que l’usage de la voix. Bluffant. Mais de plus en plus, l’IA va permettre de combiner ces technologies avec la reconnaissance vocale et son interprétation.

LAURENT ALEXANDRE
© Dann

“Le vrai problème, c’est l’usurpation d’identité par le biais d’une intelligence artificielle.” LAURENT ALEXANDRE

On va de plus en plus loin et il commence à être possible de réaliser cela… en live. Autrement dit, il est possible de donner l’impression que vous parlez et interagissez en direct avec quelqu’un, en français ou dans d’autres langues. Et, pour Laurent Alexandre, auteur spécialisé et futurologue en IA, “cela constitue probablement le plus gros danger de l’IA aujourd’hui. Désormais, quand on regarde une vidéo, on ne peut plus affirmer que ce que l’on voit est bel et bien la réalité. Le vrai problème, c’est l’usurpation d’identité par le biais d’une intelligence artificielle. Le Wall Street Journal en a fait l’expérience avec une vidéo truquée d’un journaliste qui s’adresse à ses parents et son banquier. L’IA a trompé tout le monde. Si ce type d’arnaques pouvait déjà être réalisé par le passé, il fallait des jours et des jours de montage. Aujourd’hui, c’est extrêmement rapide”. Et avec un résultat particulièrement réussi, grâce aux innombrables contenus photos et vidéos que l’on trouve online.

“Voilà le nouveau type hyper-puissant d’arnaque au président”, craint Laurent Alexandre. Anecdotique ou lointain? Pas si sûr. Mieux vaut en tout cas être préparé à ce type d’évolution. Bien sûr, il y a fort à parier que l’on doive, à l’avenir, multiplier les procédure d’identification et d’authentification. Mais les entreprises peuvent aussi minimiser les risques, là encore, en (in)formant correctement les équipes et en mettant en place des procédures de vérification des demandes…

L’IA hallucine !

Si les IA se perfectionnent toujours plus et toujours plus vite, les risques persistent et mieux vaut ne pas leur faire entièrement confiance. Biais et hallucinations demeurent l’un des dangers principaux.

Le terme “hallucinations” s’est popularisé ces derniers mois autour des IA: il désigne les sorties des algorithmes d’IA qui ne sont pas réelles, qui ne correspondent à aucune donnée sur lesquelles l’intelligence a été formée. Aucune donnée, aucune programmation ne peut expliquer la réponse erronée de l’intelligence artificielle.

ChatGPT, par exemple, fonctionne en prédisant quels seront les mots les plus probables à utiliser pour répondre à votre question. “Un peu comme la saisie automatique d’un téléphone, détaille Ivan Westerhof, mais de manière beaucoup plus avancée. Cela veut dire qu’il peut se tromper. Nous avions développé un chatbot permettant de répondre à des candidats pour un job. Quand on l’interrogeait sur la manière de postuler, il suggérait d’envoyer un e-mail à career@… Cette adresse électronique n’existait pas. Le robot avait considéré sur base des données étudiées que c’était la réponse la plus probable. Mais elle était fausse.”

Racistes et sexistes

L’expert insiste pour ne pas laisser les IA répondre à l’ensemble des questions sans vérifications. Et certainement quand votre entreprise les utilise pour des dialogues avec les clients externes. Mais “même en interne lorsqu’il s’agit de parler de questions sensibles, dans le domaine RH par exemple, comme les salaires, les jours de congé, etc.”. De plus en plus de grandes entreprises développent, en effet, des bots internes dopés à l’IA pour accompagner les équipes RH. Mieux vaut donc le faire avec prudence.

Quant aux biais, ils sont réels. Les IA génératives comme ChatGPT mais aussi les algorithmes créateurs d’images comme Midjourney, Dall-E 3 et autres, reproduisent nos préjugés. Des études de Bloomberg ou Rest of The World sur respectivement 5.000 et 3.000 images créées par l’IA démontrent que les IA sont racistes, sexistes et affichent des préjugés en termes de classes sociales et de races. Elles sont, en effet, entraînées sur des bases de données qui comportent les biais humains qu’on leur transmet. L’IA étant (malheureusement? ) un miroir grossissant de notre société.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content