Comment votre employeur surveille (de mieux en mieux) vos conversations et vos recherches en ligne avec l’IA

Des sociétés telles que Walmart, Starbucks, Delta et Chevron utilisent l’intelligence artificielle (IA) pour surveiller les communications de leurs employés, rapporte CNN. Les employés et défenseurs des droits au travail s’inquiétent des dangers de ces nouvelles méthodes.

Bien que l’utilisation de l’IA soit relativement nouvelle, la surveillance des conversations en milieu de travail n’est pas une nouveauté. Mais, les experts mettent en avant aujourd’hui la sophistication de plus en plus grande de l’analyse rendue possible par l’IA, présentant des défis éthiques et juridiques potentiels. Une étude récente montre que les gestionnaires sont favorables aux logiciels d’IA, mais que 46 % des employés les considèrent comme « effrayants» dans le milieu du travail, relaie CNN.

Effet Big Brother

Le média américain donne comme exemple l’entreprise Aware qui a intègré l’IA dans des plateformes courantes comme Slack et Zoom pour détecter divers incidents, avec des données restant anonymes jusqu’à ce que des problèmes soient identifiés. Aware collabore entre autres avec Starbucks, Chevron, Walmart. La start-up affirme que son produit vise à détecter tout, du harcèlement à la cyberattaque et au délit d’initié. En cas de problème, il est ensuite signalé aux départements des ressources humaines, des technologies de l’information ou juridique pour une enquête approfondie.

D’autres entreprises, telles que Proofpoint, utilisent des technologies similaires pour surveiller les risques cybernétiques, tels que les escroqueries de phishing entrantes ou si un employé télécharge et envoie des données de travail sensibles à son compte de messagerie personnel, explique le média américain.

« Des erreurs dans l’application précoce de la technologie auront des implications à long terme pour la confiance des employés”

David Johnson, analyste chez Forrester Research

Reece Hayden, analyste principal chez ABI Research, explique à CNN qu‘il est compréhensible que certains travailleurs puissent ressentir un “effet Big Brother“. “Cela pourrait avoir un impact sur la volonté de communiquer et de parler franchement avec des collègues via des services de messagerie internes tels que Microsoft Teams”, explique le spécialiste. « Des erreurs dans l’application précoce de la technologie auront des implications à long terme pour la confiance des employés“, selon David Johnson, analyste chez Forrester Research, cité par le média us. Ce même spécialiste estime que l’avenir de la surveillance des employés alimentée par l’IA est pourtant “inévitable”.

Restaurer la confiance

Analyser les habitudes des employés n’est pas une nouveauté, souligne Hayden, en mettant en avant le suivi des éléments tels que les heures de connexion et la participation aux réunions par les entreprises. « Ce qui change avec ce processus, c’est l’intégration d’outils d’IA plus avancés directement dans les flux de travail des employés. Ces logiciels d’IA permettent aux entreprises d’analyser rapidement d’innombrables points de données et mots-clés, offrant ainsi un aperçu en temps réel des tendances et des sujets dont discutent les travailleurs ». Hayden souligne toutefois un point positif à cette évolution. Cette approche pourrait aider les entreprises à façonner de manière plus efficace leurs messages internes, leurs politiques et leurs stratégies en se basant sur les enseignements récoltés par l’IA.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content