OpenAI renforce le contrôle parental de ChatGPT, sans régler le fond du problème

Getty Images

OpenAI déploie de nouveaux outils de contrôle parental pour sécuriser l’usage de ChatGPT chez les mineurs. Une réponse aux inquiétudes croissantes liées aux risques psychologiques.

Chose promise, chose due : l’entreprise de Sam Altman, OpenAI, annonce une expérience plus sûre de ChatGPT pour les adolescents, grâce à la mise en place de nouvelles protections. Ces dernières consistent principalement à donner plus de contrôle aux parents, afin qu’ils puissent s’assurer que leur progéniture n’ait pas une utilisation abusive du chatbot.

Les parents pourront ajouter une limite d’utilisation de ChatGPT à leurs enfants, ainsi que des plages horaires où l’agent conversationnel ne leur sera pas accessible. Mais plus encore, le chatbot pourra leur envoyer des alertes s’il détecte des messages de détresse de la part des utilisateurs mineurs. En dehors d’un comportement alarmant, les tuteurs n’auront pas accès aux conversations.

Cette mise à jour intervient après le suicide d’Adam Raine, un adolescent américain de 16 ans, au mois d’avril. Pendant plusieurs mois, le jeune homme a échangé de manière intensive des messages avec l’intelligence artificielle générative. De sorte que sa famille, qui a eu accès à l’historique des échanges d’Adam avec ChatGPT, a intenté un procès à l’encontre d’OpenAI et de son PDG, Sam Altman, qu’elle tient pour responsables de la mort de l’adolescent.

Paramétrer le contrôle parental

OpenAI a expliqué sur X comment fonctionnerait son nouvel outil. La première chose à relever est que le compte des adolescents devra être lié à celui des parents par le biais d’une invitation par mail ou par SMS. Les deux parties devront accepter d’être liées l’une à l’autre. En cas de dissociation, le parent sera averti.

« Nous avons travaillé en étroite collaboration avec des experts, des groupes de défense des droits et des décideurs politiques pour élaborer notre approche », a indiqué l’entreprise sur le réseau social.

Un bon point pour l’entreprise, mais qui présente malgré tout une faille importante : elle implique que les utilisateurs soient en permanence connectés pour utiliser ChatGPT. Or, il est possible de le faire en mode « invité ». Autrement dit, si un adolescent le souhaite vraiment, il peut contourner le contrôle parental.

« Nous prévoyons d’affiner et de développer ces contrôles au fil du temps », précise OpenAI. Il y a donc un espoir à ce niveau.

Concrètement, les parents peuvent décider de réduire le contenu sensible auquel leur progéniture pourrait être exposée (contenu graphique ou défis viraux), de choisir si les transcriptions et fichiers pourront ou non être utilisés pour former les modèles d’OpenAI, si le chatbot peut mémoriser les conversations et les utiliser dans ses échanges futurs, ainsi que de l’activation ou non du mode vocal et de la génération d’images.

Les failles des chatbots

Si la plainte de sa famille a permis de mettre en lumière son suicide et d’alerter sur les dangers potentiels de ChatGPT, le cas d’Adam Raine est loin d’être isolé. De nombreux psychologues tirent la sonnette d’alarme sur les dérives que peuvent engendrer des interactions prolongées avec des chatbots qui font preuve d’empathie artificielle et ont tendance à conforter leurs utilisateurs dans leurs idées.

D’ailleurs, comme l’a montré le suicide d’un jeune Belge en 2023, le risque des IA génératives ne concernent pas que les adultes. Pour éviter les drames liés aux agents conversationnels, il faudra donc plus qu’un contrôle parental renforcé.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire