Eddy Caekelberghs
Comment faire preuve d’intelligence?
Le développement auto-apprenant – et donc auto-correcteur – de l’intelligence artificielle est fulgurant et stupéfiant. Et pose de fameuses questions éthiques.
“Intelligence: qualité de l’esprit qui comprend et s’adapte facilement. L’ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et à intuition).” Voilà pourquoi la notion “d’intelligence artificielle” paraît, de prime abord, un oxymore. Et pourtant… Du petit assistant de traduction simultanée en 36 langues qui tient dans la poche à ChatGPT et ses collègues, le nouveau “cerveau” mondial met la planète en émoi.
Voir aussi sur Canal Z | “La société n’est pas prête pour les intelligences artificielles“
Symbole d’immortalité, cette application auto-apprenante préfigure ce que d’aucuns appelaient de leurs vœux: la possibilité de “cloner” notre moi ou de “survivre” après notre disparition physique. Il n’empêche: le développement auto-apprenant – et donc auto-correcteur – est fulgurant et stupéfiant. Et pose de fameuses questions éthiques.
Nos big data s’accumulent, se stockent, s’échangent et forment le nouvel or gris qui nourrit et ensemence l’intelligence dite artificielle. C’est donc incontestablement une question d’autodiscipline (pour partie) mais surtout de régulation des flux de données personnelles avec, à la clé, le droit à l’oubli et les possibilités de contrôle, de rectification et d’effacement de nos traces récoltées et stockées. Mais qui parmi nous s’y applique déjà ne serait-ce que dans tous les wikis fonctionnant basiquement de la même manière? Qui y est formé? Attentif? Malgré tous les RGPD que nous signons.
Peut-on répondre à cela par l’interdiction comme vient de le faire l’Italie et est-ce encore possible? se demande le quotidien turinois La Stampa. “Habituellement, c’est avant d’agir et non après qu’on a des scrupules de nature morale. On ne peut pas manipuler la bombe atomique et dire après coup ‘oh, désolé’, une fois qu’on l’a larguée.”
En tout cas, dans une lettre ouverte, plus de 1.000 experts de la tech et de la recherche, dont Elon Musk et le cofondateur d’Apple Steve Wozniak, nous parlent des “risques majeurs” que l’intelligence artificielle fait courir à l’humanité. Ils souhaitent la suspension de la recherche pour une période de six mois et la création de nouvelles normes de sécurité.
Lire aussi | Pourquoi bloquer ChatGPT n’a déjà plus de sens
Il est urgent d’améliorer notre gestion de l’intelligence artificielle, écrit l’économiste Julien Serre dans Les Echos: “Il faut très vite promouvoir la création d’institutions nouvelles. Cela inclut des autorités, capables et légitimes, pour gérer le torrent nauséabond de désinformation qui va inonder tous les réseaux sociaux et mettre en péril nos démocraties. L’Europe peut jouer un rôle moteur pour y parvenir mais ne doit pas créer des freins que ne respecteront pas les autres. Sa priorité est de promouvoir des industries de technologies à la fois compétitives et responsables. Elle doit éviter que la course actuelle visant à développer et déployer des outils numériques toujours plus puissants ne devienne trop difficile à contrôler et vérifier”.
La guerre des intelligences est, elle aussi, déclarée! Qui signera la paix?
Quant au quotidien allemand Handelsblatt, il estime que cette proposition de suspension n’a aucun sens: “Les tensions géopolitiques rendent fort improbable la participation de la Chine [au moratoire]”. Pékin veut être en tête. Et Handelsblatt conclut: “En termes de nombre de recherches publiées, le pays occupe déjà la deuxième place derrière les Etats-Unis, les devançant même dans certains domaines comme celui de la ‘vision par ordinateur’. Un moratoire qui ne serait que partiellement respecté risque de remplacer l’‘Intelligence générale artificielle’ (IAG) occidentale par une autre, d’origine chinoise.” La guerre des intelligences est donc, elle aussi, déclarée! Qui signera la paix?
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici