opinion

Faut-il être poli avec son enceinte connectée ?

  • Mise à jour à
  • Source : Trends-Tendances

Google préconise d'être poli avec son enceinte connectée Google Home. Un philosophe français s'insurge contre cette politesse à l'égard des robots et de l'intelligence artificielle.

L'Echo d'Amazon et le HomePod d'Apple débarquent chez nous ces jours-ci, après Google Home, en vente depuis 2017. Aux Etats-Unis, près de 50 millions d'Américains en sont déjà équipés. © N. Bergr/afp - B. Pedersen/dpa/afp - P. Hobson//reuters

Je vais vous parler de philosophie et de robots aujourd'hui. Rassurez-vous, j'en serai incapable tout seul. Je me contenterai juste d'être le porte-parole d'un philosophe français Gaspard Koenig. C'est une philosophie qui va vous parler, car elle concerne tout le monde. Ou du moins à ceux et celles qui profitent des fêtes de fin d'année pour acheter l'un de ses nombreux assistants vocaux vendus par Google ou Amazon. Vous savez, ce sont ces petites enceintes vocales qui généralement trônent au milieu du salon et qui répondent à notre voix. Ces enceintes connectées peuvent, selon nos ordres vocaux, diminuer ou augmenter la température dans la maison, faire baisser les stores ou nous faire écouter la musique de notre choix. Bref, ces enceintes sont des robots bourrés d'intelligence artificielle qui sont là pour répondre à nos souhaits ou envies du moment.

Et c'est là que cela se corse. La firme Google vient d'introduire la fonction "Pretty Please" pour ses assistants Google Home, autrement dit une fonction "soyez gentils, svp". En clair, c'est une fonction qui récompense la politesse quand vous vous adressez à votre enceinte connectée. Si vous lui dites "s'il te plait Google, mets le four en marche", elle vous répondra "merci d'être aimable, cher Jacques, Paul ou Pierre, je vais le faire immédiatement". Comme le rappelle le philosophe Gaspard Koenig, le but de cette fonction "politesse", c'est d'habituer l'intelligence artificielle à entendre des mots polis, de sorte qu'elle ne nous renvoie pas plus tard en boomerang des noms d'oiseaux. A priori, rien que de très normal. Pas pour notre philosophe Gaspard Koenig. Dans un article publié dans Les Echos, il crie au danger ! Au danger de quoi ? Mais de retomber au stade des sociétés primitives qui pensaient que les objets inanimés, comme des pierres par exemple, avaient une âme. Ce philosophe rappelle qu'une intelligence artificielle "ne possède pas de personnalité ni de conscience. Elle ne souffre ni du froid ni des insultes". En d'autres mots, "quand le Google Assistant répond à une question en utilisant un moteur de recherche, ou suggère un choix de musique, il ne suit pas un raisonnement humain. Il effectue une synthèse des millions de raisonnements humains dont son algorithme a été nourri". Bref, pour Gaspard Koenig, c'est une mécanique complexe, mais ce n'est pas un être autonome doué de sens moral. Il pose alors la question : est-ce qu'on dit "s'il te plait" à une machine à laver, à une voiture ou à un logiciel de traitement de texte ? Non, bien entendu. Parler avec politesse à une enceinte vocale, ce n'est donc pas un progrès, mais une régression de notre civilisation. C'est un retour vers les sociétés primitives qui attribuaient une âme à des objets inanimés.

Si on y prend garde, écrit-il ironiquement, on sera bientôt aussi obligés de bénir les claviers de nos ordinateurs et saluer les frigos. Quant à ceux qui redouteraient de transformer les robots qui nous entourent en esclave, Gaspard Koenig rappelle que les robots ne sont ni des amis, ni des ennemis, ni des anges, ni des démons, juste des instruments - merci, cher Gaspard pour ce rappel salutaire !