Rudy Aernoudt
“Comment les algorithmes peuvent aggraver une crise”
Quand on dresse un business plan, on préconise souvent le recours à des scénarios. Il s’agit alors d’établir des prévisions de chiffre d’affaires et de bénéfices en fonction d’eux. Une entreprise peut, par exemple, imaginer différents scénarios pour évaluer l’impact sur ses activités de phénomènes comme une hausse du dollar, une baisse du coût du pétrole, etc.
Mais certains événements ne sont ni prévisibles, ni prédictibles. On les appelle ” cygnes noirs “. Ce concept imaginé par Nassim Nicholas Taleb, un ancien négociant en options, doit son nom au fait qu’on a longtemps pensé que tous les cygnes étaient blancs. Un black swan est fondamentalement un événement totalement imprévisible qui peut avoir un impact considérable sur une entreprise. Par exemple, personne n’aurait pu prédire le 11 Septembre, qui doit donc être considéré comme un cygne noir. Tout comme la crise du coronavirus.
La crise pétrolière des années 1970 était également un cygne noir : personne ne l’avait vue arriver. Ou presque. Car au début des années 1970, Shell avait élaboré plusieurs scénarios à même d’avoir un impact sur l’entreprise. L’un d’entre eux était une crise pétrolière. Lorsque celle-ci s’est déclenchée quelques années plus tard, Shell disposait d’une énorme avance sur ses concurrents. La preuve que si les cygnes noirs sont des phénomènes imprévisibles, il faut malgré tout les intégrer dans ses prévisions. Car ils font partie, ou devraient faire partie, des scénarios et des ” eaux troubles ” dans lesquels une entreprise peut se retrouver.
Parallèlement aux cygnes noirs, il faut cependant rappeler l’existence d’un deuxième phénomène, celui des ” boîtes noires ” ou black boxes. De plus en plus de décisions sont prises par des machines qui n’ont ni émotions, ni opinions. Elles obéissent à une série de règles affinées en permanence par un flux constant de nouvelles données. A cette fin, elles utilisent des algorithmes, ensemble de règles parfois très complexes mais aisées à expliquer dans la pratique. Vous écoutez une chanson sur Spotify ? Sur la base du comportement d’autres utilisateurs, l’application va automatiquement vous suggérer une autre chanson qui, selon toute vraisemblance, correspondra également à vos goûts…
Aujourd’hui, de la même manière, des stratégies d’investissement sont programmées pour réagir aux fluctuations des cours et passer des ordres pour ouvrir et fermer des positions. Comme tous les modèles et fonds de placement utilisent des algorithmes analogues, certains signaux, notamment ceux déclenchés par les cours, provoquent des ventes ou des achats massifs, ce qui entraîne des fluctuations spectaculaires en Bourse. Les algorithmes vont ainsi amplifier la crise plutôt que la tempérer. Et ces machines dénuées d’émotions de reproduire les comportements grégaires que l’on reproche souvent aux investisseurs soi-disant trop ” émotifs “…
Mais les algorithmes frappent également de l’autre côté du spectre, à savoir dans le monde du crédit. Des bases de données alimentées et affinées en permanence établissent des liens entre le profil d’un demandeur du crédit et la probabilité qu’il le rembourse. Certes, ces modèles de risques sont de plus en plus sophistiqués, mais toutes les institutions financières opèrent de manière analogue – ou mieux : algorithmique. Il est donc probable qu’un preneur de crédit qui se heurte à un refus dans une banque se voie également opposer une fin de non-recevoir partout ailleurs. De facto, la concurrence entre les banques diminue.
Le problème est que plus personne n’est en mesure d’expliquer pourquoi un investissement donné a été effectué, pourquoi un accord pour un crédit a été avalisé. C’est le système qui a décidé. L’intelligence artificielle se transforme en intelligence stupide. Une boîte noire. Et quand un cygne noir croise une boîte noire, un emballement est inévitable. Sous l’effet de signaux d’achat et de vente programmés, un effondrement passager de l’activité économique entraîne des plongeons des cours boursiers de 40% alors que la valeur intrinsèque de la plupart des entreprises n’est pas en cause. Résultat : des short sellers dénués d’émotion, mais disposant souvent de meilleurs algorithmes, vendent à découvert et empochent des milliards sur le dos des ” petits ” investisseurs.
Peut-être la crise du coronavirus doit-elle nous rappeler que la machine et l’intelligence artificielle doivent être au service de l’intelligence humaine, et non l’inverse.
Coronavirus
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici