Comment l’IA pourrait provoquer une nouvelle crise financière

GETTY

L’intelligence artificielle n’en finit pas de faire parler d’elle, en bien et en mal. D’après un régulateur américain, l’IA pourrait être responsable de la prochaine grande crise financière. Explications.

L’IA va-t-elle provoquer une nouvelle crise économique, similaire à celle de 2008 ? La Securities and Exchange Commission (SEC), le régulateur des marchés financiers des États-Unis, tire la sonnette d’alarme à ce sujet, relaie le site français O1.net.

Gary Gensler, le président de cet organisme, se montre alarmiste. Selon lui, l’utilisation massive d’une série limitée de modèles linguistiques par les plus grands acteurs de la finance risque d’amorcer une dangereuse réaction en chaîne qui aboutirait sur une situation similaire à la crise des subprimes. Le patron SEC s’attend à ce que les grandes sociétés n’aient pas beaucoup de choix dans les années à venir en termes d’IA. Résultat : elles finiront pour la plupart par se tourner sur un modèle dominant, comme ChatGPT, ou Google Bard.

Le risque ? Que ces IA génèrent de fausses informations ou des approximations préjudiciables, et souvent très similaires. Avec comme conséquence que la plupart des institutions financières qui les utilisent prennent de mauvaises décisions. Tous ces acteurs risquent de prendre « des décisions similaires parce qu’ils reçoivent le même signal d’un modèle de base ou d’un agrégateur de données », avertit Gensler cité par le média français.

Réaction en chaîne

Les erreurs des IA provoqueront alors une réaction en chaîne qui fera se multiplier les mauvais investissements. Les investisseurs pourraient massivement déserter une banque, un fonds d’investissement ou miser des sommes colossales sur des entreprises spécifiques. Au bout du compte, ces erreurs de gestion généreront une crise financière massive, selon les prophéties de Gensler.

Ce n’est pas la première fois que le responsable de la SEC fait part de ses inquiétudes. En mai dernier lors d’une conférence de la Federal Reserve Bank of Atlanta, il avait estimé que l’IA risquait d’être responsable de « la crise de 2027 ou 2032 », explique O1.net.

S.P. Kothari et Robert C. Pozen – tous deux professeurs à la Sloan School of Management du Massachusetts Institute of Technology (MIT) – émettent aussi quelques réserves sur l’IA appliquée à la finance. Ils expliquent que des algorithmes de machine learning identifient des corrélations apparentes entre des données qui ne sont en fait que du “bruit”. Le risque étant qu’ils recommandent sur cette base de mauvaises opportunités d’investissement… “L’implication humaine reste dès lors cruciale pour une interprétation correcte des données”, affirment les deux spécialistes.

L’IA s’infiltre dans la finance

L’intelligence artificielle occupe une place grandissante dans le monde financier. Les “private bankers” sont de plus en plus nombreux à adopter ces robots conseillers financiers de plus en plus sophistiqués. C’est le cas notamment à la Deutsche Bank. Olivier Delfosse le CEO de la branche belge, reconnaissait dernièrement ces atouts dans notre article. “Nos private bankers utilisent l’IA chaque jour pour optimiser les portefeuilles de leurs clients, explique-t-il. Cette technologie est extrêmement utile pour éviter les mauvais conseils, gagner en efficacité et obtenir ainsi des rendements plus élevés. »

La banque d’affaires américaine Morgan Stanley, teste, de son côté, un chatbot basé sur ChatGPT pour assister ses conseillers financiers.  Delen Private Bank et Puilaetco/Quintet font également appel à l’IA en appui de leurs services.

L’IA s’introduit aussi dans les habitudes des investisseurs particuliers pour les aider dans la composition de son portefeuille. Certains acteurs se montrent toutefois moins emballés. Ainsi, le plus grand fonds spéculatif du monde, Bridgewater, dit ne pas miser sur ChatGPT pour lui sélectionner des actions. ChatGPT et autres systèmes d’IA appelés Large Language Models (LLM) sont « terribles » pour sélectionner des actions ou pour analyser le marché. C’est le constat que dresse Greg Jensen, co-CIO de Bridgewater. « Si quelqu’un veut utiliser de grands modèles de langage pour sélectionner des actions, je pense que c’est sans espoir », explique-t-il à Bloomberg.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content