Nouvel outil: L’IA, un risque pour la stabilité financière?

Publié

Nouvel outilL’IA, un risque pour la stabilité financière?

Les autorités qui régulent les marchés financiers appellent à la prudence quant à l'utilisation de l'intelligence artificielle.

L'intelligence artificielle ne doit pas prendre la main sur tout, alertent les autorités des marchés financiers.

L'intelligence artificielle ne doit pas prendre la main sur tout, alertent les autorités des marchés financiers.

Freepik

L’intelligence artificielle sera-t-elle à l’origine de la prochaine crise financière? Entre risque de «krachs éclair», manque de transparence et analyses parfois erronées, l’utilisation de l’IA sur les marchés interroge investisseurs et régulateurs. Le Fonds monétaire international (FMI) a recommandé dans une étude, en octobre, de «renforcer la réglementation et la surveillance dans les domaines liés à l’intelligence artificielle» au sein du «secteur financier».

En France, l’Autorité des marchés financiers (AMF) a lancé, vendredi, une consultation auprès des professionnels des marchés, invités à apporter leurs «commentaires» sur le sujet, d’ici le 11 avril. L’objectif: «Anticiper les évolutions technologiques et encourager un développement responsable des outils d’intelligence artificielle», que ces «acteurs du secteur utilisent de plus en plus».

Algorithmes puissants

L’IA permet aux gestionnaires d’actifs financiers de traiter rapidement d’énormes masses de données sur les entreprises, l’économie et les marchés, sur lesquels ils basent leurs décisions. Les investisseurs utilisent dans ce but des algorithmes puissants depuis des décennies.

Mais les modèles actuels vont plus loin: «ils permettent d’intégrer beaucoup plus de données non financières et encore plus facilement», explique Marie Brière, responsable du centre de recherche du gestionnaire d’actifs Amundi. L’IA peut par exemple analyser, au jour le jour, «des images satellites pour évaluer le remplissage des parkings des supermarchés» et en tirer des conclusions sur la consommation des ménages.

«L’IA part du principe que l’avenir sera un prolongement du passé. Cela fonctionne dans un grand nombre de cas, mais pas systématiquement»

Thierry Philipponnat, responsable de la recherche de l’ONG Finance Watch

Une autre particularité de ces modèles est de réaliser des prévisions. Le gestionnaire Pictet AM a développé un fonds doté d’une IA permettant «de prévoir dans les semaines à venir, comment va se comporter telle ou telle action», à partir des données de l’entreprise et de son environnement, explique Stéphane Daul, son gérant. Problème: «L’IA part du principe que l’avenir sera un prolongement du passé. Cela fonctionne dans un grand nombre de cas, mais pas systématiquement», prévient Thierry Philipponnat, responsable de la recherche de l’ONG Finance Watch.

Les modèles ne prédisent pas les «cygnes noirs», expression qui définit dans le jargon financier des événements rares, imprévisibles et aux conséquences potentiellement désastreuses, qui sont légion lors des krachs boursiers, ajoute-t-il.

«Les modèles font parfois des erreurs grossières»

Jon Danielsson, chercheur à la London School of Economics

Les utilisateurs ont tendance à avoir une «confiance excessive» en ces outils, les poussant à prendre de mauvaises décisions dans ces situations, selon Jon Danielsson, chercheur à la London School of Economics, spécialiste de la stabilité financière. «Une fois que l’IA a réalisé de bonnes prévisions, deux fois, cinquante fois, les acteurs ont l’impression que l’ordinateur a forcément raison face à l’humain. Mais les modèles font parfois des erreurs grossières», explique-t-il à l’AFP.

Dans une recommandation récente, l’ESMA, régulateur financier européen, a appelé les gestionnaires d’actifs à établir «des contrôles suffisamment fréquents pour surveiller et évaluer tout processus impliquant la transmission d’informations» par l’IA.

JPMorgan a développé un «assistant» IA

Chez le premier d’entre eux, le français Amundi, on explique être conscient du problème. «Nous expérimentons plusieurs techniques: vérifier manuellement, essayer plusieurs "prompts" (instructions, NDLR) différents pour comparer les réponses, ou même demander à l’IA de revérifier ses affirmations», explique Marie Brière.

Du côté de JPMorgan Asset Management, qui a développé ce qu’il présente comme un «assistant» IA, on «teste constamment» le modèle, qui doit sourcer ses informations, explique à l’AFP Kristian West, responsable des plateformes d’investissement.

Autre risque pointé du doigt par certains experts: l’accroissement de la volatilité et des comportements moutonniers des marchés. Dans un contexte de «quasi-oligopole, où tout le monde utilise les mêmes modèles, il faut s’attendre à ce que des réactions identiques se propagent massivement, provoquant de forts mouvements», selon Thierry Philipponnat.

Attention aux «krachs éclair»

Le FMI alerte sur des «krachs éclair», de «brutales fluctuations de cours sur de très courtes périodes» provoquées par l’IA et sa capacité «à traiter de façon quasi instantanée de gros volumes de données», couplée au passage d’ordres automatisé.

Il est en outre de plus en plus «difficile d’expliquer comment» ces outils, qui raisonnent de façon autonome, «parviennent à leurs résultats», selon l’OICV-IOSCO, organisation mondiale des régulateurs, les qualifiant de «boîte noire». Il s’agit d’une différence avec les algorithmes traditionnels, «que leurs développeurs pouvaient comprendre», selon M. Philipponnat.

Compliqué, dans ce contexte, de réguler des mécanismes qu’on ne parvient pas à expliquer et ce, «alors que les superviseurs sont très en retard dans leur usage de ces technologies, coincés dans un monde pré-IA», prévient Jon Danielsson.

(afp/mc)

Ton opinion

1 commentaire
L'espace commentaires a été desactivé