Accueil
/
Au programme
/
Actualités
/
...

Marie Brière et André Lévy-Lang publient une tribune dans Les Échos sur les nouveaux risques cachés des marchés financiers à l’ère de l’IA

Un enjeu scientifique, économique et stratégique pour l’Europe
Apr 9, 2026 14:05
Apr 9, 2026

Dans une tribune publiée le 26 mars 2026 dans Les Échos, Marie Brière, directrice générale de l’Institut Louis Bachelier et responsable de la Recherche Investisseurs chez Amundi Investment Institute, et André Lévy-Lang, président fondateur de l’Institut Louis Bachelier, alertent sur l’émergence de nouveaux risques systémiques liés à l’essor de l’intelligence artificielle, des données alternatives et des infrastructures numériques dans la finance.

À travers cette prise de parole, les auteurs invitent à élargir notre lecture des risques financiers. Au-delà des vulnérabilités déjà bien identifiées par les modèles traditionnels, ils mettent en lumière des fragilités plus diffuses, plus complexes, et parfois difficilement détectables : biais dans les données, dépendances technologiques, interactions opaques entre systèmes automatisés, ou encore effets de propagation liés à l’usage croissant de l’IA.

Pour lire l'article en entier : https://www.lesechos.fr/idees-debats/cercle/marches-financiers-les-algorithmes-dia-sont-parfaitement-capables-de-sentendre-tacitement-sur-les-prix-2223048

Des risques encore mal visibles, mais déjà structurants

Les grandes crises financières ont montré à quel point certains risques peuvent rester longtemps sous-estimés, voire invisibles, avant de produire des effets majeurs sur les marchés et sur l’économie réelle. C’est précisément cette zone grise que la tribune explore.

Dans un environnement où les acteurs financiers mobilisent de plus en plus de données non traditionnelles — textes, images, sons, signaux numériques en temps réel — les capacités d’analyse se renforcent, mais les sources de fragilité se multiplient également. La promesse d’une meilleure granularité de l’information ne doit pas masquer la réalité : la qualité, la robustesse et la représentativité de ces données sont loin d’être garanties dans tous les cas.

Les auteurs soulignent ainsi que ces nouveaux gisements informationnels peuvent aussi introduire des biais, des erreurs d’interprétation ou des vulnérabilités nouvelles, notamment en cas de manipulation, de fuites de confidentialité ou d’attaques adverses. Dans ce contexte, l’enjeu n’est pas seulement d’exploiter davantage de données, mais de développer les cadres méthodologiques capables d’en éprouver la fiabilité.

De la gestion du risque de modèle au risque des systèmes d’IA

La tribune marque également une étape importante dans la manière de penser le risque technologique en finance. Là où les marchés ont longtemps raisonné en termes de « risque de modèle », les auteurs estiment que l’on entre désormais dans une autre dimension : celle des risques propres aux systèmes d’intelligence artificielle.

Ces risques sont plus difficiles à circonscrire, car ils ne relèvent pas uniquement d’une erreur de paramétrage ou d’une hypothèse mal calibrée. Ils tiennent aussi à l’opacité des modèles, à la manière dont ils apprennent, à leurs interactions entre eux, ainsi qu’aux usages qui en sont faits dans des domaines sensibles comme l’analyse financière, le conseil automatisé ou le trading algorithmique.

L’essor de l’IA générative ouvre certes des perspectives considérables pour la finance, mais il pose aussi de nouvelles questions. Quels biais les modèles reproduisent-ils ou amplifient-ils ? Que se passe-t-il lorsque plusieurs systèmes prennent des décisions en parallèle à partir de signaux similaires ? Comment prévenir les comportements collectifs émergents lorsqu’ils ne sont pas explicitement programmés ?

La collusion algorithmique, un angle mort à surveiller

Parmi les points les plus marquants de la tribune figure la question de la collusion algorithmique. Les auteurs rappellent que certains systèmes d’IA peuvent, dans certaines configurations, converger vers des comportements coordonnés sur les prix, sans qu’un accord explicite n’ait été formulé par leurs concepteurs.

Autrement dit, des algorithmes peuvent apprendre à “s’entendre” tacitement dans leurs stratégies, simplement parce que cela optimise leurs résultats. Si un tel phénomène n’a pas, à ce jour, été formellement observé sur les marchés financiers, il a déjà été reproduit dans des environnements expérimentaux, ce qui en fait un sujet de vigilance croissante pour la recherche, les régulateurs et les acteurs de marché.

Au-delà de cette question, les auteurs attirent également l’attention sur les systèmes d’agents autonomes capables d’échanger, de raisonner et de décider entre eux. Dans ces architectures, une erreur mineure ou un malentendu localisé peut se diffuser rapidement d’un agent à l’autre, jusqu’à produire des effets à l’échelle d’un système entier. Cette dynamique d’interaction, encore imparfaitement comprise, mérite d’être étudiée avec rigueur.

Un enjeu scientifique, économique et stratégique pour l’Europe

La tribune replace enfin ces questions dans un cadre plus large, celui de la souveraineté technologique et des dépendances infrastructurelles. À l’heure où les services de calcul, les plateformes d’IA et les grandes infrastructures numériques sont fortement concentrés, la capacité de l’Europe à maîtriser ses données, ses outils et ses chaînes technologiques devient un sujet stratégique.

Pour les auteurs, les risques financiers ne peuvent plus être pensés indépendamment des enjeux géopolitiques, industriels et réglementaires. L’interconnexion entre marchés, technologies et infrastructures critiques impose une approche renouvelée du risque : plus transversale, plus prospective et plus collective.

Une contribution au débat public portée par l’Institut Louis Bachelier

Cette tribune s’inscrit pleinement dans la mission de l’Institut Louis Bachelier : éclairer les transformations du système financier par la recherche, favoriser le dialogue entre académiques, institutions et praticiens, et faire émerger des cadres d’analyse adaptés aux défis contemporains.

En mettant en lumière ces “risques cachés” de la finance à l’ère de l’IA, Marie Brière et André Lévy-Lang appellent à rendre visible ce qui reste encore insuffisamment appréhendé. Une exigence essentielle pour construire un système financier plus robuste, plus transparent et mieux préparé aux chocs de demain.

télécharger la publicationconsulter la publication
;