Programmes
Evénements
Articles
Transition
Transition numérique
Transition environnementale
Transition financière
Transition démographique
La boîte à outils numérique de la finance de marché repose traditionnellement sur trois piliers : formules approchées, schémas numériques déterministes, méthodes de simulation. Les premières incluent les formules de transformée de Fourier dans les modèles de diffusion à sauts affines, ou encore les asymptotiques de volatilité implicite dans le modèle SABR. Les seconds s’apparentent à des techniques de différences ou éléments finis pour les EDPs de la finance. Les troisièmes sont basées sur la représentation probabiliste, de type Feynman-Kac, des solutions de ces EDPs, ou encore (en nonlinéaire) de la formulation probabiliste de ces EDPs comme équations différentielles stochastiques rétrogrades (EDSRs).
Une alternative de synthèse aux derniers points est offerte par les méthodes d’apprentissage statistique sur données simulées. L’apprentissage est alors conçu, non comme une manière de modéliser à partir des données (puisque celles-ci sont simulées au sein d’un modèle ou classe de modèles prédéfinis), mais comme un quatrième terme de la boîte à outils précédente. La finance quantitative offre en effet un vaste champ d’application aux techniques d’apprentissage statistique, mises en œuvre sur données simulées. Il s’agit là encore d’une tradition bien ancrée, trouvant son origine dans les schémas numériques par simulation/régression pour le pricing des options bermudéennes à la Longstaff and Schwarz, considérablement étendus depuis aux EDSRs. Néanmoins, on peut parler d’une rupture technologique récente dans ce domaine, bouleversé par le déferlement des techniques d’apprentissage.
Une telle évolution s’explique par la rencontre entre le caractère désormais pratiquement accessible de telles techniques en termes de puissance de calcul, et une évolution du paradigme de gestion des produits dérivés, suite à la crise de 2008-09, d’un cadre de réplication à un cadre d’optimisation du capital et du collatéral, allant de pair avec une tendance croissante à l’automatisation du trading (au travers de plateformes dès que possible).
La Chaire se situe à ce point de rencontre entre besoins de calculs accrus des banques d’investissement, suite à l’alourdissement de la régulation, et techniques de machine learning. Les banques sont ainsi assujetties à un nombre croissant de calculs de mesures de risques. Elles sont aussi conduites au calcul de diverses métriques XVAs, i.e. ajustements de valorisation pour tenir compte du risque de contrepartie et de ses conséquences en termes de coûts du capital et du collatéral. Ces calculs doivent être menés à différents niveaux d’agrégation : netting sets (portefeuilles clients) de la banque, niveau plus large encore des funding sets pour les calculs de coût de financement, voire niveau de la balance-sheet de la banque dans sa totalité pour certains calculs de coût économique et coût du capital.
Au-delà des défis de calcul posés par l’évolution de la régulation, celle-ci soulève également de nombreuses et légitimes questions en termes de modèles (aux sens pricing et risques usuels, mais aussi calculs de provisions et modélisation de la balance sheet) et risques de modèle.
D’autres applications de l’apprentissage statistique en finance impliquent cette fois des historiques de données (par opposition plus haut à des données simulées). Les défis sont alors multiples et ardus : non stationnarité des données financières, problématiques de grandes dimensions, de taille des données (souvent limitée) et de données manquantes, d’extrêmes et de dépendance dans les queues de distributions (en lien par exemple avec des mesures de risque).
Principaux axes de recherche
Rapport d’activité 2022
Rapport d’activité 2023 (ENG)