ROSENBAUM Mathieu

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2018 - 2021
    Centre de mathématiques appliquées
  • 2017 - 2021
    Détermination de Formes Et Identification
  • 2006 - 2016
    Centre de recherche en économie et statistique
  • 2006 - 2016
    Centre de recherche en économie et statistique de l'Ensae et l'Ensai
  • 2015 - 2016
    Sorbonne Université
  • 2012 - 2016
    Laboratoire de probabilités et modèles aléatoires
  • 2013 - 2014
    Université Paris 6 Pierre et Marie Curie
  • 2012 - 2013
    Laboratoire polymères et matériaux avancés
  • 2006 - 2007
    Université Paris-Est Marne-la-Vallée
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2007
  • Des processus quadratiques de Hawkes aux modèles de volatilité grossière super-Heston avec effet Zumbach.

    Aditi DANDAPANI, Paul JUSSELIN, Mathieu ROSENBAUM
    Quantitative Finance | 2021
    Pas de résumé disponible.
  • Une formule d'expansion pour les processus de Hawkes et application aux dérivés de la cyberassurance *.

    Caroline HILLAIRET, Mathieu ROSENBAUM, Anthony REVEILLAC
    2021
    Dans cet article, nous proposons une formule d'expansion pour les processus de Hawkes qui implique l'ajout de sauts à des moments déterministes au processus de Hawkes dans l'esprit de la formule bien connue d'intégration par parties (ou plus précisément la formule de Mecke) pour les fonctionnelles de Poisson. Notre approche nous permet de fournir une expansion de la prime d'une catégorie de dérivés de cyberassurance (tels que les contrats de réassurance, y compris les contrats Stop-Loss généralisés) ou d'instruments de gestion des risques (comme l'Expected Shortfall) en termes de processus de Hawkes décalés. D'un point de vue actuariel, ces processus peuvent être considérés comme des scénarios "stressés". Notre formule d'expansion pour les processus de Hawkes nous permet de fournir des limites inférieures et supérieures sur la prime (ou l'évaluation du risque) de tels cybercontrats et de quantifier le surplus de prime par rapport à la modélisation standard avec un processus de Poisson homogène.
  • Application de la théorie des contrats à la régulation des marchés d'energie, et étude des lois jointes d'une martingale et son maximum courant.

    Heythem FARHAT, Nizar TOUZI, Caroline HILLAIRET, Nizar TOUZI, Aurelien ALFONSI, Said HAMADENE, Clemence ALASSEUR, Mathieu ROSENBAUM, Rene AID, Aurelien ALFONSI, Said HAMADENE
    2021
    Cette thèse est composée de deux parties indépendantes. La première partie se focalise sur l'application du problème du Principal-Agent (c.f. Cvitanic & Zhang (2013) et Cvitanic. et al. (2018)) pour la résolution de problématiques de modélisations sur les marchés d'énergie. La deuxième porte sur les lois jointes d'une martingale et de son maximum courant.Nous nous intéressons dans un premier lieu au marché des capacités électriques, et en particulier les mécanismes de rémunération de capacité. Étant donné la part croissante des énergies renouvelables dans la production d'électricité, les centrales de production "classiques" (à gaz où à charbon par exemple) sont de moins en moins sollicitées, ce qui les rends peu rentables et non viable économiquement. Cependant, leur fermeture exposerait les consommateurs à un risque de Blackout en cas de pic de demande d'électricité, puisque celle-ci ne peut pas être stockée. Ainsi, la capacité de production doit être toujours maintenue à un niveau au-dessus de la demande, ce qui nécessite un "mécanisme de rémunération de capacités" pour rémunérer les centrales rarement sollicitées, ce qui peut être compris comme une assurance à payer contre les Black-out électriques.Nous traitons ensuite la problématique des incitations à la décarbonation. L'objectif est de proposer un modèle d'instrument qui puisse être utilisé par un agent public (l'état) en vue d'inciter les différents secteurs à baisser leurs émissions de carbone dans un contexte de risque moral (où l'état n'observe pas l'effort des acteurs et ne peut donc pas savoir si une baisse des émissions provient d'une baisse de production et de consommation ou d'un effort de gestion. investissement en recherche et développement). ce qui fournit une alternative à la taxe carbone qui nécessite une information parfaite.La deuxième partie (indépendante) est motivée par la calibration de modèles et l'arbitrage sur un marché financier avec des options barrière. Elle présente un résultat sur les lois jointes d'une martingale et son maximum courant. Nous considérons une famille de probabilités en dimension 2, et nous donnons des conditions nécessaires et suffisantes assurant l'existence d'une martingale telle que ses lois marginales couplées avec ceux de son maximum courant coïncident avec les probabilités données.Nous suivons la méthodologie de Hirsch et Roynette (2012) basée sur une construction de martingale par EDS associée à une EDP bien posée de Fokker-Planck vérifiée par les lois marginales données sous des hypothèses de régularité, puis dans un cadre général avec une régularisation et un passage à la limite.
  • La finance quantitative à l'échelle de la microstructure : trading algorithmique et réglementation.

    Bastien BALDACCI, Mathieu ROSENBAUM, Dylan POSSAMAI, Olivier GUEANT, Mathieu ROSENBAUM, Dylan POSSAMAI, Huyen PHAM, Mike LUDKOVSKI, Thibaut MASTROLIA, Sophie LARUELLE, Nizar TOUZI, Huyen PHAM, Mike LUDKOVSKI
    2021
    Cette thèse est divisée en trois parties. Dans la première partie, nous appliquons la théorie Principal-Agent à certains problèmes de microstructure de marché. Premièrement, nous développons une politique d’incitation afin d’améliorer la qualité de la liquidité de marché dans le cadre d’une activité de market-making dans un lit et un dark pool gérés par la même bourse d’échange. Puis, nous adaptions ce design d’incitations à la régulation de l’activité de market-making lorsque plusieurs market-makers sont en concurrence sur une plateforme. Nous proposons également une forme d’incitation basée sur le choix de tailles de ticks asymétriques à l’achat et à la vente sur un actif. Nous abordons ensuite la question de la conception d’un marché de produits dérivés, en utilisant une méthode de quantization pour sélectionner les options listées sur la plateforme, et la théorie Principal-Agent pour créer des incitations pour un market-maker d’options. Enfin, nous développons un mécanisme d’incitations robuste à la spécification de modèle pour augmenter l’investissement dans les obligations vertes.La deuxime partie de cette thèse est consacrée au market-making d’options en grande dimension. En faisant l’hypothèse de grecques constants nous proposons dans un premier temps un modèle pour traiter les options de longue maturité. Puis nous proposons une approximation de la fonction valeur permettant de traiter les grecques non-constants et les options de courte maturité. Enfin, nous développons un modèle pour la dynamique haute fréquence de la surface de volatilité implicite. En utilisant des processus Hawkes multidimensionnels, nous montrons comment ce modèle peut reproduire de nombreux faits stylisés tels que le skew, le smile et la structure par termes de la surface.La dernière partie de cette thèse est consacrée aux problèmes de trading optimal en grande dimension. Dans un premier temps, nous développons un modèle pour le trading optimal d’actions listées sur plusieurs plateformes. Pour un grand nombre de plateformes, nous utilisons une méthode d’apprentissage par renforcement profond pour calculer les contrôles optimaux du trader. Puis, nous proposons une méthodologie pour résoudre des problèmes de trading de façon approximativement optimale sans utiliser la théorie du contrôle stochastique. Nous présentons un modèle dans lequel un agent exhibe un comportement approximativement optimal s’il utilise le gradient de la trajectoire macroscopique comme signal de court terme. Enfin, nous présentons deux nouveaux développements sur la littérature d’exécution optimale. Tout d’abord, nous montrons que nous pouvons obtenir une solution analytique au problème d’exécution d’Almgren-Chriss avec mouvement Brownien géométrique et pénalité quadratique. Deuxièmement, nous proposons une application du modèle de carnet d’ordres latent au problème d’exécution optimale d’un portefeuille d’actifs, dans le cadre de stress tests de liquidité.
  • L'absence d'arbitrage implique un impact sur le marché de type loi de puissance et une volatilité approximative.

    Paul JUSSELIN, Mathieu ROSENBAUM
    Mathematical Finance | 2020
    Pas de résumé disponible.
  • Crises de liquidité endogènes dans les marchés financiers.

    Antoine FOSSET, Mathieu ROSENBAUM, Michael BENZAQUEN, Peter TANKOV, Mathieu ROSENBAUM, Michael BENZAQUEN, Damien CHALLET, Fabrizio LILLO, Sophie LARUELLE, Kirone MALLICK, Jean francois MUZY, Damien CHALLET, Fabrizio LILLO
    2020
    De récentes analyses empiriques ont révélé l'existence de l'effet Zumbach. Cette découverte a conduit à l'élaboration des processus de Hawkes quadratique, adapté pour reproduire cet effet. Ce modèle ne faisant pas de lien avec le processus de formation de prix, nous l'avons étendu au carnet d'ordres avec un processus de Hawkes quadratique généralisé (GQ-Hawkes). En utilisant des données de marchés, nous avons montré qu'il existe un effet de type Zumbach qui diminue la liquidité future. Microfondant l'effet Zumbach, il est responsable d'une potentielle déstabilisation des marchés financiers. De plus, la calibration exacte d'un processus GQ-Hawkes nous indique que les marchés sont aux bords de la criticité. Ces preuves empiriques nous ont donc incité à faire une analyse d'un modèle de carnet d'ordres construit avec un couplage de type Zumbach. Nous avons donc introduit le modèle de Santa Fe quadratique et prouvé numériquement qu'il existe une transition de phase entre un marché stable et un marché instable sujet à des crises de liquidité. Grâce à une analyse de taille finie nous avons pu déterminer les exposants critiques de cette transition, appartenant à une nouvelle classe d'universalité. N'étant pas analytiquement soluble, cela nous a conduit à introduire des modèles plus simples pour décrire les crises de liquidités. En mettant de côté la microstructure du carnet d'ordres, nous obtenons une classe de modèles de spread où nous avons calculé les paramètres critiques de leurs transitions. Même si ces exposants ne sont pas ceux de la transition du Santa Fe quadratique, ces modèles ouvrent de nouveaux horizons pour explorer la dynamique de spread. L'un d'entre eux possède un couplage non-linéaire faisant apparaître un état métastable. Ce scénario alternatif élégant n'a pas besoin de paramètres critiques pour obtenir un marché instable, même si les données empiriques ne sont pas en sa faveur. Pour finir, nous avons regardé la dynamique du carnet d'ordres sous un autre angle: celui de la réaction-diffusion. Nous avons modélisé une liquidité qui se révèle dans le carnet d'ordres avec une certaine fréquence. La résolution de ce modèle à l'équilibre révèle qu'il existe une condition de stabilité sur les paramètres au-delà de laquelle le carnet d'ordres se vide totalement, correspondant à une crise de liquidité. En le calibrant sur des données de marchés nous avons pu analyser qualitativement la distance à cette région instable.
  • L'impact du marché dans le trading systématique et la fixation du prix des options.

    Emilio SAID, Frederic ABERGEL, Gilles PAGES, Mathieu ROSENBAUM, Aurelien ALFONSI, Damien CHALLET, Sophie LARUELLE, Mathieu ROSENBAUM, Aurelien ALFONSI
    2020
    L’objectif principal de cette thèse est de comprendre les divers aspects du market impact. Elle se compose de quatre chapitres dans lesquelles le market impact est étudié dans différents contextes et à différentes échelles. Le premier chapitre présente une étude empirique du market impact des ordres limites sur les marchés actions européens. Dans le deuxième chapitre, nous avons étendu la méthodologie présentée pour les marchés actions aux marchés options. Cette étude empirique a mis en évidence que notre définition d’un métaordre options nous permet de retrouver la totalité des résultats mis en évidence sur les marchés actions. Le troisième chapitre s’intéresse au market impact dans le contexte de l’évaluation des produits dérivés. Ce chapitre tente d’apporter une composante microstructure à l’évaluation des options notamment en proposant une théorie des perturbations du market impact au cours du processus de re-hedging. Nous explorons dans le quatrième chapitre un modèle assez simple pour la relaxation des métaordres. La relaxation des métaordres est traitée dans cette partie en tant que processus informationnel qui se transmet au marché. Ainsi, partant du point de départ qu’à la fin de l’exécution d’un métaordre l’information portée par celui-ci est maximale, nous proposons une interprétation du phénomène de relaxation comme étant le résultat de la dégradation de cette information au détriment du bruit extérieur du marché.
  • Interactions et incitations : entre théorie des contrats et jeux à champ moyen.

    Emma HUBERT, Romuald ELIE, Dylan POSSAMAI, Mathieu ROSENBAUM, Romuald ELIE, Rene CARMONA, Peter TANKOV, Stephane VILLENEUVE, Dylan POSSAMAI, Clemence ALASSEUR, Pierre CARDALIAGUET, Rene CARMONA, Peter TANKOV, Stephane VILLENEUVE
    2020
    Dans cette thèse, nous nous intéressons principalement à trois thèmes de recherche, relativement indépendants, mais néanmoins connexes au travers du fil conducteur des interactions et incitations, comme souligné dans l'introduction constituant le premier chapitre.Dans la première partie, nous présentons des extensions de la théorie des contrats, permettant notamment de considérer une multitude de joueurs dans des modèles principal-agent, avec contrôle du drift et de la volatilité, en présence d'aléa moral. En particulier, le chapitre 2 présente un problème d'incitations optimales en temps continu au sein d'une hiérarchie, inspiré du modèle à une période de Sung (2015) et éclairant à deux égards : d'une part, il présente un cadre où le contrôle de la volatilité intervient de manière parfaitement naturelle, et, d'autre part, il souligne l'importance de considérer des modèles en temps continu. En ce sens, cet exemple motive l'étude complète et générale des modèles hiérarchiques effectuée dans le troisième chapitre, qui va de pair avec la théorie récente des équations différentielles stochastiques du second ordre (2EDSR). Enfin, dans le chapitre 4, nous proposons une extension du modèle principal-agent développé par Aïd, Possamaï et Touzi (2019) à un continuum d'agents, dont les performances sont en particulier impactées par un aléa commun. Ces études nous guident notamment vers une généralisation des contrats dits révélateurs, proposés initialement par Cvitanić, Possamaï et Touzi (2018) dans un modèle à un seul agent.Dans la deuxième partie, nous présentons deux applications des problèmes principal-agent au domaine de l'énergie. La première, développée dans le chapitre 5, utilise le formalisme et les résultats théoriques introduits dans le chapitre précédent pour améliorer les programmes de réponse à la demande en électricité, déjà considérés par Aïd, Possamaï et Touzi (2019). En effet, en prenant en compte l'infinité de consommateurs que doit fournir en électricité un producteur, il est possible d'utiliser cette information supplémentaire pour construire les incitations optimales, afin notamment de mieux gérer le risque résiduel impliqué par les aléas climatiques. Dans un second temps, le chapitre 6 propose, à travers un modèle principal-agent avec sélection adverse, une assurance susceptible de prévenir certaines formes de précarité, en particulier la précarité énergétique.Enfin, nous terminons cette thèse par l'étude dans la dernière partie d'un second domaine d'application, celui de l'épidémiologie, et plus précisément le contrôle de la diffusion d'une maladie contagieuse au sein d'une population. Nous considérons en premier lieu dans le chapitre 7 le point de vue des individus, à travers un jeu à champs moyen : chaque individu peut choisir son taux d'interaction avec les autres, en conciliant d'un côté son besoin d'interactions sociales et de l'autre sa peur d'être à son tour contaminé, et de contribuer à la diffusion plus large de la maladie. Nous prouvons l'existence d'un équilibre de Nash entre les individus, et l'exhibons numériquement. Dans le dernier chapitre, nous prenons le point de vue du gouvernement, souhaitant inciter la population, représentée maintenant dans son ensemble, à diminuer ses interactions de manière à contenir l'épidémie. Nous montrons que la mise en place de sanctions en cas de non-respect du confinement peut s'avérer efficace, mais que, pour une maîtrise totale de l'épidémie, il est nécessaire de développer une politique de dépistage consciencieuse, accompagnée d'un isolement scrupuleux des individus testés positifs.
  • Modélisation et analyse statistique des données de trafic de latence sur Internet.

    Alexis FREMOND, Marc HOFFMANN, Gerard BIAU, Marc HOFFMANN, Gerard BIAU, Mathieu ROSENBAUM, Arnak s. DALALYAN, Vincent RIVOIRARD, Mathieu ROSENBAUM, Arnak s. DALALYAN
    2020
    La vitesse des échanges d'information dans le réseau Internet se mesure à l'aide de la latence: une durée mesurant le temps écoulé entre l'envoi du premier bit d'information d'une requête et la réception du premier bit d'information de la réponse. Dans cette thèse réalisée en collaboration avec la société Citrix, nous nous intéressons à l'étude et à la modélisation des données de latence dans un contexte d'optimisation de traffic Internet.Citrix collecte des données via deux canaux différents, générant des mesures de latence soupçonnées de partager des propriétés communes. Dans un premier temps, nous nous intéressons à un problème d'ajustement distributionnel où les co-variables et les réponses sont des mesures de probabilité images l'une de l'autre par un transport déterministe, et les observables des échantillons indépendants tirés selon ces lois. Nous proposons un estimateur de ce transport et démontrons ses propriétés de convergence. On montre que notre estimateur peut être utilisé pour faire correspondre les distributions des mesures de latence générées par les deux canaux.Dans un second temps nous proposons une stratégie de modélisation pour prédire le processus obtenu en calculant la médiane mobile des mesures de latence sur des partitions régulières de l'intervalle [0, T] avec un maillage D > 0. On montre que la moyenne conditionnelle de ce processus, qui joue un rôle majeur dans l'optimisation du traffic Internet, est correctement décrite par une décomposition en séries de Fourier et que sa variance conditionnelle s'organise en clusters qu'on modélise à l'aide d'un processus ARMA Seasonal-GARCH, c'est à dire un processus ARMA-GARCH avec ajout de termes saisonniers déterministes. Les performances prédictives de ce modèle sont comparées aux modèles de référence utilisés dans l'industrie. Une nouvelle mesure de la quantité d'information résiduelle non captée par le modèle basée sur un certain critère entropique est introduite.Nous abordons ensuite le problème de la détection de panne dans le réseau Internet. Nous proposons un algorithme de détection de changement dans la distribution d'un stream de données de latence basé sur la comparaison de deux fenêtres glissantes à l'aide d'une certain distance de Wasserstein pondérée.Enfin, nous décrivons comment sélectionner les données d'entraînement des algorithmes prédictifs de manière à réduire leur taille pour limiter les coûts de calculs sans impacter la précision.
  • Quelques aspects du rôle central de la microstructure des marchés financiers : dynamique de la volatilité, négociation optimale et conception du marché.

    Paul JUSSELIN, Mathieu ROSENBAUM, Nicole EL KAROUI, Mathieu ROSENBAUM, Jean philippe BOUCHAUD, Darrell DUFFIE, Gilles PAGES, Peter TANKOV, Marc HOFFMANN, Nizar TOUZI, Jean philippe BOUCHAUD, Darrell DUFFIE
    2020
    Cette thèse est organisée en trois parties. Dans la première on examine les relations entre la dynamique microscopique et macroscopique du marché en se concentrant sur les propriétés de la volatilité. Dans la deuxième partie on s'intéresse au contrôle optimal stochastique de processus ponctuels. Finalement dans la troisième partie on étudie deux problématiques de market design.On commence cette thèse par l'étude des liens entre le principe d'absence d'opportunité d'arbitrage et l'irrégularité de la volatilité. A l'aide d'une méthode de changement d'échelle on montre que l'on peut effectivement connecter ces deux notions par l'analyse du market impact des métaordres. Plus précisément on modélise le flux des ordres marchés en utilisant des procesus de Hawkes linéaires. Puis on montre que le principe d'absence d'opportunité d'arbitrage ainsi que l'existence d'un market impact non trivial impliquent que la volatilité est rugueuse et plus précisément qu'elle suit un modèle rough Heston. On examine ensuite une classe de modèles microscopiques où le flux d'ordre est un processus de Hawkes quadratique. L'objectif est d'étendre le modèle rough Heston à des modèles continus permettant de reproduire l'effet Zumbach. Finalement on utilise un de ces modèles, le modèle rough Heston quadratique, pour la calibration jointe des nappes de volatilité du SPX et du VIX.Motivé par l'usage intensif de processus ponctuels dans la première partie, on s'intéresse dans la deuxième au contrôle stochastique de processus ponctuels. Notre objectif est de fournir des résultats théoriques en vue d'applications en finance. On commence par considérer le cas du contrôle de processus de Hawkes. On prouve l'existence d'une solution puis l'on propose une méthode permettant d'appliquer ce contrôle en pratique. On examine ensuite les limites d'échelles de problèmes de contrôles stochastiques dans le cadre de modèles de dynamique de population. Plus exactement on considère une suite de modèles de dynamique d'une population discrète qui converge vers un modèle pour une population continue. Pour chacun des modèles on considère un problème de contrôle. On prouve que la suite des contrôles optimaux associés aux modèles discrets converge vers le contrôle optimal associé au modèle continu. Ce résultat repose sur la continuité, par rapport à différents paramètres, de la solution d'une équation différentielle schostatique rétrograde.Dans la dernière partie on s'intéresse à deux problèmatiques de market design. On examine d'abord la question de l'organisation d'un marché liquide de produits dérivés. En se concentrant sur un marché d'options, on propose une méthode en deux étapes pouvant facilement être appliquée en pratique. La première étape consiste à choisir les options qui seront listées sur le marché. Pour cela on utilise un algorithme de quantification qui permet de sélectionner les options les plus demandées par les investisseurs. On propose ensuite une méthode d'incitation tarifaire visant à encourager les market makers à proposer des prix attractifs. On formalise ce problème comme un problème de type principal-agent que l'on résoud explicitement. Finalement, on cherche la durée optimale d'une enchère pour les marchés organisés en enchères séquentielles, le cas de la durée nulle correspondant à celui d'une double enchère continue. On utilise un modèle où les market takers sont en compétition et on considère que la durée optimale est celle correspondant au processus de découverte du prix le plus efficace. Après avoir prouvé l'existence d'un équilibre de Nash pour la compétition entre les market takers, on applique nos résultats sur des données de marchés. Pour la plupart des actifs, la durée optimale se trouve entre 2 et 10 minutes.
  • Correction du biais pour l'estimation de la dérive et de la volatilité des processus de diffusion par saut et estimation adaptative non paramétrique de la mesure invariante.

    Chiara AMORINO, Arnaud GLOTER, Mathieu ROSENBAUM, Eulalia NUALART, Alexandre BROUSTE, Fabienne COMTE, Agathe GUILLOUX, Fabien PANLOUP, Eulalia NUALART, Alexandre BROUSTE
    2020
    Le sujet de la thèse est l’estimation paramétrique et non-paramétrique dans des modèles de processus à sauts. La thèse est constituée de 3 parties qui regroupent 4 travaux. La première partie, qui est composée de deux chapitres, traite de l'estimation des paramètres de dérive et volatilité par des méthodes de contraste depuis des observations discrètes, avec pour objectif principal de minimiser les conditions sur le pas d'observation, afin que celui ci puisse par exemple aller arbitrairement lentement vers 0. La seconde partie de la thèse concerne des développements asymptotiques, et correction de biais, pour l'estimation de la volatilité intégrée. La troisième partie de la thèse, concerne l'estimation adaptative de la mesure stationnaire pour des processus à saut.
  • Approximations stochastiques pour le calcul des risques financiers.

    Florian BOURGEY, Emmanuel GOBET, Stefano DE MARCO, Mathieu ROSENBAUM, Emmanuel GOBET, Stefano DE MARCO, Christian r. BAYER, Ahmed KEBAIER, Ying JIAO, Caroline HILLAIRET, Vincent LEMAIRE, Christian r. BAYER, Ahmed KEBAIER
    2020
    Dans cette thèse, nous examinons plusieurs méthodes d'approximations stochastiques à la fois pour le calcul de mesures de risques financiers et pour le pricing de produits dérivés.Comme les formules explicites sont rarement disponibles pour de telles quantités, le besoin d'approximations analytiques rapides,efficaces et fiables est d'une importance capitale pour les institutions financières.Nous visons ainsi à donner un large aperçu de ces méthodes d'approximation et nous nous concentrons sur trois approches distinctes.Dans la première partie, nous étudions plusieurs méthodes d'approximation Monte Carlo multi-niveaux et les appliquons à deux problèmes pratiques :l'estimation de quantités impliquant des espérances imbriquées (comme la marge initiale) ainsi que la discrétisation des intégrales apparaissant dans les modèles rough pour la variance forward pour le pricing d'options sur le VIX.Dans les deux cas, nous analysons les propriétés d'optimalité asymptotique des estimateurs multi-niveaux correspondants et démontrons numériquement leur supériorité par rapport à une méthode de Monte Carlo classique.Dans la deuxième partie, motivés par les nombreux exemples issus de la modélisation en risque de crédit, nous proposons un cadre général de métamodélisation pour de grandes sommes de variables aléatoires de Bernoulli pondérées, qui sont conditionnellement indépendantes par rapport à un facteur commun X. Notre approche générique est basée sur la décomposition en polynômes du chaos du facteur commun et sur une approximation gaussienne. Les estimations d'erreur L2 sont données lorsque le facteur X est associé à des polynômes orthogonaux classiques.Enfin, dans la dernière partie de cette thèse, nous nous intéressons aux asymptotiques en temps court de la volatilité implicite américaine et les prix d'options américaines dans les modèles à volatilité locale. Nous proposons également une approximation en loi de l'indice VIX dans des modèles rough pour la variance forward, exprimée en termes de proxys log-normaux et dérivons des résultats d'expansion pour les options sur le VIX dont les coefficients sont explicites.
  • Frais de prise en charge optimaux pour la réglementation de la tenue de marché.

    Omar el EUCH, Thibaut MASTROLIA, Mathieu ROSENBAUM, Nizar TOUZI, Omar EUCH
    Mathematical Finance | 2020
    Nous abordons le problème de la conception du mécanisme d'une bourse qui fixe des frais de prise en charge appropriés pour attirer la liquidité sur sa plateforme. En utilisant une approche principal-agent, nous fournissons le schéma de compensation optimal d'un teneur de marché sous une forme quasi-explicite. Ce contrat dépend essentiellement de la trajectoire de l'inventaire du teneur de marché et de la volatilité de l'actif. Nous fournissons également les cotations optimales qui devraient être affichées par le teneur de marché. La simplicité de nos formules nous permet d'analyser en détail les effets d'un contrat optimal avec une bourse, par rapport à une situation sans contrat. Nous montrons en particulier qu'il améliore la liquidité et réduit les coûts de transaction pour les investisseurs. Nous étendons notre étude à un oligopole de bourses symétriques et nous étudions l'impact d'une telle politique d'agence commune sur le système.
  • AHEAD : Conception d'enchères électroniques ad hoc.

    Joffrey DERCHU, Philippe GUILLOT, Thibaut MASTROLIA, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2020
    Pas de résumé disponible.
  • L'effet Zumbach sous la forme de Heston brut.

    Omar EL EUCH, Jim GATHERAL, Rados RADOICIC, Mathieu ROSENBAUM
    Quantitative Finance | 2019
    Pas de résumé disponible.
  • Durée optimale des enchères : Un point de vue sur la formation des prix.

    Paul JUSSELIN, Thibaut MASTROLIA, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • High-frequency trading : statistical analysis, modelling and regulation.

    Pamela SALIBA, Mathieu ROSENBAUM, Nicole EL KAROUI, Mathieu ROSENBAUM, Jean philippe BOUCHAUD, Alain CHABOUD, Olivier GUEANT, Frederic ABERGEL, Alexandra GIVRY, Charles albert LEHALLE, Jean philippe BOUCHAUD, Fabrizio LILLO, Alain CHABOUD
    2019
    Cette thèse est constituée de deux parties liées l’une à l’autre. Dans la première, nous étudions empiriquement le comportement des traders haute fréquence sur les marchés financiers européens. Nous utilisons les résultats obtenus afin de construire dans la seconde partie de nouveaux modèles multi-agents. L’objectif principal de ces modèles est de fournir aux régulateurs et plateformes de négociation des outils innovants leur permettant de mettre en place des règles pertinentes pour la microstructure et de quantifier l’impact des divers participants sur la qualité du marché.Dans la première partie, nous effectuons deux études empiriques sur des données uniques fournies par le régulateur français. Nous avons accès à l’ensemble des ordres et transactions des actifs du CAC 40, à l’échelle de la microseconde, avec par ailleurs les identités des acteurs impliqués. Nous commençons par comparer le comportement des traders haute fréquence à celui des autres intervenants, notamment pendant les périodes de stress, en termes de provision de liquidité et d’activité de négociation. Nous approfondissons ensuite notre analyse en nous focalisant sur les ordres consommant la liquidité. Nous étudions leur impact sur le processus de formation des prix et leur contenu informationnel selon les différentes catégories de flux : traders haute fréquence, participants agissant pour compte client et participants agissant pour compte propre.Dans la seconde partie, nous proposons trois modèles multi-agents. À l’aide d’une approche à la Glosten-Milgrom, nous parvenons avec notre premier modèle à construire l’ensemble du carnet d’ordres (spread et volume disponible à chaque prix) à partir des interactions entre trois types d’agents : un agent informé, un agent non informé et des teneurs de marché. Ce modèle nous permet par ailleurs de développer une méthodologie de prédiction du spread en cas de modification du pas de cotation et de quantifier la valeur de la priorité dans la file d’attente. Afin de se concentrer sur une échelle individuelle, nous proposons une deuxième approche où les dynamiques spécifiques des agents sont modélisées par des processus de type Hawkes non linéaires et dépendants de l’état du carnet d’ordres. Dans ce cadre, nous sommes en mesure de calculer en fonction des flux individuels plusieurs indicateurs pertinents relatifs à la microstructure. Il est notamment possible de classer les teneurs de marché selon leur contribution propre à la volatilité. Enfin, nous introduisons un modèle où les fournisseurs de liquidité optimisent leurs meilleurs prix à l’achat et à la vente en fonction du profit qu’ils peuvent générer et du risque d’inventaire auquel ils sont confrontés. Nous mettons alors en évidence théoriquement et empiriquement une nouvelle relation importante entre inventaire et volatilité.
  • De Glosten-Milgrom au carnet d'ordres à limites entières et applications à la réglementation financière.

    Weibing HUANG, Mathieu ROSENBAUM, Pamela SALIBA
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • Frais de prise en charge optimaux pour la réglementation de la tenue de marché.

    Omar EUCH, Thibaut MASTROLIA, Mathieu ROSENBAUM, Nizar TOUZI
    2019
    Nous abordons le problème de la conception du mécanisme d'une bourse qui fixe des frais de prise en charge appropriés pour attirer la liquidité sur sa plateforme. En utilisant une approche principal-agent, nous fournissons le schéma de compensation optimal d'un teneur de marché sous une forme quasi-explicite. Ce contrat dépend essentiellement de la trajectoire de l'inventaire du teneur de marché et de la volatilité de l'actif. Nous fournissons également les cotations optimales qui devraient être affichées par le teneur de marché. La simplicité de nos formules nous permet d'analyser en détail les effets d'un contrat optimal avec une bourse, par rapport à une situation sans contrat. Nous montrons en particulier qu'il améliore la liquidité et réduit les coûts de transaction pour les investisseurs. Nous étendons notre étude à un oligopole de bourses symétriques et nous étudions l'impact d'une telle politique d'agence commune sur le système.
  • Contrôle optimal, apprentissage statistique et modélisation du carnet d'ordres.

    Othmane MOUNJID, Mathieu ROSENBAUM, Bruno BOUCHARD DENIZE, Mathieu ROSENBAUM, Charles albert LEHALLE, Gilles PAGES, Eric MOULINES, Sophie LARUELLE, Jean philippe BOUCHAUD, Olivier GUEANT, Xin GUO
    2019
    L'objectif principal de cette thèse est de comprendre les interactions entre les agents financiers et le carnet d'ordres. Elle se compose de six chapitres inter-connectés qui peuvent toutefois être lus indépendamment.Nous considérons dans le premier chapitre le problème de contrôle d'un agent cherchant à prendre en compte la liquidité disponible dans le carnet d'ordres afin d'optimiser le placement d'un ordre unitaire. Notre stratégie permet de réduire le risque de sélection adverse. Néanmoins, la valeur ajoutée de cette approche est affaiblie en présence de temps de latence: prédire les mouvements futurs des prix est peu utile si le temps de réaction des agents est lent.Dans le chapitre suivant, nous étendons notre étude à un problème d'exécution plus général où les agents traitent des quantités non unitaires afin de limiter leur impact sur le prix. Notre tactique permet d'obtenir de meilleurs résultats que les stratégies d'exécution classiques.Dans le troisième chapitre, on s'inspire de l'approche précédente pour résoudre cette fois des problèmes de market making plutôt que des problèmes d'exécution. Ceci nous permet de proposer des stratégies pertinentes compatibles avec les actions typiques des market makers. Ensuite, nous modélisons les comportements des traders haute fréquence directionnels et des brokers institutionnels dans le but de simuler un marché où nos trois types d'agents interagissent de manière optimale les uns avec les autres.Nous proposons dans le quatrième chapitre un modèle d'agents où la dynamique des flux dépend non seulement de l'état du carnet d'ordres mais aussi de l'historique du marché. Pour ce faire, nous utilisons des généralisations des processus de Hawkes non linéaires. Dans ce cadre, nous sommes en mesure de calculer en fonction de flux individuels plusieurs indicateurs pertinents. Il est notamment possible de classer les market makers en fonction de leur contribution à la volatilité.Pour résoudre les problèmes de contrôle soulevés dans la première partie de la thèse, nous avons développé des schémas numériques. Une telle approche est possible lorsque la dynamique du modèle est connue. Lorsque l'environnement est inconnu, on utilise généralement les algorithmes itératifs stochastiques. Dans le cinquième chapitre, nous proposons une méthode permettant d'accélérer la convergence de tels algorithmes.Les approches considérées dans les chapitres précédents sont adaptées pour des marchés liquides utilisant le mécanisme du carnet d'ordres. Cependant, cette méthodologie n'est plus nécessairement pertinente pour des marchés régis par des règles de fonctionnement spécifiques. Pour répondre à cette problématique, nous proposons, dans un premier temps, d'étudier le comportement des prix sur le marché très particulier de l'électricité.
  • Évaluation de la réglementation MiFID 2 sur les tailles de tic-tac : A Transaction Costs Analysis Viewpoint.

    Sophie LARUELLE, Mathieu ROSENBAUM, Emel SAVKU
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • La volatilité brute : Evidence from option prices.

    Giulia LIVIERI, Saad MOUTI, Andrea PALLAVICINI, Mathieu ROSENBAUM
    IISE Transactions | 2018
    Pas de résumé disponible.
  • La fonction caractéristique des modèles bruts de Heston.

    Omar EL EUCH, Mathieu ROSENBAUM
    Mathematical Finance | 2018
    Pas de résumé disponible.
  • Les fondements microstructuraux de l'effet de levier et de la volatilité grossière.

    Omar EL EUCH, Masaaki FUKASAWA, Mathieu ROSENBAUM
    Finance and Stochastics | 2018
    Pas de résumé disponible.
  • La volatilité est rude.

    Jim GATHERAL, Thibault JAISSON, Mathieu ROSENBAUM
    Quantitative Finance | 2018
    Pas de résumé disponible.
  • L'effet Zumbach sous Rough Heston.

    Omar EL EUCH, Jim GATHERAL, Rados RADOICIC, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • La finance quantitative sous une volatilité grossière.

    Omar EL EUCH, Mathieu ROSENBAUM, Jean JACOD, Bruno BOUCHARD DENIZE, Jean philippe BOUCHAUD, Gilles PAGES, Peter TANKOV, Nizar TOUZI, Josef TEICHMANN, Walter SCHACHERMAYER
    2018
    Cette thèse a pour objectif la compréhension de plusieurs aspects du caractère rugueux de la volatilité observé de manière universelle sur les actifs financiers. Ceci est fait en six étapes. Dans une première partie, on explique cette propriété à partir des comportements typiques des agents sur le marché. Plus précisément, on construit un modèle de prix microscopique basé sur les processus de Hawkes reproduisant les faits stylisés importants de la microstructure des marchés. En étudiant le comportement du prix à long terme, on montre l’émergence d’une version rugueuse du modèle de Heston (appelé modèle rough Heston) avec effet de levier. En utilisant ce lien original entre les processus de Hawkes et les modèles de Heston, on calcule dans la deuxième partie de cette thèse la fonction caractéristique du log-prix du modèle rough Heston. Cette fonction caractéristique est donnée en terme d’une solution d’une équation de Riccati dans le cas du modèle de Heston classique. On montre la validité d’une formule similaire dans le cas du modèle rough Heston, où l’équation de Riccati est remplacée par sa version fractionnaire. Cette formule nous permet de surmonter les difficultés techniques dues au caractère non markovien du modèle afin de valoriser des produits dérivés. Dans la troisième partie, on aborde la question de la gestion des risques des produits dérivés dans le modèle rough Heston. On présente des stratégies de couverture utilisant comme instruments l’actif sous-jacent et la courbe variance forward. Ceci est fait en spécifiant la structure markovienne infini-dimensionnelle du modèle. Étant capable de valoriser et couvrir les produits dérivés dans le modèle rough Heston, nous confrontons ce modèle à la réalité des marchés financiers dans la quatrième partie. Plus précisément, on montre qu’il reproduit le comportement de la volatilité implicite et historique. On montre également qu’il génère l’effet Zumbach qui est une asymétrie par inversion du temps observée empiriquement sur les données financières. On étudie dans la cinquième partie le comportement limite de la volatilité implicite à la monnaie à faible maturité dans le cadre d’un modèle à volatilité stochastique général (incluant le modèle rough Bergomi), en appliquant un développement de la densité du prix de l’actif. Alors que l’approximation basée sur les processus de Hawkes a permis de traiter plusieurs questions relatives au modèle rough Heston, nous examinons dans la sixième partie une approximation markovienne s’appliquant sur une classe plus générale de modèles à volatilité rugueuse. En utilisant cette approximation dans le cas particulier du modèle rough Heston, on obtient une méthode numérique pour résoudre les équations de Riccati fractionnaires. Enfin, nous terminons cette thèse en étudiant un problème non lié à la littérature sur la volatilité rugueuse. Nous considérons le cas d’une plateforme cherchant le meilleur système de make-take fees pour attirer de la liquidité. En utilisant le cadre principal-agent, on décrit le meilleur contrat à proposer au market maker ainsi que les cotations optimales affichées par ce dernier. Nous montrons également que cette politique conduit à une meilleure liquidité et à une baisse des coûts de transaction pour les investisseurs.
  • Modélisation du carnet d’ordres, Applications Market Making.

    Xiaofei LU, Frederic ABERGEL, Mathieu ROSENBAUM, Nakahiro YOSHIDA, Marouane ANANE, Ioane susitino patrick MUNI TOKE, Sarah LEMLER, Aurelien ALFONSI, Enrico SCALAS
    2018
    Cette thèse aborde différents aspects de la modélisation de la microstructure du marché et des problèmes de Market Making, avec un accent particulier du point de vue du praticien. Le carnet d’ordres, au cœur du marché financier, est un système de files d’attente complexe à haute dimension. Nous souhaitons améliorer la connaissance du LOB pour la communauté de la recherche, proposer de nouvelles idées de modélisation et développer des applications pour les Market Makers. Nous remercions en particuler l’équipe Automated Market Making d’avoir fourni la base de données haute-fréquence de très bonne qualité et une grille de calculs puissante, sans laquelle ces recherches n’auraient pas été possible. Le Chapitre 1 présente la motivation de cette recherche et reprend les principaux résultats des différents travaux. Le Chapitre 2 se concentre entièrement sur le LOB et vise à proposer un nouveau modèle qui reproduit mieux certains faits stylisés. A travers cette recherche, non seulement nous confirmons l’influence des flux d’ordres historiques sur l’arrivée de nouveaux, mais un nouveau modèle est également fourni qui réplique beaucoup mieux la dynamique du LOB, notamment la volatilité réalisée en haute et basse fréquence. Dans le Chapitre 3, l’objectif est d’étudier les stratégies de Market Making dans un contexte plus réaliste. Cette recherche contribueà deux aspects : d’une part le nouveau modèle proposé est plus réaliste mais reste simple à appliquer pour la conception de stratégies, d’autre part la stratégie pratique de Market Making est beaucoup améliorée par rapport à une stratégie naive et est prometteuse pour l’application pratique. La prédiction à haute fréquence avec la méthode d’apprentissage profond est étudiée dans le Chapitre 4. De nombreux résultats de la prédiction en 1- étape et en plusieurs étapes ont retrouvé la non-linéarité, stationarité et universalité de la relation entre les indicateurs microstructure et le changement du prix, ainsi que la limitation de cette approche en pratique.
  • Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques.

    Uladzislau STAZHYNSKI, Emmanuel GOBET, Gilles PAGES, Emmanuel GOBET, Mathieu ROSENBAUM, Josselin GARNIER, Gersende FORT, Fabien PANLOUP, Philip e. PROTTER
    2018
    Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique. on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA.
  • Frais optimaux de prise de décision pour la réglementation de la tenue de marché.

    Omar EL EUCH, Thibaut MASTROLIA, Mathieu ROSENBAUM, Nizar TOUZI, Omar EUCH
    SSRN Electronic Journal | 2018
    Nous abordons le problème de la conception du mécanisme d'une bourse qui fixe des frais de prise en charge appropriés pour attirer la liquidité sur sa plateforme. En utilisant une approche principal-agent, nous fournissons le schéma de compensation optimal d'un teneur de marché sous une forme quasi-explicite. Ce contrat dépend essentiellement de la trajectoire de l'inventaire du teneur de marché et de la volatilité de l'actif. Nous fournissons également les cotations optimales qui devraient être affichées par le teneur de marché. La simplicité de nos formules nous permet d'analyser en détail les effets d'un contrat optimal avec une bourse, par rapport à une situation sans contrat. Nous montrons en particulier qu'il améliore la liquidité et réduit les coûts de transaction pour les investisseurs. Nous étendons notre étude à un oligopole de bourses symétriques et nous étudions l'impact d'une telle politique d'agence commune sur le système.
  • The Behaviour of High-Frequency Traders Under Different Market Stress Scenarios.

    Nicolas MEGARBANE, Pamela SALIBA, Charlessalbert LEHALLE, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2017
    Pas de résumé disponible.
  • Stratégies de tarification et de couverture sur des marchés énergétiques incomplets.

    Clement MENASSE, Peter TANKOV, Huyen PHAM, Peter TANKOV, Huyen PHAM, Antonis PAPAPANTOLEON, Nadia OUDJANE, Mathieu ROSENBAUM, Asma MEZIOU, Antonis PAPAPANTOLEON, Nadia OUDJANE
    2017
    Cette thèse porte sur la valorisation et les stratégies financières de couverture des risques dans les marchés de l'énergie. Ces marchés présentent des particularités qui les distinguent des marchés financiers standards, notamment l'illiquidité et l'incomplétude. L'illiquidité se reflète par des coûts de transactions importants et des contraintes sur les volumes échangés. L'incomplétude est l'incapacité de pouvoir répliquer parfaitement des produits dérivés. Nous nous intéressons à différents aspects de l'incomplétude de marché. La première partie porte sur la valorisation dans les modèles de Lévy. Nous obtenons une formule approximative du prix d'indifférence et nous mesurons la prime minimale à apporter par rapport au modèle de Black-Scholes. La deuxième partie concerne la valorisation d'options spread en présence de corrélation stochastique. Les options spread portent sur la différence de prix entre deux sous-jacents -- par exemple gaz et électricité -- et sont très utilisées sur les marchés de l'énergie. Nous proposons une procédure numérique efficace pour calculer le prix de ces options. Enfin, la troisième partie traite de la valorisation d'un produit comportant un risque exogène dont il existe des prévisions. Nous proposons une stratégie dynamique optimale en présence de risque de volume, et l'appliquons à la valorisation des fermes éoliennes. De plus, une partie est consacrée aux stratégies optimales asymptotiques en présence de coûts de transactions.
  • Volatilité brute : Evidence from Option Prices.

    Giulia LIVIERI, Saad MOUTI, Andrea PALLAVICINI, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2017
    Pas de résumé disponible.
  • Inférence statistique des processus Ornstein-Uhlenbeck : génération de graphes stochastiques, sparsité, applications en finance.

    Gustaw MATULEWICZ, Emmanuel GOBET, St?phane GA?FFAS, Mathieu ROSENBAUM, Emmanuel GOBET, St?phane GA?FFAS, Mohamed BEN ALAYA, Sylvain DELATTRE, Marina KLEPTSYNA, Markus REI?
    2017
    Le sujet de cette th?se est l'inf?rence statistique de processus d'Ornstein-Uhlenbeck multi-dimensionnels. Dans une premi?re partie, nous introduisons un mod?le de graphes stochastiques d?finis comme observations binaires de trajectoires. Nous montrons alors qu'il est possible de d?duire la dynamique de la trajectoire sous-jacente ? partir des observations binaires. Pour ceci, nous construisons des statistiques ? partir du graphe et montrons de nouvelles propri?t?s de convergence dans le cadre d'une observation en temps long et en haute fr?quence. Nous analysons aussi les propri?t?s des graphes stochastiques du point de vue des r?seaux ?volutifs. Dans une deuxi?me partie, nous travaillons sous l'hypoth?se d'information compl?te et en temps continu et ajoutons une hypoth?se de sparsit? concernant le param?tre de textit{drift} du processus d'Ornstein-Uhlenbeck. Nous montrons alors des propri?t?s d'oracle pointues de l'estimateur Lasso, prouvons une borne inf?rieure sur l'erreur d'estimation au sens minimax et d?montrons des propri?t?s d'optimalit? asymptotique de l'estimateur Lasso Adaptatif. Nous appliquons ensuite ces m?thodes pour estimer la vitesse de retour ? la moyenne des retours journaliers d'actions am?ricaines ainsi que des prix de futures de dividendes pour l'indice EURO STOXX 50.
  • The Behavior of High-Frequency Traders Under Different Market Stress Scenarios.

    Nicolas MEGARBANE, Pamela SALIBA, Charles albert LEHALLE, Mathieu ROSENBAUM
    Market Microstructure and Liquidity | 2017
    Pas de résumé disponible.
  • Suivi optimal asymptotique : stratégies de rétroaction.

    Jiatu CAI, Mathieu ROSENBAUM, Peter TANKOV
    Stochastics | 2017
    Pas de résumé disponible.
  • Les différents régimes asymptotiques des processus autorégressifs presque instables.

    Mathieu ROSENBAUM, Thibault JAISSON
    The Fascination of Probability, Statistics and their Applications | 2016
    Pas de résumé disponible.
  • Agents hétérogènes et formation des prix sur les marchés financiers.

    Jonathan DONIER, Jean philippe BOUCHAUD, Mathieu ROSENBAUM, Fabrizio LILLO, Emmanuel BACRY, Jim GATHERAL, Rama CONT, Thierry FOUCAULT
    2016
    Cette thèse est consacrée à l'étude de la formation des prix sur les marchés financiers, en particulier lorsque ceux-ci se composent d'un grand nombre d'agents. On commence par l'étude empirique d'un marché émergent -- le bitcoin -- de manière à mieux comprendre comment les actions individuelles affectent les prix -- ce que l'on appelle « l'impact de marché ». On développe ensuite un modèle théorique d'impact basé sur le concept d'agent hétérogène, qui parvient à reproduire les observations empiriques d'un impact concave dans un marché non manipulable. Le cadre de l'agent hétérogène nous permet de revisiter les concepts d'offre et de demande dans un cadre dynamique, de mieux comprendre l'impact du mécanisme de marché sur la liquidité, ou encore de poser les bases d'un simulateur de marché réaliste. On montre enfin, à travers l'étude empirique de plusieurs bulles et crashs sur le marché du bitcoin, le rôle crucial de la micro-structure dans la compréhension des phénomènes extrêmes.
  • Approche de la régularisation des modèles d'erreurs dans les variables à haute dimension par l'approche ${\ell_{1},\ell_{2},\ell_{\infty}\}$.

    Alexandre BELLONI, Mathieu ROSENBAUM, Alexandre b. TSYBAKOV
    Electronic Journal of Statistics | 2016
    Plusieurs nouvelles méthodes d'estimation ont été récemment proposées pour le modèle de régression linéaire avec erreur d'observation dans le plan. Différentes hypothèses sur le processus de génération des données ont motivé différents estimateurs et analyses. En particulier, la littérature a considéré (1) des erreurs d'observation dans le plan uniformément limitées par un certain $\bar \delta$, et (2) des erreurs d'observation indépendantes de moyenne nulle. Dans la première hypothèse, les taux de convergence des estimateurs proposés dépendent explicitement de $\bar \delta$, tandis que la deuxième hypothèse a été appliquée lorsqu'un estimateur pour le second moment de l'erreur d'observation est disponible. Ce travail propose et étudie deux nouveaux estimateurs qui, par rapport à d'autres procédures pour les modèles de régression avec erreurs dans le plan, exploitent une régularisation supplémentaire de la norme $l_{\infty}$. Le premier estimateur est applicable lorsque les deux conditions (1) et (2) sont réunies, mais ne nécessite pas d'estimateur pour le second moment de l'erreur d'observation. Le second estimateur est applicable sous (2) et nécessite un estimateur pour le second moment de l'erreur d'observation. Il est important de noter que nous n'imposons aucune hypothèse sur la précision de cet estimateur pilote, contrairement aux procédures connues précédemment. Comme les propositions récentes, nous permettons que le nombre de covariables soit beaucoup plus grand que la taille de l'échantillon. Nous établissons les taux de convergence des estimateurs et les comparons avec les limites obtenues pour des estimateurs apparentés dans la littérature. Ces comparaisons montrent un aperçu intéressant de l'interaction entre les hypothèses et les taux de convergence réalisables.
  • Estimateurs de programmation linéaire et conique dans les modèles d'erreurs dans les variables de haute dimension.

    Alexandre BELLONI, Mathieu ROSENBAUM, Alexandre b. TSYBAKOV
    Journal of the Royal Statistical Society: Series B (Statistical Methodology) | 2016
    Pas de résumé disponible.
  • Robustesse de la stratégie de trading optimale.

    Ahmed BEL HADJ AYED, Frederic ABERGEL, Gregoire LOEPER, Denis TALAY, Frederic ABERGEL, Gregoire LOEPER, Damien CHALLET, Huyen PHAM, Mathieu ROSENBAUM
    2016
    L’objectif principal de cette thèse est d’apporter de nouveaux résultats théoriques concernant la performance d’investissements basés sur des modèles stochastiques. Pour ce faire, nous considérons la stratégie optimale d’investissement dans le cadre d’un modèle d’actif risqué à volatilité constante et dont la tendance est un processus caché d’Ornstein Uhlenbeck. Dans le premier chapitre,nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le second chapitre, nous nous intéressons à la faisabilité de la calibration de la tendance. Nous répondons à cette question avec des résultats analytiques et des simulations numériques. Nous clôturons ce chapitre en quantifiant également l’impact d’une erreur de calibration sur l’estimation de la tendance et nous exploitons les résultats pour détecter son signe. Dans le troisième chapitre, nous supposons que l’agent est capable de bien calibrer la tendance et nous étudions l’impact qu’a la non-observabilité de la tendance sur la performance de la stratégie optimale. Pour cela, nous considérons le cas d’une utilité logarithmique et d’une tendance observée ou non. Dans chacun des deux cas, nous explicitons la limite asymptotique de l’espérance et la variance du rendement logarithmique en fonction du ratio signal-sur-bruit et de la vitesse de retour à la moyenne de la tendance. Nous concluons cette étude en montrant que le ratio de Sharpe asymptotique de la stratégie optimale avec observations partielles ne peut dépasser 2/(3^1.5)∗100% du ratio de Sharpe asymptotique de la stratégie optimale avec informations complètes. Le quatrième chapitre étudie la robustesse de la stratégie optimale avec une erreur de calibration et compare sa performance à une stratégie d’analyse technique. Pour y parvenir, nous caractérisons, de façon analytique,l’espérance asymptotique du rendement logarithmique de chacune de ces deux stratégies. Nous montrons, grâce à nos résultats théoriques et à des simulations numériques, qu’une stratégie d’analyse technique est plus robuste que la stratégie optimale mal calibrée.
  • Comment prédire les conséquences d'un changement de valeur du tick ? Evidence from the Tokyo Stock Exchange Pilot Program.

    Weibing HUANG, Charles albert LEHALLE, Mathieu ROSENBAUM
    Market Microstructure and Liquidity | 2016
    Pas de résumé disponible.
  • Discrétisation optimale des stratégies de couverture avec des vues directionnelles.

    Jiatu CAI, Masaaki FUKASAWA, Mathieu ROSENBAUM, Peter TANKOV
    SIAM Journal on Financial Mathematics | 2016
    Pas de résumé disponible.
  • Quelques formules explicites pour le pont brownien, le méandre brownien et le processus de Bessel sous échantillonnage uniforme.

    Mathieu ROSENBAUM, Marc YOR
    ESAIM: Probability and Statistics | 2015
    Nous montrons que des formules explicites simples peuvent être obtenues pour plusieurs quantités pertinentes liées aux lois du pont brownien uniformément échantillonné, du méandre brownien et du processus de Bessel tridimensionnel. Pour prouver ces résultats, nous utilisons la distribution d'un triplet de variables aléatoires associées au pseudo-pont brownien ainsi que diverses relations entre les lois de ces quatre processus.
  • Estimation des fonctions de volatilité : The Case of a $$\sqrt{n}$$ Window.

    Jean JACOD, Mathieu ROSENBAUM
    Springer Proceedings in Mathematics & Statistics | 2015
    Pas de résumé disponible.
  • Les différents régimes asymptotiques des processus autorégressifs quasi-instables.

    Thibault JAISSON, Mathieu ROSENBAUM
    The Fascination of Probability, Statistics and their Applications | 2015
    Nous étendons les résultats de [14, 27, 29] sur la convergence des processus AR(p) presque instables au cas d'ordre infini. Pour ce faire, nous procédons comme dans [19, 20] en utilisant des théorèmes limites pour certaines sommes géométriques bien choisies. Nous prouvons que lorsque la séquence de coefficients a une queue légère, les processus AR(\(\infty \)) presque instables se comportent comme des modèles d'Ornstein-Uhlenbeck. Cependant, dans le cas d'une queue lourde, nous montrons que les diffusions fractionnelles apparaissent comme des lois limites pour de tels processus.
  • Actifs de grande taille : Spread implicite et taille optimale des ticks.

    Khalil DAYRI, Mathieu ROSENBAUM
    Market Microstructure and Liquidity | 2015
    Pas de résumé disponible.
  • Dynamique jointe stock/option et application aux stratégies de trading sur options.

    Sofiene EL AOUD, Frederic ABERGEL, Huyen PHAM, Frederic ABERGEL, Gregoire LOEPER, Serge DAROLLES, Mathieu ROSENBAUM, Christian MARZOLIN, Gregoire LOEPER, Serge DAROLLES
    2015
    Cette thèse explore théoriquement et empiriquement les implications de la dynamique jointe action/option sur divers problématiques liées au trading d’options. Dans un premier temps, nous commençons par l’étude de la dynamique jointe entre une option sur un stock et une option sur l’indice de marché. Le modèle CAPM fournit un cadre mathématique adéquat pour cette étude car il permet de modéliser la dynamique jointe d’un stock et son indice de marché. En passant aux prix d’options, nous montrons que le beta et la volatilité idiosyncratique, paramètres du modèle, permettent de caractériser la relation entre les surfaces de volatilité implicite du stock et de l’indice. Nous nous penchons alors sur l’estimation du paramètre beta sous la probabilité risque-neutre en utilisant les prix d’options. Cette mesure, appelée beta implicite, représente l’information contenue dans les prix d’options sur la réalisation du paramètre beta dans le futur.Pour cette raison, nous essayons de voir, si le beta implicite a un pouvoir prédictif du beta futur.En menant une étude empirique, nous concluons que le beta implicite n’améliore pas la capacité de prédiction en comparaison avec le beta historique qui est calculé à travers la régression linéaire des rendements du stock sur ceux de l’indice. Mieux encore, nous remarquons que l’oscillation du beta implicite autour du beta futur peut entraîner des opportunités d’arbitrage, et nous proposons une stratégie d’arbitrage qui permet de monétiser cet écart. D’un autre côté, nous montrons que l’estimateur du beta implicite pourrait être utilisé pour la couverture d’options sur le stock en utilisant des instruments sur l’indice, cette couverture concerne notamment le risque de volatilité et aussi le risque de delta. Dans la deuxième partie de notre travail, nous nous intéressons au problème de market making sur options. Dans cette étude, nous supposons que le modèle de dynamique du sous-jacent sous la probabilité risque-neutre pourrait être mal spécifié ce qui traduit un décalage entre la distribution implicite du sous-jacent et sa distribution historique.Dans un premier temps, nous considérons le cas d’un market maker risque neutre qui vise à maximiser l’espérance de sa richesse future. A travers l’utilisation d’une approche de contrôle optimal stochastique, nous déterminons les prix optimaux d’achat et de vente sur l’option et nous interprétons l’effet de présence d’inefficience de prix sur la stratégie optimale. Dans un deuxième temps, nous considérons que le market maker est averse au risque et essaie donc de réduire l’incertitude liée à son inventaire. En résolvant un problème d’optimisation basé sur un critère moyenne-variance, nous obtenons des approximations analytiques des prix optimaux d’achat et de vente. Nous montrons aussi les effets de l’inventaire et de l’inefficience du prix sur la stratégie optimale. Nous nous intéressons par la suite au market making d’options dans une dimension plus élevée. Ainsi, en suivant le même raisonnement, nous présentons un cadre pour le market making de deux options ayant des sous-jacents différents avec comme contrainte la réduction de variance liée au risque d’inventaire détenu par le market-maker. Nous déterminons dans ce cas la stratégie optimale et nous appuyons les résultats théoriques par des simulations numériques.Dans la dernière partie de notre travail, nous étudions la dynamique jointe entre la volatilité implicite à la monnaie et le sous jacent, et nous essayons d’établir le lien entre cette dynamique jointe et le skew implicite. Nous nous intéressons à un indicateur appelé "Skew Stickiness Ratio"qui a été introduit dans la littérature récente. Cet indicateur mesure la sensibilité de la volatilité implicite à la monnaie face aux mouvements du sous-jacent. Nous proposons une méthode qui permet d’estimer la valeur de cet indicateur sous la probabilité risque-neutre sans avoir besoin d’admettre des hypothèses sur la dynamique du sous-jacent. [.].
  • Comment prédire les conséquences d'un changement de valeur du tick ? Evidence from the Tokyo Stock Exchange Pilot Program.

    Weibing HUANG, Charles albert LEHALLE, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2015
    Pas de résumé disponible.
  • Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision.

    Weibing HUANG, Mathieu ROSENBAUM, Charles albert LEHALLE, Frederic ABERGEL, Robert ALMGREN, Aurelien ALFONSI, Bruno BOUCHARD, Gilles PAGES
    2015
    Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre.
  • Effets de rétroaction en finance : applications à l'exécution optimaleet aux modèles de volatilité.

    Pierre BLANC, Aurelien ALFONSI, Bernard LAPEYRE, Aurelien ALFONSI, Michel CROUHY, Jean philippe BOUCHAUD, Olivier GUEANT, Mathieu ROSENBAUM, Jim GATHERAL
    2015
    Dans cette thèse, nous considérons deux types d'application des effets de rétroaction en finance. Ces effets entrent en jeu quand des participants de marché exécutent des séquences de transactions ou prennent part à des réactions en chaîne, ce qui engendre des pics d'activité. La première partie présente un modèle d'exécution optimale dynamique en présence d'un flux stochastique et exogène d'ordres de marché. Nous partons du modèle de référence d'Obizheva et Wang, qui définit un cadre d'exécution optimale avec un impact de prix mixte. Nous y ajoutons un flux d'ordres modélisé à l'aide de processus de Hawkes, qui sont des processus à sauts présentant une propriété d'auto-excitation. A l'aide de la théorie du contrôle stochastique, nous déterminons la stratégie optimale de manière analytique. Puis nous déterminons les conditions d'existence de Stratégies de Manipulation de Prix, telles qu'introduites par Huberman et Stanzl. Ces stratégies peuvent être exclues si l'auto-excitation du flux d'ordres se compense exactement avec la résilience du prix. Dans un deuxième temps, nous proposons une méthode de calibration du modèle, que nous appliquons sur des données financières à haute fréquence issues de cours d'actions du CAC40. Sur ces données, nous trouvons que le modèle explique une partie non-négligeable de la variance des prix. Une évaluation de la stratégie optimale en backtest montre que celle-ci est profitable en moyenne, mais que des coûts de transaction réalistes suffisent à empêcher les manipulations de prix. Ensuite, dans la deuxième partie de la thèse, nous nous intéressons à la modélisation de la volatilité intra-journalière. Dans la littérature, la plupart des modèles de volatilité rétroactive se concentrent sur l'échelle de temps journalière, c'est-à-dire aux variations de prix d'un jour sur l'autre. L'objectif est ici d'étendre ce type d'approche à des échelles de temps plus courtes. Nous présentons d'abord un modèle de type ARCH ayant la particularité de prendre en compte séparément les contributions des rendements passés intra-journaliers et nocturnes. Une méthode de calibration de ce modèle est étudiée, ainsi qu'une interprétation qualitative des résultats sur des rendements d'actions américaines et européennes. Dans le chapitre suivant, nous réduisons encore l'échelle de temps considérée. Nous étudions un modèle de volatilité à haute fréquence, dont l'idée est de généraliser le cadre des processus Hawkes pour mieux reproduire certaines caractéristiques empiriques des marchés. Notamment, en introduisant des effets de rétroaction quadratiques inspirés du modèle à temps discret QARCH nous obtenons une distribution en loi puissance pour la volatilité ainsi que de l'asymétrie temporelle.
  • Théorèmes limites pour les processus de Hawkes presque instables : Version avec appendice technique.

    Thibault JAISSON, Mathieu ROSENBAUM
    2014
    En raison de leur tractabilité et de leurs interprétations naturelles en termes de quantités de marché, les processus de Hawkes sont aujourd'hui largement utilisés en finance haute fréquence. Cependant, dans la pratique, les résultats des estimations statistiques semblent montrer que très souvent, seuls les "processus de Hawkes presque instables" sont capables d'ajuster correctement les données. Par "presque instables", nous entendons que la norme L1 de leur noyau est proche de l'unité. Nous étudions dans ce travail de tels processus pour lesquels la condition de stabilité est presque violée. Notre résultat principal indique qu'après une remise à l'échelle appropriée, ils se comportent asymptotiquement comme des modèles intégrés de Cox Ingersoll Ross. Ainsi, la modélisation des flux d'ordres financiers comme des processus de Hawkes presque instables peut être un bon moyen de reproduire leurs faits stylisés à haute et basse fréquence. Nous étendons ensuite ce résultat au modèle de prix basé sur Hawkes introduit par Bacry et al. Nous montrons que sous une condition de criticité similaire, ce processus converge vers un modèle de Heston. Là encore, nous retrouvons des faits stylisés bien connus des prix, tant au niveau de la microstructure qu'à l'échelle macroscopique.
  • Sur la loi d'un triplet associé au pont pseudo-brownien.

    Mathieu ROSENBAUM, Marc YOR
    Séminaire de Probabilités XLVI | 2014
    Nous identifions la distribution d'un triplet naturel associé au pont pseudo-brownien. En particulier, pour $B$ un mouvement brownien et $T_1$ son temps de première atteinte du niveau un, cette loi remarquable nous permet de comprendre certaines propriétés du processus $(B_{uT_1}/\sqrt{T_1},~u\leq 1)$ sous échantillonnage aléatoire uniforme.
  • La volatilité est rude.

    Jim GATHERAL, Thibault JAISSON, Mathieu ROSENBAUM
    SSRN Electronic Journal | 2014
    Pas de résumé disponible.
  • Séminaire de Probabilités XLVI.

    Ismael BAILLEUL, Lucian BEZNEA, Sergey BOCHAROV, Jean BROSSARD, P. CATTIAUX, Iulian CIMPEAN, Yinshan CHANG, Kolehe a. COULIBALY PASQUIER, Jacques FRANCHI, Xi GENG, A. GUILLIN, Simon c. HARRIS, A. e. KYPRIANOU, Christian LEONARD, Julien LETEMPLIER, Christophe LEURIDAN, Carlo MARINELLI, Joseph NAJNUDEL, Ashkan NIKEGHBALI, J l. PEREZ, Vilmos PROKAJ, Zhongmin QIAN, Y. x. REN, Michael ROCKNER, Mathieu ROSENBAUM, Walter SCHACHERMAYER, Laurent SERLET, Thomas SIMON, Dario TREVISAN, Ramon van HANDEL, A. r. WATSON, Danyu YANG, Marc YOR, Michel EMERY, Catherine DONATI MARTIN, Antoine LEJAY, Alain ROUAULT
    Lecture Notes in Mathematics | 2014
    Ce volume donne un large aperçu des recherches actuelles de haut niveau en théorie des probabilités.
  • Contributions à la modélisation des données financières à hautes fréquences.

    Alexis FAUTH, Jean marc BARDET, Ciprian a. TUDOR, Murad s. TAQQU, Jean marc BARDET, Ciprian a. TUDOR, Mathieu ROSENBAUM, Rama CONT, Huyen PHAM, Mathieu ROSENBAUM
    2014
    Cette thèse a été réalisée au sein de l’entreprise Invivoo. L’objectif principal était de trouver des stratégies d’investissement : avoir un gain important et un risque faible. Les travaux de recherche ont été principalement portés par ce dernier point. Dans ce sens, nous avons voulu généraliser un modèle fidèle à la réalité des marchés financiers, que ce soit pour des données à basse comme à haute fréquence et, à très haute fréquence, variation par variation.
  • Méthodes d'optimisation et de statistique pour la finance à haute fréquence.

    Marc HOFFMANN, Mauricio LABADIE, Charles albert LEHALLE, Gilles PAGES, Huyen PHAM, Mathieu ROSENBAUM
    ESAIM: Proceedings and Surveys | 2014
    La finance haute fréquence a récemment évolué de la modélisation statistique et de l'analyse des données financières - où l'objectif initial était de reproduire des faits stylisés et de développer des outils d'inférence appropriés - vers l'optimisation du trading, où un agent cherche à exécuter un ordre (ou une série d'ordres) dans un environnement stochastique qui peut réagir à l'algorithme de trading de l'agent (impact sur le marché, facturation). Ce contexte pose de nouveaux défis scientifiques abordés par le minisymposium OPSTAHF.
  • Comprendre les enjeux du trading haute fréquence.

    Frederic ABERGEL, Charles albert LEHALLE, Mathieu ROSENBAUM
    The Journal of Trading | 2014
    Les récents changements réglementaires, connus sous le nom de Reg NMS aux États-Unis ou MiFID en Europe, ainsi que les effets de la crise financière (principalement son impact sur la liquidité), ont induit des changements majeurs sur la microstructure du marché sous deux aspects principaux : - la fragmentation de la liquidité autour de plusieurs lieux de négociation, avec l'apparition de nouveaux venus en Europe comme Chi-X, BATS Europe, ou Turquoise, certains d'entre eux n'étant pas réglementés ou "sombres". - la montée en puissance d'un nouveau type d'agents, les traders à haute fréquence, responsables de 40% à 70% des transactions. Ces deux effets sont liés puisque les traders à haute fréquence, étant les principaux clients des plateformes de négociation, ont un impact implicite sur les produits offerts par ces plateformes. En combinant une étude des résultats académiques récents et des preuves empiriques, ce document présente ce que nous considérons comme les éléments clés pour comprendre les enjeux de ces changements, et fournit également des indices potentiels pour atténuer certains d'entre eux. Une première section est consacrée à l'exposition des modifications récentes de la microstructure du marché. La seconde explique le rôle du processus de formation des prix et comment, en interagissant avec l'offre et la demande de liquidités, les traders haute fréquence peuvent le remodeler. La section suivante dévoile les différentes stratégies utilisées par ces nouveaux acteurs du marché et leur rentabilité. Enfin, la dernière section traite des outils récents conçus pour évaluer et contrôler l'activité de trading à haute fréquence.
  • Sur l'espérance des fonctionnelles browniennes normalisées jusqu'au premier temps de frappe.

    Romuald ELIE, Mathieu ROSENBAUM, Marc YOR
    Electronic Journal of Probability | 2014
    Soit B un mouvement brownien et T1 son temps de première atteinte du niveau 1. Pour U une variable aléatoire uniforme indépendante de B, nous étudions en profondeur la distribution de B UT1/√T1, c'est-à-dire le mouvement brownien rééchelonné échantillonné à temps uniforme. En particulier, nous montrons que cette variable est centrée.
  • Discrétisation optimale des stratégies de couverture avec des vues directionnelles.

    Jiatu CAI, Masaaki FUKASAWA, Mathieu ROSENBAUM, Peter TANKOV
    2014
    Nous considérons l'erreur de couverture d'un produit dérivé due à la discrétisation en présence d'une dérive de la dynamique de l'actif sous-jacent. Nous supposons que le trader souhaite trouver des moments de rééquilibrage du portefeuille de couverture qui lui permettent de maintenir l'erreur de discrétisation faible tout en profitant des tendances du marché. En supposant que le portefeuille est réajusté à haute fréquence, nous introduisons un cadre asymptotique afin de dériver des stratégies de discrétisation optimales. Plus précisément, nous formulons le problème d'optimisation en termes d'un critère asymptotique d'espérance-erreur. Dans ce cadre, les temps de rééquilibrage optimaux sont donnés par les temps d'atteinte de deux barrières dont les valeurs peuvent être obtenues en résolvant un problème de contrôle optimal linéaire-quadratique. Dans des contextes spécifiques, comme dans le modèle Black-Scholes, des expressions explicites pour les temps de rééquilibrage optimaux peuvent être dérivées.
  • Quelques formules explicites pour le pont brownien, le méandre brownien et le processus de Bessel sous échantillonnage uniforme.

    Mathieu ROSENBAUM, Marc YOR
    2013
    Nous montrons que des formules explicites simples peuvent être obtenues pour plusieurs quantités pertinentes liées aux lois du pont brownien uniformément échantillonné, du méandre brownien et du processus de Bessel tridimensionnel. Pour prouver ces résultats, nous utilisons la distribution d'un triplet de variables aléatoires associées au pseudo-pont brownien ainsi que diverses relations entre les lois de ces quatre processus.
  • Estimation du prix efficient à partir du flux d'ordres : Une approche par processus brownien de Cox.

    Sylvain DELATTRE, Mathieu ROSENBAUM, Christian y. ROBERT, C.y. ROBERT
    Stochastic Processes and their Applications | 2013
    Au niveau de l'ultra haute fréquence, la notion de prix d'un actif est très ambiguë. En effet, de nombreux prix différents peuvent être définis (dernier prix négocié, meilleur prix, prix moyen, etc.). Ainsi, en pratique, les acteurs du marché sont confrontés au problème du choix d'un prix lors de la mise en œuvre de leurs stratégies. Dans ce travail, nous proposons une notion de prix efficient qui semble pertinente en pratique. De plus, nous fournissons une méthodologie statistique permettant d'estimer ce prix à partir du flux d'ordres.
  • Estimation du prix efficient à partir du flux d'ordres : Une approche par processus brownien de Cox.

    Christian yann ROBERT, Sylvain DELATTRE, Mathieu ROSENBAUM
    Stochastic Processes and their Applications | 2013
    Pas de résumé disponible.
  • Sur la loi d'un triplet associé au pont pseudo-brownien.

    Mathieu ROSENBAUM, Marc YOR
    2013
    Nous identifions la distribution d'un triplet naturel associé au pont pseudo-brownien. En particulier, pour $B$ un mouvement brownien et $T_1$ son temps de première atteinte du niveau un, cette loi remarquable nous permet de comprendre certaines propriétés du processus $(B_{uT_1}/\sqrt{T_1},~u\leq 1)$ sous échantillonnage aléatoire uniforme.
  • Étude théorique d'indicateurs d'analyse technique.

    Dalia IBRAHIM, Denis TALAY, Etienne TANRE, Francois DELARUE, Denis TALAY, Etienne TANRE, Francois DELARUE, Mathieu ROSENBAUM, Huyen PHAM, Frederic ABERGEL, Rajna GIBSON
    2013
    L'objectif de ma thèse est d'étudier mathématiquement un indicateur de rupture de volatilité très utilisé par les praticiens en salle de marché. L'indicateur bandes de Bollinger appartient à la famille des méthodes dites d'analyse technique et donc repose exclusivement sur l'historique récente du cours considéré et un principe déduit des observations passées des marchés, indépendamment de tout modèle mathématique. Mon travail consiste à étudier les performances de cet indicateur dans un univers qui serait gouverné par des équations différentielles stochastiques (Black -Scholes) dont le coefficient de diffusion change sa valeur à un temps aléatoire inconnu et inobservable, pour un praticien désirant maximiser une fonction objectif (par exemple, une certaine utilité espérée de la valeur du portefeuille à une certaine maturité). Dans le cadre du modèle, l'indicateur de Bollinger peut s'interpréter comme un estimateur de l'instant de la prochaine rupture. On montre dans le cas des petites volatilités, que le comportement de la densité de l'indicateur dépend de la volatilité, ce qui permet pour un ratio de volatilité assez grand, de détecter via l'estimation de la distribution de l'indicateur dans quel régime de volatilité on se situe. Aussi, dans le cas des grandes volatilités, on montre par une approche via la transformée de Laplace, que le comportement asymptotique des queues de distribution de l'indicateur dépend de la volatilité. Ce qui permet de détecter le changement des grandes volatilités. Ensuite, on s'intéresse à une étude comparative entre l'indicateur de Bollinger et l'estimateur classique de la variation quadratique pour la détection de changement de la volatilité. Enfin, on étudie la gestion optimale de portefeuille qui est décrite par un problème stochastique non standard en ce sens que les contrôles admissibles sont contraints à être des fonctionnelles des prix observés. On résout ce problème de contrôle en s'inspirant de travaux de Pham and Jiao pour décomposer le problème initial d'allocation de portefeuille en un problème de gestion après la rupture et un problème avant la rupture, et chacun de ces problèmes est résolu par la méthode de la programmation dynamique . Ainsi, un théorème de verification est prouvé pour ce problème de contrôle stochastique.
  • Sur l'espérance des fonctionnelles browniennes normalisées jusqu'au premier temps de frappe.

    Romuald ELIE, Mathieu ROSENBAUM, Marc YOR
    2013
    Soit B un mouvement brownien et T son temps de première frappe du niveau 1. Pour U une variable aléatoire uniforme indépendante de B, nous étudions en profondeur la distribution de T^{-1/2}B_{UT}, c'est-à-dire le mouvement brownien rééchelonné échantillonné à temps uniforme. En particulier, nous montrons que cette variable est centrée.
  • Quelques propriétés de la corrélation entre les actifs financiers à haute fréquence.

    Nicolas HUTH, Frederic ABERGEL, Matteo MARSILI, Frederic ABERGEL, Fabrizio LILLO, Mathieu ROSENBAUM, Emmanuel BACRY, Michel CROUHY, Fabrizio LILLO, Mathieu ROSENBAUM
    2012
    Le but de cette thèse est d’approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d’une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d’une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d’un temps événementiel global qui agrège l’activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l’estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d’un indicateur basé sur le lead/lag pour prévoir l’évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d’actions et observons des ressemblances frappantes. Nous tentons d’incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu.
  • Méthodes d'apprentissage automatique pour les flux discrets multi-échelles : application à la finance.

    Nicolas MAHLER, Nicolas VAYATIS, Marc HOFFMANN, Charles albert LEHALLE, Stephan CLEMENCON, Mathieu ROSENBAUM, Liva RALAIVOLA
    2012
    Ce travail de recherche traite du problème d'identification et de prédiction des tendances d'une série financière considérée dans un cadre multivarié. Le cadre d'étude de ce problème, inspiré de l'apprentissage automatique, est défini dans le chapitre I. L'hypothèse des marchés efficients, qui entre en contradiction avec l'objectif de prédiction des tendances, y est d'abord rappelée, tandis que les différentes écoles de pensée de l'analyse de marché, qui s'opposent dans une certaine mesure à l'hypothèse des marchés efficients, y sont également exposées. Nous explicitons les techniques de l'analyse fondamentale, de l'analyse technique et de l'analyse quantitative, et nous nous intéressons particulièrement aux techniques de l'apprentissage statistique permettant le calcul de prédictions sur séries temporelles. Les difficultés liées au traitement de facteurs temporellement dépendants et/ou non-stationnaires sont soulignées, ainsi que les pièges habituels du surapprentrissage et de la manipulation imprudente des données. Les extensions du cadre classique de l'apprentissage statistique, particulièrement l'apprentissage par transfert, sont présentées. La contribution principale de ce chapitre est l'introduction d'une méthodologie de recherche permettant le développement de modèles numériques de prédiction de tendances. Cette méthodologie est fondée sur un protocole d'expérimentation, constitué de quatre modules. Le premier module, intitulé Observation des Données et Choix de Modélisation, est un module préliminaire dévoué à l'expression de choix de modélisation, d'hypothèses et d'objectifs très généraux. Le second module, Construction de Bases de Données, transforme la variable cible et les variables explicatives en facteurs et en labels afin d'entraîner les modèles numériques de prédiction de tendances. Le troisième module, intitulé Construction de Modèles, a pour but la construction de modèles numériques de prédiction de tendances. Le quatrième et dernier module, intitulé Backtesting et Résultats Numériques, évalue la précision des modèles de prédiction de tendances sur un ensemble de test significatif, à l'aide de deux procédures génériques de backtesting. Le première procédure renvoie les taux de reconnaissance des tendances de hausse et de baisse. La seconde construit des règles de trading au moyen des predictions calculées sur l'ensemble de test. Le résultat (P&L) de chacune des règles de trading correspond aux gains et aux pertes accumulés au cours de la période de test. De plus, ces procédures de backtesting sont complétées par des fonctions d'interprétation, qui facilite l'analyse du mécanisme décisionnel des modèles numériques. Ces fonctions peuvent être des mesures de la capacité de prédiction des facteurs, ou bien des mesures de fiabilité des modèles comme des prédictions délivrées. Elles contribuent de façon décisive à la formulation d'hypothèses mieux adaptées aux données, ainsi qu'à l'amélioration des méthodes de représentation et de construction de bases de données et de modèles. Ceci est explicité dans le chapitre IV. Les modèles numériques, propres à chacune des méthodes de construction de modèles décrites au chapitre IV, et visant à prédire les tendances des variables cibles introduites au chapitre II, sont en effet calculés et backtestés. Les raisons du passage d'une méthode de construction de modèles à une autre sont particulièrement étayées. L'influence du choix des paramètres - et ceci à chacune des étapes du protocole d'expérimentation - sur la formulation de conclusions est elle aussi mise en lumière. La procédure PPVR, qui ne requiert aucun calcul annexe de paramètre, a ainsi été utilisée pour étudier de façon fiable l'hypothèse des marchés efficients. De nouvelles directions de recherche pour la construction de modèles prédictifs sont finalement proposées.
  • Etude de Quelques Problèmes d'Estimation Statistique en Finance.

    Mathieu ROSENBAUM
    2007
    Cette thèse traite plusieurs problèmes de finance statistique et se compose de quatre parties. Dans la première partie, on étudie la question de l'estimation de la persistance de la volatilité à partir d'observations discrètes d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. Pour cela, on introduit un mouvement brownien fractionnaire d'indice de Hurst H dans la dynamique de la volatilité. On construit une procédure d'estimation du paramètre H à partir des données haute fréquence de la diffusion. On montre que la précision de notre estimateur est n^{-1/(4H+2)}, où n est la fréquence d'observation et on prouve son optimalité au sens minimax. Ces considérations théoriques sont suivies d'une étude numérique sur données simulées et données financières. La seconde partie de la thèse traite de la problématique du bruit de microstructure. Pour cela, on considère les observations à la fréquence n$et avec erreur d'arrondi a_n tendant vers zéro, d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. On propose dans ce cadre des estimateurs de la volatilité intégrée de l'actif dont on montre que la précision est max(a_n, n^{-1/2}). On obtient par ailleurs des théorèmes centraux limites dans le cas de diffusions homogènes. Cette étude théorique est ici aussi suivie d'une étude numérique sur données simulées et données financières. On établit dans la troisième partie de cette thèse une caractérisation simple des espaces de Besov et on l'utilise pour démontrer de nouvelles propriétés de régularité pour certains processus stochastiques. Cette partie peut paraître déconnectée des problèmes de finance statistique mais a été inspiratrice pour la partie 4 de la thèse. On construit dans la dernière partie de la thèse un nouvel indice de bruit de microstructure et on l'étudie sur des données financières. Cet indice, dont le calcul se base sur les p-variations de l'actif considéré à différentes échelles de temps, peut être interprété en terme d'espaces de Besov. Comparé aux autres indices, il semble posséder plusieurs avantages. En particulier, il permet de mettre en évidence des phénomènes originaux comme une certaine forme de régularité additionnelle dans les échelles les plus fines. On montre que ces phénomènes peuvent être partiellement reproduits par des modèles de bruit de microstructure additif ou de diffusion avec erreur d'arrondi. Néanmoins, une reproduction fidèle semble nécessiter soit une combinaison de deux formes d'erreur, soit une forme sophistiquée d'erreur d'arrondi.
  • Étude de quelques problèmes d'estimation statistique en finance.

    Mathieu ROSENBAUM, Marc HOFFMANN
    2007
    Cette thèse traite plusieurs problèmes de finance statistique et se compose de quatre parties. Dans la première partie, on étudie la question de l'estimation de la persistance de la volatilité à partir d'observations discrètes d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. Pour cela, on introduit un mouvement brownien fractionnaire d'indice de Hurst H dans la dynamique de la volatilité. On construit une procédure d'estimation du paramètre H à partir des données haute fréquence de la diffusion. On montre que la précision de notre estimateur est n^{-1/(4H+2)}, où n est la fréquence d'observation et on prouve son optimalité au sens minimax. Ces considérations théoriques sont suivies d'une étude numérique sur données simulées et données financières. La seconde partie de la thèse traite de la problématique du bruit de microstructure. Pour cela, on considère les observations à la fréquence n et avec erreur d'arrondi α_n tendant vers zéro, d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. On propose dans ce cadre des estimateurs de la volatilité intégrée de l'actif dont on montre que la précision est max(α_n, n^{-1/2}). On obtient par ailleurs des théorèmes centraux limites dans le cas de diffusions homogènes. Cette étude théorique est ici aussi suivie d'une étude numérique sur données simulées et données financières. On établit dans la troisième partie de cette thèse une caractérisation simple des espaces de Besov et on l'utilise pour démontrer de nouvelles propriétés de régularité pour certains processus stochastiques. Cette partie peut paraître déconnectée des problèmes de finance statistique mais a été inspiratrice pour la partie 4 de la thèse. On construit dans la dernière partie de la thèse un nouvel indice de bruit de microstructure et on l'étudie sur des données financières. Cet indice, dont le calcul se base sur les p-variations de l'actif considéré à différentes échelles de temps, peut être interprété en terme d'espaces de Besov. Comparé aux autres indices, il semble posséder plusieurs avantages. En particulier, il permet de mettre en évidence des phénomènes originaux comme une certaine forme de régularité additionnelle dans les échelles les plus fines. On montre que ces phénomènes peuvent être partiellement reproduits par des modèles de bruit de microstructure additif ou de diffusion avec erreur d'arrondi. Néanmoins, une reproduction fidèle semble nécessiter soit une combinaison de deux formes d'erreur, soit une forme sophistiquée d'erreur d'arrondi.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr