MEDDAHI Nour

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2013
    Fondation Jean-Jacques Laffont / Toulouse sciences économiques
  • 1996 - 1997
    Université Toulouse 1 Capitole
  • 2020
  • 2019
  • 2018
  • 2016
  • 2015
  • 2014
  • 2013
  • 1997
  • Trois essais sur la gestion du risque financier et les queues de pie.

    Mamiko YAMASHITA, Nour MEDDAHI
    2020
    Dans cette thèse, nous étudions les divers impacts de la spécification erronée du modèle et examinons comment gérer l'incertitude d'un modèle. Nous analysons l'impact de l'ignorance des “fat tails” sur un résultat des tests de comparaison des prévisions dans le premier chapitre, puis étudions les effets de l'ignorance de la dynamique de la prime de risque des rendements sur le montant des exigences de fonds propres des banques dans le deuxième chapitre. Le troisième chapitre fournit un moyen robuste de déterminer les exigences de fonds propres face à l'incertitude d'un modèle, c'est-à-dire à un manque de connaissance du véritable processus de génération de données. Dans le premier chapitre, nous analysons les tests de comparaison des prévisions sous “fat tails”. Les tests de comparaison des prévisions sont largement mis en œuvre pour comparer les performances de deux ou plusieurs prévisions concurrentes. La valeur critique est souvent obtenue par le théorème limite central classique (CLT) ou par le bootstrap stationnaire (Politis et Romano, 1994) avec des conditions de régularité, y compris celle où le deuxième moment de la différence de perte est borné. Nous montrons que si la condition de moment est violée, la taille du test utilisant les asymptotiques normales classiques peut être fortement déformée. Comme approche alternative, nous proposons d'utiliser une méthode de “subsampling” (Politis, Romano et Wolf, 1999) robuste aux queues lourdes. Dans l'étude empirique, nous analysons plusieurs tests de prévision de variance. En examinant plusieurs estimateurs de l'indice de queue, nous montrons que le deuxième moment de la différence de perte est susceptible d'être illimité, en particulier lorsque la fonction d'erreur quadratique populaire est utilisée comme fonction de perte. Nous constatons également que le résultat des tests peut changer si le “subsampling” est utilisé. Le deuxième chapitre explore l'effet d'une erreur de spécification dans la dynamique de la moyenne conditionnelle sur la détermination des exigences de fonds propres des banques. Dans l'accord Bâle II, les exigences de fonds propres pour risque de marché sont déterminées sur la base d'une mesure de risque appelée Value-at-Risk (VaR). Lorsque la VaR est calculée, on suppose souvent que la moyenne conditionnelle du rendement d'un actif est constante dans le temps. Cependant, il est bien documenté que la prévisibilité des rendements augmente à mesure que l'horizon de prévision s'allonge. La contribution de ce chapitre est de démontrer les problèmes liés à l'ignorance de la dynamique moyenne conditionnelle lorsque nous calculons la VaR. Nous constatons que même si les modèles avec une moyenne conditionnelle constante et variable dans le temps peuvent être statistiquement indiscernables, la VaR implicite peut différer. Ce résultat soulève alors une autre question sur la façon de produire la VaR lorsque l'on reconnaît la variabilité temporelle de la moyenne conditionnelle mais qu'il existe une incertitude sur sa valeur actuelle. Le troisième chapitre propose une solution à la question soulevée dans le deuxième chapitre en examinant une manière robuste de déterminer les exigences de fonds propres. Nous proposons de déterminer les réserves de capital sur la base du pire des cas. Autrement dit, nous choisissons la valeur maximale dans un ensemble de prévisions ES mappées à partir de l'ensemble de modèles présélectionnés par le prévisionniste. En supposant que la prime de risque est considérée comme non négative, nous montrons que l'ES robuste peut en fait être atteinte avec un modèle dans lequel la moyenne conditionnelle est constante et la prime de risque toujours nulle. Cette constatation sert de réponse à la question soulevée au chapitre 2 et justifie de supposer une moyenne conditionnelle constante.
  • Régressions de la volatilité avec queues grasses.

    Jihyun KIM, Nour MEDDAHI
    Journal of Econometrics | 2020
    De nos jours, une méthode courante de prévision de la variance intégrée consiste à utiliser la valeur ajustée d'une autorégression MCO simple de la variance réalisée. Cependant, les estimations non paramétriques de l'indice de queue de ce processus de variance réalisée révèlent que son deuxième moment est peut-être non limité. Dans ce cas, le comportement des estimateurs MCO et les statistiques correspondantes ne sont pas clairs. Nous prouvons que lorsque le second moment de la variance au comptant n'est pas borné, la pente de l'autorégression de la variance au comptant converge vers une variable aléatoire lorsque la taille de l'échantillon diverge. Le même résultat est obtenu lorsqu'on utilise la variance intégrée ou réalisée au lieu de la variance ponctuelle. Nous considérons ensuite la classe des modèles de variance de diffusion avec une dérive affine, une classe qui inclut les processus GARCH et CEV, et nous prouvons que l'estimation IV avec des instruments adéquats fournit des estimateurs cohérents des paramètres de dérive tant que le processus de variance a un premier moment fini indépendamment de l'existence du second moment. En particulier, pour le modèle GARCH de diffusion avec queues grasses, une estimation IV où l'instrument est égal au signe de la valeur retardée centrée de la variable d'intérêt fournit des estimateurs cohérents. Les résultats de simulation corroborent les conclusions théoriques de l'article.
  • Prime de risque et prix du risque sur les actions.

    Rene GARCIA, Nour MEDDAHI
    Revue d'économie financière | 2019
    Pas de résumé disponible.
  • Estimation de la volatilité réalisée multivariée à haute dimension.

    Tim BOLLERSLEV, Nour MEDDAHI, Serge NYAWA
    Journal of Econometrics | 2019
    Pas de résumé disponible.
  • Prime de risque et prix du risque sur les actions.

    Rene GARCIA, Nour MEDDAHI
    Revue d'économie financière | 2019
    Pas de résumé disponible.
  • Essays in Financial Economics.

    Jules valery TINANG NZESSEU, Christian GOLLIER, Nour MEDDAHI
    2018
    Cette thèse est composée de quatre chapitres autonomes visant à contribuer à une meilleure compréhension de la formation et de la dynamique des prix des actifs dans un modèle d’évaluation des actifs financiers fondé sur la consommation (C-MEDAF). Le chapitre 1 examine la structure par terme du rendement des actions dans les principaux modèles C-MEDAF et montre que permettre aux flux de consommation et de dividendes d’être affectés négativement par les chocs de volatilité comme observés empiriquement (“effet de levier”) pourrait rendre les actifs de court terme plus risqués que les actifs de long terme comme on l’a récemment découvert dans certaines études empiriques. Cette modification donne plus de souplesse à ces modèles pour saisir différentes formes de la structure par termes des taux de rendement d’actifs risqués tout en respectant les niveaux observés de la prime de risque et du taux de rendement sans risque. Le chapitre 2 propose un modèle à changement de régimes pour s’adapter au comportement changeant de la pente de la structure par termes des rendements d’actifs risqués tel qu’observé dans les données. Nous montrons qu’un tel modèle permet de combiner les propriétés spécifiques à chaque régime des modèles à un régime telles qu’une pente en moyenne positive ou négative de la structure par termes des rendements, et donne plus de flexibilité dans la forme de la structure à terme des rendements d’actifs risqués. Le chapitre 3 étudie l’hypothèse d’anticipation sur le marché d’actions. Selon cette hypothèse, les rendements courant sur les actifs de long terme sont une moyenne pondérée de l’espérance des rendements futurs de court terme. Ce test a principalement été réalisé sur le marché des bons du trésor et dans beaucoup de cas rejeté. Cette hypothèse n’est pas rejetée sur le marché d’actions mais les rendements futurs sont aussi prévisibles. Le chapitre 4 examine l’estimation et l’inférence dans le modèle de risques de long terme en utilisant la méthode généralisée des moments.
  • Bootstrapping de tests de sauts à haute fréquence.

    Prosper DOVONON, Silvia GONCALVES, Ulrich HOUNYO, Nour MEDDAHI
    Journal of the American Statistical Association | 2018
    Pas de résumé disponible.
  • Trois essais sur les risques financiers à l'aide de données à haute fréquence.

    Serge luther NYAWA WOMO, Nour MEDDAHI
    2018
    Le sujet général de cette thèse est le risque financier dans un contexte de disponibilité des données à hautes fréquences, avec un accent particulier sur le risque systémique, le risque des portefeuilles de grande dimension et le bruit de microstructure. Elle s’articule en trois principaux chapitres. Le premier chapitre propose un modèle de forme réduite, à temps continu, afin de caractériser la propagation des chocs idiosyncratiques négatifs à l’intérieur d’un ensemble de plusieurs entités financières. En utilisant un modèle à facteurs avec des sauts mutuellement excités, à la fois sur les prix et la volatilité, nous distinguons différentes sources de transmission de chocs financiers telles que la corrélation, la connectivité et la contagion. La stratégie d’estimation repose sur la méthode des moments généralisés et tire profit de la disponibilité des données à très haute fréquence. Nous utilisons certains paramètres spécifiques du modèle pour définir des réseaux pondérés pour la transmission des chocs. Aussi, nous fournissons de nouvelles mesures de fragilité du système financier. Nous construisons des cartes de propagation des chocs, d’abord pour certaines banques et compagnies d’assurance clés aux USA, et ensuite pour les neuf plus grands secteurs de l’économie américaine. Il en sort qu’au-delà des facteurs communs, les chocs financés se propagent via deux canaux distincts et complémentaires : les prix et la volatilité. Dans le deuxième chapitre, nous développons un nouvel estimateur de la matrice de covolatilité réalisée, applicable dans les situations où le nombre d’actifs est grand et les données à haute fréquence sont contaminées par des bruits de microstructure. Notre estimateur repose sur l’hypothèse d’une structure factorielle de la composante du bruit, distincte des facteurs de risque systématiques latents qui caractérisent la variation transversale des rendements.Le nouvel estimateur fournit des estimations théoriquement plus efficientes et plus précises en échantillon fini, relativement aux autres méthodes d’estimation récentes. Les résultats théoriques et basés sur des simulations sont corroborés par une application empirique liée à l’allocation de portefeuille et à la minimisation du risque impliquant plusieurs centaines d’actions individuelles. Le dernier chapitre présente une méthodologie permettant d’estimer les caractéristiques du bruit de microstructure et les rendements latents dans une configuration à grande dimension. Nous nous appuyons sur des hypothèses factorielles tant sur les rendements latents que sur le bruit de microstructure. La procédure est capable d’estimer les rotations des facteurs communs, les coefficients de charge et les volatilités du bruit de microstructure pour un grand nombre d’actifs. En utilisant les actions incluses dans le S & P500 au cours de la période allant de janvier 2007 à décembre 2011, nous estimons les facteurs communs du bruit de microstructure et les comparons à certaines mesures de liquidité à l’échelle du marché, calculées à partir de variables financières réelles. Il en résulte que : le premier facteur est corrélé au spread moyen et au nombre moyen d’actions en circulation . les deuxième et troisième facteurs sont uniquement liés au spread . les quatrième et cinquième facteurs varient significativement avec le prix moyen des actions à la fermeture. De plus, les volatilités des facteurs du bruit de microstructure s’expliquent largement par le spread moyen, le volume moyen, le nombre moyen de transactions et la taille moyenne desdites transactions.
  • Essais d'économétrie financière : Actifs liés et données à haute fréquence.

    Christian NGUENANG KAPNANG, Nour MEDDAHI
    2018
    Les changements institutionnels dans la régulation des marchés financiers ont amplifié la multiplication des marchés et la cotation simultanée des actifs sur plusieurs places. Les prix d'un titre sur ces places ou d’un titre et ses dérivés sont liés par des activités d'arbitrage. Dans ces cadres de marchés “informationnellement reliés”, il est intéressant pour le régulateur, les investisseurs et les chercheurs, de comprendre comment chaque marché contribue à la dynamique de la valeur fondamentale. Cette thèse développe de nouveaux outils pour mesurer la contribution, relativement à la fréquence, de chaque marché à la formation du prix et à la formation de la volatilité. Dans le premier chapitre, Je montre que les mesures existantes de la découverte des prix conduisent à des conclusions trompeuses lorsque l'on utilise des données à haute fréquence. En raison de bruits de microstructure, Ils créent une confusion entre la dimension « vitesse » et la dimension « bruit » dans le traitement de l’information. Je propose ensuite des mesures robustes au bruit qui détectent « quel marché est rapide » et produit des bornes très serrées. A l’aide de simulations Monte Carlo et des titres du Dow Jones vendues sur le NYSE et le NASDAQ, je montre que les données corroborent mes conclusions théoriques. Dans le deuxième chapitre, je propose une nouvelle définition de la découverte prix en construisant une fonction de réponse qui évalue l'impact permanent de l'innovation d’un marché, et je donne sa distribution asymptotique. Ce cadre innove en fournissant des résultats testables pour les métriques basées sur la variance d'innovation. Je présente ensuite un modèle d'équilibre des marchés à terme à différentes maturités, et montre qu'il soutient ma mesure : Conformément aux conclusions théoriques, la mesure sélectionne le marché avec le plus de participants comme dominant. Une application sur métaux de la LME montre que le contrat à terme de 3 mois domine à la fois le marché cash et le contrat à 15 mois. Le troisième chapitre introduit un cadre complet en temps continu pour l'analyse à haute fréquence, la littérature n'existant qu’en temps discret. Il présente aussi des avantages sur la littérature en traitant explicitement des bruits de microstructure et en intégrant une volatilité stochastique. Une application, faite sur les quatre actions du Dow Jones cotées au NASDAQ et négociées sur NYSE, montrent que le NASDAQ domine le processus continu de découverte des prix. Dans le quatrième chapitre, Alors que la littérature se concentre sur les prix, je développe un cadre pour étudier la volatilité de la volatilité. Ce qui permet de répondre à des questions telles que : La volatilité du marché futures contribue-t-elle plus que la volatilité du marché spot dans la formation de la volatilité du fondamental ? Je construis un VECM avec Volatilité Stochastique estimé avec les MCMC et inférence bayésienne. Je montre que les volatilités conditionnelles ont un facteur commun et propose des mesures de découverte de la volatilité. Je l'applique aux données journalières de Futures de métaux et de l'EuroStoxx50. Je trouve qu'alors que la formation des prix a lieu sur le marché au comptant, la découverte de la volatilité a lieu sur le marché Futures. Dans une seconde partie, je construis un cadre d'analyse qui exploite les données à Haute fréquence et évite la charge de calcul des MCMC. Je montre que les Volatilités Réalisées sont cointégrées et calcule la contribution du NYSE et NASDAQ à la volatilité permanente des titres du Dow Jones. J'obtiens que la volatilité des volumes est le meilleur déterminant de la découverte de la volatilité. Mais les chiffres faibles obtenues suggèrent l'existence d'autres facteurs.
  • Bootstrapping de la volatilité réalisée pré-moyenne sous le bruit de la microstructure du marché.

    Ulrich HOUNYO, Silvia GONCALVES, Nour MEDDAHI
    Econometric Theory | 2016
    Pas de résumé disponible.
  • Essais sur la prévisibilité des rendements obligataires et le risque de liquidité.

    Karoll GOMEZ PORTILLA, Nour MEDDAHI
    2015
    S’il existe de l’information intéressante pour prévoir les prix des titres du Trésor au fil du temps, comment peut-on utiliser cette information pour améliorer le rapport risque/rendement de l’investisseur et la modélisation de la structure par terme ? Cette thèse a pour objectif de répondre à cette question. Le premier chapitre analyse le rôle prédictif des mesures alternatives de la prime de liquidité des TIPS (Treasury Inflation-Protected Securities) par rapport aux titres du Trésor pour des rendements en excès des obligations gouvernementales. Les résultats montrent que la prime de liquidité prévoit des rendements en excès positifs (négatifs) pour les TIPS (Treasury nominales). Je trouve, également, que le pouvoir de prévision hors échantillon de la liquidité des rendements en excès des Treasury nominales paraît avoir été guidé par les évènements de la crise financière récente. Par contre, je trouve empiriquement qu’il y a également une capacité de prévision des rendements en excès des TIPS hors échantillon pendant les périodes normales aussi bien que pour les mauvaises périodes.Dans le deuxième chapitre, j’examine si la prime de liquidité des TIPS peut être considérée comme un facteur dit unspanned (c’est-à-dire dont la valeur n’est pas une combinaison linéaire de la courbe des rendements) pour prévoir les rendements des obligations, mais qu’elle n’est pas nécessairement spanned par la courbe des taux des États Unis. Je considère un modèle affine et gaussien de la structure par terme d'obligations à coupon zéro du Trésor américain pour l’ensemble des Treasuries and TIPS, avec un facteur unspanned : le risque de liquidité. Dans ce modèle, le facteur de liquidité est contraint d’affecter seulement les rendements de coupe transversale, mais il permet de déterminer les primes de risque des obligations. L’évidence empirique suggère que le facteur de liquidité n’affecte pas la dynamique des obligations en vertu de la probabilité risque-neutre, mais qu’il affecte cette dynamique sous la mesure historique. Par conséquent, l'information contenue dans la courbe de rendement s’avère insuffisante pour caractériser complètement la variation du prix du risque de courbure. Dans le troisième chapitre, j’estime, par des méthodes non paramétriques, le choix de portefeuille optimal d’obligations pour un agent représentatif qui agit d’une façon optimale par rapport à son utilité espérée sur la période suivante, à partir du signal de liquidité observé ex ante. Considérant les différentes mesures de liquidité, je trouve que le différentiel de liquidité entre les obligations nominales et les TIPS paraît être un facteur significatif de choix du portefeuille en obligations du gouvernement des États Unis. En effet, l’allocation conditionnelle en actifs risqués décroit avec la détérioration des conditions de liquidité du marché, et l’effet de liquidité du marché diminue avec l’horizon d’investissement. Je trouve également que la prévisibilité de rendement des obligations se traduit par une meilleure allocation et performance aussi bien intra que hors échantillon.
  • Le long et le court du compromis risque-rendement.

    Marco BONOMO, Rene GARCIA, Nour MEDDAHI, Romeo TEDONGAP
    Journal of Econometrics | 2015
    La relation entre la volatilité conditionnelle et les rendements boursiers attendus, le fameux couple risque-rendement, a été étudiée à haute et à basse fréquence. Nous proposons un modèle d'évaluation des actifs avec des préférences généralisées d'aversion à la déception et des risques de volatilité à court et à long terme qui capture plusieurs faits stylisés associés au couple risque-rendement à des horizons courts et longs. En écrivant le modèle de Bonomo et al. (2011) à la fréquence quotidienne, nous visons à reproduire les moments de la prime de variance et de la volatilité réalisée, la prévisibilité à long terme des rendements cumulatifs par la variance cumulative passée, la prévisibilité à court terme des rendements par la prime de variance, ainsi que les modèles d'autocorrélation quotidienne à plusieurs retards du VIX et de la prime de variance, et les corrélations croisées quotidiennes de ces deux mesures avec les leads et les lags des rendements quotidiens. En gardant le même calibrage que dans ce précédent article, nous nous assurons que le modèle capture les premiers et seconds moments de la prime d'équité et du taux sans risque, ainsi que la prévisibilité des rendements par le rendement des dividendes. Dans l'ensemble, l'ajout de l'aversion généralisée pour la déception à la spécification de Kreps-Porteus améliore l'ajustement des compromis risque-rendement à court et à long terme.
  • Non-négativité, limite inférieure zéro et modèles de taux d'intérêt affines.

    Guillaume ROUSSELLET, Alain MONFORT, Serge DAROLLES, Serge DAROLLES, Olivier SCAILLET, Eric RENAULT, Christian GOURIEROUX, Nour MEDDAHI, Olivier SCAILLET, Eric RENAULT
    2015
    Cette thèse présente plusieurs extensions relatives aux modèles affines positifs de taux d'intérêt. Un premier chapitre introduit les concepts reliés aux modélisations employées dans les chapitres suivants. Il détaille la définition de processus dits affines, et la construction de modèles de prix d'actifs obtenus par non-arbitrage. Le chapitre 2 propose une nouvelle méthode d’estimation et de filtrage pour les modèles espace-état linéaire-quadratiques. Le chapitre suivant applique cette méthode d’estimation à la modélisation d’écarts de taux interbancaires de la zone Euro, afin d’en décomposer les fluctuations liées au risque de défaut et de liquidité. Le chapitre 4 développe une nouvelle technique de création de processus affines multivariés à partir leurs contreparties univariées, sans imposer l’indépendance conditionnelle entre leurs composantes. Le dernier chapitre applique cette méthode et dérive un processus affine multivarié dont certaines composantes peuvent rester à zéro pendant des périodes prolongées. Incorporé dans un modèle de taux d’intérêt, ce processus permet de rendre compte efficacement des taux plancher à zéro.
  • La valeur économique de la volatilité réalisée : Utilisation des rendements à haute fréquence pour l'évaluation des options.

    Peter CHRISTOFFERSEN, Bruno FEUNOU, Kris JACOBS, Nour MEDDAHI
    Journal of Financial and Quantitative Analysis | 2014
    Pas de résumé disponible.
  • Bootstrapping de mesures de volatilité multivariées réalisées.

    Prosper DOVONON, Silvia GONCALVES, Nour MEDDAHI
    Journal of Econometrics | 2013
    Pas de résumé disponible.
  • Volatilité et fréquence de transactions sur les marchés financiers : modélisation et inférence.

    Nour MEDDAHI, Bruno BIAIS, Eric RENAULT
    1997
    Cette thèse se compose de trois chapitres indépendants issus d'une problématique commune : construire des spécifications économétriques de la dynamique des marchés financiers, intégrant une modélisation structurelle des aspects informationnels. Le premier chapitre est consacré aux fréquences de transactions sur les marchés financiers en présence d'information asymétrique. Nous considérons un modèle à la Kyle (1985), mais où les chocs de liquidités n'ont pas toujours lieu. Nous caractérisons l'ensemble des équilibres bayesiens parfaits. En particulier, nous montrons que l'initié n'intervient pas systématiquement sur le marché, ce qui influe sur les fréquences de transactions. Nous étendons ensuite cette analyse au cas où les volumes sont hétérogènes. Le second chapitre s'intéresse à l'agrégation temporelle de la volatilité. Nous proposons une classe de modèles de la variance conditionnelle qui inclut la plupart des modèles existant dans la littérature et où la variance est linéaire (Garch, facteurs linéaires). Nous montrons que cette classe est robuste vis-à-vis des agrégations temporelle et individuelle et de la marginalisation. Nous montrons aussi la supériorité et la pertinence de cette classe par rapport à celle dite "arch faible" en termes d'interprétations financières et statistiques. Nous établissons le lien direct entre notre classe et celle des processus en temps continu dits "à volatilité stochastique". Enfin, le dernier chapitre est consacré à l'estimation des modèles définis par leur moyenne et variance conditionnelles, en particulier ceux du type arch. Nous considérons une large classe de m-estimateurs et nous exhibons l'estimateur optimal, qui dépend de manière cruciale des coefficients d'asymétrie et d'aplatissement conditionnels. Nous montrons qu'il est plus efficace que l'estimateur pmv et qu'il est équivalent à l'estimateur gmm optimal. Une étude Monte Carlo confirme ces résultats.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr