HURLIN Christophe

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2012 - 2020
    Laboratoire d'économie d'Orleans
  • 2012 - 2017
    Laboratoire d'économie d'Orléans
  • 2012 - 2013
    Université d'Orleans
  • 1999 - 2000
    Université Paris 1 Panthéon-Sorbonne
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2008
  • 2000
  • Essais sur la modélisation des prix des produits de base et l'efficacité informationnelle.

    Jean baptiste BONNIER, Olivier DARNE, Amelie CHARLES, Christophe HURLIN, Delphine LAUTIER, Valerie MIGNON
    2021
    Les commodités jouent un rôle essentiel dans nos économies, et les marchés à terme occupent une place centrale dans la détermination de leur prix. L'objet de cette thèse est de participer à notre compréhension du comportement des prix des commodités, et de produire des prévisions sur la base de méthodes économétriques récentes. Pour la prévision, nous nous concentrons sur deux sujets différents pour trois commodités (le pétrole, le blé, et l'or): la prévision des prix à horizon mensuel à partir d'une grande base de données, et la prévision de la volatilité à horizon journalier à l'aide d'une procédure récente de sélection de variables pour la volatilité conditionnelle. Pour l’explication, nous nous intéressons à l’efficience informationnelle et à la découverte de l’information dans deux cadres différents : des régressions prédictives s’appuyant sur des données relatives à différentes théories, et une analyse de l’effet des changements des positions ouvertes de différents groupes de traders sur la volatilité.
  • L'équité des modèles de notation de crédit.

    Christophe HURLIN, Christophe PERIGNON, Sebastien SAURIN
    SSRN Electronic Journal | 2021
    Sur les marchés du crédit, les algorithmes de filtrage font la distinction entre les bons et les mauvais emprunteurs. C'est leur raison d'être. Cependant, ce faisant, ils établissent souvent une discrimination entre les individus partageant un attribut protégé (par exemple, le sexe, l'âge, la race) et le reste de la population. Dans cet article, nous montrons comment tester (1) s'il existe une différence statistiquement significative en termes de taux de rejet ou de taux d'intérêt, appelée manque d'équité, entre les groupes protégés et non protégés et (2) si cette différence est uniquement due à la solvabilité. Lorsque la condition (2) n'est pas remplie, l'algorithme de sélection ne respecte pas le principe du prêt équitable et peut être qualifié d'illégal. Notre cadre fournit des indications sur la manière dont l'équité algorithmique peut être surveillée par les prêteurs, contrôlée par leurs régulateurs et améliorée au profit des groupes protégés.
  • Apprentissage automatique pour l'évaluation du crédit : Améliorer la régression logistique avec les effets non linéaires des arbres de décision.

    Elena ivona DUMITRESCU, Christophe HURLIN, Sessi TOKPAVI, Sullivan HUE
    European Journal of Operational Research | 2021
    Pas de résumé disponible.
  • Apprentissage automatique ou économétrie pour l'évaluation du crédit : Tirons le meilleur des deux mondes.

    Elena ivona DUMITRESCU, Sullivan HUE, Christophe HURLIN, Sessi TOKPAVI, Elena DUMITRESCU
    SSRN Electronic Journal | 2020
    Dans le contexte de l'évaluation du crédit, les méthodes d'ensemble basées sur des arbres de décision, comme la méthode de la forêt aléatoire, offrent de meilleures performances de classification que les modèles de régression logistique standard. Cependant, la régression logistique reste la référence dans l'industrie du risque de crédit, principalement parce que le manque d'interprétabilité des méthodes d'ensemble est incompatible avec les exigences des régulateurs financiers. Dans cet article, nous proposons d'obtenir le meilleur des deux mondes en introduisant une méthode de notation de crédit performante et interprétable appelée régression par arbre logistique pénalisée (PLTR), qui utilise les informations des arbres de décision pour améliorer les performances de la régression logistique. Formellement, les règles extraites de divers arbres de décision à courte profondeur construits avec des paires de variables prédictives sont utilisées comme prédicteurs dans un modèle de régression logistique pénalisé. Le PLTR nous permet de capturer les effets non linéaires qui peuvent apparaître dans les données de notation de crédit tout en préservant l'interprétabilité intrinsèque du modèle de régression logistique. Des simulations de Monte Carlo et des applications empiriques utilisant quatre ensembles de données réelles sur les défauts de paiement montrent que la PLTR prédit le risque de crédit de manière beaucoup plus précise que la régression logistique et se compare de manière compétitive à la méthode de la forêt aléatoire. Classification JEL : G10 C25, C53.
  • Indicateurs de risque bancaire, apprentissage automatique et inégalités de concentration unilatérales.

    Mathieu MERCADIER, Amine TARAZI, Paul ARMAND, Amine TARAZI, Paul ARMAND, Christophe HURLIN, Jaideep OBEROI
    2020
    Cette thèse de doctorat comprend trois essais portant sur la mise en œuvre, et le cas échéant l'amélioration, de mesures de risques financiers et l'évaluation des risques bancaires, basée sur des méthodes issues de l'apprentissage machine. Le premier chapitre élabore une formule élémentaire, appelée E2C, d'estimation des primes de risque de crédit inspirée de CreditGrades, et en améliore la précision avec un algorithme de forêts d'arbres décisionnels. Nos résultats soulignent le rôle prépondérant tenu par cet estimateur et l'apport additionnel de la notation financière et de la taille de l'entreprise considérée. Le deuxième chapitre infère une version unilatérale de l'inégalité bornant la probabilité d'une variable aléatoire distribuée unimodalement. Nos résultats montrent que l'hypothèse d'unimodalité des rendements d'actions est généralement admissible, nous permettant ainsi d'affiner les bornes de mesures de risques individuels, de commenter les implications pour des multiplicateurs de risques extrêmes, et d'en déduire des versions simplifiées des bornes de mesures de risques systémiques. Le troisième chapitre fournit un outil d'aide à la décision regroupant les banques cotées par niveau de risque en s'appuyant sur une version ajustée de l'algorithme des k-moyennes. Ce processus entièrement automatisé s'appuie sur un très large univers d'indicateurs de risques individuels et systémiques synthétisés en un sous-ensemble de facteurs représentatifs. Les résultats obtenus sont agrégés par pays et région, offrant la possibilité d'étudier des zones de fragilité. Ils soulignent l'importance d'accorder une attention particulière à l'impact ambigu de la taille des banques sur les mesures de risques systémiques.
  • Backtesting Marginal Expected Shortfall and Related Systemic Risk Measures.

    Denisa BANULESCU RADU, Christophe HURLIN, Jeremy LEYMARIE, Olivier SCAILLET
    Management Science | 2020
    Cet article propose une approche originale de backtesting des mesures de risque systémique. Cette approche de backtesting permet d'évaluer les prévisions de mesures de risque systémique utilisées pour identifier les institutions financières qui contribuent le plus au risque global du système financier. Notre procédure est basée sur des tests simples similaires à ceux généralement utilisés pour backtester les mesures de risque de marché standard telles que la value-at-risk ou l'expected shortfall. Nous introduisons un concept de violation associé à l'expected shortfall marginal (MES), et nous définissons des tests de couverture et d'indépendance inconditionnels pour ces violations. Nous pouvons généraliser ces tests à toutes les mesures de risque systémique basées sur la MES, telles que le déficit systémique attendu (SES), la mesure du risque systémique (SRISK) ou la valeur en risque conditionnelle delta ([Formule : voir texte]CoVaR). Nous étudions leurs propriétés asymptotiques en présence d'un risque d'estimation et examinons leur performance en échantillon fini via des simulations de Monte Carlo. Une application empirique à un panel d'institutions financières américaines est menée pour évaluer la validité des prévisions MES, SRISK, et [Formule : voir texte]CoVaR issues d'un modèle GARCH bivarié avec une structure de corrélation conditionnelle dynamique. Nos résultats montrent que ce modèle fournit des prévisions valides pour le MES et le SRISK en considérant un horizon à moyen terme. Enfin, nous proposons un indicateur de système d'alerte précoce pour les futures crises systémiques déduit de ces backtests. Notre indicateur quantifie l'importance de l'erreur de mesure émise par une prévision du risque systémique à un moment donné, ce qui peut servir à la détection précoce des retournements du marché mondial. Cet article a été accepté par Kay Giesecke, finance.
  • Apprentissage automatique ou économétrie pour l'évaluation du crédit : Obtenons le meilleur des deux mondes *.

    Christophe HURLIN, Sessi TOKPAVI, Elena DUMITRESCU, Sullivan HUE
    2020
    Les arbres de décision et les méthodes d'ensemble connexes comme la forêt aléatoire sont des outils de pointe dans le domaine de l'apprentissage automatique pour l'évaluation du crédit. Bien qu'il soit démontré qu'ils sont plus performants que la régression logistique, ils manquent d'interprétabilité, ce qui réduit considérablement leur utilisation dans le secteur de la gestion du risque de crédit, où les décideurs et les régulateurs ont besoin de fonctions de notation transparentes. Cet article propose d'obtenir le meilleur des deux mondes, en introduisant une nouvelle méthode de notation du crédit, simple et interprétable, qui utilise les informations des arbres de décision pour améliorer les performances de la régression logistique. Formellement, les règles extraites de divers arbres de décision à courte profondeur construits avec des couples de variables prédictives sont utilisées comme prédicteurs dans une régression logistique pénalisée ou régularisée. En modélisant de tels effets de seuil univariés et bivariés, nous obtenons une amélioration significative des performances du modèle pour la régression logistique tout en préservant son interprétation simple. Des applications utilisant des ensembles de données simulées et quatre ensembles de données réelles de défauts de paiement montrent que notre nouvelle méthode surpasse les régressions logistiques traditionnelles. De plus, elle se compare de manière compétitive à la forêt aléatoire, tout en fournissant une fonction de notation interprétable. Classification JEL : G10 C25, C53.
  • Quatre essais en finance et macroéconomie : la contribution de l'économétrie non linéaire.

    Quentin LAJAUNIE, Yannick LE PEN, Benoit SEVI, Yannick LE PEN, Benoit SEVI, Christophe HURLIN, Valerie MIGNON, Jean baptiste HASSE, Christophe HURLIN, Valerie MIGNON
    2020
    Cette thèse sur articles est composée de quatre chapitres autonomes, contribuant au domaine de l’économétrie non linéaire. Le premier chapitre s’intéresse à l’apport de l’économétrie non-linéaire à travers la mesure de la performance financière en utilisant une variable dichotomique comme variable indépendante. Les trois chapitres suivants sont basés sur les modèles de régression non-linéaire où la variable dichotomique est la variable dépendante de l’équation. Compte tenu des liens entre le risque financier et le contexte macroéconomique, cette partie est liée au thème de l’allocation optimale via l’étude des crises et récessions. Cette classe de modèle (probit / logit) est utilisée dans le second chapitre pour étudier empiriquement le rôle du développement financier dans la probabilité d’occurrence de crises bancaires. Ensuite les deux derniers chapitres se concentrent sur le cadre méthodologique développé par Kauppi et Saikkonen (2008) et Candelon, Dumitrescu et Hurlin (2012 . 2014) au sujet de la prévision des cycles économiques à partir de modèles probit / logit. Ainsi, le troisième chapitre étudie la relation empirique liant l’évolution du spread de taux et la probabilité future d’expansion / récession dans un panel de données élargi tout en testant l’homogénéité de cette relation. Enfin le quatrième chapitre propose une contribution théorique en dérivant les fonctions de réponse des modèles probit / logità partir de l’approche de Kauppi et Saikkonen (2008). Ces fonctions de réponse sont ensuite utilisées dans un cadre empirique afin d’estimer l’impact d’un choc exogène sur le cycle expansion / récession.
  • Une comparaison théorique et empirique des mesures du risque systémique.

    Sylvain BENOIT, Gilbert COLLETAZ, Christophe HURLIN, Christophe PERIGNON
    2019
    Nous dérivons plusieurs mesures populaires du risque systémique dans un cadre commun et montrons qu'elles peuvent être exprimées comme des transformations des mesures du risque de marché (par exemple, le bêta). Nous dérivons également les conditions dans lesquelles les différentes mesures conduisent à des classements similaires des institutions financières d'importance systémique (SIFI). Dans une analyse empirique des institutions financières américaines, nous montrons que (1) différentes mesures du risque systémique identifient différentes SIFIs et que (2) les classements des entreprises basés sur les estimations du risque systémique reflètent les classements obtenus en triant les entreprises sur le risque de marché ou le passif. Les modèles linéaires à un facteur expliquent la plupart de la variabilité des estimations du risque systémique, ce qui indique que les mesures du risque systémique ne parviennent pas à saisir les multiples facettes du risque systémique.
  • Les pièges de l'évaluation du risque systémique.

    Sylvain BENOIT, Christophe HURLIN, Christophe PERIGNON
    Journal of Financial Intermediation | 2019
    Dans cet article, nous identifions plusieurs lacunes dans la méthodologie de notation du risque systémique actuellement utilisée pour identifier et réglementer les institutions financières d'importance systémique (SIFI). À l'aide de données réglementaires récemment publiées pour 119 banques américaines et internationales, nous montrons que la méthode de notation actuelle fausse gravement l'allocation de capital réglementaire entre les banques. Nous proposons ensuite et mettons en œuvre une méthodologie qui corrige ces lacunes et incite davantage les banques à réduire leur contribution aux risques.
  • Évaluation et validation de prévisions en loi.

    Michael RICHARD, Jerome COLLET, Christophe HURLIN, Christophe RAULT, Jerome COLLET, Christophe HURLIN, Christophe RAULT, Peter TANKOV, Olivier DARNE, Yannig GOUDE, Peter TANKOV
    2019
    Cette thèse porte sur l’évaluation et la validation de prévisions en loi. Dans la première partie, nous nous intéressons à l’apport du machine learning vis à vis des prévisions quantile et des prévisions en loi. Pour cela, nous avons testé différents algorithmes de machine learning dans un cadre de prévisions de quantiles sur données réelles. Nous tentons ainsi de mettre en évidence l’intérêt de certaines méthodes selon le type de données auxquelles nous sommes confrontés. Dans la seconde partie, nous exposons quelques tests de validation de prévisions en loi présents dans la littérature. Certains de ces tests sont ensuite appliqués sur données réelles relatives aux log-rendements d’indices boursiers. Dans la troisième, nous proposons une méthode de recalibration permettant de simplifier le choix d’une prévision de densité en particulier par rapport à d’autres. Cette recalibration permet d’obtenir des prévisions valides à partir d’un modèle mal spécifié. Nous mettons également en évidence des conditions sous lesquelles la qualité des prévisions recalibrées, évaluée à l’aide du CRPS, est systématiquement améliorée, ou très légèrement dégradée. Ces résultats sont illustrés par le biais d’applications sur des scénarios de températures et de prix.
  • Machine Learning et nouvelles sources de données pour le scoring de crédit.

    Christophe HURLIN, Christophe PERIGNON
    2019
    Dans cet article, nous proposons une réflexion sur l’apport des techniques d’apprentissage automatique (Machine Learning) et des nouvelles sources de données (New Data) pour la modélisation du risque de crédit. Le scoring de crédit fut historiquement l’un des premiers champs d’application des techniques de Machine Learning. Aujourd’hui, ces techniques permettent d’exploiter de « nouvelles » données rendues disponibles par la digitalisation de la relation clientèle et les réseaux sociaux. La conjonction de l’émergence de nouvelles méthodologies et de nouvelles données a ainsi modifié de façon structurelle l’industrie du crédit et favorisé l’émergence de nouveaux acteurs. Premièrement, nous analysons l’apport des algorithmes de Machine Learning à ensemble d’information constant. Nous montrons qu’il existe des gains de productivité liés à ces nouvelles approches mais que les gains de prévision du risque de crédit restent en revanche modestes. Deuxièmement, nous évaluons l’apport de cette « datadiversité », que ces nouvelles données soient exploitées ou non par des techniques de Machine Learning. Il s’avère que certaines de ces données permettent de révéler des signaux faibles qui améliorent sensiblement la qualité de l’évaluation de la solvabilité des emprunteurs. Au niveau microéconomique, ces nouvelles approches favorisent l’inclusion financière et l’accès au crédit des emprunteurs les plus fragiles. Cependant, le Machine Learning appliqué à ces données peut aussi conduire à des biais et à des phénomènes de discrimination.
  • Activités bancaires, contraintes réglementaires et contextes de crises : différentes perspectives empiriques.

    Vincent BOUVATIER, Valerie MIGNON, Christophe HURLIN, Amine TARAZI, Laurence SCIALOM, Christian BORDES, Gunther CAPELLE BLANCARD, Laurent CLERC
    2019
    Les travaux de recherche réalisés se situent principalement dans le domaine de l'économie bancaire, monétaire et financière et sont organisés autour de trois perspectives empiriques. La première perspective est microéconomique et se situe au niveau de la firme bancaire. Les recherches menées analysent les comportements de provisionnement pour pertes de crédit des banques et évaluent les profils de risque des banques. La seconde perspective est macroéconomique et se situe au niveau des pays. Les travaux réalisés s'intéressent à la procyclicité des activités de crédit d'une part, et à l'occurrence des crises bancaires d'autre part. La troisième perspective permet d'introduire une dimension internationale et pe1met ainsi de compléter les approches microéconomique et macroéconomique précédemment mobilisées. Les recherches menées analysent les effets de la réglementation bancaire et les conséquences de la crise financière de 2007-2008 sur les activités bancaires et financières internationales.
  • Dynamique temporelle et distribution spatiale des revenus en France : croissance des disparités ou convergence ?

    Benjamin EGRON, Valerie MIGNON, Sonia PATY, Valerie MIGNON, Sonia PATY, Julie LE GALLO, Christophe HURLIN, Nadine LEVRATTO, Julie LE GALLO, Christophe HURLIN
    2019
    La présente thèse étudie les disparités de revenus à partir de deux mailles différentes et complémentaires : (i) entre groupes d'individus partageant des périodes de temps et (ii) entre groupes d'individus partageant un même territoire. Notre objectif est d'analyser les mécanismes économiques engendrant des disparités de revenus à la fois temporelles et spatiales et d'étudier les moyens disponibles afin d'y remédier. La thèse se décompose en trois chapitres au sein desquels nous avons principalement recours à l'outil statistique sur le cas français afin de répondre aux problématiques posées. L'aspect des disparités temporelles de revenus fait l'objet du premier chapitre où nous étudions l'interaction entre les multiplicateurs budgétaires et la dette publique dans la mesure où ils constituent les deux outils principaux permettant de lisser le revenu dans le temps et présentent des enjeux à la fois à court et long termes. Nous cherchons plus précisément à identifier quels sont les meilleurs instruments et le "meilleur" contexte économique afin d'amorcer une réduction du ratio de dette publique. Nous mettons en évidence que le recours à des politiques d'austérités budgétaires en période de récessions économique peut vraisemblablement accroître le ratio de dette publique. Le deuxième chapitre est consacré à la mesure et la caractérisation du phénomène de convergence entre les territoires français. En particulier, nous répondons aux questions suivantes : (i) existe-t-il un phénomène de convergence ? (ii) Le processus de convergence est-il linéaire ? (iii) La convergence est-elle uniforme sur l'ensemble du territoire ? Nous répondons par l'affirmative à ces trois questions, cela suscite donc un questionnement quant aux raisons engendrant une hétérogénéité spatiale des vitesses de convergence. Enfin, le troisième chapitre a pour objet l'identification des déterminants de la convergence spatiale. En particulier, nous souhaitons mettre en évidence les facteurs encourageant la convergence spatiale et, au contraire, ceux qui la freinent. Nous montrons alors que l'hétérogénéité des territoires en termes d'accès aux différents marchés extérieurs est un facteur important dans l'explication des différents niveaux de convergence observés à travers le territoire français.
  • Emprunteurs granulaires.

    Paul BEAUMONT, Thibault LIBERT, Christophe HURLIN
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • Machine learning et nouvelles sources de données pour le scoring de crédit.

    Christophe HURLIN, Christophe PERIGNON
    Revue d'économie financière | 2019
    Pas de résumé disponible.
  • Backtesting Marginal Expected Shortfall and Related Systemic Risk Measures.

    Denisa BANULESCU, Christophe HURLIN, Jeremy LEYMARIE, Olivier SCAILLET
    SSRN Electronic Journal | 2019
    Pas de résumé disponible.
  • Certification de reproductibilité dans la recherche en économie.

    Christophe HURLIN, Christophe PERIGNON
    SSRN Electronic Journal | 2019
    La reproductibilité est essentielle pour instaurer la confiance dans la recherche, mais elle n'est pas très répandue en économie. Nous montrons comment la certification externe peut améliorer la reproductibilité dans la recherche économique. Cette certification peut être effectuée par un tiers ou une agence de confiance, qui vérifie formellement si un résultat donné est bien généré par le code et les données utilisés par un chercheur. Cette étape de validation supplémentaire enrichit considérablement le processus d'examen par les pairs, sans ajouter une charge supplémentaire aux revues ni allonger indûment le processus de publication. Nous montrons que la certification externe peut s'adapter aux recherches basées sur des données confidentielles. Enfin, nous présentons un exemple concret de certification externe.
  • L'exposition au risque de contrepartie des investisseurs d'ETF.

    Christophe HURLIN, Gregoire ISELI, Christophe PERIGNON, Stanley YEUNG
    Journal of Banking & Finance | 2019
    Pas de résumé disponible.
  • Comparaison des fonctions de perte pour les modèles LGD.

    Jeremy LEYMARIE, Christophe HURLIN, Antoine PATIN
    European Journal of Operational Research | 2018
    Nous proposons une nouvelle approche pour comparer les modèles de perte en cas de défaut (LGD) qui est basée sur les fonctions de perte définies en termes de charge de capital réglementaire. Notre méthode de comparaison améliore la capacité des banques à absorber leurs pertes de crédit inattendues, en pénalisant plus lourdement les erreurs de prévision de LGD faites sur les crédits associés à une exposition élevée et à une longue maturité. Nous introduisons également des fonctions de perte asymétriques qui ne pénalisent que les erreurs de prévision LGD qui conduisent à sous-estimer le capital réglementaire. Nous montrons théoriquement que notre approche classe les modèles différemment par rapport à l'approche traditionnelle qui se concentre uniquement sur les erreurs de prévision LGD. Nous appliquons notre méthodologie à six modèles LGD concurrents en utilisant un échantillon unique de près de 10.000 contrats de crédit et de leasing en défaut fournis par une banque internationale. Nos résultats empiriques montrent clairement que le classement des modèles basé sur les pertes en capital diffère radicalement de celui basé sur les fonctions de perte LGD actuellement utilisées par les régulateurs, les banques et les universitaires.
  • Fonctions de perte pour la comparaison des modèles LGD.

    Christophe HURLIN, Jeremy LEYMARIE, Antoine PATIN
    2018
    Nous proposons une nouvelle approche pour comparer les modèles de perte en cas de défaut (LGD) qui est basée sur les fonctions de perte définies en termes de charge de capital réglementaire. Notre méthode de comparaison améliore la capacité des banques à absorber leurs pertes de crédit inattendues, en pénalisant plus lourdement les erreurs de prévision de LGD faites sur les crédits associés à une exposition élevée et à une longue maturité. Nous introduisons également des fonctions de perte asymétriques qui ne pénalisent que les erreurs de prévision LGD qui conduisent à sous-estimer le capital réglementaire. Nous montrons théoriquement que notre approche classe les modèles différemment par rapport à l'approche traditionnelle qui se concentre uniquement sur les erreurs de prévision LGD. Nous appliquons notre méthodologie à six modèles LGD concurrents en utilisant un échantillon de près de 10.000 contrats de crédit et de leasing en défaut fourni par une banque internationale. Nos résultats empiriques montrent clairement que le classement des modèles basé sur les pertes de charge en capital diffère de celui basé sur les fonctions de perte LGD actuellement utilisées par les régulateurs, les banques et les universitaires.
  • Comment le système d'emploi japonais a-t-il changé ? Enquête sur l'hétérogénéité des pratiques de réduction des effectifs dans les entreprises.

    Sebastien LECHEVALIER, Cyrille DOSSOUGOIN, Christophe HURLIN, Satoko TAKAOKA
    SSRN Electronic Journal | 2018
    Pas de résumé disponible.
  • La dépendance entre le marché financier et le marché de matières premières : une approche copule.

    Manel SOURY, Velayoudom MARIMOUTOU, Thi hong van HOANG, Laurent FERRARA, Sebastien LAURENT, Benoit SEVI, Christophe HURLIN
    2018
    Cette thèse de doctorat est composée de trois chapitres, un article et deux papiers et est principalement liée au domaine de l’économétrie financière empirique. Elle analyse la dépendance et le lien entre les marchés financiers et les marchés de matières premières, en particulier celui de l’énergie. Les distributions et corrélations des variables appartenant aux deux marchés sont étudiées afin de déterminer leurs effets les uns sur les autres et d’analyser leurs tendances pour donner un meilleur aperçu de leurs comportements vis-à-vis des crises et des événements brusques en économie. Ces variables sont représentées par certains indices financiers (SP500, Euro stoxx 50, Msci China) ainsi que par les principaux indices de matières premières (SP GSCI, Brent Oil,Gaz naturel, Metaux precieux). Nous choisissons de modéliser leur corrélation dans le temps et de prendre en compte la non-linéarité et l’instabilité qui peuvent les affecter. Pour cela, l’approche fonction copule a été employée pour modéliser d’une manière efficace leurs distributions. Dans le premier chapitre, nous examinons la dépendance et les co-mouvements entre les prix des émissions de dioxyde de carbone et les indices énergétiques comme le charbon, le gaz naturel, le Brent oil et l’indice énergétique global. Le deuxième chapitre analyse les interactions et relations entre le marché pétrolier et deux principaux marchés financiers en Europe et aux États-Unis représentés par l’Euro stoxx 50 et le SP500. Dans le dernier chapitre, on analyse la dépendance multivariée entre les indices de matière première de différents secteurs avec des indices financiers en utilisant le modèle de la copule Regular Vine.
  • Fonctions de perte pour la comparaison des modèles de perte par défaut.

    Christophe HURLIN, Jeremy LEYMARIE, Antoine PATIN
    European Journal of Operational Research | 2018
    Pas de résumé disponible.
  • Les pièges de la notation du risque systémique.

    Sylvain BENOIT, Christophe HURLIN, Christophe PERIGNON
    2017
    Nous identifions plusieurs lacunes dans la méthodologie de notation du risque systémique actuellement utilisée pour identifier et réglementer les institutions financières d'importance systémique (SIFI). À l'aide de données réglementaires récemment publiées pour 119 banques américaines et internationales, nous montrons que la méthode de notation actuelle fausse gravement l'allocation de capital réglementaire entre les banques. Nous proposons et mettons ensuite en œuvre une méthodologie qui corrige ces lacunes et incite davantage les banques à réduire leur contribution au risque. Contrairement aux scores actuels, nos scores ajustés sont principalement déterminés par des indicateurs de risque directement sous le contrôle de la banque réglementée et non par des facteurs exogènes à la banque, tels que les taux de change ou les actions des autres banques.
  • Essais sur deux nouveaux débats concernant les banques centrales : la puissance financière des banques centrales et les résultats de la politique monétaire : l'instabilité de la transmission de la politique monétaire aux taux de dépôt après la crise financière mondiale.

    Julien PINTER, Christian BORDES, Jean bernard CHATELAIN, Christian BORDES, Valerie MIGNON, Christophe HURLIN, Sophie BRANA
    2017
    Cette thèse traite de deux nouveaux débats sur le central banking qui ont émergé après la crise financière de 2008: le débat sur les pertes financières aux bilans des banques centrales, et le débat sur le niveau élevé des taux bancaires par rapport aux taux de marché après la crise. Les deux premiers chapitres s’inscrivent dans le premier débat. Le lien entre la solidité financière des banques centrales et l’inflation est étudié empiriquement dans le premier chapitre, en se basant sur un large panel de 82 pays. Théoriquement, ce lien est potentiellement présent lorsque le gouvernement ne soutient pas financièrement la banque centrale et que celle-ci ne peut donc compter que sur elle-même pour améliorer sa situation financière. Les résultats du premier chapitre montrent qu’en pratique tel est effectivement le cas: les détériorations aux bilans des banques centrales s’accompagnent d’une inflation plus forte lorsque la banque centrale n’a pas de soutien fiscal. Les résultats ne montrent pas de lien dans un contexte général, comme la théorie le suggère. Dans le second chapitre, il est analysé et conceptualisé l’argument selon lequel une banque centrale peut mettre fin à un régime de change fixe ou quasi-fixe par peur de futures pertes financières. L’analyse est ensuite appliquée au cas du cours plancher mis en place par la Banque Centrale de Suisse (BNS) entre 2011 et 2015 vis-à-vis de l’euro. Cet argument a été avancé par beaucoup pour expliquer la fin de la politique de cours plancher en Suisse, sans qu’aucune recherche avant celle-ci n’évalue sa pertinence. Les estimations empiriques du Chapitre 2 permettent de montrer que cet argument avait une crédibilité: elles montrent que dans des scénarios crédibles, en cassant le peg avec l’euro 17 mois plus tard, la BNS aurait essuyé une perte considérable, dépassant un seuil perçu comme limite par beaucoup de banquiers centraux. Le dernier chapitre de cette thèse s’intéresse à l’écart entre les taux de dépôts et le taux de marché en zone euro (l’EURIBOR) qui est devenu significativement positif après la crise, conduisant certains à parler de « sur-rémunération » des dépôts. Ce chapitre soutient que la majorité de cet écart ne s’explique non pas par un comportement anormal des dépôts comme certains l’ont avancé, mais au contraire par une perte de pertinence de l’EURIBOR. Construisant une alternative à l’EURIBOR, ce chapitre conclut que le risque bancaire a eu une influence primordiale sur le niveau de rémunération des dépôts dans le monde d’après-crise.
  • Inférence des mesures de risque.

    Christophe HURLIN, Sebastien LAURENT, Rogier QUAEDVLIEG, Stephan SMEEKES
    Journal of Business & Economic Statistics | 2017
    Nous proposons un test basé sur le bootstrap de l'hypothèse nulle de l'égalité des mesures de risque (MR) conditionnelles de deux entreprises à un seul moment dans le temps. Le test peut être appliqué à une large classe de mesures de risque conditionnelles issues de modèles paramétriques ou semi-paramétriques. Notre procédure de test itérative produit un classement groupé des RM, qui a une application directe pour l'analyse du risque systémique. Les entreprises au sein d'un groupe sont statistiquement indiscernables les unes des autres, mais significativement plus risquées que les entreprises appartenant aux groupes de rang inférieur. Une simulation de Monte Carlo démontre que notre test a de bonnes propriétés de taille et de puissance. Nous appliquons la procédure à un échantillon de 94 institutions financières américaines en utilisant ?CoVaR, MES, et %SRISK. Nous constatons que pour certaines périodes et certains RM, nous ne pouvons pas distinguer statistiquement les 40 entreprises les plus risquées en raison de l'incertitude de l'estimation.
  • Cycles économiques et gestion de portefeuille.

    Thomas RAFFINOT, Anne EPAULARD, Bertrand VILLENEUVE, Anne EPAULARD, Bertrand VILLENEUVE, Christophe HURLIN, Laurent FERRARA, Marie BRIERE, Valerie MIGNON, Christophe HURLIN, Laurent FERRARA
    2017
    Cette thèse cherche à lier les cycles économiques et la gestion de portefeuille. Le premier chapitre construit un cadre théorique entre les cycles économiques et les primes de risques. Il met en évidence l’importance des points de retournement du cycle de croissance, plus connu sous le nom d’écart de production. Les deux chapitres suivants ont pour objectif de détecter en temps réel ces points de retournement. La première approche se concentre sur une méthode non paramétrique d’apprentissage automatique simple et facilement compréhensible appelée quantification vectorielle adaptative. La seconde approche utilise des méthodes plus complexes d’apprentissage automatique, dites ensemblistes : les forêts aléatoires et le boosting. Les deux démarches permettent de créer des stratégies d’investissement performantes en temps réel. Enfin, le dernier chapitre élabore une méthode d’allocation d’actifs à partir de différents algorithmes de regroupement hiérarchique. Les résultats empiriques démontrent l’intérêt de cette tentative : les portefeuilles créés sont robustes, diversifiés et lucratifs.
  • La relation firme-analyste explique-t-elle les erreurs de prévision des analystes ?

    Regis BRETON, Sebastien GALANTI, Christophe HURLIN, Anne gael VAUBOURG
    Revue économique | 2017
    L'article vérifie dans quelle mesure l'intensité de la relation entre une firme et un analyste financier améliore ou dégrade la précision des prévisions produites par cet analyste sur cette firme. A partir d'un échantillon de prévisions de Bénéfices Par Action (BPA) sur 208 entreprises françaises, nous régressons l'erreur de prévision des analystes sur un ensemble de variables observables. Puis nous décomposons l'effet fixe de la régression et utilisons l'effet couple firme-analyste comme mesure de l'intensité de la relation. On montre qu'un effet couple faible (important) est associé à une erreur de prévision faible (importante), suggérant qu'une relation étroite entre une firme et un analyste tend à biaiser la prévision de ce dernier. Les analystes expérimentés et spécialisés dans le suivi des firmes à forte capitalisation semblent cependant moins sujets à ce biais.
  • Avons-nous besoin de données à haute fréquence pour prévoir les écarts ?

    Denisa BANULESCU RADU, Christophe HURLIN, Bertrand CANDELON, Sebastien LAURENT
    Annals of Economics and Statistics | 2016
    Dans cet article, nous étudions divers modèles MIDAS pour lesquels la variance quotidienne future est directement liée aux observations passées des prédicteurs intrajournaliers. Notre objectif est de déterminer s'il existe une fréquence d'échantillonnage optimale en termes de prédiction de la variance. Via des simulations de Monte Carlo, nous montrons que dans un monde sans bruit de microstructure, le meilleur modèle est celui qui utilise la plus haute fréquence disponible pour les prédicteurs. Cependant, en présence de bruit de microstructure, l'utilisation de prédicteurs à très haute fréquence peut être problématique et conduire à de mauvaises prévisions de la variance. L'application empirique se concentre sur deux actifs très liquides (c'est-à-dire Microsoft et S&P 500). Nous montrons que, lorsque la variable explicative utilisée est le log-retour quadratique intrajournalier brut, il existe un "mur de haute fréquence" - ou limite de fréquence - au-delà duquel les prévisions MIDAS-RV se détériorent ou cessent de s'améliorer. Une amélioration peut être obtenue en utilisant les log-retours quadratiques intra-journaliers échantillonnés à une fréquence plus élevée, à condition qu'ils soient pré-filtrés pour tenir compte de la présence de sauts, de la tendance diurne intra-journalière et/ou du bruit de microstructure. Enfin, nous comparons le modèle MIDAS à d'autres modèles de variance concurrents, y compris les modèles GARCH, GAS, HAR-RV et HAR-RV-J. Nous constatons que le modèle MIDAS - lorsqu'il est appliqué à des données filtrées - fournit des prévisions de variance équivalentes ou même meilleures que ces modèles. JEL : C22, C53, G12 / MOTS CLÉS : Variance Forecasting, MIDAS, High-Frequency Data. RÉSUMÉ.
  • Problèmes de choix de modèles dans la volatilité conditionnelle.

    Thomas CHUFFART, Anne PEGUIN FEISSOLLE, Emmanuel FLACHAIRE, Sebastien LAURENT, Monica BILLIO, Jean michel ZAKOIAN, Christophe HURLIN
    2016
    Cette thèse de doctorat composée de trois chapitres contribue au développement de la problématique sur la sélection de modèle de volatilité de type GARCH. Le premier chapitre propose une étude de simulation sur la sélection de modèles dans le cadre spécifique des modèles à changement de régimes. On propose des expériences de simulation permettant de mettre en évidence l'inefficacité des critères de sélection usuels dans des cas particuliers, ce qui peut conduire à des erreurs de spécification lors du choix de modèle. Le deuxième chapitre propose un test du multiplicateur de Lagrange de mauvaise spécification dans les modèles GARCH univariés. L'hypothèse nulle admet que le processus générateur des données est un modèle GARCH linéaire tandis que sous l'hypothèse alternative il correspond à une forme fonctionnelle inconnue qui est linéarisée à l’aide d’un développement de Taylor. On illustre le test dans une application empirique sur les taux de change. Le dernier chapitre étudie l'impact du prix du pétrole sur les spreads de Credit Default Swaps souverains de deux pays exportateurs de pétrole: le Vénézuela et la Russie. Utilisant des données récentes, nous trouvons que les rendements du prix du pétrole impactent les spread de CDS souverains du Vénézuela directement alors que cela passe par le canal du taux de change pour la Russie. Ce chapitre emploie des méthodes statistiques avancées, notamment l'utilisation de modèles à changement de régimes Markoviens. Finalement, l'appendice propose le manuel de la toolbox MSGtool (Matlab) qui propose une collection de fonctions pour l'étude des modèles à changement de régimes Markoviens. La toolbox est très user-friendly.
  • Where the Risks Lie : A Survey on Systemic Risk.

    Sylvain BENOIT, Jean edouard COLLIARD, Christophe HURLIN, Christophe PERIGNON
    2015
    Nous passons en revue la vaste littérature sur le risque systémique et la relions au débat réglementaire actuel. Tout en faisant le point sur les réalisations de ce domaine en pleine expansion, nous identifions un écart entre deux approches principales. La première étudie les différentes sources de risque systémique de manière isolée, utilise des données confidentielles et inspire des outils réglementaires ciblés mais complexes. La seconde approche utilise les données du marché pour produire des mesures globales qui ne sont pas directement liées à une théorie particulière, mais qui pourraient soutenir une réglementation plus efficace. Pour combler ce fossé, il faudra englober les modèles théoriques et améliorer la divulgation des données.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Pas de résumé disponible.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Pas de résumé disponible.
  • Statistique et probabilités en économie-gestion.

    Valerie MIGNON, Christophe HURLIN
    2015
    Pas de résumé disponible.
  • Les approches chaos-stochastiques du risque de marché.

    Rachida HENNANI, Michel TERRAZA, Virginie TERRAZA, Michel TERRAZA, Virginie TERRAZA, Gilles DUFRENOT, Catherine KYRTSOU, Christophe HURLIN, Sandrine LARDIC, Gilles DUFRENOT, Catherine KYRTSOU
    2015
    La complexité des marchés financiers et la recrudescence des crises particulièrement sévères contribuent à l'évolution et à la remise en cause de modèles économétriques dits standards dans l'explication et la prévision des dynamiques financières. L'alerte donnée conjointement par les responsables prudentiels et les chercheurs vise à encourager le développement de modèles plus complexes, non linéaires et largement inspirés d'autres disciplines. Nous soutenons dans cette thèse l'idée qu'une approche chaos-stochastique des chroniques financières est susceptible de conduire à de meilleurs résultats. La pertinence de cette association est évaluée pour le risque de marché dans deux cadres d'analyse distincts. Nous montrons tout l'intérêt d'une synthèse des modèles chaotiques et des spécifications GARCH avec ou sans changements de régimes markoviens (MRS) pour la modélisation et la prévision de la Value-at-Risk des indices boursiers de la zone euro. Il ressort de cette étude de meilleurs résultats des modèles chaos-stochastiques et dans le cas des spécifications MRS-GARCH, une meilleure adéquation du modèle chaotique de Lasota(1977) pour les indices de l'Europe du Sud, particulièrement plus volatiles que ceux de l'Europe du Nord pour lesquels nous recommandons le modèle de Mackey-Glass(1977). Cette combinaison permet, dans un cadre bivarié, de mieux appréhender les liens qui existent entre les différentes places boursières de la zone euro. Nous introduisons deux nouvelles spécifications qui intègrent les problématiques liées aux ruptures de corrélations : la première permet de distinguer, par une analyse en sous-périodes, les relations d'interdépendance par rapport aux phénomènes de contagion et la seconde propose, dans un cadre unifié, d'intégrer les ruptures de corrélations. Cette double analyse met en évidence le rôle moteur du couple d'indices franco-allemand, l'existence de deux sphères distinctes constituées d'une part par les indices de l'Europe du Nord et d'autre part par les pays de l'Europe du Sud et l'intensification de certaines relations entre indices suite à la crise des dettes souveraines. Nous constatons et insistons sur la pertinence d'un modèle chaotique en moyenne pour rendre compte d'une part de la volatilité attribuée, à tort, aux effets GARCH.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Cet article présente une nouvelle classe de modèles pour la Value-at-Risk (VaR) et l'Expected Shortfall (ES), appelés les modèles Dynamic AutoRegressive Expectiles (DARE). Notre approche est basée sur une moyenne pondérée de modèles de VaR et d'ES basés sur les expectiles, c'est-à-dire les modèles CARE (Conditional Autoregressive Expectile) introduits par Taylor (2008a) et Kuan et al. (2009). Dans un premier temps, nous présentons brièvement les principales méthodes d'estimation non paramétriques, paramétriques et semi-paramétriques de la VaR et de l'ES. Deuxièmement, nous détaillons l'approche DARE et montrons comment les expectiles peuvent être utilisés pour estimer les mesures de risque quantile. Troisièmement, nous utilisons différents tests de backtesting pour comparer l'approche DARE à d'autres méthodes traditionnelles de calcul de prévisions de la VaR sur le marché boursier français. Enfin, nous évaluons l'impact de plusieurs fonctions de pondération conditionnelles et déterminons les pondérations optimales afin de sélectionner dynamiquement le modèle quantile global le plus pertinent.
  • Prévision des mesures de risque à haute fréquence.

    Denisa BANULESCU, Gilbert COLLETAZ, Christophe HURLIN, Sessi TOKPAVI
    Journal of Forecasting | 2015
    Cet article propose des mesures intrajournalières du risque de marché à haute fréquence (HFR) dans le cas de données à haute fréquence irrégulièrement espacées. Dans ce contexte, nous distinguons trois concepts de valeur à risque (VaR) : la VaR totale, la VaR marginale (ou par unité de temps) et la VaR instantanée. Comme le risque de marché est évidemment lié à la durée entre deux transactions consécutives, ces mesures sont complétées par une mesure du risque de durée, c'est-à-dire le time-at-risk (TaR). Nous proposons une procédure de prévision de la VaR et de la TaR pour chaque transaction ou autre événement de microstructure du marché. Ensuite, nous effectuons une procédure de backtesting spécialement conçue pour évaluer la validité des prévisions de la VaR et de la TaR sur des données irrégulièrement espacées. La performance de la mesure HFR est illustrée dans une application empirique pour deux actions (Bank of America et Microsoft) et un fonds négocié en bourse basé sur l'indice Standard & Poor's 500. Nous montrons que les prévisions intrajournalières HFR capturent avec précision la dynamique de la volatilité et de la durée pour ces trois actifs. Copyright © 2015 John Wiley & Sons, Ltd.
  • CoMargin.

    Jorge CRUZ LOPEZ, Jeffrey HARRIS, Christophe HURLIN, Christophe PERIGNON
    2015
    Nous présentons CoMargin, une nouvelle méthodologie pour estimer les besoins en collatéral des contreparties centrales de produits dérivés (CCP). CoMargin dépend à la fois du risque de queue d'un participant au marché donné et de son interdépendance avec les autres participants. Notre approche internalise les externalités de négociation et renforce la stabilité des CCP, réduisant ainsi les préoccupations liées au risque systémique. Nous évaluons notre méthodologie en utilisant des données exclusives de la Corporation canadienne de compensation de produits dérivés qui comprennent des observations quotidiennes des positions de négociation réelles de tous ses membres de 2003 à 2011. Nous montrons que CoMargin surpasse les systèmes de marge existants en stabilisant la probabilité et en minimisant le manque à gagner des pertes simultanées de dépassement de marge.
  • Inférence des mesures de risque.

    Christophe HURLIN, Sebastien LAURENT, Rogier QUAEDVLIEG, Stephan SMEEKES
    2015
    Nous proposons un test basé sur le bootstrap de l'hypothèse nulle d'égalité des mesures de risque (MR) conditionnelles de deux entreprises à un seul moment dans le temps. Le test peut être appliqué à une large classe de mesures de risque conditionnelles issues de modèles paramétriques ou semi-paramétriques. Notre procédure de test itérative produit un classement groupé des RMs qui a une application directe pour l'analyse du risque systémique. Une simulation de Monte Carlo démontre que notre test a de bonnes propriétés de taille et de puissance. Nous proposons une application à un échantillon d'institutions financières américaines en utilisant CoVaR, MES, et SRISK, et concluons que seul SRISK peut être estimé avec suffisamment de précision pour permettre un classement significatif.
  • Trois essais sur les banques centrales.

    Davide ROMELLI, Frederique BEC, Cristina TERRA, Melika BEN SALEM, Christophe HURLIN, Andre FOURCANS, Donato MASCIANDARO, Laurent FERRARA
    2015
    Cette thèse se compose de trois documents empiriques sur la conception institutionnelle des banques centrales.Le chapitre 1 contribue au débat sur l'importance de l'indépendance des banques centrales (CBI) dans la réduction des taux d'inflation. Il souligne la pertinence de l'utilisation d'indices d'indépendance des banques centrales calculés de manière dynamique de deux manières. Tout d'abord, il recalcule l'évolution de l'indice CBI de Grilli et al. (1991) et montre que le calendrier des grandes réformes législatives est étroitement lié à la dynamique des taux d'inflation. En utilisant des tests de racine unitaire avec des ruptures structurelles endogènes, je trouve que les réformes qui modifient le degré de CBI représentent des ruptures structurelles dans la dynamique des taux d'inflation. Deuxièmement, l'utilisation de l'indice d'indépendance dynamique de Grilli et al. (1991) confirme la relation négative entre le CBI et l'inflation dans un échantillon de 10 économies avancées.Le chapitre 2 présente une base de données nouvelle et complète sur la conception institutionnelle des banques centrales de 65 pays sur la période 1972-2014. Ce chapitre décrit en détail les sources d'information et les règles de codage utilisées pour créer un nouvel indice d'indépendance des banques centrales. Il compare également ce nouvel indice avec les mesures classiques de l'IBC et met en évidence les nouveaux aspects de la conception institutionnelle des banques centrales inclus dans cette base de données, tels que l'indépendance financière et la responsabilité. Une innovation importante de ce nouvel indice est sa nature dynamique. Il permet d'étudier la détermination endogène du niveau d'indépendance des banques centrales et suggère plusieurs instruments pour l'indice CBI. Le chapitre 3 utilise un cadre d'économie politique pour étudier les moteurs des réformes de la conception institutionnelle des banques centrales. En utilisant le nouvel indice CBI développé au chapitre 2, ce chapitre étudie les déterminants des réformes des banques centrales dans un échantillon de 65 pays sur la période 1972-2014. Les résultats obtenus suggèrent que les incitations générées par les réformes initiales qui ont augmenté le niveau d'indépendance, ainsi qu'une convergence régionale, représentent des moteurs importants des réformes de la conception des banques centrales. Dans le même temps, une pression externe pour réformer, telle que l'obtention d'un prêt du FMI ou l'adhésion à une union monétaire, augmente également la probabilité de réformes, tandis que les changements de gouvernement ou les épisodes de crise ont peu d'impact.
  • Expositions aux risques implicites.

    Sylvain BENOIT, Christophe HURLIN, Christophe PERIGNON
    2014
    Nous montrons comment rétroconcevoir les informations sur les risques des banques, telles que la Value-at-Risk, pour obtenir une mesure implicite de leurs expositions aux risques liés aux actions, aux taux d'intérêt, aux devises et aux matières premières. Les expositions au risque implicites (FIRE) sont obtenues en décomposant un changement dans la divulgation du risque en une composante de volatilité du marché et une composante d'exposition au risque spécifique à la banque. Dans une étude de grandes banques américaines et internationales, nous montrons que (1) les changements dans l'exposition aux risques sont négativement corrélés avec la volatilité du marché et (2) les changements dans l'exposition aux risques sont positivement corrélés entre les banques, ce qui est cohérent avec le fait que les banques présentent une communauté de négociation.
  • Trois essais sur le risque systémique.

    Sylvain BENOIT, Christophe HURLIN, Christophe PERIGNON, Christophe HURLIN, Christophe PERIGNON, Franck MORAUX, Christophe BOUCHER, Gunther CAPELLE BLANCARD, Alexis DIRER, Franck MORAUX, Christophe BOUCHER
    2014
    Le risque systémique a joué un rôle clé dans la propagation de la dernière crise financière mondiale.Un grand nombre de mesures de ce risque ont été développées pour évaluer la contribution d’une institutionfinancière au risque de l’ensemble du système. Toutefois, de nombreuses questions concernantles capacités de ces mesures à identifier les institutions financières d’importance systémique (SIFIs) ontété soulevées puisque le risque systémique possède de multiples facettes et certaines d’entre elles sontdifficiles identifier, telles que les similitudes entre institutions financières.L’objectif général de cette thèse en finance est donc (i) de proposer une solution empirique pour identifierles SIFIs au niveau nationale, (ii) de comparer théoriquement et empiriquement différentes mesures durisque systémique et (iii) de mesurer les changements d’expositions au risque des banques.Tout d’abord, le chapitre 1 propose un ajustement de trois mesures de risque systémique basées sur desdonnées de marchés et conçues dans un cadre international, afin d’identifier les SIFIs au niveau national.Ensuite, le chapitre 2 introduit un modèle commun dans lequel plusieurs mesures du risque systémiquesont exprimées et comparées. Il y est théoriquement établi que ces mesures de risque systémique peuventêtre exprimées en fonction de mesures traditionnelles de risque. L’application empirique confirme cesrésultats et montre que ces mesures ne sont pas capables de saisir la nature multidimensionnelle durisque systémique. Enfin, le chapitre 3 présente la méthodologie appelée Factor Implied Risk Exposures(FIRE) permettant de décomposer une variation de la mesure de risque d’une banque en deux éléments,le premier représentant la volatilité de marché et le second correspondant à l’exposition au risque de labanque. Ce chapitre illustre empiriquement que les changements d’expositions au risque sont corréléspositivement entre les banques, ce qui est cohérent avec le fait que les banques présentent des similitudesdans leurs prises de positions sur le marché.
  • Systèmes d'alerte précoce en cas de crise monétaire : Pourquoi ils devraient être dynamiques.

    Elena ivona DUMITRESCU, Bertrand CANDELON, Christophe HURLIN
    International Journal of Forecasting | 2014
    Pas de résumé disponible.
  • Avons-nous besoin de données à ultra-haute fréquence pour prévoir les écarts ?

    Georgiana denisa BANULESCU, Bertrand CANDELON, Christophe HURLIN, Sebastien LAURENT
    2014
    Dans cet article, nous étudions différents modèles MIDAS dans lesquels la variance quotidienne future est directement liée aux observations passées des prédicteurs intraday. Notre objectif est de déterminer s'il existe une fréquence d'échantillonnage optimale en termes de prédiction de la volatilité. Via des simulations de Monte Carlo, nous montrons que dans un monde sans bruit de microstructure, le meilleur modèle est celui qui utilise la plus haute fréquence disponible pour les prédicteurs. Cependant, en présence de bruit de microstructure, l'utilisation de prédicteurs à très haute fréquence peut être problématique et conduire à de mauvaises prévisions de la volatilité. Dans l'application, nous considérons deux actifs très liquides (c'est-à-dire Microsoft et S&P 500). Nous montrons que, lorsque l'on utilise les log-retours quadratiques intraday bruts comme variable explicative, il existe un "mur de haute fréquence" ou une limite de fréquence au-delà de laquelle les prévisions de MIDAS-RV se détériorent. Nous montrons également qu'une amélioration peut être obtenue en utilisant les log-retours quadratiques intrajournaliers échantillonnés à une fréquence plus élevée, à condition qu'ils soient pré-filtrés pour tenir compte de la présence de sauts, de la périodicité intrajournalière et/ou du bruit de microstructure. Enfin, nous comparons le modèle MIDAS à d'autres modèles de variance concurrents, notamment les modèles GARCH, GAS, HAR-RV et HAR-RV-J. Nous constatons que le modèle MIDAS fournit des prévisions de variance équivalentes ou même meilleures que ces modèles, lorsqu'il est appliqué à des données filtrées.
  • Systèmes d'alerte précoce en cas de crise monétaire : Pourquoi ils devraient être dynamiques.

    Bertrand CANDELON, Elena ivona DUMITRESCU, Christophe HURLIN
    International Journal of Forecasting | 2014
    Traditionnellement, les systèmes d'alerte précoce (SAP) des crises financières s'appuient sur des indicateurs macroéconomiques avancés pour prévoir l'apparition de tels événements. Cet article étend ces systèmes d'alerte précoce à choix discret en prenant en compte la persistance du phénomène de crise. Le modèle logit dynamique EWS est estimé à l'aide d'une méthode d'estimation de maximum de vraisemblance exacte dans un cadre pays par pays et panel. Les capacités de prévision de ce modèle sont ensuite examinées à l'aide d'une méthodologie d'évaluation qui a été conçue récemment, spécifiquement pour les SAP. Lorsqu'il est utilisé pour prévoir les crises de change pour 16 pays, ce nouveau SAP s'avère présenter des capacités de prévision significativement meilleures que le modèle statique existant, à la fois dans et hors échantillon, soutenant ainsi l'utilisation de spécifications dynamiques pour les SAP de crises financières.
  • Le risque collatéral des ETFs.

    Christophe HURLIN, Grrgoire ISELI, Christophe PERIGNON, Stanley YEUNG
    SSRN Electronic Journal | 2014
    Pas de résumé disponible.
  • L'exposition au risque de contrepartie des investisseurs d'ETF.

    Christophe HURLIN, Gregoire ISELI, Christophe PERIGNON, Stanley YEUNG
    2014
    Comme la plupart des Exchange-Traded Funds (ETF) pratiquent le prêt de titres ou sont basés sur des swaps de rendement total, ils exposent leurs investisseurs au risque de contrepartie. Dans ce document, nous estimons empiriquement ces expositions au risque pour un échantillon de fonds physiques et de fonds basés sur des swaps. Nous constatons que l'exposition au risque de contrepartie est plus élevée pour les ETF basés sur des swaps, mais que les investisseurs sont indemnisés pour supporter ce risque. En utilisant une spécification de différence dans les différences, nous découvrons que les flux d'ETF répondent de manière significative aux changements du risque de contrepartie. Enfin, nous montrons que le passage à un portefeuille de garanties optimal entraîne une réduction substantielle de l'exposition au risque de contrepartie.
  • Une comparaison théorique et empirique des mesures du risque systémique.

    Sylvain BENOIT, Gilbert COLLETAZ, Christophe HURLIN, Christophe PERIGNON
    2013
    Nous dérivons plusieurs mesures populaires du risque systémique dans un cadre commun et montrons qu'elles peuvent être exprimées comme des transformations des mesures du risque de marché (par exemple, le bêta). Nous déduisons également les conditions dans lesquelles les différentes mesures conduisent à des classements similaires des institutions financières d'importance systémique (SIFI). Dans une analyse empirique des institutions financières américaines, nous montrons que (1) différentes mesures du risque systémique identifient différentes SIFIs et que (2) les classements des entreprises basés sur les estimations du risque systémique reflètent les classements obtenus en triant les entreprises sur le risque de marché ou le passif. Les modèles linéaires à un facteur expliquent la plupart de la variabilité des estimations du risque systémique, ce qui indique que les mesures du risque systémique ne parviennent pas à saisir les multiples facettes du risque systémique.
  • Modèles Probit dynamiques multivariés : An Application to Financial Crises Mutation.

    Elena ivona DUMITRESCU, Bertrand CANDELON, Christophe HURLIN, Franz PALM
    Advances in Econometrics | 2013
    Pas de résumé disponible.
  • Test des prévisions d'intervalle : une approche basée sur le GMM.

    Elena ivona DUMITRESCU, Christophe HURLIN, Jaouad MADKOUR
    Journal of Forecasting | 2013
    Pas de résumé disponible.
  • Le capital public est-il vraiment productif ? Une réévaluation méthodologique.

    Alexandru MINEA, Christophe HURLIN
    European Journal of Operational Research | 2013
    Nous présentons une évaluation des principales approches empiriques utilisées dans la littérature pour estimer la contribution du stock de capital public à la croissance et à la productivité des facteurs privés. Sur la base d'un modèle d'équilibre général stochastique simple, construit de manière à reproduire les principales relations de long terme observées dans les données historiques américaines d'après-guerre, nous montrons que l'approche par la fonction de production peut ne pas être fiable pour estimer cette contribution. Notre analyse révèle que cette approche surestime largement l'élasticité du capital public, étant donné la présence d'une tendance stochastique commune partagée par tous les intrants non stationnaires.
  • Mesures du risque à haute fréquence.

    Denisa georgiana BANULESCU, Gilbert COLLETAZ, Christophe HURLIN, Sessi TOKPAVI
    2013
    Cet article propose des mesures intrajournalières du risque de marché dans le cas de données à haute fréquence irrégulièrement espacées. Dans ce contexte, nous distinguons trois concepts de valeur à risque (VaR) : la VaR totale, la VaR marginale (ou par unité de temps) et la VaR instantanée. Comme le risque de marché est évidemment lié à la durée entre deux transactions consécutives, ces mesures sont complétées par une mesure du risque de durée, c'est-à-dire le time-at-risk (TaR). Nous proposons une procédure de prévision de la VaR et de la TaR pour chaque transaction ou autre événement de microstructure du marché. Nous réalisons une procédure de backtesting spécialement conçue pour évaluer la validité des prévisions de la VaR et de la TaR sur des données irrégulièrement espacées. La performance de la mesure HFR est illustrée dans une application empirique pour deux actions (Bank of America et Microsoft) et un fonds négocié en bourse (ETF) basé sur l'indice Standard and Poor's (le S&P) 500. Nous montrons que les prévisions intrajournalières du HFR capturent avec précision la dynamique de la volatilité et de la durée pour ces trois actifs.
  • Score de risque systémique : Une suggestion.

    Christophe HURLIN, Christophe PERIGNON
    2013
    Nous identifions un biais potentiel dans la méthodologie divulguée en juillet 2013 par le Comité de Bâle sur le contrôle bancaire (CBCB) pour identifier les banques financières d'importance systémique. Contrairement à l'objectif initial, l'importance relative des cinq catégories d'importance du risque (taille, activité trans-juridictionnelle, interconnexion, substituabilité/infrastructure des institutions financières et complexité) peut ne pas être égale et les scores de risque systémique qui en résultent sont mécaniquement dominés par les catégories les plus volatiles. En pratique, ce biais s'est avéré suffisamment grave pour que la catégorie de substituabilité soit plafonnée par le CBCB. Nous montrons que le biais peut être éliminé en normalisant simplement chaque entrée avant de calculer les scores de risque systémique.
  • La relation entre l'entreprise et l'analyste est-elle importante pour expliquer les erreurs de prévision des bénéfices des analystes ?

    Regis BRETON, Sebastien GALANTI, Christophe HURLIN, Anne gael VAUBOURG
    2013
    Nous étudions si le souci des analystes financiers de préserver leurs bonnes relations avec les dirigeants des entreprises les incite à émettre des prévisions pessimistes ou optimistes. Sur la base d'un ensemble de données de prévisions d'EPS sur un an émises par 4 648 analystes concernant 241 entreprises françaises (1997-2007), nous régressons la précision des prévisions des analystes sur ses déterminants non intentionnels. Nous décomposons ensuite l'effet fixe de la régression et nous utilisons l'effet de paire entreprise-analyste comme mesure de l'intensité de la relation entreprise-analyste. Nous constatons qu'un effet de paire entreprise-analyste faible (élevé) est associé à une erreur de prévision faible (élevée). Cette observation suggère que le pessimisme et l'optimisme résultent du souci des analystes de cultiver leur relation avec la direction de l'entreprise.
  • Score de risque systémique : Une suggestion.

    Christophe HURLIN, Christophe PERIGNON
    2013
    Dans cet article, nous identifions plusieurs lacunes dans la méthodologie de notation du risque systémique actuellement utilisée pour identifier et réglementer les institutions financières d'importance systémique (SIFI). À l'aide de données réglementaires récemment publiées pour 119 banques américaines et internationales, nous montrons que la méthode de notation actuelle fausse gravement l'allocation de capital réglementaire entre les banques. Nous proposons ensuite et mettons en œuvre une méthodologie qui corrige ces lacunes et incite davantage les banques à réduire leur contribution aux risques.
  • Modèles non linéaires et prévision.

    Jaouad MADKOUR, Gilbert COLLETAZ, Christophe HURLIN, Bertrand MAILLET, Christophe HURLIN, Bertrand MAILLET, Julien CHEVALLIER, Olivier DARNE, Sessi TOKPAVI, Julien CHEVALLIER, Olivier DARNE
    2013
    L’intérêt des modèles non-linéaires réside, d’une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d’autre part, dans une prévision plus riche en information.A ce niveau, l’originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu’une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu’il faut disposer de tests d’évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l’adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l’évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L’utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d’une analyseempirique a confirmé l’idée selon laquelle les premiers sont préférés si l’objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci.
  • Prix des énergies et marchés financiers : vers une financiarisation des marchés de matières premières.

    Marc JOETS, Valerie MIGNON, Cecile COUHARDE, Valerie MIGNON, Cecile COUHARDE, Christophe HURLIN, Frederic LANTZ, Julien CHEVALLIER, Anna CRETI BETTONI, Christophe HURLIN, Frederic LANTZ
    2013
    Depuis plusieurs décennies, les prix des énergies sont sujets à une volatilité croissante pesant considérablement sur l’ensemble de l’économie. Comparée aux prix des autres matières premières (comme, par exemple, les métaux précieux, ou encore les produits agricoles), l’évolution des produits énergétiques est apparue exceptionnellement incertaine, tant à long terme qu’à court terme. Dans un contexte économique global, ce phénomène acquiert toute son importance tant les dommages sur l’économie réelle d’une forte variation des prix des matières premières peuvent être conséquents. Cette thèse s’intéresse donc aux causes profondes expliquant ces fluctuations. Plus spécifiquement, en unissant les différents champs de l’économie de l’énergie, de l’économétrie, de la finance et de la psychologie, elle s’attache à comprendre le phénomène de financiarisation des commodités et les relations étroites entre marchés financiers et marchés des matières premières. Cette réflexion s’articule en trois thèmes : d’une part la relation entre les prix des différentes énergies et leurs propriétés financières est analysée, d’autre part les aspects émotionnels et comportementaux des marchés sont étudiés, enfin les liens directs entre marchés boursiers et marchés de commodités sont abordés.
  • Le capital public est-il vraiment productif ? Une réévaluation méthodologique.

    Christophe HURLIN, Alexandru MINEA
    European Journal of Operational Research | 2013
    Nous présentons une évaluation des principales approches empiriques utilisées dans la littérature pour estimer la contribution du stock de capital public à la croissance et à la productivité des facteurs privés. Sur la base d'un modèle d'équilibre général stochastique simple, construit de manière à reproduire les principales relations de long terme observées dans les données historiques américaines d'après-guerre, nous montrons que l'approche par la fonction de production peut ne pas être fiable pour estimer cette contribution. Notre analyse révèle que cette approche surestime largement l'élasticité du capital public, étant donné la présence d'une tendance stochastique commune partagée par tous les intrants non stationnaires.
  • Inférence des mesures de risque.

    Christophe HURLIN, Ssbastien LAURENT, Rogier QUAEDVLIEG, Stephan SMEEKES
    SSRN Electronic Journal | 2013
    Pas de résumé disponible.
  • Pourquoi les banques ne prêtent-elles pas au secteur privé égyptien ?

    Santiago HERRERA, Christophe HURLIN, Chahir ZAKI
    Economic Modelling | 2013
    Pas de résumé disponible.
  • Score de risque systémique : Une suggestion.

    Christophe HURLIN, Christophe PERIGNON
    SSRN Electronic Journal | 2013
    Pas de résumé disponible.
  • Méthodes économétriques pour les crises financières.

    Elena DUMITRESCU, Christophe HURLIN, Bertrand CANDELON, Gilbert COLLETAZ, Christophe HURLIN, Bertrand CANDELON, Gilbert COLLETAZ, Massimiliano MARCELLINO, Valerie MIGNON, Franz PALM, Joan MUYSKEN, Massimiliano MARCELLINO, Valerie MIGNON, Franz PALM
    2012
    Connus sous le nom de Systèmes d’Alerte Avancés, ou Early Warning Systems (EWS), les modèles de prévision des crises financières sont appelés à jouer un rôle déterminant dans l’orientation des politiques économiques tant au niveau microéconomique qu’au niveau macroéconomique et international. Or,dans le sillage de la crise financière mondiale, des questions majeures se posent sur leur réelle capacité prédictive. Deux principales problématiques émergent dans le cadre de cette littérature : comment évaluer les capacités prédictives des EWS et comment les améliorer ?Cette thèse d’économétrie appliquée vise à proposer (i) une méthode d’évaluation systématique des capacités prédictives des EWS et (ii) de nouvelles spécifications d’EWS visant à améliorer leurs performances. Ce travail comporte quatre chapitres. Le premier propose un test original d’évaluation des prévisions par intervalles de confiance fondé sur l’hypothèse de distribution binomiale du processus de violations. Le deuxième chapitre propose une stratégie d’évaluation économétrique des capacités prédictives des EWS. Nous montrons que cette évaluation doit être fondée sur la détermination d’un seuil optimal sur les probabilités prévues d’apparition des crises ainsi que sur la comparaison des modèles.Le troisième chapitre révèle que la dynamique des crises (la persistance) est un élément essentiel de la spécification économétrique des EWS. Les résultats montrent en particulier que les modèles de type logit dynamiques présentent de bien meilleurs capacités prédictives que les modèles statiques et que les modèles de type Markoviens. Enfin, dans le quatrième chapitre nous proposons un modèle original de type probit dynamique multivarié qui permet d’analyser les schémas de causalité intervenant entre différents types crises (bancaires, de change et de dette). L’illustration empirique montre clairement que le passage à une modélisation trivariée améliore sensiblement les prévisions pour les pays qui connaissent les trois types de crises.
  • La convergence au sein d’une union monétaire : approches par la dynamique des prix et le taux de change d’équilibre.

    David GUERREIRO, Valerie MIGNON, Cecile COUHARDE, Valerie MIGNON, Cecile COUHARDE, Gilles DUFRENOT, Christophe HURLIN, Mariam CAMARERO, Balazs EGERT, Gilles DUFRENOT, Christophe HURLIN
    2012
    Cette thèse analyse la convergence au sein d’une union monétaire par l’intermédiaire de la dynamique des prix et des taux de change d’équilibre. Dans le premier chapitre nous présentons les caractéristiques générales des zones monétaires, ainsi que l’historique de celles que nous étudions : l’UEM et la zone CFA. Le deuxième chapitre traite de la convergence des prix au sein de la zone euro par le biais de modèles à transition lisse. La convergence est non-linéaire, et les vitesses d’ajustements sont différentes selon les pays. Ceci s’explique par les différences dans l’évolution de la compétitivité-prix, les rigidités du marché du travail, mais aussi les schémas de spécialisation. Le troisième chapitre évalue la validité de la Parité des Pouvoirs d’Achat absolue au sein de l’UEM à travers des tests de racine unitaire et de cointégration en panel de deuxième et de troisième générations. Dans l’ensemble, la dynamique des prix apparaît hétérogène et dépendante des périodes d’évolution de l’UEM ainsi que des groupes de pays considérés. Le quatrième chapitre relie les déséquilibres externes à la crise de la dette souveraine que connait l’UEM depuis 2009. Nous montrons que lorsqu’un pays appartenant à une union monétaire fait face à un déséquilibre externe vis-à-vis d’un autre pays membre, l’écart de taux d’intérêts correspondant tend à s’accroître. De plus, lorsque ces déséquilibres persistent, ils peuvent déclencher une crise de la balance des paiements. Enfin le dernier chapitre s’intéresse à la pérennité de la zone CFA. En comparant cette dernière à un échantillon composé d’autres pays d’Afrique Subsaharienne, nous mettons en évidence que malgré son non-respect des critères d’optimalité, la zone CFA a favorisé les équilibres internes et externes, et facilité les ajustements aussi bien au niveau de l’ensemble de la zone, qu’au niveau individuel. Ceci laisse penser que cette union est soutenable.
  • Modèles à changements de régimes et données de panel : de la non-linéarité à l'hétérogénéité.

    Julien FOUQUAU, Christophe HURLIN, Melika BEN SALEM
    2008
    L'économétrie des données de panel a connu ces vingt dernières années un profond renouvellement lié à l'émergence des grandes problématiques des séries temporelles, telles la non stationnarité, la cointégration ou la causalité. Toutefois, force est de constater qu'il existe encore très peu de travaux relatifs à la prise en compte de la non-linéarité et plus spécifiquement du changement de régimes en panel. Dans ce contexte, la problématique générale de cette thèse consiste à mettre en évidence l'intérêt qu'il peut y avoir à modéliser le changement de régime sur données de panel. Les modèles à changements de régimes en panel constituent une extension directe des modélisations à seuils proposées en séries temporelles. Pour autant, l'introduction de la dimension individuelle permet d'enrichir fondamentalement leur interprétation économique. Dans cette thèse, nous étudions plus spécifiquement trois spécifications : les modèles à seuils à transition brutale (PTR), les modèles à seuils à transition lisse (PSTR), les modèles autorégressifs à seuils à transition lisse (PSTAR). Nous proposons trois applications de ces modèles portant successivement sur les effets de seuils dans la loi d'Okun, le paradoxe de Feldstein Horioka (1980) et la relation non-linéaire entre la consommation électrique et la température. Ces applications mettent en évidence divers avantages d'utiliser une modélisation à seuil en données de panel. Il ressort notamment que ces modèles forunissent une solution paramétrique simple pour tenir compte à la fois de la non-linéarité de l'hétérogénéité individuelle des paramètres. Les coefficients de pentes sont également autorisés à se modifier au cours du temps. Par ailleurs, nous montrons que l'accroissement de l'ensemble d'information permet d'identifier des effets de seuil qu'il n'aurait pas été possible d'identifier en séries temporelles.
  • Essais sur la Value-at-Risk : mesures de risque intra-journalières et tests de validation.

    Sessi noudele TOKPAVI, Christophe HURLIN, Gilbert COLLETAZ
    2008
    La présente thèse contribue à la littérature sur les deux principaux axes de recherche relatifs à la Value-at-Risk (VaR) : la prévision et le backtesting de la VaR. Concernant le premier axe, la thèse développe une méthodologie pour la prévision de la VaR à des horizons intra-journaliers. La méthodologie conditionne non linéairement les rendements à l'existence de nouvelles sur le marché, mesurée par l'innovation de l'intensité transactionnelle. Dans cette optique nous introduisons deux nouvelles spécifications : un modèle de volatilité qui relie la réponse asymétrique de la volatilité aux rendements, à l'existence de nouvelles et un modèle à changement de régime dans la queue de distribution, dirigé par l'existence de nouvelles. Les applications empiriques démontrent que cette méthodologie constitue un outil flexible de gestion de risque sur des marchés où les fluctuations intra-journalières des prix sont de plus en plus importantes. Pour le deuxième axe, nous introduisons deux nouvelles approches pour le backtesting de la VaR. Premièrement, nous développons un test qui étend ceux existants en vérifiant la validité de la VaR pour plusieurs niveaux de confiance. La statistique de test est une extension au cadre multivarié du test de Ljung-Box pour le processus de violations de la VaR. Deuxièmement, nous utilisons la distribution (géométrique) de la durée entre deux violations consécutives sous l'hypothèse de validité de la VaR et introduisons une nouvelle statistique de test, dérivée des conditions de moments induits par les polynômes orthonormaux associés à la loi géométrique. Il est démontré que les deux nouveaux tests présentent de bonnes propriétés à distance finie.
  • La contribution productive des infrastructures : analyses positives et normatives.

    Christophe HURLIN, Pierre yves HENIN
    2000
    La thèse propose une analyse tant positive que normative de la contribution productive des infrastructures. Le premier chapitre est consacré à la définition des infrastructures. Cette étude montre que les notions de capital public et de capital d'infrastructure sont souvent confondues et que la majorité des pays de l’OCDE ont connu à partir du milieu des années 70, une forte diminution de leurs investissements d'infrastructure. Le second chapitre propose une synthèse de la littérature consacrée à l'évaluation des rendements du capital public. Cette synthèse met en évidence la sensibilité des résultats économétriques à la spécification des modèles ainsi qu'à la prise en compte des phénomènes de non stationnarité stochastique. Le troisième chapitre est consacré à une évaluation de l'approche en termes de fonction de production, réalisée conditionnellement à un modèle d'équilibre général dynamique stochastique. Ce chapitre précise la nature des biais d'estimation de la contribution du capital public lorsque celle-ci est appréhendée au travers d'une fonction de production. Le quatrième chapitre évalue les propriétés stabilisatrices des investissements publics. Dans un modèle de croissance endogène, différentes règles de décision publiques sont évaluées. L'analyse spectrale des fonctions de réaction aux chocs indique que plus les dépenses sont productives, plus elles possèdent de bonnes propriétés de stabilisation. Le cinquième chapitre détermine un ensemble de règles quant à la fixation du taux d'investissement public optimal. Cette étude montre que l'influence de la structure fiscale. Elle indique en outre comment le niveau de congestion de l'infrastructure affecte le taux optimal d'investissement. Le sixième chapitre propose une étude du taux d'actualisation des projets publics dans un modèle de croissance avec distorsions fiscales. Il ressort de l'analyse que le taux d'actualisation dépend étroitement de la nature de la croissance. Le lien entre taux d'actualisation et distorsions fiscales est ensuite étudié.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr