MAILLET Bertrand

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2017
    Centre d'économie et management de l'Océan Indien
  • 2012 - 2017
    Laboratoire d'économie d'Orleans
  • 2014 - 2016
    Théorie économique, modélisation et applications
  • 2014 - 2016
    Laboratoire d'économie de dauphine
  • 1996 - 1997
    Université Paris 1 Panthéon-Sorbonne
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2011
  • 1997
  • Dynamic Large Financial Networks via Conditional Expected Shortfalls.

    Giovanni BONACCOLTO, Massimiliano CAPORIN, Bertrand MAILLET
    European Journal of Operational Research | 2021
    Dans cet article, nous généralisons d'abord le modèle CARES (Conditional Auto-Regressive Expected Shortfall) en introduisant les dépassements de pertes de toutes les (autres) sociétés cotées dans l'Expected Shortfall relatif à chaque entreprise, proposant ainsi le modèle CARES-X (où le 'X', comme d'habitude, signifie eXtended dans le cas de problèmes de grande dimension). Deuxièmement, nous construisons un réseau régularisé de sociétés financières américaines en introduisant l'opérateur de sélection et de rétrécissement des moindres absolus dans l'étape d'estimation. Troisièmement, nous proposons également une approche de calibrage pour découvrir les bords pertinents entre les nœuds du réseau, en constatant que la structure estimée du réseau évolue dynamiquement à travers différents régimes de risque de marché. Nous montrons finalement que la connaissance des liens du réseau de risque extrême fournit des informations utiles, puisque l'intensité de ces liens a de fortes implications sur le risque de portefeuille. En effet, elle nous permet de concevoir des stratégies d'allocation efficaces pour atténuer le risque.
  • Facteurs négociables ou non négociables : que nous apprend la distance Hansen-Jagannathan ?

    Xiang ZHANG, Yangyi LIU, Kun WU, Bertrand MAILLET
    International Review of Economics & Finance | 2021
    Pas de résumé disponible.
  • Facteurs négociables ou non négociables : que nous dit la distance Hansen-Jagannathan ?

    Xiang ZHANG, Yangyi LIU, Kun WU, Bertrand MAILLET
    International Review of Economics and Finance | 2021
    Nous étudions la différence de performance des actifs risqués en coupe transversale entre les facteurs négociables et non négociables en comparant leurs erreurs de spécification - la distance de Hansen-Jagannathan (HJ). En construisant des portefeuilles mimant des facteurs non échangeables (FMPs) et en les incorporant dans le facteur de déspécification stochastique (SDF) échangeable le moins mal spécifié, nous fournissons des preuves empiriques sur plusieurs pays que ce SDF qui combine des facteurs échangeables et non échangeables domine d'autres dans lesquels les facteurs non échangeables diminuent davantage les erreurs de mauvaise spécification du SDF. Puisque les FMP non échangeables sont des fonctions de l'information actuelle sur les facteurs échangeables de l'état économique, les FMP "couvrent" les risques des variables d'état, et les rendements des FMP décrivent les primes de risque.
  • Une méta-mesure de la performance liée aux caractéristiques des investisseurs et des investissements.

    Bertrand MAILLET, Monica BILLIO, Loriana PELIZZON
    Annals of Operations Research | 2020
    Pas de résumé disponible.
  • Modélisation fine de la matrice de covariance/corrélation des actions.

    Sebastien VALEYRE, Sofiane ABOURA, Jean luc PRIGENT, Jean michel COURTAULT, Isabelle RIVALS, Yannick MALEVERGNE, Bertrand MAILLET
    2019
    Une nouvelle méthode a été mise en place pour débruiter la matrice de corrélation des rendements des actions en se basant sur une analyse par composante principale sous contrainte enexploitant les données financières. Des portefeuilles, nommés "Fundamental Maximum variance portfolios", sont construits pour capturer de manière optimale un style de risque défini par un critère financier ("Book", "Capitalization",etc.). Les vecteurs propres sous contraintes de la matrice de corrélation, qui sont des combinaisons linéaires de ces portefeuilles, sont alors étudiés. Grâce à cette méthode, plusieurs faits stylisés de la matrice ont été mis en évidence dont: i) l'augmentation des premières valeurs propres avec l'échelle de temps de 1 minute à plusieurs mois semble suivre la même loi pour toutes les valeurs propres significatives avec deux régimes. ii) une loi _universelle_ semble gouverner la composition de tous les portefeuilles "Maximum variance". Ainsi selon cette loi, les poids optimaux seraient directement proportionnels au classement selon le critère financier étudié. iii) la volatilité de la volatilité des portefeuilles "Maximum Variance_" qui ne sont pas orthogonaux, su_rait à expliquer une grande partie de la diffusion de la matrice de corrélation. iv) l'effet de levier (augmentation de la première valeur propre avec la baisse du marché) n'existe que pour le premier mode et ne se généralise pas aux autres facteurs de risque. L'effet de levier sur les beta, sensibilité des actions avec le "market mode", rend les poids du premier vecteur propre variables.
  • Un indicateur de détection des fraudes financières pour les investisseurs : Un IDeA.

    Bertrand MAILLET, Philippe BERNARD, Najat EL MEKKAOUI DE FREITAS
    Annals of Operations Research | 2019
    Pas de résumé disponible.
  • "Sur l'(Ab)utilisation d'Omega ?".

    Massimiliano CAPORIN, Michele COSTOLA, Gregory JANNIN, Bertrand MAILLET
    Journal of Empirical Finance | 2018
    Plusieurs articles financiers récents utilisent la mesure Omega (Keating et Shadwick, 2002), définie comme un rapport entre les gains potentiels et les pertes possibles, pour évaluer la performance des fonds ou des stratégies actives, en remplacement du traditionnel ratio de Sharpe, avec l'argument que les distributions de rendement ne sont pas gaussiennes et que la volatilité n'est pas toujours la mesure de risque pertinente. D'autres auteurs utilisent également Omega pour optimiser des portefeuilles (non linéaires) avec un risque de baisse important. Cependant, nous remettons en question dans cet article la pertinence de telles approches. Tout d'abord, nous montrons à travers une illustration basique que le ratio Omega est incompatible avec le critère de dominance stochastique de second ordre. De plus, nous observons que le compromis entre rendement et risque correspondant à la mesure Omega, peut être essentiellement influencé par le rendement moyen. Ensuite, nous illustrons dans des cadres statiques et dynamiques que les portefeuilles optimaux basés sur Omega peuvent être étroitement associés aux paradigmes d'optimisation classiques en fonction du seuil choisi utilisé dans Omega. Enfin, nous présentons des vérifications de robustesse sur des bases de données d'actifs longs et de hedge funds, qui confirment nos résultats.
  • Du MEDAF avec risque systémique à la détermination des institutions financières d’importance systémique.

    Jean charles GARIBAL, Patrick KOUONTCHOU, Bertrand MAILLET
    Revue économique | 2018
    Dans cet article, nous nous proposons de tester une extension du modèle d’évaluation des actifs financiers (MEDAF), dans lequel nous ajoutons un facteur de risque systémique, mesuré par une agrégation des principales mesures de risques systémiques, comme proposée récemment par différents auteurs, dans le cadre d’une analyse en composantes principales parcimonieuse (ACPP). Il ressort de nos analyses empiriques menées sur le marché américain que le risque systémique est effectivement une composante importante de la rémunération sur certains titres. Nous proposons finalement une application originale servant à l’identification et au classement des institutions financières d’importance systémique (IFIS).
  • "Sur l'utilisation (abusive) d'Omega ?".

    Massimiliano CAPORIN, Michele COSTOLA, Gregory JANNIN, Bertrand MAILLET
    Journal of Empirical Finance | 2018
    Plusieurs articles financiers récents utilisent la mesure Omega (Keating et Shadwick, 2002), définie comme un rapport entre les gains potentiels et les pertes possibles, pour évaluer la performance des fonds ou des stratégies actives, en remplacement du traditionnel ratio de Sharpe, avec l'argument que les distributions de rendement ne sont pas gaussiennes et que la volatilité n'est pas toujours la mesure de risque pertinente. D'autres auteurs utilisent également Omega pour optimiser des portefeuilles (non linéaires) avec un risque de baisse important. Cependant, nous remettons en question dans cet article la pertinence de telles approches. Tout d'abord, nous montrons à travers une illustration basique que le ratio Omega est incompatible avec le critère de dominance stochastique de second ordre. De plus, nous observons que le compromis entre rendement et risque correspondant à la mesure Omega, peut être essentiellement influencé par le rendement moyen. Ensuite, nous illustrons dans des cadres statiques et dynamiques que les portefeuilles optimaux basés sur Omega peuvent être étroitement associés aux paradigmes d'optimisation classiques en fonction du seuil choisi utilisé dans Omega. Enfin, nous présentons des vérifications de robustesse sur des bases de données d'actifs longs et de hedge funds, qui confirment nos résultats.
  • Du MEDAF avec risque systémique à la détermination des Institutions Financières d'Importance Systémique.

    Jean charles GARIBAL, Patrick KOUONTCHOU, Bertrand MAILLET
    Revue Economique | 2018
    Nous nous proposons de tester dans cet article une extension du MEDAF, dans lequel nous ajoutons un facteur de risque systémique, mesuré par une agrégation des principales mesures de risques systémiques, comme proposée récemment par différents auteurs, dans le cadre d'une Analyse en Composantes Principales Parcimonieuse (ACPP). Il ressort de nos analyses empiriques menées sur le marché américain que le risque systémique est effectivement une composante importante de la rémunération sur certains titres. Nous proposons finalement une application originale servant à l'identification et au classement des Institutions Financières d'Importance Systémique (IFIS).
  • Du MEDAF avec risque Systémique à la détermination des Institutions Financières d'Importance Systémique.

    Patrick KOUONTCHOU, Bertrand MAILLET, Jean charles GARIBAL
    2017
    Pas de résumé disponible.
  • Quand l’union fait la force : un indice de risque systémique.

    Patrick KOUONTCHOU, Bertrand MAILLET, Sessi TOKPAVI, Alejandro MODESTO
    Revue économique | 2017
    À la suite de la dernière crise financière sévère, plusieurs mesures de risque systémique ont été proposées pour quantifier l’état de stress du système financier. Dans cet article, nous proposons un indice agrégé de mesure de risque systémique financier basé sur une analyse en composantes principales dite « parcimonieuse ». Cette méthodologie permet d’obtenir un indice agrégé plus parcimonieux et plus stable dans le temps. L’application de la méthodologie à douze mesures de risque systémique global en utilisant des données des titres du marché financier américain confirme cette propriété. Il apparaît par ailleurs que les mouvements extrêmes positifs de l’indice de risque systémique ainsi construit peuvent être considérés comme des anticipations des périodes de forte contraction de l’activité économique.
  • Quand l’union fait la force : un indice de risque systémique.

    Patrick KOUONTCHOU, Bertrand MAILLET, Alejandro MODESTO, Sessi TOKPAVI
    Revue Economique | 2017
    À la suite de la dernière crise financière sévère, plusieurs mesures de risque systémique ont été proposées pour quantifier l’état de stress du système financier. Dans cet article, nous proposons un indice agrégé de mesure de risque systémique financier basé sur une analyse en composantes principales dite « parcimonieuse ». Cette méthodologie permet d’obtenir un indice agrégé plus parcimonieux et plus stable dans le temps. L’application de la méthodologie à douze mesures de risque systémique global en utilisant des données des titres du marché financier américain confirme cette propriété. Il apparaît par ailleurs que les mouvements extrêmes positifs de l’indice de risque systémique ainsi construit peuvent être considérés comme des anticipations des périodes de forte contraction de l’activité économique.
  • Sur l'(Ab)utilisation d'Omega ?

    Massimiliano CAPORIN, Michele COSTOLA, Gregory mathieu JANNIN, Bertrand MAILLET
    2016
    Plusieurs articles financiers récents utilisent la mesure Omega, proposée par Keating et Shadwick (2002) - définie comme un rapport entre les gains potentiels et les pertes possibles - pour évaluer la performance des fonds ou des stratégies actives (par exemple, Eling et Schuhmacher, 2007. Farinelli et Tibiletti, 2008. Annaert et al. 2009. Bertrand et Prigent, 2011. Zieling et al. 2014. Kapsos et al., 2014. Hamidi et al., 2014), en substitution du traditionnel ratio de Sharpe (1966), avec les arguments que les distributions de rendement ne sont pas gaussiennes et que la volatilité n'est pas, toujours, la métrique de risque pertinente. D'autres auteurs utilisent également le même critère pour optimiser des portefeuilles (non linéaires) avec un risque de baisse important. Cependant, nous nous interrogeons dans cet article sur la pertinence de telles approches. Tout d'abord, nous montrons à travers une illustration basique que le ratio Omega est incompatible avec le critère de Dominance Stochastique Stricte Inférieure de second ordre. De plus, nous observons que le compromis entre rendement et risque, correspondant à la mesure Omega, peut être essentiellement influencé par le rendement moyen. Ensuite, nous illustrons dans des cadres statiques et dynamiques que les portefeuilles optimaux basés sur Omega peuvent être associés aux paradigmes d'optimisation traditionnels en fonction du seuil choisi utilisé dans le calcul d'Omega. Enfin, nous présentons quelques contrôles de robustesse sur des bases de données d'actifs longs et de hedge funds qui confirment tous nos résultats généraux.
  • Une analyse R-SOM du lien entre les conditions du marché financier et un indice de risque systémique basé sur les facteurs ICA des mesures de risque systémique.

    Patrick KOUONTCHOU, Amaury LENDASSE, Yoan MICHE, Alejandro MODESTO, Peter SARLIN, Bertrand MAILLET
    2016 49th Hawaii International Conference on System Sciences (HICSS) | 2016
    Pas de résumé disponible.
  • Du risque des mesures de risque systémique.

    Christophe BOUCHER, Patrick KOUONTCHOU, Bertrand MAILLET
    Revue économique | 2016
    La mesure du risque systémique des institutions financières est devenue un enjeu essentiel pour la stabilité du système financier. La plupart des mesures actuellement proposées reposent sur l’estimation de quantiles conditionnels, qui ont la caractéristique d’être extrêmement sensibles à la méthode d’estimation et à la spécification des modèles de risque utilisés. Nous proposons de corriger les mesures de risque systémique à partir de procédures de validation statistique. Notre application sur la covar suggère que le risque de modèle est important et que les institutions identifiées comme « systémiques » diffèrent selon que l’on prenne en compte ou non le risque de modèle.
  • D’un indice de détection d’anomalies à l’usage des investisseurs.

    Philippe BERNARD, Najat EL MEKKAOUI DE FREITAS, Bertrand MAILLET, Alejandro MODESTO
    Revue économique | 2016
    La détection de fraudes est un enjeu essentiel pour les investisseurs et les autorités financières. Le système de Ponzi mis en place par Bernard Madoff est une illustration emblématique d’une fraude de grande envergure, toujours possible lorsqu’elle est bien orchestrée. Les méthodes traditionnelles pour détecter les fraudes exigent de longues et coûteuses enquêtes, nécessitant des connaissances financières et juridiques pointues, et des professionnels hautement qualifiés. Nous poursuivons et étendons ici l’intuition de Billio et al. [2015], qui suggèrent l’utilisation d’une mesure de performance – dénommée GUN – pour construire un indice de détection de fraude. Afin d’illustrer la méthodologie et d’en montrer son utilité, nous analysons d’abord le cas Madoff, puis, sur plusieurs marchés d’OPCVM internationaux d’actions commercialisables en France, le nombre de fonds potentiellement susceptibles de fraude (ou de sous-performance avérée). Le système d’alerte proposé permet de détecter des anomalies sur plusieurs dizaines de fonds, qui devraient ainsi faire l’objet d’une attention particulière.
  • D’un indice de détection d’anomalies à l’usage des investisseurs.

    Philippe BERNARD, Najat EL MEKKAOUI DE FREITAS, Bertrand MAILLET, Alejandro MODESTO
    Revue Economique | 2016
    La détection de fraudes est un enjeu essentiel pour les investisseurs et les autorités financières. Le système de Ponzi mis en place par Bernard Madoff est une illustration emblématique d’une fraude de grande envergure, toujours possible lorsqu’elle est bien orchestrée. Les méthodes traditionnelles pour détecter les fraudes exigent de longues et coûteuses enquêtes, nécessitant des connaissances financières et juridiques pointues, et des professionnels hautement qualifiés. Nous poursuivons et étendons ici l’intuition de Billio et al. [2015], qui suggèrent l’utilisation d’une mesure de performance – dénommée GUN – pour construire un indice de détection de fraude. Afin d’illustrer la méthodologie et d’en montrer son utilité, nous analysons d’abord le cas Madoff, puis, sur plusieurs marchés d’OPCVM internationaux d’actions commercialisables en France, le nombre de fonds potentiellement susceptibles de fraude (ou de sous-performance avérée). Le système d’alerte proposé permet de détecter des anomalies sur plusieurs dizaines de fonds, qui devraient ainsi faire l’objet d’une attention particulière.
  • Du risque des mesures de risque systémique.

    Christophe BOUCHER, Patrick KOUONTCHOU, Bertrand MAILLET
    Revue Economique | 2016
    La mesure du risque systémique des institutions financières est devenue un enjeu essentiel pour la stabilité du système financier. La plupart des mesures actuellement proposées reposent sur l’estimation de quantiles conditionnels, qui ont la caractéristique d’être extrêmement sensibles à la méthode d’estimation et à la spécification des modèles de risque utilisés. Nous proposons de corriger les mesures de risque systémique à partir de procédures de validation statistique. Notre application sur la covar suggère que le risque de modèle est important et que les institutions identifiées comme « systémiques » diffèrent selon que l’on prenne en compte ou non le risque de modèle.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Pas de résumé disponible.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Pas de résumé disponible.
  • Un DARE pour la VaR.

    Benjamin HAMIDI, Christophe HURLIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Finance | 2015
    Cet article présente une nouvelle classe de modèles pour la Value-at-Risk (VaR) et l'Expected Shortfall (ES), appelés les modèles Dynamic AutoRegressive Expectiles (DARE). Notre approche est basée sur une moyenne pondérée de modèles de VaR et d'ES basés sur les expectiles, c'est-à-dire les modèles CARE (Conditional Autoregressive Expectile) introduits par Taylor (2008a) et Kuan et al. (2009). Dans un premier temps, nous présentons brièvement les principales méthodes d'estimation non paramétriques, paramétriques et semi-paramétriques de la VaR et de l'ES. Deuxièmement, nous détaillons l'approche DARE et montrons comment les expectiles peuvent être utilisés pour estimer les mesures de risque quantile. Troisièmement, nous utilisons différents tests de backtesting pour comparer l'approche DARE à d'autres méthodes traditionnelles de calcul de prévisions de la VaR sur le marché boursier français. Enfin, nous évaluons l'impact de plusieurs fonctions de pondération conditionnelles et déterminons les pondérations optimales afin de sélectionner dynamiquement le modèle quantile global le plus pertinent.
  • Vers un indice tomographique des mesures du risque systémique.

    Kaj mikael BJORK, Patrick KOUONTCHOU, Amaury LENDASSE, Yoan MICHE, Bertrand MAILLET
    23rd European Symposium on Artificial Neural Networks | 2015
    Pas de résumé disponible.
  • La macroéconomie-en-risque.

    Christophe BOUCHER, Bertrand MAILLET
    Revue Economique | 2015
    Pas de résumé disponible.
  • Optimisation globale de portefeuille à variance minimale sous un certain risque de modèle : Une approche robuste basée sur la régression.

    Bertrand MAILLET, Sessi TOKPAVI, Benoit VAUCHER
    European Journal of Operational Research | 2015
    Le portefeuille global de variance minimale calculé à l'aide de la matrice de covariance de l'échantillon est connu pour être affecté négativement par l'incertitude des paramètres, une composante importante du risque de modèle. En utilisant une approche robuste, nous introduisons une règle de portefeuille pour les investisseurs qui souhaitent investir dans le portefeuille global de variance minimale en raison de ses solides antécédents historiques, mais qui recherchent une règle robuste à l'incertitude des paramètres. Notre portefeuille robuste correspond théoriquement au portefeuille de variance minimale globale dans le pire des cas, par rapport à un ensemble d'estimateurs alternatifs plausibles de la matrice de covariance, au voisinage de la matrice de covariance de l'échantillon. Ainsi, il fournit une protection contre les erreurs dans la matrice de covariance de l'échantillon de référence. Les simulations de Monte Carlo illustrent la dominance du portefeuille robuste sur son homologue non robuste, en termes de stabilité du portefeuille, de variance et de rendement ajusté au risque. Empiriquement, nous comparons la performance hors échantillon du portefeuille robuste à diverses règles concurrentes de portefeuille à variance minimale dans la littérature. Nous observons que le portefeuille robuste a souvent une rotation et une variance plus faibles et des ratios de Sharpe plus élevés que les portefeuilles concurrents à variance minimale.
  • La macroéconomie-en-risque.

    Christophe BOUCHER, Bertrand MAILLET
    Revue Economique | 2015
    Pas de résumé disponible.
  • Fonds du marché monétaire, comportement des actionnaires et stabilité financière.

    Emily a. GALLAGHER, Jean bernard CHATELAIN, Franck MARTIN, Jean bernard CHATELAIN, Franck MARTIN, Philippe de PERETTI, Bertrand MAILLET
    2015
    Fonds du marché monétaire, comportement des actionnaires et stabilité financière.
  • Optimisation globale du portefeuille à variance minimale sous un certain risque de modèle : une approche robuste basée sur la régression.

    Sessi TOKPAVI, Bertrand MAILLET, Benoit VAUCHER
    European Journal of Operational Research | 2015
    Pas de résumé disponible.
  • Global minimum variance portfolio optimisation under some model risk : A robust regression-based approach.

    Bertrand MAILLET, Sessi TOKPAVI, Benoit VAUCHER
    European Journal of Operational Research | 2015
    Le portefeuille global de variance minimale calculé à l'aide de la matrice de covariance de l'échantillon est connu pour être affecté négativement par l'incertitude des paramètres, une composante importante du risque de modèle. En utilisant une approche robuste, nous introduisons une règle de portefeuille pour les investisseurs qui souhaitent investir dans le portefeuille global de variance minimale en raison de ses solides antécédents historiques, mais qui recherchent une règle robuste à l'incertitude des paramètres. Notre portefeuille robuste correspond théoriquement au portefeuille de variance minimale globale dans le pire des cas, par rapport à un ensemble d'estimateurs alternatifs plausibles de la matrice de covariance, au voisinage de la matrice de covariance de l'échantillon. Ainsi, il fournit une protection contre les erreurs dans la matrice de covariance de l'échantillon de référence. Les simulations de Monte Carlo illustrent la dominance du portefeuille robuste sur son homologue non robuste, en termes de stabilité du portefeuille, de variance et de rendement ajusté au risque. Empiriquement, nous comparons la performance hors échantillon du portefeuille robuste à diverses règles concurrentes de portefeuille à variance minimale dans la littérature. Nous observons que le portefeuille robuste a souvent une rotation et une variance plus faibles et des ratios de Sharpe plus élevés que les portefeuilles concurrents à variance minimale.
  • Une enquête sur les quatre familles de mesures de performance.

    Massimiliano CAPORIN, Gregory JANNIN, Francesco LISI, Bertrand MAILLET
    Journal of Economic Surveys | 2014
    La mesure de la performance est l'un des sujets les plus étudiés dans la littérature financière. Depuis l'introduction du ratio de Sharpe en 1966, une grande variété de nouvelles mesures est apparue constamment dans les journaux scientifiques ainsi que dans les publications des praticiens. Les études les plus complètes et les plus significatives des mesures de performance ont été écrites jusqu'à présent par Aftalion et Poncet, Le Sourd, Bacon, et Cogneau et H übner. Une revue de la littérature la plus récente nous a conduit à rassembler plusieurs dizaines de mesures que nous classons en quatre familles. Nous présentons d'abord la classe des mesures relatives, en commençant par le ratio de Sharpe. Deuxièmement, nous analysons les mesures absolues, en commençant par la plus célèbre d'entre elles - l'alpha de Jensen. Troisièmement, nous étudions les mesures générales basées sur des caractéristiques spécifiques de la distribution des rendements, où les contributions pionnières sont celles de Bernardo et Ledoit, et de Keating et Shadwick. Enfin, la quatrième série concerne quelques mesures qui prennent explicitement en compte les fonctions d'utilité de l'investisseur.
  • Modèles à risque.

    Christophe BOUCHER, Jon DANIELSSON, Patrick KOUONTCHOU, Bertrand MAILLET
    Journal of Banking & Finance | 2014
    L'expérience de la crise financière mondiale a soulevé de sérieuses inquiétudes quant à la précision des mesures de risque standard en tant qu'outils de quantification des risques extrêmes à la baisse. L'une des principales raisons en est que les mesures de risque sont soumises à un risque de modèle dû, par exemple, à l'incertitude de la spécification et de l'estimation. Alors que les régulateurs ont proposé que les institutions financières évaluent le risque de modèle, il n'existe aucune approche acceptée pour calculer ce risque. Nous proposons un remède à cela par un cadre général pour le calcul de mesures de risque robustes au risque de modèle en ajustant empiriquement les prévisions de risque imparfaites par les résultats des cadres de backtesting, en considérant la qualité souhaitable des modèles de VaR tels que la fréquence, l'indépendance et l'ampleur des violations. Nous fournissons également une comparaison équitable entre les principaux modèles de risque en utilisant la même métrique qui correspond aux corrections requises pour le risque de modèle.
  • Un expectile dynamique autorégressif pour les stratégies de protection de portefeuille invariant dans le temps.

    Benjamin HAMIDI, Bertrand MAILLET, Jean luc PRIGENT
    2014
    L'assurance de portefeuille à proportion constante" (CPPI) est aujourd'hui l'une des techniques les plus populaires pour les stratégies d'assurance de portefeuille. Elle consiste simplement à réallouer la partie risquée d'un portefeuille en fonction des conditions de marché, via un paramètre de levier - appelé multiple - garantissant un plancher prédéterminé. Nous proposons d'introduire un multiple conditionnel variant dans le temps comme alternative à la méthode standard inconditionnelle de la CPPI, directement liée aux problématiques réelles de gestion du risque. Cette approche "ex ante" du multiple conditionnel vise à diversifier le modèle de risque associé, par exemple, à l'expected shortfall (ES) ou aux estimations de la mesure du risque extrême. Tout d'abord, nous rappelons les principes de l'assurance de portefeuille, et les principales propriétés de la stratégie CPPI, y compris la stratégie de protection de portefeuille invariable dans le temps (TIPP), telle qu'elle a été introduite par Estep et Kritzman (1988). Nous soulignons l'existence d'une borne supérieure sur le multiple, par exemple pour se couvrir contre les chutes soudaines du marché. Ensuite, nous fournissons les principales propriétés des multiples conditionnels pour des modèles financiers bien connus, notamment le cas du rééquilibrage de portefeuille en temps discret et les processus de Lévy pour décrire la dynamique des actifs risqués. À cette fin, nous définissons et évaluons précisément différents risques d'écart, dans des cadres conditionnels et inconditionnels. Comme sous-produit, l'introduction du rééquilibrage de portefeuille en temps discret ou aléatoire nous permet de déterminer et/ou d'estimer la densité des durées entre les rééquilibrages. Enfin, d'un point de vue plus pratique et statistique en raison des restrictions de trading, nous présentons la classe des modèles Dynamic AutoRegressive Expectile (DARE) pour l'estimation du multiple conditionnel. Cette dernière approche fournit des informations complémentaires utiles sur le risque et la performance associés aux approches probabilistes du multiple conditionnel.
  • Modèle à risque.

    Christophe BOUCHER, Jon DANIELSSON, Patrick KOUONTCHOU, Bertrand MAILLET
    Journal of Banking and Finance | 2014
    Pas de résumé disponible.
  • Un expectile dynamique autorégressif pour les stratégies de protection de portefeuille invariables dans le temps.

    Benjamin HAMIDI, Bertrand MAILLET, Jean luc PRIGENT
    Journal of Economic Dynamics and Control | 2014
    "L'assurance de portefeuille à proportion constante" est une technique populaire parmi les stratégies d'assurance de portefeuille : la partie risquée d'un portefeuille est réallouée en fonction des conditions de marché, via un paramètre fixe (le multiple), garantissant un plancher prédéterminé. Nous proposons ici d'utiliser un multiple conditionnel variant dans le temps comme alternative. Nous fournissons les principales propriétés des multiples conditionnels pour certains cas courants, notamment le rééquilibrage en temps discret et un actif à risque sous-jacent piloté par le processus de Lévy, tout en évaluant les risques d'écart conditionnels et inconditionnels. Enfin, nous évaluons l'utilisation d'un modèle dynamique autorégressif expectile pour estimer le multiple conditionnel dans un tel contexte.
  • Un expectile dynamique autorégressif pour les stratégies de protection de portefeuille invariables dans le temps.

    Benjamin HAMIDI, Bertrand MAILLET, Jean luc PRIGENT
    Journal of Economic Dynamics and Control | 2014
    "L'assurance de portefeuille à proportion constante" est une technique populaire parmi les stratégies d'assurance de portefeuille : la partie risquée d'un portefeuille est réallouée en fonction des conditions de marché, via un paramètre fixe (le multiple), garantissant un plancher prédéterminé. Nous proposons ici d'utiliser un multiple conditionnel variant dans le temps comme alternative. Nous fournissons les principales propriétés des multiples conditionnels pour certains cas courants, notamment le rééquilibrage en temps discret et un actif à risque sous-jacent piloté par le processus de Lévy, tout en évaluant les risques d'écart conditionnels et inconditionnels. Enfin, nous évaluons l'utilisation d'un modèle dynamique autorégressif expectile pour estimer le multiple conditionnel dans un tel contexte.
  • Essais sur la Diversification des Portefeuilles Financiers et des Fonds Structurés de Crédit : Une Approche en termes de copules.

    Abdallah BEN SAIDA, Jean luc PRIGENT, Mondher BELLALAH, Olivier SCAILLET, Bertrand MAILLET
    2014
    Dans cette thèse, nous examinons les apports importants de la modélisation de la dépendance par la théorie des copules dans le cadre des problématiques liées à la gestion des portefeuilles financiers et des produits structurés de crédits.La première partie de cette thèse est consacrée à la gestion des portefeuilles financiers. Nous étudions en premier lieu la relation qui peut s'établir entre le niveau de diversification du portefeuille et le choix de la copule ayant décrit au mieux la structure de dépendance. L'objectif est de pouvoir identifier une caractéristique dans les portefeuilles permettant une sélection plus simple de la copule appropriée. Dans un deuxième chapitre, nous proposons d'étudier l'impact d'une mauvaise spécification du modèle de copule sur les estimations des mesures de risque conventionnelles telles la Value-at-Risk et l'Expected-Shortfall. L'idée est de vérifier l'utilité de développer ces estimations sous l'angle du vrai modèle copule. Dans un troisième chapitre, nous étudions l'impact d'une mauvaise spécification du modèle copule dans le cadre d'un problème d'allocation optimale de portefeuilles. L'objectif principal vise surtout à identifier la sensibilité des investisseurs, en fonction de leurs degrés d'aversion aux risques (pertes), pour l'une au l'autre des composante du modèle copule. Nous proposons ainsi d'établir une passerelle entre les enseignements des théories de la finance comportementale et la modélisation de la dépendance par la théorie des copules.La deuxième partie de la thèse porte sur les produits structurés de crédit. Nous étudions, dans un premier chapitre, l'apport d'un modèle actuariel, utilisant les fonctions copules dans la modélisation de la structure de dépendance entre les temps de défauts, dans le cadre du processus d'estimation des mesures de risque. Enfin, dans un dernier chapitre nous revisitons la notion du « Diversity Score », développée par l'agence de notation Moody's dans l'objectif d'assigner la qualité de produits structurés de crédit en terme de diversification. Nous discutons de l'analogie de cette mesure avec celle de l'approche copule, et nous démontrons son adéquation avec quelques familles de fonctions copules.
  • La gestion du risque de longévité et évaluation de produits dérivés.

    Viou AINOU, Francois QUITTARD PINON, Sonia JIMENEZ GARCES, Francois QUITTARD PINON, Didier RULLIERE, Bertrand MAILLET, Jean laurent VIVIANI
    2013
    Nous proposons dans cette thèse, d'étudier le risque de longévité et son impact sur les assureurs et fournisseurs de plans de retraite. Dans la première partie, nous nous intéressons aux différents modèles de mortalité. Partant de cette revue de littérature, nous proposons une extension, par l'utilisation des processus de Lévy, du modèle dit CBD qui tiendra compte des effets de sauts dans la courbe de mortalité. Ce nouveau modèle servira, dans la deuxième partie de la thèse, de sous-jacent à l'évaluation de dérivés de longévité. Nous utilisons comme mesures d'évaluation les transformées dites de Wang et de Esscher que nous aurons au préalable défini et justifié comme étant des mesures martingales équivalentes à la mesure historique. Nous proposons enfin un nouveau contrat appelé « mortality collar » qui, de par sa définition, permet une couverture efficace contre le risque de longévité / mortalité, aussi bien pour un assureur que pour un fonds de pension. Nous apportons une analyse approfondie de cet outil de gestion du risque aussi bien dans son mécanisme, que dans son évaluation.
  • Une enquête sur les quatre familles de mesures de performance.

    Massimiliano CAPORIN, Gregory m. JANNIN, Francesco LISI, Bertrand b. MAILLET
    Journal of Economic Surveys | 2013
    La mesure de la performance est l'un des sujets les plus étudiés dans la littérature financière. Depuis l'introduction du ratio de Sharpe en 1966, une grande variété de nouvelles mesures est apparue constamment dans les journaux scientifiques ainsi que dans les publications des praticiens. Les études les plus complètes et les plus significatives des mesures de performance ont été écrites jusqu'à présent par Aftalion et Poncet, Le Sourd, Bacon, et Cogneau et H übner. Une revue de la littérature la plus récente nous a conduit à rassembler plusieurs dizaines de mesures que nous classons en quatre familles. Nous présentons d'abord la classe des mesures relatives, en commençant par le ratio de Sharpe. Deuxièmement, nous analysons les mesures absolues, en commençant par la plus célèbre d'entre elles - l'alpha de Jensen. Troisièmement, nous étudions les mesures générales basées sur des caractéristiques spécifiques de la distribution des rendements, où les contributions pionnières sont celles de Bernardo et Ledoit, et de Keating et Shadwick. Enfin, la quatrième série concerne quelques mesures qui prennent explicitement en compte les fonctions d'utilité de l'investisseur.
  • Apprendre en échouant : un tampon VaR simple.

    Christophe BOUCHER, Bertrand MAILLET
    Financial Markets, Institutions and Instruments | 2013
    Nous étudions dans cet article le problème du risque de modèle dans les calculs de la VaR et documentons une procédure de correction du biais dû aux erreurs de spécification et d'estimation. Cette méthode pratique consiste à "apprendre des erreurs de modèle", puisqu'elle repose dynamiquement sur un ajustement des estimations de la VaR - basé sur un cadre de back-testing - de telle sorte que la fréquence des exceptions passées de la VaR corresponde toujours à la probabilité attendue. Nous montrons finalement que l'intégration du risque de modèle dans les calculs de la VaR implique une correction minimale substantielle de l'ordre de 10-40% des niveaux de VaR.
  • Une évaluation économique du risque de modèle dans les allocations d'actifs à long terme.

    Christophe BOUCHER, Gregory JANNIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Review of International Economics | 2013
    Suite à la récente crise et à la faiblesse révélée des pratiques de gestion des risques, les régulateurs des marchés développés ont recommandé aux institutions financières d'évaluer le risque de modèle. Les mesures de risque standard, telles que la valeur à risque (VaR), ont émergé au cours des années 1990 comme la norme industrielle pour la gestion du risque et sont devenues aujourd'hui un outil clé pour l'allocation d'actifs. Cet article illustre et estime le risque de modèle, et se concentre sur l'évaluation de son impact sur les portefeuilles optimaux à différents horizons temporels. Sur la base d'un long échantillon de données américaines, l'article trouve une relation non linéaire entre les erreurs du modèle VaR et l'horizon qui a un impact sur les allocations d'actifs optimales.
  • Une évaluation économique du risque de modèle dans les allocations d'actifs à long terme.

    Christophe BOUCHER, Gregory JANNIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Review of International Economics | 2013
    Suite à la récente crise et à la faiblesse révélée des pratiques de gestion des risques, les régulateurs des marchés développés ont recommandé aux institutions financières d'évaluer le risque de modèle. Les mesures de risque standard, telles que la valeur à risque (VaR), ont émergé au cours des années 1990 comme la norme industrielle pour la gestion du risque et sont devenues aujourd'hui un outil clé pour l'allocation d'actifs. Cet article illustre et estime le risque de modèle, et se concentre sur l'évaluation de son impact sur les portefeuilles optimaux à différents horizons temporels. Sur la base d'un long échantillon de données américaines, l'article trouve une relation non linéaire entre les erreurs du modèle VaR et l'horizon qui a un impact sur les allocations d'actifs optimales.
  • Une évaluation économique du risque de modèle dans les allocations d'actifs à long terme.

    Christophe BOUCHER, Gregory JANNIN, Patrick KOUONTCHOU, Bertrand MAILLET
    Review of International Economics | 2013
    Pas de résumé disponible.
  • Une évaluation économique du risque de modèle dans les allocations d'actifs à long terme.

    Christophe BOUCHER, Gregory JANNIN, Bertrand MAILLET, Patrick KOUONTCHOU
    2013
    Suite à la récente crise et à la faiblesse révélée des pratiques de gestion des risques, les régulateurs des marchés développés ont recommandé aux institutions financières d'évaluer le risque de modèle. Les mesures de risque standard, telles que la Value-at-Risk (VaR), se sont imposées au cours des dernières décennies comme la norme industrielle pour la gestion du risque et sont devenues aujourd'hui un outil clé pour l'allocation d'actifs. Nous illustrons et estimons le risque de modèle, et nous nous concentrons sur l'évaluation de son impact sur les portefeuilles optimaux à divers horizons temporels. Sur la base d'un long échantillon de données américaines, nous trouvons une relation non linéaire entre les erreurs du modèle VaR et l'horizon qui a un impact sur les allocations d'actifs optimales.
  • Apprendre en échouant : Un tampon simple pour la VaR.

    Christophe BOUCHER, Bertrand MAILLET
    Financial Markets, Institutions and Instruments | 2013
    Pas de résumé disponible.
  • Choix des Portefeuilles Internationaux : diversification, attitude face aux risques et barrières à l'investissement.

    Maroua MHIRI, Jean luc PRIGENT, Andre de PALMA, Annie BELLIER DELIENNE, Bertrand MAILLET, Olivier SCAILLET
    2011
    Pas de résumé disponible.
  • Essais sur la gestion et la mesure de performance des portefeuilles : distribution de Johnson en gestion alternative et structurée.

    Naceur NAGUEZ, Jean luc PRIGENT, Jean luc PRIGENT, Mohamed tahar RAJHI, Annie BELLIER DELIENNE, Ephraim CLARK, Bertrand MAILLET, Olivier SCAILLET
    2011
    Pas de résumé disponible.
  • Efficience et performance sur les marchés financiers : théories et études empiriques.

    Bertrand MAILLET, Thierry CHAUVEAU
    1997
    Cette thèse s'intéresse, essentiellement, aux critères définissant la performance sur les marchés. elle propose, ainsi, l'étude des différentes mesures de performance des fonds compatibles avec l'hypothèse de choix rationnels, au sens de Von Neumann et Morgenstem (1947), des investisseurs individuels. Le premier chapitre de la première partie a pour objet de faire un rapide tour d'horizon des principaux processus candidats à une bonne représentation des rendements boursiers. Aucuns d'eux ne correspond pas, néanmoins, à l'ensemble des faits stylisés . mis en évidence dans la littérature. Le second chapitre concerne une étude empirique des rendements boursiers sur données de haute fréquence sur le marché parisien des actions, dans une échelle de temps- déformé -le temps-volume .-. Les troisième et quatrième chapitres tentent de fournir une évaluation, la plus complète possible, des méthodes de prévisions des rendements issues des préceptes de l'analyse technique. Les premier, deuxième et troisième chapitres de la deuxième partie de cette thèse proposent une revue de la littérature des mesures de performance. Le premier rapporte les mesures de performance relatives à des modèles d'évaluation et les biais qui leur sont associés. Le second concerne les principales mesures sans référence à un modèle d'évaluation explicite. Le troisième chapitre permet la comparaison des principales mesures de performance et présente les conclusions des principales études empiriques sur la performance des fonds. Le dernier chapitre propose deux nouvelles mesures : l'une, relative aux fonds gérés, est une généralisation de la mesure de Sharpe au cas où les marchés financiers ne sont pas parfaits. l'autre, relative aux titres primaires, est, essentiellement, une extension de celle de Treynor au cas de nombreux risques factoriels.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr