NORBERG Ragnar

< Retour à ILB Patrimoine
Affiliations
  • 2012 - 2013
    Université de Lyon - Communauté d'universités et d'établissements
  • 2021
  • 2017
  • 2016
  • 2014
  • 2013
  • Prévision des transitions de notation : une approche par filtrage.

    Areski COUSIN, Jerome LELONG, Ragnar NORBERG, Tom PICARD
    2021
    L'analyse de l'effet du cycle économique sur les transitions de notation a fait l'objet d'un grand intérêt ces quinze dernières années, notamment en raison de la pression croissante exercée par les régulateurs en faveur des tests de résistance. Dans cet article, nous considérons que la dynamique des migrations de notation est régie par un facteur latent non observé. Dans un cadre de filtrage par processus ponctuel, nous expliquons comment l'état actuel du facteur caché peut être déduit efficacement des observations de l'historique des notations. Nous adaptons ensuite l'algorithme classique de Baum-Welsh à notre contexte et montrons comment estimer les paramètres du facteur latent. Une fois calibrés, nous pouvons révéler et détecter les changements économiques qui affectent la dynamique de la migration des classements, en temps réel. À cette fin, nous adaptons une formule de filtrage qui peut ensuite être utilisée pour prédire les probabilités de transition futures en fonction des régimes économiques sans utiliser de covariables externes. Nous proposons deux cadres de filtrage : une version discrète et une version continue. Nous démontrons et comparons l'efficacité des deux approches sur des données fictives et sur une base de données de notation de crédit d'entreprise. Les méthodes pourraient également être appliquées aux prêts de crédit aux particuliers.
  • Contributions à l’estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion.

    Soffana MADANI, Ragnar NORBERG, Christian yann ROBERT, Beatrice REY FOURNIER, Ragnar NORBERG, Christian yann ROBERT, Ying JIAO, Anne VANHEMS, Herve CARDOT, Emmanuel FLACHAIRE
    2017
    La répartition des revenus d'une population, la distribution des instants de défaillance d'un matériel et l'évolution des bénéfices des contrats d'assurance vie - étudiées en sciences économiques et de gestion – sont liées a des fonctions continues appartenant à la classe des fonctionnelles de la fonction de répartition. Notre thèse porte sur l'estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion. Dans le premier chapitre, nous proposons des estimateurs polynomiaux locaux dans le cadre i.i.d. de deux fonctionnelles de la fonction de répartition, notées LF et TF , utiles pour produire des estimateurs lisses de la courbe de Lorenz et du temps total de test normalisé (scaled total time on test transform). La méthode d'estimation est décrite dans Abdous, Berlinet et Hengartner (2003) et nous prouvons le bon comportement asymptotique des estimateurs polynomiaux locaux. Jusqu'alors, Gastwirth (1972) et Barlow et Campo (1975) avaient défini des estimateurs continus par morceaux de la courbe de Lorenz et du temps total de test normalisé, ce qui ne respectait pas la propriété de continuité des courbes initiales. Des illustrations sur données simulées et réelles sont proposées. Le second chapitre a pour but de fournir des estimateurs polynomiaux locaux dans le cadre i.i.d. des dérivées successives des fonctionnelles de la fonction de répartition explorées dans le chapitre précédent. A part l'estimation de la dérivée première de la fonction TF qui se traite à l'aide de l'estimation lisse de la fonction de répartition, la méthode d'estimation employée est l'approximation polynomiale locale des fonctionnelles de la fonction de répartition détaillée dans Berlinet et Thomas-Agnan (2004). Divers types de convergence ainsi que la normalité asymptotique sont obtenus, y compris pour la densité et ses dérivées successives. Des simulations apparaissent et sont commentées. Le point de départ du troisième chapitre est l'estimateur de Parzen-Rosenblatt (Rosenblatt (1956), Parzen (1964)) de la densité. Nous améliorons dans un premier temps le biais de l'estimateur de Parzen-Rosenblatt et de ses dérivées successives à l'aide de noyaux d'ordre supérieur (Berlinet (1993)). Nous démontrons ensuite les nouvelles conditions de normalité asymptotique de ces estimateurs. Enfin, nous construisons une méthode de correction des effets de bord pour les estimateurs des dérivées de la densité, grâce aux dérivées d'ordre supérieur. Le dernier chapitre s'intéresse au taux de hasard, qui contrairement aux deux fonctionnelles de la fonction de répartition traitées dans le premier chapitre, n'est pas un rapport de deux fonctionnelles linéaires de la fonction de répartition. Dans le cadre i.i.d., les estimateurs à noyau du taux de hasard et de ses dérivées successives sont construits à partir des estimateurs à noyau de la densité et ses dérivées successives. La normalité asymptotique des premiers estimateurs est logiquement obtenue à partir de celle des seconds. Nous nous plaçons ensuite dans le modèle à intensité multiplicative, un cadre plus général englobant des données censurées et dépendantes. Nous menons la procédure à terme de Ramlau-Hansen (1983) afin d'obtenir les bonnes propriétés asymptotiques des estimateurs du taux de hasard et de ses dérivées successives puis nous tentons d'appliquer l'approximation polynomiale locale dans ce contexte. Le taux d'accumulation du surplus dans le domaine de la participation aux bénéfices pourra alors être estimé non parametriquement puisqu'il dépend des taux de transition (taux de hasard d'un état vers un autre) d'une chaine de Markov (Ramlau-Hansen (1991), Norberg (1999)).
  • Paradigmes de l'assurance vie.

    Ragnar NORBERG
    Modelling in Life Insurance – A Management Perspective | 2016
    Pas de résumé disponible.
  • Outils et modèles pour l'étude de quelques risques spatiaux et en réseaux : application aux extrêmes climatiques et à la contagion en finance.

    Erwan KOCH, Christian yann ROBERT, Pierre RIBEREAU, Christian GOURIEROUX, Anne laure FOUGERES, Ragnar NORBERG, Hansjoerg ALBRECHER, Jean noel BACRO
    2014
    Cette thèse s’attache à développer des outils et modèles adaptés a l’étude de certains risques spatiaux et en réseaux. Elle est divisée en cinq chapitres. Le premier consiste en une introduction générale, contenant l’état de l’art au sein duquel s’inscrivent les différents travaux, ainsi que les principaux résultats obtenus. Le Chapitre 2 propose un nouveau générateur de précipitations multi-site. Il est important de disposer de modèles capables de produire des séries de précipitations statistiquement réalistes. Alors que les modèles précédemment introduits dans la littérature concernent essentiellement les précipitations journalières, nous développons un modèle horaire. Il n’implique qu’une seule équation et introduit ainsi une dépendance entre occurrence et intensité, processus souvent considérés comme indépendants dans la littérature. Il comporte un facteur commun prenant en compte les conditions atmosphériques grande échelle et un terme de contagion auto-regressif multivarié, représentant la propagation locale des pluies. Malgré sa relative simplicité, ce modèle reproduit très bien les intensités, les durées de sècheresse ainsi que la dépendance spatiale dans le cas de la Bretagne Nord. Dans le Chapitre 3, nous proposons une méthode d’estimation des processus maxstables, basée sur des techniques de vraisemblance simulée. Les processus max-stables sont très adaptés à la modélisation statistique des extrêmes spatiaux mais leur estimation s’avère délicate. En effet, la densité multivariée n’a pas de forme explicite et les méthodes d’estimation standards liées à la vraisemblance ne peuvent donc pas être appliquées. Sous des hypothèses adéquates, notre estimateur est efficace quand le nombre d’observations temporelles et le nombre de simulations tendent vers l’infini. Cette approche par simulation peut être utilisée pour de nombreuses classes de processus max-stables et peut fournir de meilleurs résultats que les méthodes actuelles utilisant la vraisemblance composite, notamment dans le cas où seules quelques observations temporelles sont disponibles et où la dépendance spatiale est importante.
  • Couverture quadratique : une vision actuarielle étendue au contrôle de solvabilité.

    Ragnar NORBERG
    European Actuarial Journal | 2013
    Une stratégie d'investissement ou un portefeuille est déterminé de manière unique par un processus d'exposition spécifiant le nombre de parts détenues dans des actifs risqués à tout moment et un processus de coût représentant les dépôts sur le compte du portefeuille et les retraits de celui-ci. La stratégie est une couverture d'un flux de paiements contractuels si les paiements sont actuellement déposés sur le compte du portefeuille ou retirés de celui-ci et que la valeur finale du portefeuille est égale à 0 (règlement final des engagements contractuels). L'objectif de la couverture est énoncé comme un critère d'optimisation de la stratégie d'investissement. L'objectif du présent article est double. Premièrement, il passe en revue le cœur de la théorie de la couverture quadratique dans un scénario où le risque d'assurance peut être partiellement compensé en négociant des produits dérivés liés à l'assurance (par exemple, des obligations catastrophes ou des obligations de mortalité) et le relie aux principes actuariels de tarification des primes et de constitution de réserves. Le fait de travailler avec une mesure martingale et certaines conditions d'intégrabilité faibles permet d'obtenir des preuves simples basées sur des projections orthogonales : la théorie de la couverture quadratique sans douleur agonisante. Deuxièmement, il est souligné que certains principes de couverture quadratique conduisent au même processus d'exposition optimal mais à des processus de coût optimaux différents, les cas particuliers étant la couverture moyenne-variance et la minimisation du risque. Il est démontré que ces résultats sont préservés si la valeur du portefeuille doit coïncider avec un processus adapté donné, un cas d'espèce étant l'exigence de capital introduite par des régimes réglementaires comme les accords de Bâle et Solvabilité II.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr