Download the english version here 

Plus de dix ans après la plus grave crise financière de l’après-guerre, force est de constater que l’économie et le système financier mondial restent vulnérables. Certes, les arsenaux monétaires non conventionnels déployés massivement par les grandes banques centrales des pays développés ont été très utiles, mais cette stratégie offensive d’assouplissement quantitatif n’est pas dénuée de risques pour la finance et l’économie réelle. De fait, le Fonds Monétaire International (FMI) s’est inquiété, fin janvier, du ralentissement économique dans les pays avancés et en Chine, ainsi que de la forte volatilité des marchés boursiers. Plus récemment, l’OCDE (Organisation de Coopération et de Développement Économiques) a publié des chiffres sur l’endettement en constante augmentation. Ainsi, entre 2007 et 2018, le ratio de dette sur le PIB est passé de 49,5 % à 72,6 % dans les pays de l’OCDE. Les nouvelles émissions d’obligations souveraines dépasseront les 2 000 milliards cette année. En parallèle, la diminution des rachats d’actifs de la part des banques centrales devrait compliquer les conditions de financement des États. Du côté des entreprises, ce n’est guère mieux, étant donné leur profil de risque supérieur à celui des États. Ainsi, toujours d’après l’OCDE, l’encours mondial d’obligations émises par des sociétés non financières a atteint un nouveau record en tutoyant le seuil des 13 000 milliards de dollars à fin 2018. Et sur ce front-là, la situation est fragile à en croire l’institution multilatérale basée à Paris :

« La part des obligations de catégorie investissement de la qualité la plus faible s’établit à 54 %, ce qui représente un pic historique, et les droits des détenteurs d’obligations ont nettement diminué, ce qui pourrait amplifier les effets négatifs d’éventuelles tensions sur les marchés. Par ailleurs, en cas de choc financier similaire à celui de 2008, 500 milliards de dollars d’obligations de sociétés migreraient vers le marché des titres de catégorie spéculative en l’espace d’un an, représentant des cessions forcées que les investisseurs présents sur ce marché auraient du mal à absorber ».

Face à ses inquiétudes grandissantes, la remontée des taux d’intérêt, déjà en vigueur aux États-Unis et attendue en Europe en fin d’année ou désormais plutôt l’année prochaine, pourrait créer des perturbations supplémentaires. Dans ce contexte délicat, la recherche scientifique peut apporter des réponses et des recommandations pour les régulateurs et les acteurs du secteur. D’ailleurs, l’édition 2019 du Forum International des Risques Financiers, organisé par le Groupe Louis Bachelier, est consacrée à l’environnement de faibles taux d’intérêt. Durant cet événement, des chercheurs académiques du monde entier et des professionnels de la finance débattent pour améliorer les pratiques du secteur, afin d’y limiter les risques et d’y trouver des opportunités. Pour y faire écho, ce nouveau numéro des Cahiers Louis Bachelier livre les analyses de cinq chercheurs, spécialisés sur les taux d’intérêt et le risque systémique, qui fournissent des éléments d’explications particulièrement intéressants pour comprendre la situation actuelle et surtout essayer d’anticiper les mouvements futurs.

Bonne lecture !

Jean-Michel Beacco, Délégué général de l’Institut Louis Bachelier

 

« LES EFFETS OFFRE ET DEMANDE SONT BEAUCOUP PLUS IMPORTANTS QU’AUPARAVANT POUR EXPLIQUER LES FAIBLES NIVEAUX DES TAUX LONGS »

Avec les politiques monétaires, adoptées au lendemain de la crise financière de 2008 par les banques centrales, les taux d’intérêt des pays occidentaux se sont retrouvés à des planchers inédits. Si les marchés financiers et les investisseurs en ont relativement profité et si l’économie a résisté, les principaux facteurs explicatifs des taux d’intérêt ne sont plus les mêmes que par le passé. Et les futures remontées des taux constituent des motifs d’inquiétudes pour la planète finance. Pour y voir plus clair, Catherine Lubochinsky, l’une des plus grandes spécialistes des taux d’intérêt en France, a répondu aux questions de l’ILB.

 

ILB : Avant de rentrer dans le vif du sujet, pourriez-vous nous donner la définition des taux d’intérêt ?

Catherine Lubochinsky : Un taux d’intérêt est un prix relatif intertemporel : c’est le prix d’un bien par rapport à lui-même pour un échange différé dans le temps. Chaque bien a son taux d’intérêt propre mais comme nous sommes dans un système de prix relatifs instantanés exprimés en unités monétaires, le taux d’intérêt l’est également. Autrement dit, un euro d’aujourd’hui n’a pas la même valeur qu’un euro à une date future (à condition que le taux d’intérêt ne soit pas nul). Par ailleurs, le taux d’intérêt est une variable cruciale, car elle intervient dans toutes les prises de décisions et a un impact sur les composantes réelles (investissement, consommation, logement) et l’ensemble des actifs monétaires et financiers.

Quels sont les déterminants classiques des taux d’intérêt, que dit la théorie économique à ce sujet ?

CL : Avant de détailler cette réponse, il faut d’abord rappeler la distinction de Fisher, développée en 1930. Il a été le premier à énoncer
que le taux d’intérêt nominal, celui que l’on constate, a deux composantes : le taux d’intérêt réel et les anticipations d’inflation. Toutes les théories économiques, qui ont ensuite émergé, ont cherché à expliquer le niveau des taux d’intérêt réels.
D’après les classiques et néo-classiques, le taux d’intérêt résulte de la confrontation entre l’investissement et l’épargne. À l’équilibre, le taux d’intérêt réel permet d’égaliser la productivité marginale du capital avec le taux marginal de substitution intertemporel de consommation. Ce taux est ainsi qualifié de taux naturel. Ce courant de pensée privilégie les déterminants réels des taux d’intérêt, tandis que les théories d’inspiration keynésienne favorisent les déterminants monétaires. Dans ces dernières, le taux d’intérêt découle de la confrontation entre l’offre et la demande de monnaie. L’offre de monnaie y est exogène, car elle est maîtrisée par la banque centrale. La demande de monnaie, dont une partie est liée au motif de spéculation, dépend du taux d’intérêt. Dans ce raisonnement, la spéculation est à prendre au sens keynésien, c’est-àdire un arbitrage entre actif monétaire et actif financier. Ces deux approches traditionnelles ne sont pas antinomiques mais peuvent être complémentaires.
Par la suite, lorsque la recherche s’est développée, les travaux ne se sont plus portés sur un seul taux d’intérêt, mais sur des courbes de taux d’intérêt, en distinguant surtout les courts et les longs, car leurs mécanismes de formation ne sont pas les mêmes.

Dans le contexte de taux faibles de ces dernières années, les taux d’intérêt sont au plus bas depuis 5 000 ans, selon un économiste de la Banque centrale d’Angleterre, partagez-vous la même observation ?

CL : Andrew Haldane, l’économiste en chef de la Bank of England, a présenté un graphique, en 2015, reconstituant les taux d’intérêt sur 5 000 ans. Effectivement, les taux d’intérêt nominaux n’ont jamais été aussi bas. On constate également que les points historiques les plus hauts pour ces taux d’intérêt ont été atteints après le second choc pétrolier dans les pays occidentaux. Toutefois, lorsque l’on s’attarde sur la situation récente, la distinction de Fisher doit être mise en avant : pour les taux nominaux à long terme, le constat est très clair, ils n’ont jamais été aussi bas. En revanche, pour les taux d’intérêt réels longs, cette observation est moins frappante, car il y a déjà eu des épisodes où ils ont été bas, voire négatifs dans les périodes d’augmentation de l’inflation, notamment dans les années 1970, en raison d’erreurs dans les anticipations d’inflation.

La situation actuelle est très différente de ce que l’on a connu dans le passé : les taux d’intérêt réels sont négatifs sans qu’il y ait de l’inflation.

Ces dernières années, les taux d’intérêt réels ont été négatifs malgré une faible inflation, comment expliquer ce phénomène atypique ?

CL : Il est vrai que la situation actuelle est très différente de ce que l’on a connu dans le passé : les taux d’intérêt réels sont négatifs sans qu’il y ait de l’inflation. Cela est dû à la sévérité de la crise financière de 2008 et aux réponses des banques centrales, qui ont massivement injecté des liquidités et ont baissé fortement leurs taux d’intérêt directeurs qui ont atteint la borne inférieure de 0 %.

La théorie économique apporte-t-elle des réponses face à cette situation ?

CL : Les taux courts sont pilotés par les banques centrales, avec leurs taux d’intervention. Avant les resserrements monétaires de la Réserve fédérale américaine (Fed) ces derniers mois, ils étaient proches de 0, outre-Atlantique. En Europe, ils sont toujours proches de 0 %. En ajoutant à ces taux courts proches de 0 %, un peu d’inflation, même 1 %, cela engendre des taux réels courts négatifs. Pour les taux longs, c’est une autre problématique. Traditionnellement, l’explication reposait sur deux courants distincts :

– Le premier repose sur la théorie des anticipations dans laquelle les taux longs résultent des taux courts présents plus les taux courts futurs anticipés. Si les agents anticipent des taux courts futurs plus élevés, les taux longs seront forcément plus hauts que les taux courts actuels.

– Le second se base sur les primes de risque. Pour les obligations souveraines, jugées sans risque de défaut et sans risque de liquidité, il y a ce que l’on appelle « la prime de terme ». Chez les keynésiens, cela revient à un renoncement au service de liquidité procuré par la monnaie, ce qui doit être rémunéré. On peut également considérer que, lorsqu’un investisseur ou un épargnant achète un titre long, la variabilité des taux d’intérêt et donc des prix, fait peser un risque de moins-value qui nécessite une prime de risque. Par ailleurs, il y a également le risque lié à l’inflation (quand il y en a !), compte tenu des erreurs d’anticipation, qui peut également engendrer une prime de risque supplémentaire. Néanmoins, ces éléments n’expliquent plus vraiment le niveau des taux longs actuellement.

Pourquoi ?

CL : Car les effets quantitatifs directs sont très importants. La variable explicative du niveau des taux longs est tout simplement liée à la très forte demande des dettes souveraines. Celle-ci a été alimentée par les rachats massifs de dettes souveraines par les banques centrales avec l’assouplissement quantitatif, qui ont provoqué la hausse des prix des obligations et donc une baisse des taux longs. Les banques centrales sont intervenues directement pour réduire les taux longs car ils correspondent au coût de financement des investissements et des déficits publics. Les effets offre/demande sont beaucoup plus importants qu’auparavant pour expliquer les faibles niveaux des taux longs. En effet, malgré la remontée des taux courts aux États-Unis, les taux longs restent bas et continuent même de baisser, en particulier au dernier trimestre 2018. Ces derniers mois, il semblerait même que l’aversion au risque soit de retour et que les investisseurs se détournent des actions et des obligations d’entreprises au profit des dettes souveraines, renforçant ainsi la faiblesse des taux longs.
Il faut toutefois signaler que ce phénomène de baisse des taux longs avait commencé avant la crise financière avec les forts déséquilibres des balances de paiements courants de certains pays, comme au début des années 2000 lors des achats massifs directs de dette américaine par la Chine.

Quand les taux d’intérêt remonteront, les portefeuilles des investisseurs seront forcément affectés par des moins-values.

Quels sont les principaux risques face à la remontée des taux outre-Atlantique et celle attendue dans quelques mois en Europe ?

CL : Début 2019, le stock de dettes publiques à taux négatifs représentait plus de 8 000 milliards de dollars. Quand les taux d’intérêt remonteront, les portefeuilles des investisseurs seront forcément affectés par des moins-values. Du côté des États émetteurs de dettes, ils devront se financer à des coûts plus élevés, ce qui pourrait par ricochet se répercuter sur la soutenabilité de leurs dettes. Ce dernier facteur étant dépendant d’un taux de croissance supérieur au taux d’intérêt réel.

Considérez-vous que les politiques monétaires non conventionnelles ont été efficaces ?

CL : Sans les politiques monétaires non conventionnelles, les récessions auraient été plus fortes de part et d’autre de l’Atlantique. Sur ce plan-là, on peut dire que les actions des banques centrales ont fonctionné, malgré les effets pervers qui y sont associés.

Lesquels ?

CL : Il y a des bulles qui se sont créées dans certains marchés actions et des corrections probables sont à prévoir comme en décembre 2018. Les prix de l’immobilier sont repartis à la hausse : les ménages se sont endettés pour acheter des logements grâce aux taux bas. Dans le même temps, le stock de l’offre à court terme est peu élastique, voire inélastique dans certaines zones comme Paris intramuros, ce qui fait augmenter mécaniquement les prix au mètre carré. Enfin, certaines entreprises, notamment américaines, se sont massivement endettées pour racheter des actions et verser davantage de dividendes à leurs actionnaires, au lieu de procéder à des investissements créateurs de valeur.

Pour conclure, comment voyez-vous l’évolution future des taux d’intérêt ?

CL : Malgré la remontée des taux courts aux États-Unis et celle probable en Europe d’ici à l’année prochaine, il y a peu de raison que les taux longs remontent, car la productivité globale des facteurs de production (capital et travail) n’est pas très élevée. Les inquiétudes des autorités portent sur la faiblesse de la croissance potentielle. On constate d’ailleurs aux États-Unis, qui sont en plein emploi, que les taux longs ne remontent pas. En revanche, on peut s’attendre à une remontée de l’aversion aux risques des investisseurs et donc à une remontée des primes de risques, avec un élargissement de l’écart entre les taux des dettes souveraines et ceux des obligations d’entreprises dont l’endettement a beaucoup progressé, dans ce contexte de ralentissement de l’activité économique.

COMMENT LES INVESTISSEURS INSTITUTIONNELS RÉAGISSENT-ILS AUX TAUX BAS ?

L’environnement de taux faibles constitue un vrai challenge pour les investisseurs qui doivent réorienter leurs stratégies d’investissement vers des classes d’actifs plus rémunératrices. Cette situation délicate et non dénuée de risques financiers est abordée par Marie Brière, dont le point de vue est particulièrement intéressant en se situant entre la sphère professionnelle et académique (voir biographie). Entretien.

 

ILB : La faiblesse actuelle des taux d’intérêt donne l’impression d’un phénomène inédit, est-ce réellement le cas ?

Marie Brière : Le déclin des taux d’intérêt à long terme est tendanciel depuis les années 1980. Nous sommes passés d’un régime de taux d’intérêt très élevés, dans les années 1970, marquées par deux chocs inflationnistes (les chocs pétroliers de 1973 et 1979) à un nouveau régime dans lequel les taux sont structurellement plus bas. Ce mouvement graduel et généralisé a commencé dans les années 1980 pendant la période de « Grande Modération » durant laquelle les grandes variables macroéconomiques ont été moins volatiles, notamment la croissance et l’inflation. Aujourd’hui, 17 % des obligations émises traitent avec des taux négatifs (Deutsche Bank, 2018). Cette situation exceptionnelle, conséquence de la crise des subprimes et des politiques monétaires non conventionnelles qui ont suivi, peut être amenée se prolonger.

Quelles sont les implications des taux bas pour les investisseurs institutionnels ?

MB : D’abord, les performances des classes d’actifs traditionnelles, que sont les actions et les obligations, se sont réduites en raison de la moindre rémunération du taux sans risque et de la compression des primes de risque, liée notamment au mécanisme de recherche de rendement (search for yield en anglais) de la part des investisseurs. Ces derniers se positionnent davantage sur des actifs plus risqués et moins liquides, augmentant ainsi leurs prix et comprimant leurs rendements et donc leurs primes de risque attendus. Enfin,
l’environnement de taux bas affecte les bilans des investisseurs institutionnels, en particulier les assureurs et les fonds de pensions qui ont des engagements inscrits dans leurs passifs.

Dans quelle mesure les bilans des investisseurs institutionnels sont-ils sous pression ?

MB : La réponse se trouve dans les éléments mentionnés précédemment. Dans le bilan des assureurs et des fonds de pension, les actifs investis génèrent de moindres performances, tandis que la baisse des taux alourdit mécaniquement la valeur des passifs, actualisés en valeur de marché avec les régulations comptables et prudentielles actuelles. C’est une sorte de double peine. D’ailleurs, selon les derniers stress-tests sur les fonds de pensions du Vieux Continent, menés en 2017 par l’Autorité européenne des assurances et des pensions professionnelles (EIOPA), le sous-financement global de ces acteurs a été évalué à 349 milliards d’euros, soit un déficit moyen d’environ 20 % de la valeur des passifs, avec d’importantes disparités selon les pays.

Les régulations sont-elles en cause ?

MB : Les régulateurs ne sont pas la cause des difficultés actuelles des fonds de pension, dont les bilans se sont dégradés du fait de la faiblesse des taux d’intérêt, mais également de l’allongement de la durée de vie des bénéficiaires. Cependant, les régulations prudentielles qui exigent du capital réglementaire à provisionner en cas de déséquilibre entre actif et passif, ainsi que les normes comptables, orientées sur des valorisations en valeur de marché, accentuent naturellement les problèmes sans pour autant les avoir déclenchés.

Du coup, comment les assureurs et les fonds de pensions réagissent-ils ?

MB : On observe un mouvement structurel de réduction des garanties offertes, avec un transfert des risques vers les particuliers. On le constate avec les assureurs, qui préfèrent aujourd’hui distribuer des contrats en unité de comptes plutôt que des fonds en euros au capital garanti. Du côté des fonds de pension, c’est similaire. Dans certains pays, on observe un basculement de fonds à prestations définies vers des fonds à cotisations définies. Aux PaysBas ou au Royaume-Uni, on assiste à la création de fonds « hybrides », où les risques sont partagés entre l’entreprise sponsor du fonds de pension et les salariés cotisants qui sont les futurs bénéficiaires. Dans ce cas, les pensions de retraite peuvent dépendre des performances des marchés financiers ou de l’évolution de la longévité. Ce partage des risques peut s’avérer assez efficace, et même relativement attractif pour les particuliers (voir à ce sujet les travaux de Boon, Brière et Werker en 20181). Cela permet de limiter l’exigence coûteuse de capital réglementaire pour les institutions financières.

Quelles sont les conséquences pour les particuliers ?

MB : La conséquence de ce phénomène est une réallocation des risques vers les particuliers, les institutions financières jouant le rôle d’intermédiation financière, distribuant les produits financiers avec des risques de perte plus limités. Les taux bas ont également des conséquences sur le partage des risques entre générations, avec une réduction potentielle des bénéfices plus élevées pour les jeunes générations que pour les générations plus âgées. On peut enfin s’attendre à une augmentation de l’offre de travail et de la demande d’épargne et une redistribution des richesses (voir les travaux de Horneff, Maurer et Mitchell (2018) présentés au Forum International des Risques Financiers2).

Revenons aux investisseurs institutionnels, quelles sont leurs stratégies pour générer des rendements ?

MB : Les investisseurs s’orientent beaucoup plus vers des actifs alternatifs depuis la crise financière. Ces dernières années, ce sont l’immobilier et le private equity qui en ont bénéficié. Selon des travaux d’Ivashina et Lerner (2018)3, également présentés au Forum International des Risques Financiers, il y a eu un grand mouvement de réallocation vers les actifs alternatifs, censés être plus rémunérateurs, car moins liquides. Il y a, cependant, un débat au sein de la communauté académique sur cette classe d’actifs : le surcroît de rendement rémunère-t-il une prime de liquidité ou plutôt un risque plus élevé et mal mesuré du fait de la faible fréquence des observations sur les transactions ? Cette question n’est pas tranchée, mais les investisseurs s’y orientent massivement, comme le montre la hausse des encours sur cette classe d’actifs dans les pays développés qui ont augmenté de 63 % entre 2008 et 2017, d’après les travaux précédemment cités. Une autre tendance des investisseurs est l’adoption de stratégies systématiques actives de type smart beta ou factorielles qui s’avèrent plus performantes que les stratégies passives, basées sur les indices traditionnels pondérés par les capitalisations de marché. Les stratégies actives sont, en effet, censées capter des primes de risque additionnelles et donc plus de rendements.

Ces nouvelles stratégies génèrent-elles plus de risque ?

MB : Les stratégies passives n’induisent quasiment pas de rotation des portefeuilles, contrairement aux stratégies systématiques actives. Le risque se situe dans l’éventuel comportement moutonnier des investisseurs (phénomène de « crowding »). S’ils adoptent des stratégies actives similaires en achetant et en revendant les mêmes titres, cela peut accentuer le risque de financement dans le cas de demandes de rachat, des ventes de titres coïncidentes et donc des baisses de prix potentiellement plus
importantes sur les marchés. Des travaux de Fontaine, Garcia et Gungor en 20164 et de Cho en 2019 5,ont montré que les marchés actions étaient davantage exposés à ce risque de liquidité lié au refinancement (« funding risk ») depuis le milieu des années 1990.

Les risques de contagion sont donc plus forts ?

MB : Oui, cela peut générer de nouvelles corrélations entre certaines actions qui n’étaient pas du tout liées auparavant.
Pour conclure, ces stratégies d’investissement découlant des taux bas sont-elles des vecteurs de bulles ? MB : Il est toujours très délicat de prouver l’existence d’une bulle avant qu’elle n’éclate. Néanmoins, il est évident que, lorsque les investisseurs s’orientent en même temps et massivement sur une classe d’actifs, les valorisations augmentent fortement, ce qui peut former des bulles pouvant éclater. 

1) Boon, Brière et Werker (2018), « Systematic Longevity Risk: To Bear or to Insure ? », SSRN Working Paper N° 2926902.
2) Horneff, Maurer et Mitchell (2018), « How Will Persistent Low Expected Returns Shape Household Economic Behavior », NBER Working Paper 25133.
3) Ivashina et Lerner (2018), « Looking for Alternatives: Pension Investments around the World, 2008 to 2017 », Working Paper.
4) Fontaine, Garcia et Gungor (2016), « Funding Risk, Market Liquidity, Market Volatility and the Cross Section of Asset Returns », SSRN Working Paper 2557211.
5) Cho (2019), « Turning Alphas into Betas: Arbitrage and the Cross-Section of Risk », Paul Woolley Centre Working Paper 61.

L’ÉCONOMÉTRIE FACE AUX TAUX D’INTÉRÊT BAS

Le contexte de faibles taux d’intérêt implique de nombreuses problématiques pour les chercheurs en économétrie dont l’un des objectifs est d’établir des modélisations des taux d’intérêt au plus près de la réalité. Cette situation nécessite ainsi des modèles qui reflètent la possibilité que les taux d’intérêt à court terme soient négatifs. Pour évoquer ce sujet à la fois complexe et crucial, Alain Monfort, économètre de formation, a répondu aux questions de l’Institut Louis Bachelier (ILB)

 

ILB : Quels sont les principaux défis des économètres pour modéliser les taux d’intérêt ?

Alain Monfort : Les taux d’intérêt ont des comportements très variés qui dépendent des maturités résiduelles. Il n’est pas simple de trouver un modèle parcimonieux, c’est-à-dire avec un nombre de variables et de paramètres raisonnable, qui puisse rendre compte de l’hétérogénéité des taux d’intérêt. Il y a un équilibre délicat à trouver entre la capacité des modèles à reproduire des phénomènes assez fins qui soient proches de la réalité et leur facilité d’estimation et d’utilisation. Ces difficultés s’illustrent notamment avec la situation observée depuis assez longtemps au Japon, et plus récemment en Europe, où les taux courts peuvent rester relativement stables à un niveau faible ou même négatif, tandis que les taux moyens ou longs continuent à fluctuer avec en outre des volatilités dépendant de la maturité.

Quels sont les choix décisifs auxquels se heurtent les économètres pour modéliser les taux d’intérêt ?

AM : Le premier choix important dans une modélisation économétrique des taux d’intérêt est le choix des facteurs, ou variables d’état, qui sont censés représenter l’environnement économique. Il faut notamment définir si ces facteurs sont observables ou latents. Pour les facteurs observables, il faut décider s’ils sont uniquement fonctions de la courbe des taux ou non. Dans le premier cas, une approche « yield only » est retenue et les facteurs les plus fréquemment utilisés sont : un niveau moyen de la courbe, une mesure de sa pente et une mesure de sa courbure. Dans le deuxième cas, certains facteurs sont des variables macroéconomiques (taux de croissance du PIB, inflation, chômage), qui conduisent à un modèle de type macro-finance.

Une autre décision importante est le choix de la dynamique de ces facteurs, qui peut être en temps continu ou en temps discret. Les banques centrales ont généralement choisi des modèles en temps discret pour plusieurs raisons. Tout d’abord, les modèles en temps continu doivent de toute façon être discrétisés pour être estimés. Ensuite, les versions discrétisées des modèles en temps continu classiques sont souvent des approximations et ont des difficultés à prendre en compte des caractéristiques facilement introduites dans les modèles en temps discret comme les retards d’interaction entre des variables ou les changements de régime, comme le fait qu’il y ait crise ou pas. De plus, les modèles en temps discret peuvent intégrer directement les progrès des méthodes économétriques, qui sont toujours développées en temps discret. Enfin, les modèles affines en temps discret peuvent répondre aux défis imposés par les taux bas, grâce à certaines propriétés techniques bien adaptées.

Quelles sont les propriétés intéressantes de ces modèles affines en temps discret ?

AM : Les modèles affines en temps discret offrent diverses possibilités comme : la faculté de générer des trajectoires restant constantes pendant un certain temps, l’introduction de spécifications souples des volatilités des taux, la facilité de calcul des prévisions et de leur précision, le calcul de probabilités de « lift-off » fournissant, par exemple, la probabilité qu’un taux quitte une zone donnée, l’estimation relativement simple des paramètres, même lorsque les fréquences d’observation sont différentes, et la reconstitution par filtrage ou lissage des facteurs latents.

Pourriez-vous nous en dire plus sur ces modèles affines en temps discret ?

AM : Contrairement à ce que le terme affine pourrait faire penser, cette classe de modèles est très riche. Elle comprend, par exemple, les modèles autorégressifs Gaussiens, les modèles autorégressifs Gamma (qui sont à valeurs positives), les modèles de Poisson composés (à valeurs entières), les processus Wishart (à valeurs dans l’ensemble des matrices symétriques définies positives). Elle comprend également les chaînes de Markov, ce qui permet d’introduire des changements de régime dans les modèles mentionnés plus haut. Par ailleurs, en augmentant la taille initiale des facteurs, il est possible de prendre en compte des modèles non markoviens, comme certains modèles GARCH (« Generalized AutoRegressive Conditionally Heteroscedastic »).

Ces modèles affines permettent-ils de valoriser des actifs financiers dans le temps ?

AM : Oui, mais il est nécessaire de spécifier un facteur d’escompte stochastique prenant en compte, en particulier, l’aversion pour le risque. Cette variable permet de faire le pont entre la dynamique historique des facteurs et leur dynamique « risque neutre », qui est l’outil central de la valorisation. Si le facteur d’escompte stochastique, dont l’existence est impliquée par l’hypothèse d’absence d’opportunité d’arbitrage, est spécifié comme une fonction exponentielle affine des facteurs, et si la dynamique historique des facteurs est affine, alors leur dynamique « risque neutre » est aussi affine. En outre, si le taux court est une fonction affine des facteurs, les prix de nombreux produits financiers sont des fonctions quasi-explicites de ces facteurs. Par exemple, le prix d’une obligation zéro coupon de maturité résiduelle donnée est une fonction exponentielle affine des facteurs. Par conséquent, le taux d’intérêt correspondant est une fonction affine avec des coefficients, qui sont des fonctions de la maturité calculables récursivement.

Comment a évolué la littérature académique concernant les modélisations affines de taux ?

AM : Les modèles de taux affines les plus populaires sont les modèles Gaussiens à un ou plusieurs facteurs, en particulier le modèle de base à un facteur de Vasicek. Dans ces modèles, les dynamiques historiques et « risque neutre » des facteurs sont de type VAR (Vecteur AutoRegressif) Gaussien. Ces modèles ont des défauts évidents : la volatilité des facteurs, et donc des taux, est constante dans le temps, ce qui est en contradiction flagrante avec les observations réelles. En outre, les taux peuvent prendre des valeurs négatives invraisemblables dans toutes les périodes. Pour remédier à ce problème, une littérature académique de type « Taux fantôme » ou « Shadow rate » s’est développée. Dans cette littérature, le taux court est supposé égal au maximum d’un taux « fantôme » fourni par un modèle Gaussien et d’une borne inférieure non stochastique, qui est souvent fixée à zéro. Cette approche est relativement « ad hoc », elle détruit le caractère affine du modèle et donc sa maniabilité, tout en imposant toujours des volatilités constantes pour le taux fantôme.

Toutefois, une autre approche permet de rester dans le monde affine. Elle postule que le taux court est égal à la somme d’une borne inférieure et d’un ou plusieurs facteurs positifs ou nuls. Ces facteurs sont intégrés dans un modèle affine, dans lequel ils sont causés par d’autres facteurs. Ces deux caractéristiques permettent à la fois de générer des taux courts collés à la borne inférieure pendant certaines périodes, tandis que les autres taux continuent à fluctuer avec une volatilité stochastique dépendant de leur maturité résiduelle. Elles permettent également de calculer facilement des probabilités de type « lift-off », en particulier des probabilités que le taux court quitte la borne inférieure ou passe au-dessus d’un certain seuil.

Comment les modèles affines en temps discret peuvent-ils refléter les taux négatifs et quels sont les impacts sur les prévisions économétriques ?

AM : Pour rendre compte des taux négatifs observés récemment, notamment en Europe, certains chercheurs ont proposé de remplacer la borne inférieure nulle du taux court par une borne négative non stochastique et constante par morceaux. Le caractère exogène de cette borne ne permet cependant pas de faire des prévisions, c’est pourquoi une nouvelle classe de modèles affines avec une borne inférieure endogène a été introduite. Cette borne peut, par exemple, être prise égale au taux de facilité de dépôt (ou Deposit Facility Rate) de la Banque Centrale Européenne (BCE). Ce taux, actuellement négatif, détermine le montant que les banques perçoivent lorsqu’elles déposent des liquidités pour vingt-quatre heures auprès de la BCE. Le caractère affine de ces nouveaux modèles garantit les bonnes propriétés mentionnées précédemment, auxquelles peut s’ajouter la possibilité d’évaluer des politiques de type « forward guidance », c’est-à-dire de communication de la banque centrale, consistant, par exemple, à annoncer des valeurs futures du taux de facilité de dépôt.

Pour conclure, est-il possible d’intégrer les risques de défaut dans ces nouveaux modèles ?

AM : Les éléments d’explication précédents concernent les taux associés à des obligations zéro coupon sans risque, c’est-à-dire fournissant avec certitude une unité monétaire à l’échéance. Si cette approche peut être considérée comme raisonnable pour certains taux « souverains », le risque de défaut doit être incorporé dans la modélisation des taux de nombreux états, comme cela a toujours été le cas pour les taux « corporate ». Dans ce domaine encore, la modélisation affine récente permet, y compris dans les périodes de taux bas, de prendre en compte des phénomènes importants comme le risque de défaut, le risque de liquidité, le risque systémique, la contagion, ainsi que des interactions entre des variables financières et des variables réelles comme la consommation. Dans ce dernier cas, il est particulièrement important de pouvoir prendre en compte des variables dont les fréquences d’observations sont différentes, comme les modèles affines en temps discret le permettent.

COMMENT AMÉLIORER LA MODÉLISATION DES TAUX D’INTÉRÊT À LONG TERME ?

La modélisation des taux d’intérêt à long terme constitue un enjeu capital pour le financement de projets dont les bénéfices ne se feront sentir que dans le long terme comme l’épargne retraite ou les projets écologique. Néanmoins, la politique de taux bas mise en œuvre pour relancer l’économie après la crise est difficilement compatible avec le développement de projets long terme. Des chercheurs proposent une technique novatrice pour perfectionner les modèles économiques traditionnels.

 

Comment les pouvoirs publics doivent-ils arbitrer pour financer des infrastructures de long terme ? Combien de points de croissance faudrait-il sacrifier aujourd’hui en vue de réduire le réchauffement climatique, les effets de tels projets écologiques n’étant visibles que bien plus tard dans le futur ? Plus globalement, quels sont les outils à disposition des pouvoirs publics pour évaluer des politiques ayant des impacts dans plusieurs décennies ?

Ces différents enjeux d’envergure et non-exhaustifs font l’objet de débats, car les points de vue traditionnels, basés sur la théorie de l’équilibre général, ne sont pas toujours assez flexibles et adaptatifs pour appréhender le long terme. Notamment, la question de l’hétérogénéité des acteurs économiques est souvent minimisée dans l’application concrète qui est une version simplifiée de cette théorie. Il est évident que les agents ne sont pas tous homogènes dans leurs critères de préférence et leurs prises de décision, mais la théorie suppose qu’à l’équilibre tout se passe comme si les décisions étaient basées sur le choix optimal d’un agent représentatif dont les préférences, mesurées par une fonction d’utilité tiennent compte de celles des différents agents.

Intuitivement, il est clair que l’agent représentatif a nécessairement un comportement complexe. Par exemple, si les différents agents ont une aversion relative pour le risque constante (et donc une utilité puissance), mais différentes en niveau du fait de leur hétérogénéité, l’aversion pour le risque de l’agent représentatif à l’équilibre ne sera, en général, pas constante, sauf si celle des différents agents est la même pour tous.

« En tant que mathématiciens, notre premier objectif a été de bien cerner et comprendre la littérature économique existante, afin d’en étudier les atouts, mais aussi les limites, souligne Caroline Hillairet, tout en poursuivant que les modélisations traditionnelles sont fondées sur une approche très simplifiée, souvent déterministe, basée sur des utilités puissance. »

Il est donc difficile pour les autorités de juger de la viabilité financière ou de l’accroissement du bien-être d’investissements à horizon lointain, même ramenés à un équivalent actuel par un taux d’actualisation, comme le développement d’infrastructures énergétiques ou de transports permettant de respecter les objectifs de l’accord de Paris sur le climat. De fait les modèles d’équilibre simplifiés n’incorporent pas la possibilité de changements de préférence des agents au cours du temps et de l’évolution aléatoire de l’environnement économique ou financier. Et pourtant, à des horizons lointains, les changements et bouleversements sont encore plus probables que sur des échéances à plus court terme. De plus, ce modèle, dont les choix optimaux conduisent à une analyse coût-bénéfice très linéaire, au mieux quadratique, au cours du temps, par rapport à l’investissement initial, peut conduire à une sous-estimation des risques extrêmes.

L’APPROCHE STOCHASTIQUE APPORTE DE LA FLEXIBILITÉ POUR LES MODÉLISATIONS À LONG TERME

Pour faire face aux limites de l’approche simplifiée et sensibiliser les pouvoirs publics sur ses faiblesses, les chercheurs se sont donc orientés vers le concept mathématique d’utilité progressive dynamique, développé récemment. Cette notion a plusieurs avantages : elle permet de modéliser les préférences des agents économiques dans le temps en s’adaptant aux aléas et évolutions économiques susceptibles d’affecter leurs choix. Une utilité progressive dynamique signifie donc que l’on réajuste ses préférences régulièrement, ce qui conduit à une vision du monde plus nuancée.

« Pour modéliser les préférences des agents à long terme, le recours aux utilités progressives dynamiques est aussi plus efficace, en outre d’être plus réaliste. En effet, elles permettent d’aller beaucoup plus loin que les modèles traditionnels. Cette approche stochastique apporte de la flexibilité et peut modéliser davantage de phénomènes, par rapport à l’approche déterministe traditionnelle, notamment concernant l’agrégation d’agents hétérogènes et les risques extrêmes », assure Caroline Hillairet.

Ce cadre est ainsi plus adéquat pour évaluer des produits financiers dérivés de longévité, qui sont des produits peu liquides avec des maturités très longues (comprises entre 30 et 50 ans) et dont les valeurs dépendent notamment de l’évolution des taux d’intérêt à long terme.

LES FONCTIONS D’UTILITÉS PROGRESSIVES DYNAMIQUES PEUVENT AIDER LES POUVOIRS PUBLICS DANS LEURS DÉCISIONS

Alors que les fonctions d’utilités puissance, employées dans les modèles traditionnels, ont des propriétés intéressantes au niveau de la simplicité des calculs et de leur interprétabilité, en vue de leur présentation aux pouvoirs publics, les chercheurs ont gardé leurs aspects positifs pour les appliquer à une modélisation innovante : « L’idée a été de faire des mélanges de fonctions d’utilités puissances pour conserver des calculs explicites et interprétables, tout en considérant que chaque agent économique a des préférences propres que l’on agrège ensuite au-delà de la linéarité », explique Caroline Hillairet.

Pour parvenir à l’évaluation des investissements lointains – qui se calculent avec un taux d’actualisation, basé sur la règle de Ramsey – les chercheurs ont intégré les utilités progressives dynamiques dans leurs modélisations des taux à long terme. Sans rentrer dans des détails techniques, ils sont parvenus à réinterpréter la règle de Ramsey avec un modèle plus stochastique et plus flexible, pour mieux capter ces phénomènes particulièrement significatifs sur le long terme. Cette modélisation dynamique des préférences des agents économiques est susceptible d’accompagner les pouvoirs publics dans leurs choix politiques aux conséquences de long terme. « Nous dialoguons déjà avec les pouvoirs publics et nous allons poursuivre nos travaux dans la même direction lorsque nous obtiendrons des données, afin de les étayer davantage », conclut Caroline Hillairet. À l’heure où les politiques publiques ont de plus en plus de conséquences sur les générations futures, cette modélisation innovante pourrait être utile aux prises de décisions.

« LES TAUX BAS POSENT DES QUESTIONS SUR L’ALLOCATION EFFICACE DES CAPITAUX PAR LES BANQUES »

Alors que le risque systémique a été particulièrement menaçant durant la crise financière de 2008, les régulateurs internationaux ont tenu à l’estimer, à le surveiller et à le réduire davantage en établissant des règles plus strictes à l’égard des banques. Sylvain Benoît, maître de conférences en économie à l’Université Paris-Dauphine, travaille sur cette thématique qui peut être exacerbée par la faiblesse des taux d’intérêt. Dans cette entretien, il revient sur l’évolution du risque systémique au sein du système bancaire.

 

ILB : Comment a évolué le risque systémique depuis la crise financière ?

Sylvain Benoît : Les principales mesures du risque systémique, issues de la littérature académique, ont diminué ces dernières années. Par exemple, le SRISK (systemic risk measure) agrégé au niveau de l’Europe – qui évalue le manque de capital des banques en cas de crise systémique – a atteint plus de 1 500 milliards d’euros en février 2009, contre 650 milliards en septembre 2018. De même, lorsqu’on observe le CISS (composite indicator of systemic stess) de la Banque Centrale Européenne (BCE), il a été divisé par 3 sur la même période. De ce fait, on peut considérer que les règles macroprudentielles ont plutôt bien fonctionné, notamment avec l’identification des banques d’importance systémique depuis 2011, qui doivent avoir des capitaux propres supplémentaires cumulés de plus de 300 milliards d’euros depuis janvier 2019. En étant mieux capitalisées, elles sont plus solvables. Ces mécanismes de régulation, que sont une exigence supplémentaire en fonds propres, une meilleure capacité à absorber les chocs (Total Loss-Absorbing Capacity), mais aussi la mise en place de plan de résolution (Resolvability Assessment Process), visent à internaliser les externalités négatives des banques, à savoir leurs risques qu’elles font courir à l’ensemble du système.

Donc le système financier est-il plus stable ?

SB : Il est difficile d’agréger le risque systémique, car il peut prendre une multitude d’aspects. Nous pouvons par exemple modéliser l’ensemble d’un réseau en prenant en compte les prêts interbancaires entre les différentes institutions, mais nous ne pouvons pas le faire sur l’intégralité des actifs détenue par les banques.

Que pouvez-vous nous dire sur les canaux de transmission du risque systémique ?

SB : Il existe trois canaux de transmission du risque systémique. Le premier concerne les prises de risque systémique qui peuvent se manifester lorsque les acteurs investissent dans les mêmes actifs avec des comportements moutonniers. Cela peut provoquer des risques de corrélation et de liquidité quand il y a beaucoup d’investissements dans des actifs illiquides. Le deuxième canal peut provenir de la contagion des risques avec un effet domino propageant les pertes dans les balances comptables des banques qui contiennent les prêts interbancaires. Enfin, le dernier canal peut apparaître lorsqu’il y a une amplification et une panique bancaire dans lesquelles les déposants retirent leurs fonds dans les banques. Ces trois canaux de transmission du risque systémique sont moins sensibles que lors de la crise financière pour plusieurs raisons : la régulation, l’augmentation des ratios de liquidité, les coussins de capitaux contracycliques, la centralisation des transactions de produits dérivés standardisés négociés de gré à gré ou encore la hausse de la transparence des établissements qui doivent fournir davantage de données aux régulateurs (higher supervisory expectations).

Les effets des taux d’intérêt bas sur les banques sont modérés et liés à leurs modèles économiques respectifs

Les bilans des institutions bancaires concentrent-ils moins de risques, malgré la faiblesse des taux d’intérêt ?

SB : Les effets des taux d’intérêt bas sur les banques sont modérés et liés à leurs modèles économiques respectifs. Les banques universelles, dont les établissements bancaires d’importance systémique font partis, ont vu leurs contributions au risque systémique (capturé par le SRISK) diminuer lors du passage à des taux d’intérêt négatifs Au contraire, les banques domestiques, plus petites et avec un modèle économique plus traditionnel ont vu leur risque augmenter.

Pour conclure, quel est l’impact des taux bas sur le risque systémique ?

SB : Il n’est pas facile de répondre à cette question. Une grille de lecture possible a été évoquée par l’ancien gouverneur de la Banque de Finlande, Erkki Liikanen, dans un discours en 2016, qui s’est alarmé d’un possible retour de la recherche de rendement risqué pour contrebalancer la faiblesse des taux d’intérêt. En fait, le but des taux bas est de soutenir la croissance économique à long terme en incitant les banques à prêter aux PME. Même si les taux bas créent une pression sur la profitabilité des banques, une croissance économique solide soutiendrait l’activité bancaire avec davantage de crédits octroyés à l’économie réelle en créant ainsi un cercle vertueux. C’était l’idée de la banque centrale à travers la surveillance des prêts non performants. Toutefois, avec l’atonie des perspectives économiques actuelles, il pourrait y avoir de mauvaises surprises : les taux bas posent des questions sur l’allocation efficace des capitaux par les banques qui se mesure par le pourcentage de prêts non performants.