De nos jours, le trading à haute fréquence représente près de 70 % des transactions aux Etats-Unis, 30 % en Europe et 60 % dans le monde ! L’augmentation de l’utilisation des algorithmes de trading dans les salles de négociation n’est pas sans effet sur le processus de formation des prix. Par ailleurs, les évolutions réglementaires, intervenues ces dernières années (directive MIF en vigueur en Europe depuis novembre 2007), ont considérablement changé les règles du jeu pour les professionnels. On peut, par exemple, citer la fragmentation des marchés et la concurrence entre les plateformes de négociation. Quelle en est l’incidence sur la liquidité ? Comment les régulateurs peuvent-ils anticiper leurs décisions ? Quels sont les effets sur la formation des prix des actifs ? Que peuvent faire les professionnels pour s’adapter à ces mécanismes récents ? Quelles sont les modélisations adéquates ? Ces problématiques sont d’autant plus importantes dans le contexte actuel de morosité économique et de critiques des milieux financiers.
 
Pour répondre à tous ces défis, des chercheurs émérites et d’horizons divers effectuent des recherches poussées. Certaines d’entre elles figureront dans le cahier trimestriel n°7 de l’Institut Louis Bachelier (ILB). Ainsi, Laurence Lescourret, professeur à l’ESSEC Business School, s’est intéressée à l’activité des teneurs de marchés en pré-ouverture du Nasdaq et de leurs effets sur les prix à l’ouverture de la Bourse. Carole Gresse, enseignante à l’Université Paris-Dauphine, a étudié l’impact de la directive MIF sur la liquidité globale et locale pour déterminer de son amélioration ou non. D’autres sujets de recherche seront abordés dans le prochain cahier de l’ILB, tels que l’incidence des transactions sur la variation de prix ; les effets des actifs meneurs sur les actifs suiveurs ; l’optimisation de la vitesse et la quantité de trading et même le développement d’un nouveau modèle permettant de prévoir le changement d’un tick. En clair, les mécanismes régissant la microstructure de marché sont expliqués, décortiqués et étendus, dans le but de proposer des recommandations concrètes aux pouvoirs publics et aux professionnels.
 
Enfin, quatre chercheurs et participants au cahier de l’ILB n°7 (Frédéric Abergel, Jean-Philippe Bouchaud, Charles-Albert Lehalle et Mathieu Rosenbaum), font partie du comité d’organisation de la conférence internationale sur la microstructure de marché. Cet événement de conférences-débats se déroulera du 10 au 13 décembre à Paris, sous la houlette de l’Institut Louis Bachelier. 
 
 

Quels sont les effets de la fragmentation des marchés sur la liquidité ?

D'après un entretien avec Carole Gresse et son article « Effects of Lit and Dark Trading Venue Competition on Liquidity : The MiFID Experience » (Université Paris-Dauphine)
 
 
 
Synthèse
L’augmentation croissante des échanges électroniques, cumulée aux évolutions réglementaires en Europe (directive MIF appliquée depuis le 1er novembre 2007), a conduit à une fragmentation des marchés financiers. Aujourd’hui, il existe plusieurs plateformes de cotation en concurrence sur le « Vieux Continent ». Cette compétition accrue est-elle positive pour la liquidité globale des marchés ? Quid de la liquidité locale sur les Bourses primaires ? Comment mesurer la liquidité ?
Pour répondre à ces problématiques cruciales, à la fois pour les régulateurs et les professionnels de marché, Carole Gresse a effectué une étude empirique sur des actions européennes avant et après l’application de la directive MIF. Il en ressort de nombreuses observations pertinentes. Ainsi, la liquidité globale et locale s’est améliorée avec la fragmentation des marchés, via une détente des spreads. Cependant, au niveau local, la concurrence entre plateformes peut réduire la profondeur de liquidité des petites et moyennes capitalisations. Quant à la crise de liquidité constatée en 2008, elle n’est pas due à l’entrée en vigueur de la directive MIF, mais à d’autres facteurs tels que la crise financière et les algorithmes de trading.
 
En Europe, l’entrée en vigueur de la directive MIF (Marchés d’instruments financiers), le 1er novembre 2007, a créé un environnement concurrentiel pour les systèmes et services de trading. Carole Gresse a mené une étude empirique sur des actions européennes avant et après l’application de la MiFID (Markets in Financial Instruments Directive). Son but : déterminer les effets positifs et négatifs de la fragmentation des marchés sur la liquidité globale et locale. 
 
Auparavant, les marchés boursiers étaient consolidés et en quasi-monopole, en raison de la diminution du coût marginal d’une transaction en fonction des quantités d’ordres exécutés sur le marché. Cependant, avec l’évolution des technologies et les changements réglementaires instaurés par la directive MIF, la concurrence entre les lieux d’exécution des ordres est apparue en Europe, au cours des dernières années. Cette directive européenne, entrée en vigueur le 1er novembre 2007, a aboli la règle de concentration des ordres de trading. Désormais, il y a trois lieux d’exécution des ordres : les marchés réglementés qui sont les Bourses originelles, les MTF (Multilateral Trading Facilities) et les internalisateurs systématiques. A leurs côtés, on retrouve les opérateurs de gré à gré (OTC). Ces derniers ne sont pas soumis aux mêmes règles, mais ils ont une obligation de transparence post-négociation.
La fragmentation des marchés électroniques et ses conséquences sur la liquidité sont très importantes pour les régulateurs, les émetteurs et les gestionnaires de fonds, surtout avec l’essor du trading à haute fréquence.
 
Comment mesurer la liquidité ?
La liquidité se mesure pour deux catégories d’acteurs. Les traders locaux qui n’ont accès qu’aux Bourses primaires (Euronext, LSE…) et les traders globaux qui peuvent se connecter à toutes les plateformes disponibles.
Carole Gresse a opté pour trois indicateurs de liquidité, à savoir le spread coté, le spread effectif et la profondeur de marché. Le spread coté se définit par la fourchette offre/demande et correspond au coût de la liquidité. Le spread effectif est la différence entre le prix d’exécution de l’ordre et le mid-quote, c’est le coût de la liquidité effectivement payé lors d’une transaction. La profondeur de marché se définit par la quantité de titres pouvant être échangés sans faire évoluer le cours. 
Ensuite, ces indicateurs ont été calculés localement sur chaque Bourse primaire, ainsi que globalement par une agrégation des cotations de tous les marchés. 
Les données des transactions et des cotations étudiées dans cet article portent sur les valeurs du FTSE-100, du CAC 40 et du SBF120. Les titres financiers ont été volontairement exclus, car ils étaient beaucoup trop volatils en 2008 et en 2009.
 
La liquidité avant et après la MiFID
Dans la première approche de l’étude empirique, le mois d’octobre 2007 correspond à la période d’observation avant l’application de la MiFID. Pour éviter les altérations statistiques dues à la crise financière de 2008, la chercheuse a choisi les mois de janvier, juin et septembre 2009 comme période post-MiFID. En raison des niveaux divers de volatilité et de fragmentation selon les périodes, le mois de septembre 2009 est le plus comparable à celui d’octobre 2007. La comparaison porte sur un échantillon de 140 actions dont 51 du FTSE-100, 32 du CAC 40 et 57 du SBF 120.
« Ce comparatif pre- et post-MiFID montre que les spreads ont diminué graduellement avec l’augmentation de la fragmentation des flux d’ordres visibles. Cette réduction des spreads est devenue plus significative après juin 2009. Une tendance qui est toutefois moins nette pour les moyennes que pour les grandes capitalisations, car leur flux d’ordres est moins fragmenté. Parmi les grandes capitalisations, la baisse des spreads a été beaucoup plus élevée pour les actions cotées sur le LSE, qui est fortement concurrencé par la plateforme CHI-X”, explique Carole Gresse, tout en ajoutant que “la réduction de la profondeur de marché découle d’une autre raison. Elle a été beaucoup plus forte en janvier 2009. Cela signifie qu’elle a été engendrée par d’autres facteurs que la fragmentation. En particulier, la chute des moyennes de profondeur de marché et des tailles des transactions est peut-être plus une conséquence des algorithmes de trading que de la fragmentation ».
 
L’analyse en séries temporelles livre des réponses concrètes
Dans la seconde approche, l’observation porte sur 63 jours de trading (du 1/09 au 30/11/2009) et sur un échantillon de 152 actions dont 64 du FTSE-100, 32 du CAC40 et 56 du SBF 120. « Cette analyse confirme que la fragmentation des marchés devrait être vue comme une compétition de création de valeur, qui améliore la liquidité globale. Au pire des cas, elle ne l’affecte pas. Dans la plupart des situations, la fragmentation a des effets positifs sur la liquidité locale des Bourses principales », souligne Carole Gresse. Cependant, le seul bémol observé concerne la profondeur de marché des petites et moyennes capitalisations, qui peut être affaiblie par la fragmentation. Quant aux internalisateurs, ils agissent positivement sur la profondeur de marché, mais pas forcément pour les fourchettes de prix. 
 
Méthodologie 

Carole Gresse s’est intéressée à la fragmentation des marchés en Europe, afin d’évaluer son impact sur la liquidité. A partir de données de trading de huit Bourses fournies par l’Intelligent Financial Systems et par Markit BOAT, elle a comparé la liquidité consolidée des différentes plateformes en concurrence, dite liquidité globale, et la liquidité du marché primaire, dite liquidité locale, avant et après l’application de la directive MIF, en utilisant des mesures classiques de la liquidité comme les spreads et la profondeur de marché. Dans une première approche, la chercheuse a comparé la liquidité avant et après la MiFID, en se basant sur des moyennes mensuelles d’actions européennes, tout en évitant soigneusement l’année 2008 pour éviter les biais relatifs à la crise financière. Dans une seconde approche, elle a effectué une analyse en séries temporelles, via la méthodologie des panels pour mesurer l’impact de la fragmentation sur la liquidité, après l’application de la MiFID. Carole Gresse conclut son article par ses observations sur l’amélioration de la liquidité grâce à la fragmentation des carnets d’ordres.

 
Recommandations 

  • L’analyse en séries temporelles post-MiFID confirme que la fragmentation des marchés a des effets bénéfiques sur la liquidité globale. Cela est visible notamment par la détente des spreads.
  • L’internalisation et le Dark Trading améliorent la profondeur de liquidité mais peuvent contribuer à élargir les spreads pour certains titres.
  • Les diverses formes de Dark Trading doivent être distinguées pour évaluer leur impact réel sur la liquidité. 
A Retenir 

  • La fragmentation des marchés peut éventuellement réduire la profondeur de liquidité au niveau local des petites et moyennes capitalisations. Pour ce cas de figure, les investisseurs globaux qui utilisent des Smart Orders Router (SOR) bénéficient d’une meilleure liquidité que les investisseurs locaux.
  • L’assèchement de la liquidité et la forte volatilité observées en 2008, juste après l’application de la MiFID, ne sont pas dues à la fragmentation des marchés, mais à d’autres facteurs notamment la crise financière.
 
Cahier de l’ILB N° 7, Article de Carole GRESSE
 

Comment optimiser le rythme de trading ?

D’après un entretien avec Charles-Albert Lehalle (Crédit Agricole Chevreux) et son article « Market Microstructure knowledge needed to control an intra-day trading process », in Handbook on Systemic Risk (Jean-Pierre Fouque et Joseph Langsam Edt.) Cambridge University Press, 2013.
 
 
Synthèse
La multiplication des échanges électroniques, l’évolution technologique et l’accroissement des interactions entre les acteurs de marché, font partie des éléments qui agissent sur le processus de formation des prix des actifs financiers. Comment modéliser ces microstructures de marché ? A quel rythme un trader doit-il acheter ? Dans quelles proportions ? Toutes ces problématiques conditionnent les profits futurs d’un trader. Elles se doivent donc d’être étudiées et résolues, tout en prenant en compte l’incertitude.
L’équipe de recherche quantitative du Crédit Agricole Chevreux a incorporé le volet incertitude dans un modèle d’optimisation du trading quantitatif très utilisé dans les salles de  marché. Ces travaux permettent notamment d’établir une relation entre les prix des actifs, les quantités souhaitées et la liquidité disponible. Dès lors, un trader peut plus facilement comprendre le processus de formation des prix, lui permettant ainsi d’optimiser sa vitesse de trading et de réaliser des gains.
 
Le développement tous azimuts du trading à haute fréquence, ainsi que les changements adoptés par les régulateurs, agissent directement sur le processus de formation des prix des actifs financiers échangés sur les marchés électroniques. Charles-Albert Lehalle et son équipe se sont intéressés à cette thématique récente, en modélisant dynamiquement la façon dont le prix se forme, en formalisant les stratégies de market making et en analysant statistiquement un modèle standard de trading optimal.
 
La microstructure des marchés représente un « écosystème » dans lequel les intérêts des vendeurs rencontrent ceux des acheteurs, donnant ainsi naissance à des échanges. En effet, les millions d’ordres effectués, l’environnement réglementaire, les comportements de trading des agents, la vitesse des prises de décision, les systèmes d’enchères ou encore les interactions entre les différentes plateformes électroniques ont des incidences directes sur le processus de formation des prix.
Dès lors, un des objectifs d’un trader, qu’il travaille pour son propre compte ou pour un investisseur institutionnel, est d’optimiser ses stratégies de trading pour minimiser son risque sans compromettre ses anticipations de gains. Le trading optimal ou trading quantitatif consiste à la recherche de l’équilibre entre l’apport de liquidité pour minimiser l’impact de marché et la consommation de liquidité pour réduire l’exposition au risque de marché. A ce niveau, la rationalisation de l’implémentation des stratégies d’investissement sur les marchés est primordiale (cf. l’article sur le trading quantitatif présenté dans le cahier n°3 de l’ILB).
 
Les interactions entre les acteurs génèrent des incidents
Les changements réglementaires intervenus aux Etats-Unis (réglementation NMS en 2005) et en Europe (directive MIF en 2007) ont augmenté la concurrence entre les différents acteurs (plateformes boursières, market makers), conduisant à une fragmentation des marchés. Par exemple, aujourd’hui, une action peut être cotée sur plusieurs places boursières à des prix très légèrement différents (de l’ordre de centièmes de pourcents), ce qui représente un réel enjeu pour un investisseur institutionnel.
Certes, les réglementations américaines et européennes n’ont pas le même degré de libéralisation, mais leurs marchés électroniques ont beaucoup en commun : les microstructures de marché évoluent de manière similaire vers l’augmentation du trading à haute fréquence, des temps de latence plus faibles et des interconnexions entre toutes les couches du marché (investisseurs, intermédiaires, opérateurs).
Cette fragmentation des marchés a donné lieu à de nombreux incidents. Le flash crach intervenu le 6 mai 2010 aux Etats-Unis est l’exemple le plus frappant : « la conjonction des défaillances entre toutes les couches du marché (investisseurs institutionnels, intermédiaires, teneurs de marché, opérateurs est certainement un élément crucial du flash crach », constate Charles-Albert Lehalle. Pour sa part, l’Europe a subi à plusieurs reprises des pannes informatiques provoquant des suspensions de cotation et un gel des échanges.
 
Le modèle étendu prend en compte l’incertitude
En dépit de ces nombreux incidents et d’incessantes évolutions, un trader garde toujours le même objectif, à savoir optimiser ses stratégies de trading et anticiper ses pertes et profits. Pour ce faire, le modèle développé en 2000 par Almgren et Chriss est largement utilisé et facile à mettre en place. Il permet aux traders de décider à quel rythme participer aux enchères électroniques, à l’aide d’un équilibre moyenne-variance (cf. l’article sur le trading quantitatif présenté dans le cahier n°3 de l’ILB). 
Toutefois, les chercheurs de l’équipe quantitative du Crédit Agricole Chevreux ont voulu aller plus loin, en intégrant à ce modèle un point de vue statistique : « nous y avons ajouté des estimations et des opportunités statistiques pour les arbitragistes notamment. En effet, l’incertitude sur les prochaines minutes est plus faible que sur les deux prochaines heures, il faut donc opérer des changements dans les équations originales », explique Charles-Albert Lehalle. Et d’ajouter : « le modèle étendu permet de savoir combien de titres un trader doit acheter et à quelle vitesse. Cela instaure une relation entre les opportunités de prix et la liquidité habituellement disponible».
 
L’optimisation géographique nécessite un logiciel
En plus de devoir optimiser ses stratégies de trading dans le temps, un trader doit également faire face aux disparités géographiques des marchés. En effet, une action France Télécom peut être échangée sur Euronext (ancienne Bourse de Paris), sur Chi-X, BATS Europe ou encore Turquoise, pour ne considérer que les plus importantes plateformes existantes. Même si Euronext a déplacé ses serveurs dans la banlieue de Londres, le temps de parcours d’un message électronique jusqu’à chacune des plateformes n’est pas le même. De ce fait, le recours à un « Smart Order Router » (SOR) est indispensable. Ce type de logiciel est dédié à la division des ordres dans l’espace, afin d’obtenir la liquidité souhaitée aussi vite que possible.
 
Méthodologie 

Depuis l’essor du trading à haute fréquence, l’avènement de la crise financière de 2008 et les évolutions réglementaires récentes, l’augmentation de la complexité des processus de formation des prix sur les marchés financiers, est devenue un enjeu crucial pour les régulateurs et les investisseurs. Charles-Albert Lehalle et ses co-auteurs ont souhaité étudier de plus près ce sujet. Après avoir défini des notions caractérisant les marchés actuels, tels que la microstructure de marché, le design de marché ou la fragmentation des marchés, les auteurs ont expliqué l’importance des interactions existant entre les différents acteurs de marché, en les illustrant avec des exemples précis (le flash crach du 6 mai 2010 ou les différentes pannes constatées en Europe). Puis, ils ont étendu le modèle de trading optimal développé par Almgren-Chriss en 2000, en y ajoutant un point de vue statistique, afin de conclure sur des recommandations pratiques.

 
Recommandations 

  • Une bonne compréhension du processus de formation des prix est très importante. Les modèles ont besoin d’intégrer quelle sont les sources de leurs performances et de leurs risques entre la planification des ordres, les interactions dans les carnets d’ordres, l’impact de marché ou encore les mouvements de prix.
  • Les régulateurs doivent adopter des normes en adéquation avec l’automatisation des transactions, afin de garantir un processus de formation des prix le moins manipulable possible.
A Retenir 

  • Il existe des modèles permettant d’optimiser le rythme du trading. Ils sont  basés sur des équilibres moyenne-variance ou sur du contrôle stochastique.
  • Les algorithmes de trading doivent être testés et leur sensibilité aux conditions de marché évaluée. 
  • Une bonne compréhension du processus de formation des prix est nécessaire. Une modélisation de la microstructure (en utilisant par exemple des modèles de jeux à champs moyens) permet d’éclairer les régulateurs sur l’impact d’une modification des règles des enchères.
 
Cahier de l’ILB N° 7, Article de Charles-Albert LEHALLE
 
Article de recherche lié 

 

Quelles sont les actifs financiers meneurs ?

D’après un entretien avec Frédéric Abergel et son article "High Frequency Lead/Lag Relationships Empirical facts" (Chaire de finance quantitative, Ecole Centrale Paris), co-écrit avec Nicolas Huth (Natixis, Equity Market).
 
 
Synthèse
La théorie financière classique a pour hypothèse l’absence d’arbitrage sur les marchés financiers et, par conséquent, l’inexistence d’actifs meneurs, qui ont un temps d’avance par rapport à d’autres. Cependant, plusieurs observations empiriques, dont celle de Frédéric Abergel et son co-auteur, ont démontré le contraire. Ainsi, dans les transactions à haute fréquence, des actifs financiers ont tendance à donner la direction à d’autres actifs. Ces phénomènes sont communément appelés effets Lead/Lag. Pour les mesurer, les auteurs ont notamment effectué des calculs de corrélations croisées et des mesures de dissymétrie sur des paires d’actifs comme des actions et des futures sur indice. Qu’ont-ils constaté ?
Les effets Lead/Lag sont plus importants entre un future sur indice et une action comprise dans cet indice, tandis qu’ils sont moins évidents entre deux actions d’un même secteur. En clair, les actifs les plus liquides sont généralement meneurs par rapport aux autres. Certes, cette conclusion était intuitivement admise par les milieux financiers, mais l’étude empirique effectuée apporte d’autres recommandations concrètes, comme prévoir à court terme l’évolution des actifs suiveurs.
 
Le trading à haute fréquence prend de plus en plus d’ampleur sur les marchés financiers mondiaux. Dans leur quête de performance, les professionnels de la finance doivent s’adapter à cette pratique récente contenant des postulats empiriques (ou faits stylisés), qui contredisent la théorie économique classique. Frédéric Abergel et son co-auteur se sont intéressés à l’un d’eux : les effets Lead/Lag, en effectuant une étude d’observation sur des actions et des futures sur indice.
 
La théorie financière classique postule l’absence d’arbitrage sur les marchés financiers. Il est donc impossible de prévoir les performances des actifs. De ce point de vue, les effets Lead/Lag, qui se caractérisent par le fait que des actifs influencent d’autres actifs avec un temps d’avance, ne sont pas censés exister. Ce postulat de base se vérifie, lorsque l’horizon temporel est d’une journée : « A l’échelle journalière, il n’y a pas d’effet Lead/Lag, car les imperfections de marché disparaissent », confirme Frédéric Abergel. Cependant, ce même postulat ne s’applique pas au trading à haute fréquence qui utilise une échelle de temps de l’ordre de la milliseconde. « Selon le principe de l’efficience des marchés, il serait impossible de prévoir le sens de variation d’un actif à partir de celui d’un autre actif. Cependant, les résultats empiriques démontrent le contraire, en constatant des imperfections de marché dont font partie les effets Lead/Lag », affirme Frédéric Abergel. Quels sont ces résultats empiriques ? Comment ont-ils été menés ? Quelles conclusions apportent-ils ?
 
Comment les effets Lead/Lag ont-ils été mesurés ?
A partir de la puissante base de données RTCE développée par Reuters, les chercheurs ont étudié sur une échelle de temps très fine, les effets Lead/Lag sur 43 actions dont celles du CAC40, ainsi que sur les futures sur CAC 40, Footsie 100, Dax et SMI. « Les phénomènes Lead/Lag proposent une prédictibilité d’un actif par rapport à un autre. Nous avons étudié de nombreuses paires d’actifs pour les démontrer », explique Frédéric Abergel. Après le recueil de données, les auteurs ont calculé les corrélations croisées entre les actifs, grâce à l’estimateur d’Hayashi-Yoshida. Celui-ci permet d’estimer des données asynchrones, comptabilisées en « tick par tick ». Dès lors, il est possible de mesurer les effets Lead/Lag sur une échelle de temps très courte. Pour prouver l’existence de ces phénomènes, les chercheurs ont effectué des mesures de dissymétrie de la fonction de corrélation croisée. « Quand on trace une fonction de corrélation croisée, on observe le premier actif dans le passé, afin de voir s’il a une influence sur le second actif, et vice-versa. Lorsqu’il y a une asymétrie de la fonction, le passé d’un des actifs influe sur le futur de l’autre », précise Frédéric Abergel. Ensuite, pour confirmer l’intuition de base selon laquelle des actifs mènent d’autres actifs avec un temps d’avance, les chercheurs ont comparé des indicateurs de liquidité classiques, tels que les niveaux de turnover et de volatilité, avec les effets Lead/Lag. 
 
Que se passe-t-il lors de forts mouvements de prix ?
Les auteurs se sont intéressés à ce type de cas particuliers et de leurs incidences sur les effets Lead/Lag. Pour ce faire, ils ont introduit un seuil dans l’estimateur de corrélation, afin de déterminer l’ampleur des effets Lead/Lag. Ces derniers sont beaucoup plus prononcés lorsqu’il y a de grandes variations de prix, car l’asymétrie et la corrélation y sont élevées.
 
Les actifs les plus liquides sont meneurs par rapport aux autres
Les effets Lead/Lag diffèrent selon le type d’actifs étudiés. D’après les auteurs, les effets sont beaucoup plus importants entre un future sur indice et une action appartenant à ce même indice : « En général, on observe que le marché des futures sur indice est beaucoup plus liquide que le marché actions. Il est donc leader et bénéficie d’une très forte corrélation », note Frédéric Abergel. A l’inverse, les effets Lead/Lag sont plus faibles entre deux actions, sans pour autant être nuls : « Dans un même secteur industriel, une action aura souvent tendance à dominer et à donner le ton aux autres. L’estimation des effets Lead/Lag met en évidence ce genre de comportement. Ainsi, il est possible de comprendre le temps de réaction des actions par rapport à d’autres », poursuit Frédéric Abergel. Avec un taux de réussite de 60 %, lorsque les auteurs ont tenté de prévoir la variation d’une action avec l’observation passée du future sur l’indice auquel elle appartient, cette étude empirique se révèle concluante. « Cependant, cela ne permet pas nécessairement de générer des profits en envoyant seulement des ordres au marché, en raison des spreads entre les prix d’achat et de vente», préviennent les auteurs.
 
Méthodologie 

Intuitivement, il est admis qu’un actif très liquide (le leader ou le meneur) influence un autre actif à un moment ultérieur (le lagger ou le suiveur). Fréderic Abergel et son co-auteur ont souhaité étudier de plus près ces phénomènes (appelés effets Lead/Lag) entre différents actifs financiers. Tout d’abord, ils ont utilisé la base de données RTCE (Reuters Tick Capture Engine), afin de collecter les données relatives à toutes les transactions boursières. Ces données sont calculées en « tick en tick » (tout évènement qui influe sur les prix ou les carnets d’ordres), ce qui permet l’analyse d’horizons temporels très courts. Ensuite, ils ont utilisé un estimateur dû aux auteurs japonais Hayashi etYoshida, pour calculer les corrélations asynchrones et mesurer les effets Lead/Lag. Puis, ils ont effectué des mesures de dissymétrie de la fonction d’autocorrélation, dans le but d’observer les influences des actifs meneurs sur les actifs suiveurs. Enfin, ils ont comparé les effets Lead/Lag avec des indicateurs classiques de liquidité pour confirmer l’intuition de base ; avant d’étudier des cas particuliers et de conclure par des recommandations pratiques.

 
Recommandations 

  • L’utilisation de l’estimateur d’Hayashi et Yoshida est très utile lorsque les données analysées sont asynchrones, ce qui est le cas pour le trading à haute fréquence.
  • La connaissance des effets Lead/Lag sur les marchés financiers peut être utilisée pour prévoir l’évolution à court terme des actifs suiveurs. La construction de stratégies d’arbitrage statistique est ainsi possible.
  • Les effets Lead/Lag sont beaucoup plus prononcés en termes d’asymétrie et de corrélation, lorsque les variations de prix sont élevées.
A Retenir 

  • Les effets Lead/Lag sont très prononcés entre un future sur indice et une action appartenant à ce même indice, alors qu’ils sont moins visibles entre deux actions.
  • L’observation du passé du contrat future permet de prévoir la prochaine évolution du midquote (prix d’équilibre entre offre et demande) d’une action dans 60 % des cas.
  • Les actifs les plus liquides qui ont par exemple un faible spread entre offre et demande ont tendance à mener les autres actifs.
 
Cahier de l’ILB N° 7, Article de Frédéric ABERGEL
 
Article de recherche lié
 

 

 

L’influence des échanges sur les variations de prix

D’après un entretien avec Jean-Philippe Bouchaud et son article « Anomalous Price Impact and the Critical Nature of  Liquidity in Financial Markets » (Capital Fund Management), co- écrit avec B. Tóth, Y. Lempérière, C. Deremble, J. de Lataillade, J. Kockelkoren.
 
 
 
Synthèse
Un méta-ordre désigne un ordre de trading très gros, qui doit être fragmenté en plusieurs parties pour être exécuté. Les fonds d’investissement réalisent la majeure partie de leurs transactions avec des méta-ordres. Pour des raisons évidentes de coûts, il est très important pour les professionnels de comprendre l’évolution des prix des actifs lors de l’exécution de méta-ordres.
A partir d’une observation empirique sur 500 000 méta-ordres et grâce au développement d’un modèle dynamique de la liquidité, l’équipe de Capital Fund Management a mesuré l’impact des méta-ordres sur l’évolution des prix des actifs. Pour Jean-Philippe Bouchaud, la théorie classique de croissance linéaire des prix en fonction des volumes n’est pas vérifiée : « La dépendance de l’impact du méta-ordre sur le volume croît comme la racine carrée du volume, contrairement à ce qu’affirme la théorie classiqueL’impact est donc concave et non linéaire, comme on aurait pu naïvement le penser ».
Une autre constatation effectuée par les auteurs concerne le manque de liquidité autour du prix actuel, augmentant ainsi l’impact des petites transactions sur les variations de prix. Ce phénomène est une des causes de l’agitation des marchés financiers.
 
Les exécutions des ordres de trading représentent des coûts très importants pour les fonds d’investissement. Cette problématique est encore plus prononcée lorsque la volatilité des marchés est élevée et que la liquidité est faible. Jean-Philippe Bouchaud et son équipe ont étudié l’impact des « méta-ordres » (ordres de trading qui doivent être fragmentés en petites parties, afin d’être exécutés) sur les variations de prix, en développant une théorie dynamique de la liquidité et en effectuant une étude empirique.
 
La théorie financière classique, due à Albert Kyle, prédit que les variations de prix sont corrélées linéairement avec le volume des ordres d’achat ou de vente. En clair, un ordre d’achat sur un actif quelconque pousse le prix de cet actif à la hausse proportionnellement au volume de l’ordre (et inversement à la baisse dans le cas d’un ordre de vente). Cependant, plusieurs études empiriques, réalisées par de nombreux auteurs (universitaires, brokers, Bourses, fonds d’investissement…), remettent en cause l’intuition de la théorie classique. Plus précisément, l’impact des variations de prix semble augmenter en fonction de la racine carrée du volume du méta-ordre, autrement que 1+1 est inférieur à 2 ! Cette observation apparaît comme contre-intuitive et mérite d’être éclairée et expliquée. 
 
Pourquoi s’intéresser aux méta-ordres ?
Les méta-ordres peuvent se définir comme des ordres trop gros pour être exécutés d’un seul coup, et doivent être fragmentés en plusieurs parties pour être exécutés de manière incrémentale. Or chaque « trade » élémentaire d’un méta-ordre pousse à la hausse ou à la baisse les prix de l’actif échangé. Par conséquent, l’addition de l’impact de tous ces « trades » élémentaires fait augmenter considérablement le coût total du méta-ordre. Le calcul et le contrôle de l’impact des méta-ordres constituent donc un défi financier considérable pour les fonds alternatifs et les sociétés de gestion. « Cet aspect coût de l’impact est donc très important pour les gestionnaires de fonds et limite la capacité des stratégies », confirme Jean-Philippe Bouchaud. Ce sujet de recherche en finance quantitative est naturellementdevenu l’un des plus actifs depuis le milieu des années 1990. 
 
La loi en racine carrée est vérifiée
Les nombreuses études empiriques effectuées, dont celle de CFM, ont constaté que la variation des prix dans un méta-ordre augmente en fonction de la racine carrée du volume échangé. « La dépendance de l’impact du méta-ordre sur le volume croît comme la racine carrée du volume contrairement à ce qu’affirme la théorie classique. L’impact est donc concave et non linéaire, comme on aurait pu naïvement le penser », explique Jean-Philippe Bouchaud. Ce constat s’applique quelle que soit la classe d’actifs étudiée (actions, devises, futures…) et la stratégie de trading adoptée (analyse technique ou fondamentale, arbitrage…). « La forme mathématique de l’impact des méta-ordres sur les variations de prix semble très universelle. Cette universalité sur tous les marchés suggère que les mécanismes sous-jacents à la loi en racine carrée sont les mêmes », poursuit Jean-Philippe Bouchaud.
 
Les petits ordres ont un impact élevé
Le mécanisme proposé par les auteurs est le suivant : la montée des prix provoque un afflux du nombre de vendeurs qui a tendance à diminuer l’impact des dernières transactions par rapport aux premières. « Si le nombre de vendeurs croît linéairement en fonction de la variation de prix, on obtient une racine carrée pour l’impact. Or, c’est exactement ce que notre théorie dynamique du profil en « V » prédit ! », affirme Jean-Philippe Bouchaud. 
Toutefois, le manque de liquidité autour du prix actuel – conséquence du profil en « V » – explique pourquoi l’impact des petits ordres est anormalement élevé : « il y a très peu d’intervenants autour du prix actuel, ce qui conduit à une faible liquidité. Cette fragilité des marchés financiers augmente l’impact des petites transactions. En effet, lorsque la liquidité est faible, tout intervenant, même petit, a un rôle important », souligne Jean-Philippe Bouchaud. Pour les auteurs, le manque de liquidité autour du prix actuel est une conséquence directe du caractère diffusif des prix sur les marchés financiers. Le profil en « V » et le manque de liquidité immédiate a deux conséquences importantes. La première concerne la fragmentation des méta-ordres en plusieurs « mini-ordres », pour pouvoir être digérés dans le flux de liquidité. La seconde concerne la fragilité de cette liquidité évanescente : « Les fluctuations de liquidité doivent jouer un rôle crucial lorsque la liquidité moyenne est faible. Nous pensons donc que ces micro-crises de liquidité sont au cœur des turbulences des marchés financiers », concluent les auteurs.
 
Méthodologie 

Sur les marchés financiers, toutes les transactions – et plus particulièrement les méta-ordres réalisés par les grands fonds d’investissement – ont des incidences à la hausse (pour des ordres d’achat) ou à la baisse (pour des ordres de vente). Jean-Philippe Bouchaud et ses co-auteurs ont souhaité mesurer précisément l’impact des méta-ordres sur les variations de prix. A partir de données accumulées sur 500 000 méta-ordres effectués sur différentes classes d’actifs par Capital Fund Management (CFM), les auteurs ont montré que la variation moyenne du prix relatif entre la première et la dernière transaction d’un méta-ordre donné peut se décrire mathématiquement par une loi en racine carrée du volume du méta-ordre. En partant de l’hypothèse que les prix sur les marchés font une marche aléatoire, ils ont développé une théorie dynamique de la liquidité des marchés. Celle-ci prévoit que le profil moyen de la courbe Offre/Demande a une forme en « V » qui tend vers zéro autour du prix actuel. La loi en racine découle naturellement de ce profil en « V ». Avant de livrer leurs conclusions, les auteurs ont testé leurs arguments quantitatifs sur un marché numérique artificiel.

 
Recommandations 

  • La forme mathématique de l’impact des méta-ordres sur les variations de prix est complètement universelle quelle que soit la classe d’actifs analysée.
  • La compréhension de l’incidence des méta-ordres sur les variations de prix conduit à des implications immédiates pour les fonds d’investissement, en termes d’optimisation des coûts.
A Retenir 

  • Une théorie dynamique de la liquidité prévoit que le profil moyen de la courbe Offre/Demande a une forme en V et tend vers zéro autour du prix actuel.
  • La variation moyenne du prix relatif entre le premier et le dernier trade d’un « méta-ordre » (ordre qui doit être fragmenté en petites parties, afin d’être exécuté), est décrite mathématiquement par la loi en racine carrée.
  • La liquidité sur les marchés financiers est fragile et critique, et l’impact des petits ordres est anormalement élevé.
 
Cahier de l’ILB N° 7, Article de Jean-Philippe BOUCHAUD
 
Article de recherche lié 

 

L’influence des informations non-fondamentales sur les cotations

D’après un entretien avec Laurence Lescourret et son article « Non-Fundamental Information and Market-Makers' Behavior during the NASDAQ Preopening Session » (ESSEC Business School).
 
 
 
Synthèse
Comment les teneurs de marché réagissent-ils aux informations non-fondamentales ? Quel est le rôle de ces informations dans le processus de formation des prix ? Quels sont les effets de la pré-ouverture de la Bourse sur les cotations quotidiennes ?
Les informations non-fondamentales se définissent par des chocs de liquidité pouvant affecter provisoirement les prix. Les firmes uniquement spécialisées dans la tenue de marché se concentrent sur ce type d’informations pour réaliser leurs opérations, car elles ne disposent pas d’informations fondamentales. En réalisant son étude empirique sur l’activité des teneurs de marché en pré-ouverture du Nasdaq, Laurence Lescourret a relevé plusieurs points importants pour la communauté financière. Cette étude contribue à donner des preuves directes de la relation entre la richesse de l’information non-fondamentale et le processus de formation des prix par les teneurs de marché.
 
L’information non-fondamentale concerne des chocs de liquidité pouvant affecter temporairement les prix. Chaque matin, avant l’ouverture du NASDAQ, les teneurs de marché entrent des cotations indicatives (i.e., ne menant à aucune exécution). Cette activité de soumission et de révision des cotations est significative. Laurence Lescourret a souhaité analyser si cette activité de cotation spécifique était un moyen pour les teneurs de marché d’informer le marché de pressions temporaires sur les prix d’ouverture. Elle a ainsi effectué une étude empirique sur les données du Nasdaq sur la période d’octobre 1995 à septembre 1996.
 
Dans son article, Laurence Lescourret a identifié plusieurs catégories de teneurs de marché. Elle s’est concentrée sur les wholesalers. Ces teneurs de marché ne disposent pas d’informations fondamentales, car ils n’ont pas de département de recherche et d’analyse. Ils sont réputés détenir des informations non-fondamentales, dues à la taille très importante du flux d’ordres, qu’ils reçoivent d’investisseurs non informés et non sophistiqués. L’exécution des ordres à l’ouverture du marché est exacerbée pour les teneurs de marché, du fait de l’importance du volume à exécuter, de l’incertitude sur les prix après l’interruption de la nuit et de la quasi-impossibilité de traiter avant l’ouverture, en raison des coûts de transaction très prohibitifs. Laurence Lescourret a étudié si l’activité de cotations en préouverture du Nasdaq était un moyen pour les teneurs de marché de signaler des informations liées à des pressions temporaires sur les prix, afin d’orienter les prix d’ouverture dans la direction souhaitée (à la hausse ou à la baisse, dépendant du sens de la pression sur leur position).
 
Un marché non anonyme avant 1997
Avant 1997, la liquidité sur le Nasdaq était exclusivement fournie par les teneurs de marché, seuls à absorber les déséquilibres temporaires du flux d’ordres. Ces derniers n’avaient pas encore la possibilité de placer des ordres anonymes dans une autre plate-forme, pour, par exemple, défaire une position trop longue ou trop courte dans le titre échangé. Ils devaient donc gérer leurs positions via leurs cotations (une cotation à la baisse signifie qu’ils sont plus agressifs à la vente ; une cotation à la hausse signifie qu’ils sont plus agressifs à l’achat). Chaque matin, les teneurs de marché avaient la possibilité d’afficher leurs cotations dans le système informatique du Nasdaq à partir de huit heures. Les prix n’étaient pas anonymes, ne stipulaient pas de quantité et étaient seulement indicatifs. Les teneurs de marché n’avaient donc aucune obligation d’exécuter le flux d’ordres. C’est le caractère non obligatoire des cotations qui a laissé supposer qu’elles avaient un contenu informatif et constituaient des signaux émis à l’ensemble de la communauté. 
 
Les rebonds des prix à l’ouverture sont liés à la préouverture
Lors de son premier test empirique effectué sur des données journalières, Laurence Lescourret a constaté que : « les mesures de rebonds transitoires des prix d’ouverture étaient liées à l’intensité de l’activité de cotations en préouverture des teneurs de marché, en particulier ceux détenant de l’information non-fondamentale, c’est-à-dire les wholesalers ». 
 
Les teneurs de marché se comportent différemment les  jours riches en informations financières
Les jours de chocs causés par l’information fondamentale regroupent les jours de publications des recommandations des analystes ou de résultats des entreprises, tandis que les jours affectés par des chocs non-fondamentaux se réfèrent aux jours d’expiration de produits dérivés ou d’indices qui entraînent une forte augmentation transitoire des volumes traités. Selon Laurence Lescourret, « l’activité des teneurs de marché en préouverture dépend de leur accès à l’information fondamentale vs non fondamentale : les firmes de teneurs de marchés uniquement spécialisées sur la tenue de marché ont une probabilité plus grande de placer des cotations indicatives les jours de chocs non-fondamentaux, à la différence des banques d’investissement qui ont une probabilité plus grande de placer des cotations indicatives lorsque le jour est affecté d’un choc fondamental».
 
Les teneurs de marché agissent sur le processus de formation des prix
Dans son dernier test, Laurence Lescourret a souhaité tester si l’activité de soumission de cotations en préouverture des teneurs de marché prédisait le déséquilibre temporaire du flux d’ordres de l’ouverture, voire celui de la journée. Les mesures de déséquilibres du flux d’ordres (différence entre les ordres d’achat et de vente exécutés) constituent des mesures de pressions transitoires sur les prix. En les utilisant, la chercheuse a observé que l’activité de cotations en préouverture des wholesalers avait un lien significatif avec les mesures de pression des prix de la journée. « Ils agissent sur le processus de formation des prix d’ouverture, car leur activité en pré-séance donne des informations sur la direction dans laquelle le prix d’ouverture doit s’orienter pour incorporer cette information non-fondamentale», remarque Laurence Lescourret. 
 
Méthodologie 

Sur le Nasdaq, en 1996, certaines firmes de teneurs de marché ont comme activité unique la tenue de marché (par exemple, Knight Securities), à la différence d’autres, également banques d’investissement (e.g., Goldman Sachs), avec des métiers plus diversifiés. Ces teneurs de marchés spécialisés, désignés comme « wholesalers », payent des courtiers extérieurs pour recevoir des ordres provenant d’investisseurs non informés. A partir de données de prix de préouverture contenant les identifiants des teneurs de marché, Laurence Lescourret a suivi l’activité de cotation de chaque firme et testé si leur activité en préouverture était liée à la révélation d’informations non-fondamentales. Tout d’abord, elle a testé si l’intensité de l’activité de cotation était liée à des mesures de rebonds transitoires des prix d’ouverture. Ensuite, elle a effectué une régression logistique pour déterminer la probabilité qu’un teneur de marché entre des cotations indicatives en préouverture en fonction de variables d’intérêt. Enfin, elle a analysé si l’activité de soumission de cotations indicatives prédisait les déséquilibres temporaires du flux d’ordres de l’ouverture et de la journée.

 
Recommandations 

  • Les résultats valident l’hypothèse que les mesures de rebonds transitoires des prix d’ouverture (les pressions sur les prix à cause de l’illiquidité) sont liées à l’intensité de l’activité de cotations des teneurs de marché en pré-ouverture du Nasdaq.
  • La probabilité pour les teneurs de marché de placer des cotations indicatives est liée à la nature de l’information détenue : les wholesalers ont une probabilité plus grande de coter en préouverture s’il y a un choc de liquidité, alors que les banques d’investissement ont une probabilité plus forte de placer des cotations indicatives les jours où la révélation d’information fondamentale est forte.
A Retenir 

  • Les teneurs de marché agissent sur le processus de formation des prix d’ouverture, via le placement de cotations indicatives en pré-séance. 
  • L’information sur les pressions transitoires sur les prix, par définition non-fondamentale, est très importante pour l’activité des teneurs de marché.
 
Cahier de l’ILB N° 7, Article de Laurence LESCOURRET
 
Article de recherche lié