Yield Curve Modelling at the Bank of Canada

Disponible en format(s) : PDF

Le principal objectif des auteurs est d'établir un cadre d'analyse permettant d'élaborer une base de données chronologiques relative aux courbes théoriques de taux de rendement coupon zéro et de taux à terme estimées à partir des cours des titres du gouvernement canadien. Les auteurs cherchent également à mieux comprendre le comportement de la catégorie des modèles paramétriques de courbe de rendement, plus précisément, le modèle de Nelson et Siegel et celui de Svensson. Ces modèles définissent une forme fonctionnelle pour la courbe des taux d'intérêt à terme instantanés, et l'utilisateur doit déterminer les valeurs des paramètres de la fonction qui sont compatibles avec les prix des titres du gouvernement sur le marché. Les résultats obtenus à l'aide de ces modèles sont comparés à ceux du modèle de courbe de rendement que la Banque du Canada utilise depuis quinze ans. Le modèle actuel de la Banque, qui s'inspire d'une approche élaborée par Bell Canada, estime une courbe de « rendement au pair » à partir des taux de rendement à l'échéance des obligations puis en déduit les taux de rendement coupon zéro et les « taux à terme implicites ». Étant donné l'aspect pragmatique des objectifs visés, l'analyse est centrée sur deux importants problèmes d'ordre pratique : le problème de l'estimation (le choix du meilleur modèle pour représenter la courbe de rendement et de la méthode d'optimisation des paramètres) et le problème du choix des données (c'est-à-dire la sélection d'un échantillon approprié parmi les données du marché). Vu l'absence d'une littérature abondante traitant des aspects pratiques de l'estimation de modèles paramétriques relatifs à la structure des taux d'intérêt, les auteurs fournissent quelques conseils à l'intention de ceux qui désirent utiliser les modèles paramétriques dans le cadre des contraintes du « monde réel ».

Pour analyser le problème de l'estimation, les auteurs fixent les critères de filtrage des données (il s'agit de leur « formule de référence » pour le filtrage) et examinent trois modèles distincts, deux spécifications différentes de la fonction objectif et deux algorithmes de recherche globale. Les résultats obtenus à partir de chacun des neuf schémas envisagés sont évalués en fonction de leur robustesse, de l'adéquation statistique et de la vitesse d'estimation. Le schéma qui donne les meilleurs résultats est le modèle de Svensson qui comporte 1) une fonction objectif de type fonction de vraisemblance logarithmique basée sur les erreurs de prix et 2) un algorithme de recherche globale qui estime les sous-ensembles de paramètres par étapes. Les auteurs font ensuite appel à ce schéma d'estimation pour analyser le problème du choix des données. Ils se penchent sur un certain nombre de combinaisons différentes des critères de filtrage des données; ils utilisent un ensemble de critères de filtrage très contraignants d'une part et cherchent à établir d'autre part si la portion à court terme de la structure des taux est mieux modélisée à l'aide des obligations ou des bons du Trésor (ou des deux types de titres). Les différentes formules de filtrage sont elles aussi comparées entre elles sous l'angle de l'adéquation statistique, de la robustesse et de la vitesse d'estimation. Les auteurs concluent en définitive que la formule de filtrage de référence est la mieux adaptée au choix des données qui serviront à l'estimation de la structure des taux.

Le travail des auteurs contribue à améliorer la compréhension de ce type de modèles paramétriques et permettra d'élaborer une base de données chronologiques relative aux structures de taux estimées. Un certain nombre de questions soulevées par ces modèles ont été résolues dans l'étude. Par exemple, les auteurs croient que la spécification d'une fonction objectif de type fonction de vraisemblance logarithmique est une approche efficace pour résoudre le problème de l'estimation. De plus, la formule de filtrage de référence donne de bons résultats comparativement aux autres formules. Cette catégorie de modèles paramétriques semble en effet moins sensible que prévu au filtrage des données. Toutefois, certaines questions demeurent. En particulier, les algorithmes d'estimation peuvent encore être améliorés. Les auteurs craignent de ne pas avoir couvert une assez grande portion de l'espace de la fonction objectif pour trouver l'ensemble optimal des valeurs de départ des paramètres. En outre, bien qu'ils aient décidé d'utiliser le modèle de Svensson, il se peut que d'autres formes fonctionnelles se révèlent plus stables ou mieux en mesure d'expliquer les données sous-jacentes. Ces deux derniers points laissent croire qu'il subsiste d'autres questions qui méritent d'être explorées dans ce domaine.