Le trou noir du risque financier
À l’exception de l’impossible qui n’arrivera jamais, et du nécessaire qui aura lieu inévitablement, l’avenir est imprévisible. Faut-il pour autant s’abstenir d’évaluer le risque futur ? Non car entre l’impossible et le nécessaire se trouve le contingent, qui aura lieu ou n’aura pas lieu, et une part de celui-ci relève d’un hasard apprivoisé permettant des prévisions globales relativement fiables. Mais nous étendons le domaine de ce hasard « gaussien » ou « normal » – et sa fameuse « courbe en cloche » – bien au-delà de son aire légitime. Ainsi, la Banque des règlements internationaux impose aux banques dites « systémiques » des réserves supplémentaires en capital de 1 à 2,5%. Ces chiffres sont-ils fondés ? Non, car le risque que l’on cherche à évaluer déborde de manière désordonnée les frontières du hasard apprivoisé. Un faux sentiment de sécurité s’installe alors que le risque réel reste mal estimé.
J’ai appartenu au département de gestion du risque de la banque Countrywide, acteur de premier plan de la crise des subprimes. Alors que nous savions depuis plusieurs mois que l’effondrement du secteur était inéluctable et peut-être imminent, tous les voyants, sonneries, sirènes, restaient noirs ou muets. Il fallut attendre le jour de l’effondrement pour que les alarmes se déclenchent enfin. L’inertie de notre système de gestion du risque était excessive : il pouvait signaler un risque qui s’était matérialisé mais était incapable de l’anticiper. La situation était la même partout dans le secteur du crédit.
Pour modéliser la dynamique d’un système, le plus grand nombre possible de données historiques est mobilisé. On disposera ainsi d’une série de 200 chiffres journaliers pour un an de la vie d’un produit financier, de 2.000 pour dix ans, etc. Un comportement anormal du marché la semaine dernière procurera 5 données additionnelles qui, comparées à 200 données antérieures, déclencheront peut-être une alarme, alors que comparées à 2.000, chiffre pourtant jugé plus souhaitable, elles seront noyées dans la masse. Il faudrait bien sûr accorder davantage de poids aux données les plus récentes car les plus pertinentes, mais comment ?
Depuis le tournant marginaliste des années 1870, la méthode classique pour construire un modèle économique ou financier consiste à simplifier le problème à résoudre par étapes successives jusqu’à ce qu’il devienne soluble. La question qui reste alors ignorée est de savoir si la simplification n’a pas été excessive, au point que le problème en ait été dénaturé. Si tel est le cas, toute prétendue gestion du risque à partir de ce modèle n’est qu’un mirage.
Un modèle doit être testé quant à sa capacité à prédire mais ici aussi les pièges sont nombreux. Ainsi le modèle dont le rendement aura été le meilleur sur de longues périodes est probablement celui qui prévoit que demain sera comme aujourd’hui. Constitue-t-il pour autant un bon candidat à la gestion du risque, alors que celui-ci fait irruption comme une fracture de l’habituel ?
Méthode admise, et parmi les plus populaires, mais elle aussi dénuée d’intérêt : le « curve-fitting », l’ajustement à la courbe. Montrez-moi la courbe représentant l’évolution d’un prix quelconque et je vous offre en échange l’équation du 14e ou du 22e degré qui en rend parfaitement compte. Quelle est la validité de cette équation pour la prédiction de ce qui arrivera demain ? Nulle bien entendu : il s’agit d’un ajustement ad hoc qu’il faudra refaire aussitôt que de nouvelles données seront tombées parce qu’aucune des variables de l’équation ne représente en réalité un facteur agissant dans la détermination du prix. Pour être authentiquement prédictif, un modèle doit représenter un dispositif causal.
Avant la crise, les agences de notation acceptaient d’évaluer le risque de l’instrument de dette appelé « CDO squared », Collateralized Debt Obligation « au carré ». Chaque CDO était constitué de 100 à 150 certificats empruntés à des titres adossés à des actifs, et chacun de ces titres était composé de plusieurs milliers de crédits individuels. Un CDO au carré était un CDO bâti à partir d’éléments de CDOs.
Évaluer le risque que présente un CDO au carré dépasse la capacité de calcul de nos ordinateurs. Ceci n’empêcha pas les agences de notation de prétendre le faire. Leur méthode consistait à mesurer les corrélations entre les prix des différents composants et à considérer qu’un certain degré de dé-corrélation étant atteint, le produit était suffisamment diversifié intérieurement pour être sûr.
On était là à mille lieues bien entendu d’un modèle causal. C’était oublier aussi que si certains prix sont dé-corrélés quand tout va bien, en période de crise, dans un marché qui s’effondre, les produits financiers sont vendus à la casse et leurs prix baissent simultanément, faisant apparaître la corrélation tant redoutée.
La « science » économique affirme que tout nouvel instrument financier est bon en soi car il complète le marché. C’est incontestable, mais à quel prix ? À quel niveau de risque ? Il est souvent impossible de le dire vu la complexité de l’innovation.
Aucun nouvel instrument financier ne devrait être autorisé si son risque est impossible à évaluer objectivement, c’est-à-dire à partir d’un modèle causal. Un bureau international des instruments financiers serait chargé de leur validation selon ce critère. Il ne pourrait être l’émanation du secteur financier lui-même dont le bilan en matière de gestion du risque est, la chose n’est plus à prouver, catastrophique.
C’est la méthode descendante (top-down) : avec un LLM en arrière-plan de chaque personnage, répliquant dans chaque instance, un humain…