Climat : « Comment calcule-t-on le montant à provisionner pour couvrir un risque ? »
Le spécialiste de la finance Paul Jorion explique, dans une tribune au « Monde » pourquoi les assureurs et les gestionnaires de risque se trouvent démunis pour calculer la couverture des effets du réchauffement climatique
Publié le 10 juillet 2020 à 09h30 T
Tribune. La gestion du risque constitue en tout temps un défi majeur pour le secteur financier. La capacité à provisionner à hauteur du risque objectivement couru est cruciale pour éviter le dépôt de bilan. Aussi élevé soit-il, le montant des provisions pour risque ne constitue cependant pas en soi un bon indicateur.
Souvenons-nous d’American International Group (AIG), l’assureur américain, et de ses réserves de 6 milliards de dollars, jugées faramineuses en septembre 2008 : la somme s’avéra dérisoire comparée aux 83 milliards que la compagnie fut enjointe de régler à la fin du même mois…
Comment calcule-t-on le montant à provisionner pour couvrir un risque ? On prend pour base le coût moyen des sinistres du même type dans le passé, multiplié par la probabilité qu’ils se matérialisent. Pour déterminer le montant des réserves, on opère ensuite un calcul où intervient le chiffre de la perte la plus onéreuse ayant une probabilité significative d’avoir lieu. Par exemple, si l’incendie d’un appartement occasionne en moyenne des frais d’un montant de 15 000 euros et que la probabilité annuelle d’un tel sinistre est de un millième, 15 000 × 1 millième = 15 euros par appartement, montant qui sert de base de calcul à l’établissement de la prime.
Le complexe calcul des probabilités
Pour évaluer la probabilité d’obtenir 12 par le jet de deux dés, il faut combiner les chances d’avoir un 6 sur chacun des deux dés : 1/6 × 1/6, soit une chance sur 36. Mais la chance, ou plutôt la malchance, de voir un appartement incendié n’est pas « équiprobable » – comme c’est le cas pour chacune des faces d’un dé (non pipé) – du fait qu’une multitude de facteurs indépendants les uns des autres interviennent.
La probabilité est donc ici une « idéalisation de la fréquence observée » : plus la taille de l’échantillon est élevée, plus la probabilité établie à partir de la fréquence sera proche de la probabilité effective (c’est la loi des grands nombres).
Pour connaître la probabilité d’incendie dans un appartement sur une année, il faut donc observer le plus grand nombre possible d’appartements, et s’ils ont souffert d’un incendie dans l’année. Et pour évaluer correctement le coût moyen d’un sinistre, il faut avoir eu connaissance du plus grand nombre possible de sinistres et savoir combien chacun a coûté, car plus les données seront nombreuses, plus les cas exceptionnels seront noyés dans la masse, et plus l’évaluation sera proche des frais réels d’un nouveau sinistre.
Extrapoler le futur en fonction du passé
Tout va bien pour ce genre de calcul tant que le coût d’un sinistre et la proportion d’incendies demeurent constants. Si le coût d’un sinistre a augmenté au cours des années récentes, ou si leur fréquence est en hausse (en situation de guerre par exemple), les choses se compliquent. Nous extrapolons en effet sans difficulté pour un futur dont nous savons qu’il ressemblera comme un frère au passé : nous parlons alors de « faire des projections » (dans le futur). Mais si nous savons déjà que le futur sera très différent du présent, nous sommes passablement désarmés.
Entrent en scène maintenant le réchauffement climatique et la montée des eaux. Comment faire désormais le calcul des provisions à constituer ? Très difficile à dire, puisque selon les spécialistes, la dernière fois que le problème s’est posé, c’était il y a 800 000 ans, et que les assureurs n’étaient pas là pour récolter des données sur les dégâts occasionnés et calculer la probabilité d’un nouvel accident…
Jusqu’ici, dans un contexte d’avenir apparenté au passé, nous nous satisfaisions de calculs du genre « multiplier par 3 l’écart-type (c’est-à-dire la variabilité moyenne de chaque donnée par rapport à la moyenne) de la distribution des sinistres enregistrés », ce qui permet (si le hasard est « normal », au sens statistique du terme) de couvrir comme réserves le coût de la quasi-totalité des cas à venir. Mais cela n’offre aucune indication utile si les sinistres futurs sont très différents de ceux du passé.
Réflexions pour les gestionnaires du risque et les actuaires
Que faire alors ? Quelques approches sont connues. Si l’avenir ne s’annonce pas trop différent du présent, il est possible de « pondérer » : attribuer aux années récentes un poids plus élevé dans la prévision. Mais c’est alors « au pifomètre ». Il est possible aussi de supposer que le hasard a cessé d’être « normal » pour être devenu « leptokurtique » (davantage de stabilité absolue, mais aussi de cas exceptionnels). On peut aussi tenter de dégager une tendance du changement observé et supposer que le hasard demeure « normal », mais en se déplaçant au sein de la tuyère que dessine la tendance.
Il est possible encore de recourir à des prédictions tenant compte des différents facteurs de changement indépendants et de leur évolution plausible dans le temps : c’est le principe des « simulations de Monte-Carlo », qui permettent d’articuler les prédictions autour de scénarios apparaissant les plus probables. Quoi qu’il en soit, il est crucial de faire plancher sans tarder sur la question les gestionnaires du risque, les actuaires et autres valideurs de modèles financiers, en sollicitant leurs recommandations pour les appliquer toutes affaires cessantes.
La Banque des règlements internationaux, la « banque centrale des banques centrales » semble une excellente candidate pour coordonner un tel effort. D’autant qu’elle a lancé l’alerte sur la question dans un rapport au début de l’année 2020 (The Green Swan. Central banking and financial stability in the age of climate change, Patrick Bolton, Morgan Després, Luiz Awazu Pereira da Silva, Frédéric Samama, Romain Svartzman, BIS-Banque de France, janvier 2020).
Paul Jorion (Economiste et anthropologue, Université catholique de Lille)
Laisser un commentaire