Un événement que l’on imagine est soit impossible, soit possible. S’il est impossible, sa probabilité de se produire, dans la perspective « mathématisée » de la probabilité qui est la nôtre aujourd’hui, est de 0. Un événement qui n’est pas impossible est possible, et dans ce cas, il peut être de deux types : soit il se produira nécessairement, soit il se produira oui ou non ; on dit dans ce dernier cas qu’il est « contingent ». S’il est nécessaire, sa probabilité de se produire se voit attribuer la valeur 1. La probabilité qu’un événement contingent se produise est plus grande que 0, sans quoi il ne serait pas contingent mais impossible, mais elle est inférieure à 1, sans quoi il ne serait pas contingent mais nécessaire.
Donc, dans la perspective d’une mathématisation de la probabilité d’un événement, un événement impossible a une probabilité de 0, un événement (possible mais aussi) nécessaire a une probabilité de 1, et un événement (possible mais) contingent, une probabilité supérieure à 0 mais inférieure à 1.
Pour qu’un nombre puisse être supérieur à 0 et inférieur à 1, il faut qu’il ne soit pas entier : qu’il compte des décimales. L’option existant de mettre autant de décimales qu’on le juge utile, le nombre de nombres susceptibles de mesurer une probabilité est infini.
J’ai déjà fait allusion à la manière dont a eu lieu cette mathématisation : Jérôme Cardan (1501-1576), inventeur entre autres d’un mécanisme auquel il a laissé son nom, permettant de transformer un mouvement en un autre mouvement orthogonal au premier (perpendiculaire), était par ailleurs un joueur invétéré, qui a réfléchi à d’éventuelles manières d’augmenter ses chances, d’où a résulté un livre intitulé Liber de ludo aleae, le livre des chances au jeu, où il introduit la notion d’événements que nous appelons aujourd’hui « équiprobables » : qui ont la même chance de se produire sur le long terme, comme les nombres de 1 à 6 dans le jet d’un dé non pipé.
C’est grâce à cette notion d’événement équiprobable qu’au siècle suivant, quand Antoine Gombaud, chevalier de Méré (1607-1684) pose à Blaise Pascal (1623-1662), Christian Huygens (1629-1695), Pierre de Fermat (1607-1665) et les autres membres du « groupe [du duc] de Roannez » (Hacking 1975 : 57-62), un certain nombre de colles du genre : « Combien de fois faut-il jeter deux dés pour avoir au moins une chance sur deux d’avoir tiré un double-six ? », ces messieurs constituent le cerveau collectif qui découvre la solution.
Pour trouver la réponse, il faut savoir que les chiffres de 1 à 6 sont équi-possibles dans un jet de dé, il faut penser aussi au nombre de combinaisons possibles en fonction du nombre de dés, il faut penser également que si on dit « double-six », il n’y a qu’une possibilité sur 36 (6×6), que si on dit « un 4 et un 5 », il y a deux possibilités sur 36, soit une sur 18 : 4 sur le premier dé et 5 sur l’autre ET 5 sur le premier dé et 4 sur l’autre, que si on dit : « 5 en tout », il y a quatre possibilités sur 36, soit une sur 9 : 1 et 4, 2 et 3, 3 et 2 et 4 et 1, etc., et il faut aussi avoir observé que les 6 cas équi-possibles sont, sur le long terme, également équiprobables.
À l’époque où Keynes découvre la théorie des probabilités, on s’est convaincu qu’à tout événement (possible et) contingent correspond une probabilité que l’on peut légitimement mesurer par un nombre entre 0 et 1.
Quelle est la probabilité de faire apparaître un 3 d’un jet de dé non pipé ? Une chance sur six : un sixième, soit 0,1666… ou 16,66…%.
Le nombre associé à la probabilité d’un événement comme étant sa mesure peut être utilisé dans les calculs relatifs à des paris.
« Je vous donne 100 € si c’est un 7 qui apparaît lors du jet d’un dé, combien êtes-vous prêt à miser ? » L’événement est impossible, sa probabilité est de 0, donc la mise maximale de celui qui accepte un tel pari doit être de 100 € x 0 = 0 €.
« Je vous donne 100 € si c’est un chiffre de 1 à 6 qui apparaît lors du jet d’un dé, combien êtes-vous prêt à miser ? » Comme vous gagnez dans tous les cas, l’événement est nécessaire et sa probabilité vaut 1. La mise maximale est donc de 100 € x 1 = 100 €. Je recevrai 100 € de toute manière, donc si je mise 100 €, je ne gagnerai rien, mais je ne serai pas pour autant de ma poche ; toute mise de n € produira un gain de 100 € – n €.
Et de même : « Vous gagnez si un 2 ou un 4 apparaît… », soit dans 2 cas sur 6, soit dans un tiers des cas. La mise maximale doit donc être de 100 € x 0,1666… x 2 = 33,33… €
Pour la fréquence d’événements de ce type, la probabilité des diverses occurrences correspond aux coefficients des puissances du binôme (1 + X)n . Les valeurs des coefficients des facteurs résultant du développement de cette expression dessinent la fameuse courbe en cloche dénotant la distribution statistique appelée « gaussienne » ou « normale ». Ainsi, pour (1 + x)5, les coefficients sont 1, 5, 10, 10, 5, 1 ; pour (1 + x)6 : 1, 6, 15, 20, 15, 6, 1, etc. Plus la puissance de n est élevée, plus la courbe en cloche constituée par les valeurs des coefficients est lisse. C’est là l’origine du mythe qui veut que des événements « au hasard » ont une distribution « normale ».
La croyance à ce mythe simplifie considérablement toutes les questions d’ordre statistique puisqu’elle implique que la « moyenne arithmétique » (la somme des valeurs attachées à chacun des cas, divisée par le nombre de cas) sera automatiquement aussi le « mode » (le cas le plus représenté) et la « médiane » (le cas central à la séquence de tous les cas rangés par valeur croissante ou décroissante) ; elle suppose aussi que l’écart-type : l’écart moyen de l’ensemble des cas par rapport au cas moyen, est un nombre fini calculable.
Malheureusement dans toute réalité résultant de l’interaction d’êtres humains, dont l’économie et la finance font partie de plein droit, la distribution statistique d’un type d’événements n’est pas « gaussienne » ou « normale » : une représentation graphique de la distribution produit une cloche plus pointue et dont les « queues » sont plus épaisses que dans le cas normal, ou bien encore la courbe n’est pas symétrique : la surface de sa partie à la droite du sommet est plus importante que celle de la partie à gauche, ou bien l’inverse. Tout cela ne serait qu’un moindre mal si l’on pouvait établir une fois pour toutes, pour un certain type d’événements, une distribution précise, or de manière caractéristique, en économie et en finance, les distributions ne sont pas stables : ainsi, les variations de prix à la Bourse de Paris avaient une certaine distribution de 1819 à 1859, mais en avaient une autre de 1860 à 1914, les variations de l’indice boursier américain Dow Jones avaient une certaine distribution de 1930 à 1960, une autre de 1961 à 1972, une troisième de 1973 à 2003 et une quatrième de 2004 à 2009 (Brian 2010 : 203-205), etc. La capacité des hommes à apprendre, à adapter leur comportement aux effets qu’ils observent, joue bien entendu un rôle important dans l’évolution de ces distributions, le progrès technologique des marchés également, et tout particulièrement quand ce sont désormais des robots, les « algos », qui jouent en Bourse.
Ceci rejoint bien entendu la thèse défendue par Keynes dans son Treatise on Probability (1921) : pour la quasi-totalité des événements contingents, il n’existe pas de fréquence observée stable de leur occurrence qui permettrait par généralisation de mesurer leur probabilité. Et il ajoutait que même s’il existait une fréquence mesurable stable, celle-ci ne pourrait encore représenter que l’un des éléments nous permettant d’évaluer la probabilité de son occurrence, les « esprits animaux » qu’il invoque lorsqu’il s’agit de nos prises de décision, en étant un autre.
On appelle « risque » une chance de perte. Si la perte est nécessaire lorsque le risque est couru, il ne doit pas être pris. Si la perte est seulement contingente, le nombre représentant sa probabilité constitue le degré du risque couru qui, combiné au montant moyen de la perte possible, permet de calculer le niveau des réserves qui doivent être constituées.
La réglementation de Bâle III, proposée aujourd’hui par la Banque des Règlements Internationaux, relative au risque financier des banques se fonde sur ce raisonnement, la réglementation de Solvabilité II relative au risque des compagnies d’assurance également.
Piernay note pour ce qui touche au calcul du Capital requis de solvabilité d’une compagnie d’assurance dans Solvabilité II,
« … chaque facteur de risque est représenté par une loi normale, ces facteurs de risque sont soit indépendants (action/taux), soit dépendants linéairement (matrice de corrélation fixe). Le risque total se distribue alors suivant une loi normale et peut être entièrement mesuré par un écart-type » (Piernay 2010 : 85).
Nous savons pourtant, par simple analyse des données, que la distribution des événements qui sont ainsi représentés ne relève en réalité pas d’une loi normale. Pourquoi Solvabilité II considère-t-il quand même que ce soit le cas ? Les auteurs de ces textes l’ignorent-ils ? On aime penser que non, leur justification est sans doute la justification classique en théorie économique et financière depuis le tournant marginaliste des années 1870, que le problème qu’il s’agissait de résoudre a été simplifié par étapes successives jusqu’à ce qu’il devienne soluble. La question qui n’est jamais abordée dans ce cas-là est celle de savoir si la simplification n’a pas été excessive, au point que le problème en ait été en réalité dénaturé. Si c’est le cas, l’approche choisie est inadéquate et, en l’occurrence, le risque n’est pas maîtrisé.
Qu’aurait dit Keynes à propos de Solvabilité II, et de manière générale de l’usage fait aujourd’hui du calcul des probabilités en finance ? Que rien n’a changé depuis 1921 et que son Treatise on Probability n’a manifestement fait aucune différence puisqu’on n’y a toujours rien compris.
========================================
Brian, Éric, « Aléas, normes sociales et limites de la performativité », in Christian Walter (ed.), Nouvelles normes financières, Paris : Springer-Verlag, 2010, pp. 191-219
Hacking, Ian, The Emergence of Probability, Cambridge : Cambridge University Press, 1975
Keynes, John Maynard, A Treatise on Probability, London : MacMillan 1921
Piernay, Michel, « Les limites de la conception du risque selon Solvabilité II », in Christian Walter (ed.), Nouvelles normes financières, Paris : Springer-Verlag, 2010, pp. 79-94
Paul, Je n’ai vu de ce film, il y a longtemps, que ce passage (au début du film, je crois)…