Ce texte est un « article presslib’ » (*)
Mardi, durant l’audition au Sénat, j’ai mentionné comme exemple de la mauvaise qualité des modèles financiers en général, le modèle de Black-Scholes pour la valorisation des options, dont on sait qu’il est faux depuis le jour des années 1970 où il a été conçu, et dont on a transformé pour pouvoir l’utiliser quand même, une variable d’état, c’est-à-dire dont on ne peut que constater la valeur, la volatilité, en une variable de contrôle, à laquelle on attribue une valeur au pifomètre des salles de marché. Comment diable a-t-on pu en arriver à ce sommet de la stupidité humaine ?
J’en étais là de mes réflexions à ce sujet à l’heure du déjeuner quand, à la table voisine de la mienne à la Guinguette de Conleau où j’étais allé prendre mon repas pour profiter du beau temps, j’ai capté quelques bribes de conversation qui m’ont mis sur la voie de la solution.
Une dame expliquait à l’une de ses amies que le bon ordonnancement de ses journées était menacé par le fait que la résolution de son sudoku quotidien lui prenait désormais « moins de deux minutes ». Ni son amie, ni moi n’avions une proposition à lui faire pour l’usage des nombreuses minutes que son expertise croissante lui avait ainsi fait gagner.
Quelques minutes plus tard cependant, la même dame expliquait cette fois qu’un chantier sur le pont de l’autoroute à La Roche Bernard oblige en ce moment à une circulation alternée avec arrêt prolongé au milieu du pont : « Ce qui n’est pas tout à fait moi : tu me connais ! » Le trafic ne repart qu’au bout de ce qu’elle qualifiait d’« une infinité de temps » et, pour immédiatement préciser ce qu’elle entendait par là, elle ajoutait : « J’ai eu le temps de faire la moitié d’un sudoku ! »
Cher lecteur, pas besoin de vous faire un dessin, n’est-ce pas ?
1 sudoku = moins de 2 minutes ; ½ sudoku = une infinité de temps.
Il ne m’en fallait pas davantage bien entendu pour résoudre d’un seul coup deux énigmes : l’utilisation par les traders du modèle de Black-Scholes et la longueur de temps nécessaire pour un sudoku : la médiocrité de l’enseignement de l’arithmétique dans les classes élémentaires est sans aucun doute à incriminer dans les deux cas !
(*) Un « article presslib’ » est libre de reproduction numérique en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.
77 réponses à “MISÈRE DE L’ARITHMÉTIQUE”
décidement entre le « ‘temps qu’il fait » et ce billet je vous trouve très en forme, très en verve
le sérieux des réflexions et toujours agrémenté d’une touche d’humour, saupoudré de quelques chansons ou musiques…
une bouffée d’oxygène que ce blog
Sinon pour le cadrage, il avait raison! C’est beaucoup mieux ainsi.
cordialement
Pourtant, ceux qui bidouillent avec des trucs comme Black-Scholes sortent de Polytechnique et consorts…
Quel mépris pour les unités pifométriques !
http://universite.prya.free.fr/syspifo.htm
Note : ce document est évidemment très incomplet, entre autres il ne fait pas référence à la « moque » (ou mogue), unité pifométrique de capacité bien connue dans certaines iles.
Merci pour le lien !
Ah ! Enfin un peu de rigueur.
Ah ! Merci François, je l’avais perdu celui-là.
Avec quelle facilité la raison rend les armes quand elle est pressée par l’émotion 😉
Ce qui me fait penser que si ces modèles ont été choisis au détriment d’autres approches, plus complètes, ce n’est pas en raison de leur simplicité d’appréhension, mais bien pour leur capacité à se soumettre gentiment à ce que leurs utilisateurs souhaitaient voir apparaître comme résultats.
C’est bien simple : si le résultat n’est pas conforme à ce qu’on aurait souhaité voir apparaître, il suffit d’affiner le réglage via la variable de contrôle comme on pouvait jouer sur le potentiomètre d’une radio analogique jusqu’à recevoir un signal clair.
« pluralitas non est ponenda sine necessitate »
« Entia non sunt multiplicanda praeter necessitatem »
Ahhhmen…
« les hypothèses les plus simples sont les plus vraisemblables »
« les hypothèses les plus simples sont les plus vraisemblables »
La règle du rasoir d’Ockham donc.
Théoriser c’est plonger le réel dans un virtuel contrôlé. Plus le virtuel est gros moins on contrôle: c’est pour moi du bon sens.
La science est déterministe ou n’est pas.
« Les modèles stochastiques sont des modèles déterministes ou l’on a remplacé l’espace de configuration initial X par un espace W(X) de fonctions ou de mesures sur X, c’est à dire qu’on a augmenté considérablement le virtuel pour assurer un déterminisme impossible à obtenir sur X tout seul. » René Thom, Apologie du logos p.583.
L’intelligibilité des modèles se trouve de ce fait inversement proportionnelle à la taille du virtuel dans lequel on plonge le réel. Thom considère que le problème fondamental de toute théorie des modèles est de plonger le réel dans le virtuel le plus petit possible: d’où sa théorie du déploiement universel qui réduit tous les paramètres externes, de contrôle, à un petit nombre d’entre eux, seuls significatifs.
C’est dans cet esprit que j’ai parcouru http://fr.wikipedia.org/wiki/Mod%C3%A8le_Black-Scholes
@ fnur :
Expliquez-moi en quoi la phrase « avec quelle facilité la raison rend les armes quand elle est pressée par l’émotion » ne répond pas au principe selon lequel les hypothèses les plus simples sont les plus vraisemblables ?
Après, je rejoins entièrement BasicRabbit quand il dit que l’intelligibilité des modèles est inversement proportionnelle à la taille du virtuel dans lequel on plonge le réel, et que le problème fondamental de toute théorie des modèles est précisément de vouloir les rendre les plus intelligibles possibles en plongeant le réel dans le virtuel le plus petit possible.
On a voulu mettre le réel en équations dans l’espoir d’avoir une prise sur lui, parce que ces équations répondaient à un besoin émotionnel, et pour ce faire, parce que ces équations étaient trop complexes à résoudre, on les a simplifiées à l’excès, toujours dans l’espoir d’avoir facilement prise sur le réel.
Quel était le mobile du « crime », à savoir les errements « inacceptables » des agences de notation, puisqu’elles sont aujourd’hui mises en accusation, et qu’il serait question de leur couper la tête ?
S’assurer une prise, la plus simple possible, sur la réalité. Quantifier le risque au plus juste, pour apporter une réponse aux interrogations angoissées des investisseurs, des épargnants, pour réussir le tour de force de convaincre tous ces gens qu’ils pouvaient et devaient faire entièrement confiance à tous ces gens qui se proposaient de recycler leur épargne dans l’économie « réelle ».
Au demeurant, quand on s’intéresse un instant à la sophistication des modèles d’évaluation, à leur versatilité – pas plus tard que jeudi dernier, il était question d’introduire une nouvelle méthode de valorisation des entreprises, qui justifierait d’emmener le CAC à plus de 5 000 points – on aboutit à des modèles d’évaluation qui sont finalement effroyablement compliqués en dépit d’une simplicité apparente, et qui pourtant donnent tous invariablement la même réponse, celle qui sera la plus rassurante. Toujours ce primat de l’émotion sur la raison.
Il n’y a rien de plus simple en apparence que d’évaluer une entreprise en fixant un multiple de valorisation de ses bénéfices. Ou de fixer un taux d’intérêt pour une obligation en ajoutant un coefficient de pondération du risque. Et pourtant, on se retrouve toujours avec des résultats aberrants. Pour quel résultat au final ?
La Norvège vient je crois de nous apporter un début de réponse. En 2010, ce pays qui a systématiquement épargné le produit de sa rente pétrolière, pour un montant avoisinant les 500 milliards d’euros aujourd’hui, avait réaffirmé son soutien à la Grèce, en expliquant qu’elle avait toute confiance dans le fait qu’elle ne ferait pas défaut. Elle a annoncé hier soir, après la clôture des marchés, qu’elle allait céder une bonne partie des titres de dette de pays européens qu’elle détient.
Tout l’enjeu est ou était là. Soit on fait confiance, soit on a ne seraient-ce que de légers doutes, et à ce moment-là, on en tire toutes les conséquences qui s’imposent, et on refuse de prendre le moins risque. C’est ce que vient de décider la Norvège.
@ David Cayla
1) Votre histoire sur le CAC à 5000 me fait penser à la NASA qui a fait appel à des probabilistes pour améliorer la fiabilité des navettes. Sans surprise le rapport fourni a considérablement amélioré (à peu de frais) la-dite fiabilité. On a vu la suite.
2) Une bien bonne à propos de la complexité croissante des modèles: http://www.objectifeco.com/economie/article/samuel-rondot-la-meilleure-blague-2012
Complexité, inintelligibilité, quand vous nous tenez!
@ BasicRabbit
Ah oui, BATS… J’avais trouvé une image pour illustrer ce qu’il s’est produit ce jour-là.
C’est un petit peu comme si on participait à une régate sur une mer un peu formée, et qu’on découvrait tout à coup qu’un des concurrents avait pris au pied de la lettre le mot d’ordre « tous les coups sont permis » en s’engageant avec un croiseur lance-missiles sans que les organisateurs de la course n’y trouvent quoi que ce soit à redire, même après que ledit croiseur ait réduit en allumettes une goélette qui venait de virer en tête. 🙂
« Après, je rejoins entièrement BasicRabbit quand il dit que l’intelligibilité des modèles est inversement proportionnelle à la taille du virtuel dans lequel on plonge le réel, et que le problème fondamental de toute théorie des modèles est précisément de vouloir les rendre les plus intelligibles possibles en plongeant le réel dans le virtuel le plus petit possible. »
Deux solutions, soit on simplifie tout n’importe comment sur des bases idéologiques, donc zéro simplification à l’arrivée, soit on simplifie des observations collectées en formant et vérifiant le lien qui les unies :
« Qu’est-ce qu’un nombre ? C’est le résultat de l’art de compter.
Pour compter, les enfants apprennent d’abord à ne pas compter deux fois la même
bille dans un sac de billes. La même bille ? Nous y voilà. »
http://www.jmsouriau.com/Publications/Grammaire%20de%20la%20Nature/JMSouriau-GrammaireDeLaNature8juillet2007-complet.pdf
Comment la vérité et la réalité furent inventées (Gallimard 2009 : 72-74).
« Lévy-Bruhl pensait essentiellement quand il écrivait « logique » à la nature de l’identité et il avait donc raison quand il qualifiait le principe d’identité de « pré-logique » : il est vrai que la logique ne peut se déployer que dans un espace où les équivalences ont déjà été établies grâce à un principe de ressemblance qui règle les distances perçues entre objets : distance suffisamment petite pour maintenir l’identité, distance trop grande qui détermine la différence. Retenons donc qu’il ne s’agit pas avec l’identité de logique proprement dite mais de ce qui se trouve en amont immédiat de celle-ci, autrement dit, il s’agit d’une question avant tout métaphysique et plus précisément ontologique.
Au sein de notre pensée occidentale contemporaine, il existe trois modes de l’identité,
1° l’identité d’une chose à elle-même, relation unaire et réflexive (A est A),
2° l’identité de deux choses distinctes, de deux substrats distincts dans l’espace-temps, mais qui ne se distinguent par ailleurs que sous ces rapports seulement de l’espace et du temps, relation d’équivalence binaire, symétrique et transitive (si A est identique à B, B est identique à A ; si A est identique à B qui est lui-même identique à C, A est identique à C),
3° la ressemblance de deux choses, en tant qu’identité « amoindrie » portant sur un nombre restreint de leurs attributs essentiels ou accidentels ; ce que j’ai qualifié aussi de distance inférieure au seuil qui définit la différence, relation binaire, symétrique mais non-transitive.
On aperçoit d’emblée comment ces définitions autorisent différents cas de figure :
1° On peut nier par exemple qu’une chose soit identique à elle-même, l’écoulement du temps (même infinitésimal) excluant l’identité effective ; c’est la position que nous associons au sein de notre culture au nom d’Héraclite. Une conséquence immédiate du postulat héraclitéen est qu’une chose ne pouvant être identique à elle-même, elle ne pourra a fortiori pas être identique à une autre ; ne demeure alors comme relation possible entre les choses qu’une ressemblance indéterminée qui peut éventuellement être transitive et se transforme alors en affinités ou « sympathies », proche de la « connexion simple » que j’ai évoquée précédemment et principe d’une classification polythétique, fondée dans les termes de Wittgenstein sur la « ressemblance familiale » (Wittgenstein 1953 : § 67).
2° On peut aussi imaginer que pour certaines cultures, si deux choses sont identiques, c’est qu’elles ne sont que deux manifestations de la même, c’est-à-dire, en fait qu’une seule. D’un point de vue ontologique, on pourrait tout aussi bien dans ce cas-là considérer que la deuxième relation d’identité disparaît au profit de la seule première : l’identité binaire étant toujours une identité unaire qui s’ignore. Ce qui signifie que pour ces cultures, la présence ailleurs dans le temps et dans l’espace, à l’inverse de chez nous, ne suffit pas à rendre réellement distinctes deux choses, si c’est là le seul aspect qui les distingue ; les choses possèdent alors le don d’ubiquité. Ce mécanisme fut fort bien analysé par Henri Wallon : « Les différences de lieu sont moins des localisations différentes dans l’espace que des circonstances locales s’ajoutant à la personne, à l’objet ou à la situation, et capables par suite d’être simultanément soit une seule pour plusieurs individus, soit plusieurs pour le même individu » (Wallon 1959 [1932] : 348).
La réalisation chez Platon de la même Idée sous des approximations diverses au sein du monde sensible, relève d’une démarche identique. Mais en Grèce antique, cette liberté d’une essence unique susceptible de se manifester indépendamment des contraintes du temps et de l’espace, disparaîtra. Comme le note Sedley à propos de Stoïciens, « Nous avons déjà rencontré le principe stoïcien selon lequel un individu qualifié de façon particulière ne peut occuper deux substances – en d’autres termes, Dion ne pourrait pas occuper simultanément deux corps humains séparés. Les Stoïciens soutenaient aussi la réciproque, à savoir que deux individus qualifiés de façon particulière ne peuvent occuper une seule et même substance – en d’autres termes, Dion et Théon ne pourraient occuper tous deux le même corps humain au même moment » (Sedley 1989 [1982] : 528). »
« l’intelligibilité des modèles est inversement proportionnelle à la taille du virtuel dans lequel on plonge le réel, et que le problème fondamental de toute théorie des modèles est précisément de vouloir les rendre les plus intelligibles possibles en plongeant le réel dans le virtuel le plus petit possible. »
Enlevez le verbe plonger et ça ira mieux, vous éviterez de boire la tasse et n’aurez pas besoin d’une assistance respiratoire du type bouche à bouche à l’haleine de chacal.
L’intelligibilité ne nécessite pas de plonger, même si c’est rigolo de plonger, encore faut il faire gaffe de savoir si il y a du fond suffisant pour plonger, sinon c’est moins rigolo…
@Basic Rabbit :
//// Thom considère que le problème fondamental de toute théorie des modèles est de plonger le réel dans le virtuel le plus petit possible: d’où sa théorie du déploiement universel qui réduit tous les paramètres externes, de contrôle, à un petit nombre d’entre eux, seuls significatifs. ///
Ce là m’ennuie de citer Prigogine , mais il dit la meme chose en disant que notre erreur est de refuser les equations complexes quand une modélisation les fait apparaitre .
La notion de « nombre » de variables est plus discutable, me semble t il . C’est plutot l’ émergence d’ un système chaotique (ou complexe) que les scientifiques ont toujours cherché a éviter , du fait que ces equa ne sont pas intégrables (Poincaré) . Il est possible d’obtenir une équa -modélisation chaotique avec tres peu d’intrants . Il est pourtant vrai qu’en limitant ces variables , on transforme les autres en constantes, et on peut obtenir des « outils » fiables ds les fourchettes ou ces néo-constantes varient tres peu . U=RI est un ex évident . Il n’ y apparait ni la temperature , ni la frequence , ni la section etc ..
@ fnur
Donc, si je vous comprends bien, le souci avec les agences de notation, c’est qu’elles ont simplifié sur des bases idéologiques ? En fait, il suffirait de mieux simplifier pour que tout aille mieux ? 😀
Allez-y, je vous regarde faire… ou plutôt je vous regarde plonger… Monsieur… Trimalcion ? 😉
@ Kercoz
1) J’ai fouillé un peu sur le net pour me renseigner sur les structures dissipatives de Prigogine. J’y ai lu que la réaction oscillante de Belousov-Zhabotinsky (BS) (que je connais un peu) et la formation des cellules de Bénard (que je connais un petit peu) étaient des exemples typiques de telles structures. Suis-je dans le vrai?
2) Le terme « intrant » a, ai-je lu sur le net, une connotation agricole. Est-il correct pour un matheux de traduire par « variable externe » ou « paramètre de contrôle »?
3) Vous parlez constamment de « linéaire » et « non linéaire ». Je sais que dans BS il est essentiel pour observer l’oscillation que le système d’équations différentielles (ou aux dérivées partielles si l’on mélange en même temps les réactifs) qui exprime l’égalité des vitesses de réaction soit non linéaire. Est-ce de ce genre de non-linéarité qu’il s’agit?
@BasicRabbit.
Je suis au désespoir de ne pouvoir répondre à1/ …en raison de mes insuffisances culturelles en bio .Je ne connais de Prigogine que ce que j’ y peu comprendre (qd il parle d’auto-organisation loin de l’équilibre par ex , ou de grande stabilité des systèmes auto-organisés ). Ce qui m’interesse c’est de constater que ce qui marche a grande, a moyenne ou a petite echelle (cosmologie , pédogenèses , boucles trophiques), marche aussi a tres petite echelle ..ce qui plaide pour le modèle fractale de ces structures.
Pour 2/ , en tant qu ‘ hétérodoxe exogène, je donne le meme signifiant a intrants , qu’a variable d’entrée (paramètre de controle , me gène un peu )
Je donne plus d’importance a la structure du modèle (donc sa ou ses formes d’equation), qu’ au nombre d’intrants-variables . Je pense meme (mais c’est tt a fait intuitif) que sur une modélisation complexe , qqs « intrants » (dominants )devraient suffire a localiser l’attracteur et sa forme . Les variables supplémentaires n’en modifiant que peu ces localisations et formes . Par contre ils seraient indispensables pour la stabilité ou l’accroissement de cette stabilité . On peut visualiser l’attracteur comme un « trou » et l’attraction-stabilité comme la pente des bords de ce trou .
Comme pour la pédogenèse ou chaque variable est important sans etre indispensable et ou NPK seuls sur un sable humide peut donner un légume …malade et fragile , mais un légume .
pour 3/ , ça n’est pas ce sens que je donne a « linéaire » . Je parle de « linéaire » par opposition a equa differentielle .
Si j’ ai bien compris , la pluspart des modélisations du vivant aboutit a des equa diff que l’on ne sais pas gérer. Afin de pouvoir bosser, on a toujours fait des approximations simplificatrices en éliminant des « intrants » considérés comme négligeables ou peu influants , ou en leur donnant une forme lineaire plutot que courbe faible. Les equa fonctionnent pour des usages courants , mais sont fausses soit en dehors de ces usages (400hz au lieu de 50 hz), ou a long terme (Poincaré a démontrer que les prédictions tres précises de cosmologie etaient basées sur des equa fausses et que l’equa complexe non évitée , montrait des courses chaotiques apres 12 millions d’années .
Contrairement a ce que dit le fameux effet papillon , une equa simplifiée linéarisee ( de type y= ax +b ) ou meme un peu plus trafficoté avec qqs feed back ….va diverger vers l’infini si on modifie tres légèrement les variables d’entree ………..Alors que l’equa diff qui n’aurait pas été refusée , bien qu’incontrolable a moyen terme , aurait aboutit sur une position stable et meme tres stable (l’ attracteur) .
Là je ressors ma phrase fétiche que j’ai piqué et amélioré a cet escroc d’ E. Morin :
« » Dans un système naturel, le « bruit » est constituant du signal ….dans un système humain , le bruit perturbe et finit par détruire le signal « » »
C’est la meilleure def du Chaos et des systèmes complexes que j’ai trouvé , et aussi peut etre pour la notion d’entropie .
David Cayla
Ben oui, simplifier n’est pas chose facile, c’est même d’une vulgarité complexe, mais à la fin on simplifie. Je sais, c’est moche d’en arriver là. Mais j’en suis encore là. Pauvre con que je suis.
Ai je encore le droit de m’insulter ? Même ça j’en doute.
@ fnur
Souriau est décédé le 15 mars 2012. Je viens de découvrir ses travaux sur la géométrie symplectique en lisant un article de Petitot « Philosophie transcendantale et objectivité physique »:
« Paraphrasant des affirmations de Jean-Marie Souriau à propos de la
quantification géométrique, on peut dire que : « philosophiquement [la
géométrisation] c’est ramener la physique à des symétries géométriques pour
faire de la physique a priori (c’est-à-dire » rationnelle « ) ».
Autrement dit, comme l’affirme encore Souriau : il n’y a rien de plus dans
les théories physiques que les groupes de symétrie si ce n ‘est la construction
mathématique qui permet précisément de montrer qu’il n’y a rien de plus ».
Cela est une parfaite définition de la réduction a priori : il n’y a rien de
plus si ce n’est les mathématiques permettant de montrer qu’il n’y a rien de
plus. Ce principe est devenu le principe de découverte majeur des théories
physiques contemporaines. S’il y a des structures physiques empiriques
supplémentaires, c’est qu’il y a des symétries supplémentaires et que l’on n’a
pas pris un groupe de symétrie approprié. »
Souriau fait l’historique des géométries que les physiciens utilisent. De l’espace euclidien à celui qui intervient dans les théories de jauge. Visiblement (?) Petitot s’en est inspiré dans son article.
Pour moi Souriau était, comme Thom et d’autres que je ne citerai pas, un marginal, quelqu’un qui ne se coulait pas dans la pensée unique de la science « officielle », celle dont l’un des objectifs est de préserver ses dogmes fondamentaux.
Paul Jorion défend l’idée (que je partage) que la « science » économico-financière qui a cours depuis la première révolution industrielle n’est qu’un catéchisme et propose de briser le dogme de la loi de l’offre et de la demande en repartant de la problématique aristotélicienne. Mes interventions « thomiennes » sur ce blog ont pour but, sinon tenter de convaincre, au moins faire réfléchir sur le fait que la « science » biologique darwinienne et néo-darwinienne telle qu’elle nous est présentée est peut-être un autre catéchisme: Thom, en réintroduisant une forme de lamarckisme, propose de briser le dogme darwinien en repartant lui aussi de la problématique aristotélicienne (Esquisse d’une sémiophysique est sous-titré: Physique aristotélicienne et théorie des catastrophes).
A propos des enjeux politiques de la biologie:
http://www.scribd.com/Lamarck/d/8780465-Bertrand-Louart-LAutonomie-du-Vivant-un-nouveau-paradigme-pour-la-vie-sur-Terre-2008
Le chapitre concernant les enjeux politiques est vers la fin.
@ Kercoz
///Linéaire et non linéaire///
il y a (pour les matheux) des équations différentielles linéaires et non linéaires. La modélisation mathématique du phénomène chimique de Bélousov-Zhobotinsky conduit à un système d’équations différentielles non linéaires (au sens que donnent les matheux).
Toujours pour les matheux il n’y a pas, au premier abord, de différence conceptuelle entre équation différentielle et équation « aux différences finies ». La seule différence (techniquement de taille!) nécessite de passer du calcul purement algébrique au calcul infinitésimal.
Voici un exemple très simple: l’équation différentielle linéaire pour les matheux y'(x)=y(x), x réel. Si l’on cherche la solution vérifiant de plus la condition initiale y(0)=1, on obtient la fonction y=exp(x).
Maintenant soit h un nombre réel positif que l’on imagine très petit. On sait que, par définition de la dérivée, y'(x) est très proche de (y(x+h)-y(x))/h. D’où l’idée d’associer à l’équation différentielle l’équation aux différences finies (équation d’Euler): (z(n+1)-z(n))/h=z(n), z(0)=1, n cette fois entier naturel, z(n) se calculant alors à partir de z(0) par simple récurrence. Ce qui précède laisse espérer que z(n) est très proche de exp(n*h), et ce d’autant plus que h est petit, ce que l’on démontre effectivement.
Ce genre de considération a de plus l’avantage de démystifier les équations différentielles…
A ce propos on remarquera que ces deux équations (linéaires!) très simples ont une extrême sensibilité par rapport à la condition initiale, une sensibilité exponentielle…
Mais, en allant plus profond, il y a peut-être une différence fondamentale entre les deux. Pour Thom c’est même LA différence fondamentale, l’aporie fondatrice des mathématiques étant justement pour lui l’opposition discret/continu, alias algèbre/géométrie. Dans la théorie des systèmes dynamiques à temps discret (donc du type équation aux différences finies) le produit de deux difféomorphismes d’Anosov structurellement stables est structurellement stable. L’analogue est faux pour les systèmes dynamiques à temps continu.
Tout cela dépasse assez nettement mon entendement. Mais la vision de Thom (qui se dit « penseur du continu dans la lignée d’Aristote), si elle est correcte, semble pouvoir remettre fondamentalement en cause l’usage des ordinateurs en intelligence artificielle et autre programmation « génétique » (Thom utilise souvent le vocable « quincaillerie électronique » pour désigner les ordinateurs)…
A ce propos pour Petitot la différence discret/continu est de nature transcendantale. Ceci explique peut-être la position hayekienne de ce dernier alors que Thom prend au contraire une position « écolo » ou au moins écolo-compatible.
@ Kercoz
Je prolonge un peu avant que la file ne disparaisse dans les bas-fonds.
1) Pour Thom la notion de stabilité structurelle permet de prolonger et de préciser le « tout être persévère dans son être » de Spinoza. En effet un être ne mérite d’être, d’avoir une substance que s’il reste lui-même sous l’effet de stimuli. Seuls donc les êtres doués de stabilité structurelle, les véritables êtres, méritent d’être dénommés dans le langage. Bien entendu par un substantif puisqu’ils sont substantiels.
2) A propos de l’aporie discret/continu. Le théorème précité sur les systèmes dynamiques pourrait s’interpréter en disant que l’approche discrète est plus « profonde » puisque donnant une existence substantielle à certains êtres alors que l’approche continue ne le permet pas.
3) Le 2) fait remonter en moi une vieille interrogation de béotien: en mécanique quantique, on parle de quanta, de temps, distance de Planck, etc.. Ce qui fait que la mécanique quantique est donc pour moi d’essence discrète. Que vient alors faire le continu dans l’énoncé des lois, par exemple que vient faire là l’équation, continuiste car aux dérivées partielles, de Schrödinger?
Non, le niveau d’incertitude n’est pas une variable d’état, il est fonction du temps, du strike, de l’humeur des opérateurs (des ordinateurs) … bref de ce que vous voulez.
Mais en aucun cas il doit exister « quelque part » une valeur certaine du niveau d’incertitude, c’est fondamentalement quelque chose qui se négocie « entre hommes ».
Le pifomètre des salles est donc effectivement le meilleur estimateur des surface de volatilité, la preuve est simple : il n’existe pas de modèles pour arbitrer l’actuel prix des options.
Tout à fait, quelqu’un qui savait pourtant très bien compter à même dit « it’s all relative » …
Bah c’est pas grave, vous avez eu raison sur pleins d’autres trucs !
Je mettrais un bémol :
Quand un trader utilise un modèle qu’il sait de mauvaise qualité, il va essayer de prendre en compte l’erreur qu’induit le modèle pour retomber sur ses pattes. Donc le trader ne fait pas de l’arithmétique mais de l’analyse (il a affaire à la notion de limite : est-ce que mon modèle n’est pas biaisé ? Quelle est la variance…)
Et la dame ne fait que revisiter des théories qui disent que le temps ne s’écoule pas de la même façon selon que l’on soit dans sa voiture ou autre part 🙂
Mais sinon c’est admirablement bien écrit. Si vous avez une centaine d’histoires de cet acabit, ça ferait un beau livre de vacances ou de Noël !
Oui! J’ai souvent eu affaire au bouchon sur la Roche-Bernard lorsque nous montions voir mes grands-parents de Nantes en Finistère avant la construction de la 4 voies, ils étaient très pénibles, cette 4 voies a fait gagner une infinité de temps à plein de gens soit un demi-sudoku!
Vous parlez des embouteillages sur le pont « Tancarville » ou sur le pont de bateaux qui a été utilisé depuis la fin de la guerre (de 40!) jusqu’à la construction de ce dernier?
Non non le suspendu, çui d’avant le quatre voies de 95…
Pas compliqué… quand je montais à La Trinité (non, pas pour la Marine ni pour les marins, ni pour les marines de Plisson, pour la belle famille…) et que je tombais sur ce vilain bouchon sur la Vilaine c’était, dans les bons jours, halte prolongée dans un bistrot de La Roche-Bernard, dans les moins bons la tentation presque irrépréssible du retour direct à l’oustaou, voire du divorce anticipé.
(Et c’était bel et bien un ½ sudoku le temps perdu, soit une éternité, soit j’sais pas 10, 15, 20 bornes de bouchon…bref, pour être à Pâques à La Trinité tu partais de Bordeaux à Noël… la vie d’Jésus pour aller voir les bretons quoi)
Quand ils ont inauguré le nouveau pont, c’était trop tard; j’avais perdu ma trinitaine. Sauf que du coup j’ai gagné une finistèrienne (non, je ne l’ai pas rencontrée dans un troquet de La Roche-Bernard mais ç’aurait pu) … il suffit de passer le pont et c’est tout de suite…
@Vigneron, une belle famille à la Trinité!…
« j’ai gagné une finistérienne »
Ouf!…
KAIEL
J’ai souvent eu affaire au bouchon sur la Roche-Bernard
Vous étiez le bouchon!
L’enseignement de l’arithmétique n’y est pour rien, Paul. Le temps, c’est comme la température : il y celle qu’indique le thermomètre et celle qui est ressentie. Ce que démontre parfaitement le modèle de Black & Scholes ! 🙂
Edgar Faure : » ce n’est pas la girouette qui tourne (lui) mais le vent (les évènements). »
Tout serait donc relatif !
Y compris les constantes ?
C’est pourtant simple:
1 sudoku = 2 minutes de t
1/2 sudoku=1 infinité de t
simplifions
2 minutes =2 infinités
1 minute=1 infinité
car une infinité est bien une sorte de mesure ou d’évaluation.
Larousse : nom féminin. très grand nombre.
Donc
1 minute=1 très grand nombre de minutes
C’est en cela que le temps est relatif.
Cqfd.
Quid des jeux d’essais? Qui sont là pour triturer les programmes.
Ben moi je ne vois pas ce que l’arithmétique vient faire là, dans l’un comme dans l’autre cas.
Que les traders utilisent une référence disposant des signes extérieurs de la rigueur mathématique comme justification pour faire ce qu’ils ont envie de faire (plutôt que l’avis de quelque gourou de la finance vite mis en doute par un gourou concurrent) présente l’avantage que cette référence est difficile à remettre en cause. Ce qui compte pour eux c’est que quelqu’un qui voudrait prendre leur place ait le plus de difficulté possible à trouver des arguments. C’est bien le cas pour un modèle exprimé dans une langue mathématique que toute personne bien née se doit d’ignorer tout en lui marquant en même temps une profonde déférence.
Le salaire des spécialistes qui font tourner le modèle, le coût des ordinateurs qu’ils emploient, l’ésotérisme de leur discours, la difficulté et la longueur de leurs études voir la consonance du nom des auteurs, tout ça, oui, ça compte!
Quand à la dame, elle exprime des sentiments: une des choses qui caractérise les sentiments me semble être qu’ils échappent à toute arithmétique.
C’est les patrons de ceux qui ont pondu ce modèle faux qui ne connaissent pas l’arithmétique, ils ont sans doute pris leurs matheux pour des crétins qui coupaient les cheveux en 4 (après n’avoir rien compris à leurs explications probablement ).
Normal, puisqu’ils sont patrons, ils sont les plus intelligents !
Le 7 mai, le nouveau président ou la nouvelle présidente ne sera pas relatif (ve), espérons-le !
http://www.youtube.com/watch?v=JWwDEW1vfXE
Inoubliable passage de 3/10 to Yuma, mais ce n’est pas le seul dans lequel éclate la beauté de Felicia Farr…
Dans l’ensemble j’ai le sentiment justifié où non, que quelque chose a mal tourné dans le cinéma, particulièrement aux USA mais aussi ailleurs… A partir de quand ? Dans ces films d’avant 68 (eh oui !) il y avait des personnages ambiguës (construit à la Molière) plein de contradictions internes (Glenn Ford ici, paradoxal)… très loin du manichéisme de notre époque qui n’a plus l’ampleur d’âme nécessaire pour accueillir la complexité, le dilemme, la finesse morale. On a sacrifié le psychologique au spectaculaire…
http://www.youtube.com/watch?v=AyDdnqYxhd8
Cet usage d’une variable d’état comme variable de contrôle est précisément ce qui a fait le succès, la popularité extraordinaire de Black & Scholes dans les salles de marché. Il existe, comme les lecteurs de ce blog ne le savent peut-être pas, une étude que l’on peut considérer comme définitive sur la façon dont ce modèle s’est imposé dans les années 70, au début sur les marchés d’options de Chicago, et ensuite partout: c’est le fameux article de Donald Mackenzie et Yuval Millo « Constructing a market, performing theory: the historical sociology of a financial derivatives exchange », publié en 2003 dans le n°109 de l’American Journal of Sociology. Toute cette recherche est reprise dans le livre de Mackenzie paru en 2006 « An engine, not a camera » (MIT Press) où on trouve aussi bien d’autres choses, par exemple une histoire détaillée de la façon dont les produits dérivés ont été progressivement légitimés aux Etats-Unis dans les années 60 et 70. Lecture indispensable…
René Thom propose un modèle de processus d’internalisation d’une variable de contrôle, de mise en « pilotage automatique », pour expliquer la formation du mésoderme en embryologie des vertébrés. (Esquisse d’une sémiophysique p. 64).
J’avoue ne pas voir l’intérêt de l’opération inverse d’externalisation d’une variable interne, de retour au « pilotage manuel ». Sauf dans le cas où le pilotage automatique ne nous conduit pas à l’endroit souhaité…
Le modèle de Thom précité concerne le problème de l’auto-organisation, de l’émergence des structures.
Je pense que la naturalphilosophie de Thom, son espoir de voir l’humanité « refroidir » c’est à dire vivre en équilibre avec les ressources écologiques locales (article « de l’innovation » paru dans l’EU), est Blog-de-Paul-Jorion-compatible. Il n’en est pas de même de Jean Petitot, qui fut intellectuellement très proche de Thom, qui tire partie des avancées théoriques dans cette direction pour prendre résolument une position hayekienne (cf. « Vers des lumières hayekiennes » dispo en pdf sur le net).
Le libéralisme de Friedman, Von Mises, Hayek est souvent considéré sur ce blog avec, comment dire, condescendance. Ce n’est pas du tout l’idée que je me fais des arguments sur lesquels s’appuie Petitot.
« Le libéralisme de Friedman, Von Mises, Hayek est souvent considéré sur ce blog avec, comment dire, condescendance. »
Ô qu’en termes galants, ces choses-là sont dites ! Non : les appeler « ennemis du genre humain » n’est pas « condescendant » !
@ Paul Jorion
Je pense que ce sont des fous dangereux et ce ne sont pas les conclusions auxquelles aboutit Petitot dans « Vers des lumières hayekiennes » qui me feront changer d’avis.
Mon « avec condescendance » concernait l’argumentation.
Et je ne vois pas comment contrer les arguments de Petitot…
@Basic et Jorion :
//// Jean Petitot, qui fut intellectuellement très proche de Thom, qui tire partie des avancées théoriques dans cette direction pour prendre résolument une position hayekienne (/////
Le fait de savoir si ces démarches sont, ou non, perverses -idéologiques -machiavéliques ..etc , importe peu . L’important est de démontrer qu ‘elles sont fausses .
Les système complexes et leurs interets (auto-organisation , émergence de structures hyperstabilité et autres attracteurs),ne fonctionnent qu’ en « limites ouvertes » et les rétroactions actives dès les cellules les plus petites .
Le fait d’argumenter sur l’ auto organisation , apres avoir destructuré (spécialisation, hypertrophie des groupes) le modèle , relève , soit de l’erreur math grossière , soit de la mauvaise foi.
en réalité, je pense que l’essentiel est de renverser ce monde mortifère qui nous mène ( souvent avec notre consentement ) à la barbarie.
le temps que vous aurez passé à démontrer aux peuples que telle théorie est fausse les possédants et leurs larbins auront déjà une autre théorie toute aussi fausse : ils s’en foutent, pour eux l’essentiel c’est de masquer que leur seule volonté c’est l’accroissement des richesses pour quelques uns ( quelques millions de familles au regard de l’humanité, ça reste bien quelques uns )
cette recherche effénée de richesses et de pouvoir est aussi vieille que la lutte des peuples contre cela et pour une vie décente; elle prend différenets formes suivant les époques mais l’accaparement ( et écraser la gueule des autres pour y arriver si nécessaire ) reste le moteur unique.
et actuellement nous passons, dans les pays occidentaux, à une phase écrasement des autres pour maintenir les riches en haut de l’affiche
socialisme ou barbarie
@ Kercoz
Merci de votre commentaire.
En ce qui concerne les systèmes dynamiques je suis plus enclin à considérer les travaux des mathématiciens (Anosov, Smale, Peixoto, Thom, etc.) que ceux d’un chimiste comme Prigogine.
Votre contre-argumentation ne me déplait pas. Mais je ne suis pas convaincu du « théoréme » que constitue votre avant dernier paragraphe.
question : d’où vient cette recherche d’accaparement ?
@ j.gorban
« l’essentiel est de renverser ce monde mortifère qui nous mène (souvent avec notre consentement) ) à la barbarie. »
Je pense que la théorie darwinienne, telle qu’elle nous est actuellement présentée, est mortifère: l’adaptation ainsi considérée n’est pas lutte pour la vie mais lutte contre la mort. Or c’est à mon avis le socle sur lequel se fonde le libéralisme actuel (la concurrence libre et non faussée -interdisant d’ailleurs curieusement(!) la coopération). Tous les arguments contre sont donc pour moi bons à prendre.
« Socialisme ou barbarie »
René Thom propose une autre théorie de la morphogénèse où le darwinisme côtoie le lamarckisme qui, lui, autorise des évolutions à caractère adaptatif déclenchées selon un processus interne antérieur à toute sélection.
Il n’est pas inutile de rappeler que Darwin lui-même, à la fin de sa vie, admettait cette possibilité (la théorie des gemmules).
En faisant l’analogie avec les sociétés le lamarckisme rétablit le pouvoir des peuples à disposer d’eux-mêmes. Pour moi une raison d’espérer.
« le temps que vous aurez passé à démontrer aux peuples que telle théorie est fausse les possédants et leurs larbins auront déjà une autre théorie toute aussi fausse ».
C’est peut-être ce qui se passe avec Petitot…
@Basic Rabbit :
//// Mais je ne suis pas convaincu du « théoréme » que constitue votre avant dernier paragraphe.////
Théorème est un bien gros mot. Je m’ appuie sur une rigidité comportementale (irréversible ou peu réversible) qui me semble logique et justifiée par la durée de sa mise en place et sur les conditions de cette mise en place (densité d’individus tres faible, gds territoires , contacts rares , endogamie culturelle …) et sur les autres systèmes vivants . Il serait curieux que l’espece humaine bénéficie d’ une carte « blanche structurale » sans dégats pour l’individu de l’espece , pour l’espece et pour les especes en interactions (boucles trophiques).
Ma seule hypo-thèse mathématique (que je serais bien infoutu de démontrer ) serait que ds une modélisation complexe ( groupe d’equa diff interactives ), linéariser les intrants de base (spécialisation par ex , pour des raisons de gain de productivité), rendrait impossible le retour a une modélisation « complexe » qui réponde a ces critères …et surtout qui interdise a un retour a une position stable .
Une variante serait de dire que modifier les intrants dès le départ , « éloigne » tres loin l’attracteur s’il ne le supprime pas .
En tant qu’usage pratique , on peut avancer que l’importance structurelle est liée a l’ affect qui impose un nombre limité d’ individus . Et qu’un retour vers certains outils sur ces bases ( villages ou quartiers réduits , boulot sur place , productions locales …etc ) pourraient éviter les dérives que l’ on constate …meme si celà nuit grave a la productivité .
POur les limites « ouvertes » , c’est l’idée de G. Bataille que je fais mienne …et qui est cohérente avec un modèle parcellisé fractal (non constructiviste).
@ j.gorban
« question : d’où vient cette recherche d’accaparement ?
Nietzsche disait, je crois, quelque chose comme: « la vie est accaparement, conquête de territoire ».
René Thom donne la catastrophe de fronce comme base de l’explication de l’embryologie animale. Pour lui l’interprétation métabolique de la fronce (l’interprétation statique étant une fronce dans un tissu) est une sorte de bielle, mécanisme le plus simple qui allie réversibilité et irréversibilité et qui permet, comme chacun sait, de transformer une énergie dégradée, thermique par exemple, en énergie moins dégradée, mécanique par exemple. Et, métaphoriquement, si la bielle pompe de l’air extérieur vers un ballon alors le ballon va gonfler.
Trop bon ! Il y a de l’ironie XVIII ° ici, dans ce texte, quel bonheur de vous lire ! – Merci ( Misère humaine tout court , on dirait plutôt, mais qui ne sent pas que ça « chie » grave en ce moment dans le » bon ordonnancement » général. [Et qu’est -ce que ça pue !] )
Comme quoi regarder (et entendre) autour de soi et à côté de sa table pousse
à des conclusions hasardeuses.
Sur ce modèle auto-centré, je regarde mes connaissances:
Epouse: sudoku, connaît pas. Accro. à la détente tricot/lecture mais pas beaucoup de temps.
Fille ainée: mère (2) et salariée: travail de titan, court partout 6jours sur 7, rarement à l’heure malgré un emploi du temps et discipline de fer. Connaît le sudoku mais pas le temps. Encore moins de passer à table au resto.
Fille cadette: jeune mère et étudiante-salariée : soin au bébé, garde, nourrice,
bus pour l’Université,bus pour l’hopital (labo. bio.),repas familial baclé; fin de journée éreintée.
Impossible de payer une table au resto. ( sauf resto U.)
J’en conclue que votre exemple est juste pour faire sourire: « ces bourges, y-s’en ont du temps et de l’argent à perdre ! »
D’ailleurs, Black-Scholes, il n’y a rien à comprendre. Ils n’ont fait que reproduire
l’ éternel mirage de la martingale imparable. Sous une forme qui a impressionné le jury attribuant le prix décerné en l’honneur d’ Alfred, leur seul mérite.
Quant à appliquer leur martingale en réel, faillite garantie. La preuve par LTCM, judicieusement oubliée. Le mystère Black-Scholes-Merton…
Comme quoi, les joueurs de bonneteau assez habiles impressionneront toujours les gogos.
Mort à la spéculation et à la facilité, du calcul ou du gain.
Ne vous inquiétez pas M. Jorion. Dans pas très longtemps, mamie pourra se planter un pendrive dans le cerveau afin de ne plus jamais oublier la différence entre les torscholes et les kerviettes.
MIT discovers the location of memories : individual neurons.
We now know that, as in Eternal Sunshine of the Spotless Mind….
http://www.imdb.com/title/tt0338013/
Blaise Pascal : » Ceux qui jugent d’un ouvrage sans règle sont , à l’égard des autres , comme ceux qui n’ont pas de montre à l’égard des autres . L’un dit: « il y a deux heures »; l’autre dit: « il n’y a que trois quarts d’heure ». Je regarde ma montre et je dis à l’un : »vous vous ennuyez » ; et à l’autre : » le temps ne vous dure guère »; car il y a une heure et demie , et je me moque de ceux qui me disent que le temps me dure à moi , et que j’en juge par fantaisie: ils ne savent pas que je juge par ma montre ».
Variante Loi de Fraisse : le temps a une dimension psychologique qui est fonction de l’intérêt à l’action exercée .
Loi de Laborit : l’individu va spontanément vers ce qui est facile et/ou qui lui fait plaisr , et s’arrange pour fuir et repousser ce qui est difficile ou lui procure un déplaisir. La maîtrise du temps est un apprentissage du temps réfléchi .
Lio de Murphy : Chaque chose prend ^plus de temps qu’on ne l’imagine au départ .Rien n’est aussi simple qu’il n’y parait .
Loi d’Illich : Au delà d’un certain seuil la productivité du travail décroît puis devient négative . Crispation n’est pas concentration .
Loi de l’alternance : L’efficacité et la créativité ne peuvent être entretenues et développées que si l’alternance des temps et le respect des rythmes personnels sont observés .
Loi de Swoboda-Fliees- Teltscher : Chaque personne est traversée de multiples rythmes biologiques . Chacun a ses bons et ses mauvais jours , se bonnes et mauvaises heures .
Loi de Perls : L’angoisse , c’est ce qui me sépare d’un futur que je ne connais pas . Elle se manifeste davantage quand on ne vit pas dans le présent , mais dans un futur supposé potentiellement négatif .
Et quand on doit expliquer une situation agricole à un ministre de l’agriculture qui ne sait pas ce qu’est un hectare ? Surtout quand il se vante de ne rien savoir en maths !
http://www.youtube.com/watch?v=E3jF9tpmZ9Y
On fait quoi ?
On s’en fout. Il est pas géomètre ni agriculteur mais négociateur et les ceusses pour lui faire les comptes y’en a bien assez.
Et un paysan direct sorti de la FNSEA qui prend ses aises rue de Varenne, c’est bon, on a donné…
A tout seigneur… François Guillaume… un mrc qui savait compter les hectares…
Vous posez là un vrai problèmé d’antropologie de la connaisance. Comment expliquer que quelqu’un de LOGIQUE, capable de résoudre un sudoku, ne soit pas capable de résoudre un problèmé de mathématiques du niveau de l’école primaire.
Il faut donc bien se rendre a l’évidence que la Logique et les mathématiques sont deux fonctions de l’intellecte humain qui ne semble pas avoir de connexion, en tout cas pour la personne que vous avez pris comme example.
Pour l’économie il en est de même, la complexité mathématiques d’une équation ne prouve en rien que sont applications aura des résultats logique, l’histoire de la navette et de beaucoup d’autre découverte ont en fait montrer qu’il existe une séparation entre la fonction logique et mathématique, bien que les mathématique fasse appel a cette fonction logique.
Afin de limiter l’outilisation de la fonction logique il est necessaire de croire que les mathématiques sont capable de résoudre seul les problèmes aussi complexe soit il, et l’ére de l’ordinateur essaie de prouver que c’est la cas. Hors il n’en est rien, bien au contraire, un ordinateur a besoin de programme pour fonctionner et se programme est pour l’ordinateur sa fonction logique tandis que le CPU n’est qu’un calculateur qui seul est incapable de faire quoi que se soit.
Donc a l’heure actuel beaucoup des personnes sur les marché ont une grande capacoté mathématiques mais a l’inverse de cette dame semble dénuer de l’utilisation de leur fonction logique. Il me semble donc logique que notre systéme économique basé sur des modèles mathématiques soit tomber en panne faute de cerveau logique. Et quand il en ont sous la main, il se sentent trop souvent en danger.
Comment expliquer que les mathématiques qui utilise les fonctions logique, semble vouloir faire tout reposé sur cette couche externe et en oublier les rouage profond interne. Un peut comme le creveau mamifére qui semble tenter d’oublier sont ancétres reptilien ?
Logique et maths j’suis pas sûr; par contre Logique et orthographe, sûr et certain ça fait deux, comme hun et un font d’eux.
comme hein ! et un font deux, c’est plus logique 🙂 🙂 🙂
Pour pousser la logique hun et un peuvent aussi faire trois 🙂 🙂 🙂
[…] 1 sudoku = moins de 2 minutes ; ½ sudoku = une infinité de temps. Il ne m’en fallait pas davantage bien entendu pour résoudre d’un seul coup deux énigmes : l’utilisation par les traders du modèle de Black-Scholes et la longueur de temps nécessaire pour un sudoku : la médiocrité de l’enseignement de l’arithmétique dans les classes élémentaires est sans aucun doute à incriminer dans les deux cas ! Cher lecteur, pas nécessaire de vous faire un dessin, n’est-ce pas ? (*) Un « article presslib’ » est libre de reproduction numérique en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Blog de Paul Jorion » MISÈRE DE L’ARITHMÉTIQUE […]
Un rêve de deux secondes se déroule sur deux heures et vice versa.
Voilà une grande découverte relative…..
Une juste tarification d’une option demanderait à connaître la volatilité du sous-jacent à chaque instant entre le moment de la tarification (aujourd’hui) et le moment d’exercice de l’option (en général quelques mois plus tard). Cela est impossible puisque cela demanderait à connaître la volatilité en des moments futurs.
Le modèle de Black-Scholes est un modèle qui donne le prix de l’option sous l’hypothèse très forte que la volatilité est constante jusqu’à l’exercice de l’option.
Paul Jorion propose d’injecter dans ce modèle la volatilité observée aujourd’hui (communément appelée volatilité historique et qu’il nomme variable d’état).
Les marchés proposent eux d’injecter dans ce modèle ce qu’ils pensent être la volatilité moyenne sur la période allant d’aujourd’hui jusqu’à l’exercice de l’option (communément appelée volatilité implicite et que Jorion nomme variable de contrôle).
Je ne vois pas ce que cette façon de faire a de stupide. Elle me paraît tout à fait fondée intellectuellement.
Peut-être, mais ce n’est pas comme cela que le modèle avait été conçu : ce que vous décrivez, c’est le pis-aller dont on s’est contenté quand on s’est rendu compte que le modèle était faux… et qu’on voulait l’utiliser quand même. Le « smile », c’est-à-dire le fait que différentes valeurs sont attribuées à la volatilité quand on fait varier le « strike », le prix d’exercice, souligne la fausseté du modèle. Il n’y a malheureusement pas à sortir de là.
Bien sûr que ce modèle est faux, mais c’est le propre de tout modèle. Un modèle n’est qu’une réprésentation imparfaite de la réalité. Rapport qualité/prix si j’ose dire, il n’est pas si mal que ça.
Il est difficile de juger de l’apport du modèle de Black-Scholes à la mathématique financière, mais si je devais ne retenir qu’une chose de ce modèle, ce serait la suivante :
Black et Scholes ont initié ce qu’on peut appeller le pricing par duplication. Cette technique leur a permis de réduire une équation différentielle stochastique à une équation aux dérivées partielles, donc déterministe. Pour le dire autrement, cette technique leur a permis de neutraliser l’effet de l’incertitude (du moins en théorie et donc sous un certain nombre d’hypothèses). Mais bon, l’idée de duplication me paraît profonde et mérite d’être soulignée.
« Bien sûr que ce modèle est faux, mais c’est le propre de tout modèle »
Bloub ! bloub ! c’est le cri du poisson qu’on noie.
Il n’y a aucun déterminisme a faire des moyennes, tout autant qu’il n’y a aucun déterminisme a une équation différentiel. Beaucoup de paramétres ne sont pas pris en compte dans la finance. IL tout particuliérement important de connaitre avant l’ouverture ou a la fermeture l’order book et de pouvoir faire varier le prix des sous jacents et l’impacte que cela aura sur le dérivé et l’option qui pourrait lui être lié, surtout a l’heure du setlement (domaine que je connais assé bien). Il n’y a aucun déterminisme en finance sinon celui de la guerre. C’est a dire vaincre ou perdre. Mais lorsque le combat est inexistant il ne reste que la triche et entre les ventes a découvert, le gré a gré et d’autres petite astuse, les modéles sont incapables de faire autre chose que des calculs. C’est ll’esprit logique qui détermine l’avenir et non les mathématiques. Essayer de jouer aux échecs de façon mathématiques, vous vous appecevrez que sans modéle logique cela ne fonctione pas. La logique implique le temps réel les mathématiques présupose dans l’espace temps.
Un modèle mathématique est toujours faux au sens où il finira par être invalidé. C’est ce qui est arrivé à la mécanique de Newton, c’est ce qui arrivera à la mécanique quantique ainsi qu’à la relativité générale.
C’est d’ailleurs ce qui en fait un modèle, c’est qu’on puisse l’invalider.
La question n’est donc pas de savoir si un modèle est vrai ou faux, mais bien plutôt de savoir quel lecture il propose de la réalité.
Un modèle, c’est un formalisme avec des hypothèses au départ et un certain pouvoir explicatif.
Quand Galilée énonce son principe d’inertie « A body moving on a level surface will continue in the same direction at constant speed unless disturbed », il fait l’hypothèse d’un plan parfaitement lisse. Bien sûr qu’un tel plan n’existe pas en réalité, mais cette hypothèse a permis à la physique de progresser.
De même quand Black et Scholes font l’hypothèse d’une volatilité constante sur la période allant de la transaction à l’exercice de l’option, tout économiste sait que ça n’arrive jamais en réalité, mais cette hypothèse (combinée à d’autres) et ce qu’ils en ont déduit a modifié le regard qu’on portait sur ces objets financiers.
« De même quand Black et Scholes font l’hypothèse d’une volatilité constante sur la période allant de la transaction à l’exercice de l’option »
Vous ne comprenez pas de quoi il s’agit : le modèle n’est pas faux parce qu’un modèle « n’est après tout qu’une représentation symbolique » ou « est nécessairement falsifiable », etc. autrement dit, il n’est pas faux « sur un plan épistémologique », il est faux parce qu’il suppose que la valeur de la volatilité varie automatiquement quand la valeur du prix d’exercice est modifiée (effet de « smile »), ce qui est tout simplement physiquement impossible parce que la volatilité est un donné empirique : une caractéristique mesurable des prix de marché et pas une variable d’ajustement.
Comme tout modèle, le modèle de Black-Scholes est effectivement « falsifiable » (au sens de Popper), le problème, c’est que l’anomalie du « smile » l’a immédiatement infirmé (« falsifié ») en mettant en évidence une incohérence interne, mais que cette infirmation a été ignorée : on a préféré inventer la variable fantaisiste de « volatilité implicite » plutôt que de le mettre à la poubelle. En fait, comme je l’ai déjà expliqué dans Le prix (2010 : 260-263), on le sauve très aisément en ajoutant la variable « politiquement incorrecte » du profit (pouah !) du vendeur de l’option.
Pas spécialement du vendeur de l’option, car a priori se vendeur se base sur un modèle de calculs, qu’il est évidement facile de faire coîncidé avec les espérance de ce dernier.
Il en va de même pour le LIBOR, qu’il est facile de déterminer a l’avance ou en temps réel pour contenir une baisse de la demande et donc une augmentation de l’offre.
Les mathématiques ont pas éssences non statiques, fluctuentes, d’un piont de vue financier. Mais lorsque c’est mathématique peuvent être ajusté au gré du vent, d’ou provient la fluctuation qui au dire de petit breton, semble correspondre a l’anticipation. Mais là encore anticipation de qui et influance de qui ?
Surement pas des mathématiques mes plutot des négocients qui ont avant tout le monde la quantité d’oerdre de vente et d’achats. Il est ensuite pas trés compliqués de trouver ou de fabriquer des moyenne, sachant qu’elle dépendent des acteur principaux du marché.
Je ne sais pas comment le modéle de stroke et bidule fonctionne, mais se sais comment influencer le marché a la baisse ou a la hausse, comment vendre un sous jacent pour tirer prifit de l’option, ou d’un spread aprés une attaque monaitaire et d’autre logique qui n’ont que peut de chose a voir avec les mathématiques sinon que cela crée des + pour les uns et des – pour les autres. Il faut juste savoir pour qui seront les plus et pour qui seront les moins.
Et ont sait trés bien que les plus en finance vont vers les plus, et l’inverse de la thermodynamique et de l’électron qui eux vont toujours la ou il y en a le moins. question d’équilibre surement, notion que les mathématiques financiére sont lion d’avoir trouver.
Je ne dis pas que le modèle de Black-Scholes est la panacée universelle. Je dis qu’il est assez facile à comprendre et à utiliser (c’est un point de départ intéressant). Il offre un cadre formel au problème de tarification des options. Il existe des modèles plus complexes (dans le modèle d’Heston par exemple la volatilité est stochastique et non constante), mais ils ont leurs problèmes aussi.
C’est un peu comme la loi de Boyle-Mariotte en physique, elle est à quelques pour cent près correct. Le fait qu’elle soit relativement correct permet de l’appliquer dans des situations courantes. Si maintenant on la pousse à la limite, ça ne va plus.
Idem avec Black-Scholes pour des valeurs extrêmes du strike et de la date d’expiration (effet de « smile »).
Soit dit en passant, une autre critique souvent adressée au modèle de Black-Scholes, est l’hypothèse de (log-)normalité. Cette hypothèse fait que le modèle tend à sous-estimer les évènements rares (les risques extrêmes).
Mais alors le « modèle » de départ de Black et Scholes est un cas particulier de la
« loi de Hofstadter » :
« Ca prend toujours plus de temps que ce qu’on pensait, même si on applique la loi de Hofstadter ».
Piotr nous rajoutera-t-il la « loi des poules » ? :
« La volatilité des volatiles décroit avant la ponte »…
Il me semble qu’il y a une différence conceptuelle entre un modèle et une théorie, non?
Bonjour à tous
Donc: quand on a perdu le nord, il suffit de vérifier si on a bien son Sudoku! ET TOUT RENTRE DANS L’ORDRE!
Cordialement
[…] en partie décrite par un ancien militant, est éprouvée. Perez (carolpm94) sur Pinterest. MISÈRE DE L’ARITHMÉTIQUE – Blog de Paul Jorion. Ce texte est un « article presslib’ » (*) Mardi, durant l’audition au Sénat, j’ai […]