Merci à Gérard Chouquer pour ce compte-rendu de « Comment la vérité et la réalité furent inventées » (1) dans la revue Les Annales.
Paul Jorion dispose de talents multiples, étant aussi à l’aise dans l’analyse des marchés financiers, du second théorème de Gödel, du mode de raisonnement d’Aristote que de la philosophie de Hegel. Il propose ici un ouvrage d’anthropologie du savoir, ambitieux en ce qu’il n’hésite pas à se situer au niveau le plus élevé qui soit, celui de l’histoire de la rationalité. Son livre s’intéresse en effet à deux objets, la vérité et la réalité, qui, l’un et l’autre, ont à voir avec la formation de la pensée scientifique moderne. L’auteur entreprend de démonter que l’une et l’autre sont des productions culturelles majeures, l’une, la vérité, appartenant à l’Antiquité grecque, l’autre, la réalité, à la pensée rationnelle moderne du XVIIe s.
Parlant à plusieurs reprises de coup de force épistémologique, on pourrait se demander si l’entreprise de Paul Jorion est de s’engager dans une critique déconstructrice et quelque peu ravageuse des fondements de la science moderne. Le projet de l’auteur est différent. Il écrit : « contrairement à ce que l’on pourrait craindre, la chronique que proposent les pages qui suivent ne débouche nullement sur un relativisme sceptique quant à la connaissance et à son caractère cumulatif où tous les chats sont gris » (p. 19). Je ne sais si cette brève mention liminaire suffira à rassurer le lecteur, mais je l’invite à s’aventurer dans le livre sans crainte d’être conduit là où il n’aurait pas envie d’aller, à savoir dans l’impasse d’une critique qui n’aboutirait nulle part par position anti-scientifique. Son but est, au contraire, de « prôner un retour à la rigueur dans le raisonnement » (p. 11).
La thèse du livre est exposée en quatre chapitres. Le premier décrit ce que sont les modes de pensée “à l’écart du miracle grec”, ce qui fera ressortir plus vigoureusement encore la différence avec la pensée grecque évoquée au chapitre suivant. Pour cette partie, le guide principal de Paul Jorion est Lucien Lévy-Bruhl, parce que ce chercheur a jadis défini la mentalité primitive : indifférence à la contradiction ; utilisation brute des capacités de la mémoire ; modes de classement des notions selon l’équivalence de la réponse émotionnelle qu’elles suscitent ; enfin, autre modélisation physique du monde. Paul Jorion insiste sur les modes logiques de cette pensée, qui sont symétriques (en ce sens qu’ils supposent une relation d’équivalence et non d’inclusion), sur la “connexion simple” qui ouvre sur la forme de l’inventaire et non sur la taxinomie. Il relève que certains anthropologues peuvent ne pas reconnaître l’inventaire parce qu’ils entendent lire une taxinomie dans les réalités qui se présentent à eux, alors que celles-ci fonctionnent différemment. Il insiste sur le signe, engendré par la logique symétrique des relations, alors que la rupture de cette symétrie engendrera une autre relation, celle de la cause.
Le second chapitre explore le miracle grec. Avec cette expression, classique depuis Renan, Paul Jorion n’entend pas tout rapporter aux Grecs, mais simplement souligner que ce qui se passe en Grèce avec Platon et surtout Aristote est vraiment unique. Par exemple, il est conscient que l’apparition de la causalité (du genre : A cause B) et celle du raisonnement inclusif (du genre : B appartient à A) sont des inventions logiques qui sont plus anciennes que la Grèce du IVe siècle av. J.-C. Mais comme ces modes logiques ne sont pas universels (ils sont par exemple absents de la Chine à la même époque), et comme c’est en Grèce qu’on en saisit le mieux la forme, l’expression convient. S’il y a miracle, c’est parce que le langage des proportions et des relations apparaît, ce que désigne très précisément le mot logos, que les Latins désigneront par ratio. Il faut lire les pages 82-92 qui font l’analyse des formes de l’analogie et restituent aux mots leur sens le plus précis. S’il y a miracle, on le sait, c’est parce qu’une définition de la science, particulièrement robuste, est donnée pour la première fois : ce sera le discours portant sur ce qui est général. Les conditions sont réunies pour que le nécessaire soit distingué du contingent, le général du particulier, et pour que naisse une conception culturelle nouvelle de ce qu’on appelle la vérité.
On sait que des civilisations tout autant techniciennes que la civilisation occidentale née du miracle grec, n’ont pas eu besoin des théorisations d’Aristote pour progresser, et ceci dès l’Antiquité et le Moyen Âge. Quel est donc l’élément qui a fait la différence, et qui, sur la longue durée, explique ce que les choses sont devenues ? C’est que, si la vérité peut être ainsi définie et si l’établir s’apparente à une démarche scientifique mobilisant à la fois des catégories, une analytique (la méthode scientifique) et une dialectique (comment argumenter dans la vie quotidienne), alors le substrat épistémologique est réuni pour que naisse un autre mythe fondamental, celui de la représentation de la réalité par des modèles mathématiques. Ce nouvel apport fait l’objet du troisième chapitre. Il raconte comment « aux temps modernes, l’existence d’une réalité plus “solide” que celle du monde sensible de l’Existence-empirique réussit son ascension au rang de mythe dominant, un mythe non théologique sans doute mais néanmoins dogmatique : celui de la Réalité-objective. Cet avènement, dont les héros furent Kepler et Galilée, suppose une assimilation du réel à la loi des nombres…» (p. 173). Que s’est-il passé au début de la Modernité ? Au XVIe s on se situait encore par rapport à trois espaces distincts, celui de l’expérience et de l’existence empirique (les apparences ou phénomènes), celui de la modélisation ou de la connaissance (épistémé) qui recourt volontiers aux mathématiques pour répondre au “comment”, enfin celui de l’explication ontologique portant sur l’inconnaissable et dont on ne peut parler qu’en termes d’opinion (doxa). Paul Jorion explique alors que le coup de force ontologique, d’inspiration pythagoricienne, consista, c’est moi qui résume, à fusionner les plans de l’épistémé et de la doxa en décrétant que l’inconnaissable (“l’Être-donné”), non seulement n’était pas inconnaissable mais qu’il était même déjà connu : il n’était qu’une somme d’entités mathématiques. Autrement dit, les mathématiques s’autoproclamaient science de l’Être, science de ce qui est et n’a pas besoin d’être démontré. C’est en cela qu’il y eut une revanche (tardive) de Pythagore (titre du quatrième et dernier chapitre du livre) : le mage n’avait-il pas dirigé une secte qui prétendait, sur le mode mystique, que la réalité n’est constituée que de nombres ?
Mais, et le saut temporel est nécessaire pour comprendre la thèse de P. Jorion, puisque des évolutions majeures ont eu lieu au XXe s., et que des physiciens des systèmes complexes se sont éloignés de la conception habituelle – universalisante et légale – de la science pour se rapprocher des discours portant sur des savoirs empiriques ; puisque les dynamiques des systèmes peuvent être non linéaires, ce qui met à mal la causalité, on se trouve conduit à observer que, aussi bien à ses débuts que dans ses évolutions actuelles, le mode scientifique dit universel se trouve historicisé, et, de ce fait, profondément culturel. À l’explication mécanique, où il faut toujours trouver une cause à chaque fait, et où les faits paraissent incapables de produire entre eux quoi que ce soit, ne doit-on pas préférer, comme déjà Hegel le soulignait, l’explication téléologique, celle qui admet la manifestation de l’autodétermination ? Comme nous pouvons, aujourd’hui, donner à ce concept d’autodétermination des contenus variés, et pas uniquement dans les sciences physiques, le moment moderne de la Réalité-objective ne suffit plus et ne peut plus constituer le réservoir unique des explications.
Les apports de l’ouvrage sont nombreux, et le livre est parcouru de fils conducteurs sous-jacents à la démonstration générale en quatre temps.
Les mots et la psychanalyse sont une de ces trames subtiles de liaison. Paul Jorion attache beaucoup d’importance à cette disposition à regrouper les notions selon l’équivalence de la réponse émotionnelle quelles provoquent, contrairement à Claude Lévi-Strauss qui écrivait que la pensée sauvage procédait par l’entendement et non par l’affectivité. Il relie cette forme à la notion de “complexe psychanalytique” selon la définition de Freud : tout groupe d’élément représentatifs liés ensemble et chargés d’affects. Ainsi la pensée primitive serait proche de ce qu’on appelle « l’association d’idées » mais au lieu de s’en désoler, comme on le faisait jadis, il y aurait lieu de s’en informer.
Un autre fil conducteur de second plan est celui qui consiste à repérer, dans les actes des scientifiques, des paradoxes qui témoignent du fait que la pensée non scientifique reste sensiblement présente chez eux quoique mal assumée. Je crois la piste très fructueuse qui consiste à montrer comment, dans nos raisonnements scientifiques, se logent des formes d’analogisme, comment ne pouvant tout expliquer par la cause nous cédons à la séduction du signe. C’est ce que Paul Jorion appelle “duplicité épistémologique” (p. 366), en quelque sorte un usage combiné de plans épistémologiques différents mais sans l’admettre.
L’auteur est convaincu que la naissance du mythe fondateur de la Réalité-objective au début du XVIIe s. notamment, a à voir avec une transformation plus profonde encore qui est la naissance du sujet. Comment, en effet, des savants peuvent-ils en venir à “confondre” un espace de modélisation avec un réel ? C’est, explique l’auteur, parce que se produit un processus d’individuation généralisé, qui conduit à une méprise, lorsque le sujet se confond avec son image et qu’il se met à prendre la fiction de son “image au miroir pour son propre réel” (p. 266). L’une des explications principales qu’il propose, n’est donc pas “contextualiste”, mais plus large : ce ne serait pas l’état de l’Allemagne en 1600 qui expliquerait les idées de Kepler, ni l’état de l’Italie à la même époque qui rendrait compte de celles de Galilée. Ce serait, de préférence, un processus plus général et plus profond : une modification du sujet.
L’idée de P. Jorion en suggère alors d’autres : comment ne pas faire le lien avec la naissance de cette conception spéculaire globale qui s’installe au début de la Modernité et qui, progressivement, conduit à une réinterprétation du monde à travers les mots et les images ? Cette profonde transformation de la personne aurait ainsi rendu possible à la fois la science (c’est le propos du livre de Jorion), mais aussi le paysage, l’histoire, l’utopie, chacune de ces figures spéculaires ayant ensuite connu le développement que l’on sait.
Après les travaux de M. Foucault, ceux des écoles de sociologie des sciences, et ceux des anthropologues formés par l’enseignement de Lévi-Strauss (Paul Jorion ayant été lui-même un de ses élèves), l’ouvrage apporte sa pierre à l’édifice d’une archéologie ou anthropologie des savoirs. L’anthropologie, discipline qui est souvent partagée de doutes, montre ainsi un de ses plus grands succès : sa capacité à élaborer une forme de discours épistémologique qui soit à la fois explicatif (rétrospectif) et propositionnel (aider à définir les méthodologies à venir). Car pourra-t-on continuer longtemps à faire comme si l’accumulation de travaux anthropologiques sur la science n’avait aucun impact sur la représentation qu’elle a d’elle-même ? Le propos de Paul Jorion dépasse les mathématiques et la physique auxquelles il emprunte plusieurs exemples, et d’ailleurs, ces disciplines n’ont pas attendu l’évaluation de l’anthropologie pour faire bouger leurs propres lignes. Le propos concerne la rationalité en général, son histoire et son devenir. Il invite à considérer ce qui est sans doute le moteur de la science à l’époque moderne : son besoin de se constituer en île détachée du continent du réel pour pouvoir produire, à peupler cette île d’êtres réduits pour y parvenir, et donc à devoir ensuite inventer, par une série de figures, une dialectique qui réussisse à créer des liens autour de cette insularité.
=======
(1) Paul JORION, Comment la vérité et la réalité furent inventées, Bibliothèque des sciences humaines, éd. nrf Gallimard, 2009, 386 pp.
46 réponses à “COMPTE-RENDU DE « Comment la vérité et la réalité furent inventées », par Gérard Chouquer”
Concernant l’extention des droits des chômeurs US ..jusqu’à fin novembre(juste après les élections)…la durée maxim d’indemnisation passerait à 99 semaines (actuellement) + 21 semaines d’ici fin novembre soit un total de 120 semaines mais les démocrates ont besoin de trois voix répubicaines au Sénat,le projet est déja voté à la chambre.
http://www.zerohedge.com/article/hr-5618-extending-unemployment-benefits%E2%80%93-bad-bill
Si voté au sénat cela permettra de cacher la réalité quelques mois encore en évitant une chute majeure de la consommation car pas de RMI/RSA aux states…
Une candidate démocrate attaque en justice les principales banques US, AIG etc pour avoir causé la recession !!
Texte complet de sa plainte
http://www.zerohedge.com/article/texas-ag-candidate-sues-goldman-et-al-causing-recession-unemployment-and-everything-else-tha
Dissy.
Sympathiquement… : on est sur autre chose, là.
Merci Dissy.
On commence par s’appuyer sur « la bonne astrologie » de Kepler pour réhabiliter le dixième livre d’Euclide et on finit à tous coups grand prêtre, gourou ou faux-prophète par la nécessité du service au « grand œuvre » qui participe de « l’harmonie du monde ».
Bien heureux les simples en esprit.
Bien malheureuse ma « middle class » avec ses superstitions et ses antagonismes désamorcés si mal digérés et si peu assimilés.
Mon école laïque m’a enseigné le théorème de Pythagore, mais jamais « la théorie du complot des nombres »…..
Merci monsieur Jorion de bien vouloir de temps en temps étalonner pour le meilleur et pour le pire nos lanternes incertaines.
Monsieur Jorion, vous connaissez mon point de vue sur la subjectivité… Donc, pas la peine que j’en rajoute une couche.
Certes, Kepler a foutu bas la religion de la terre plate comme Einstein la religion de Newton.
Mais j’attends toujours le mec qui continuera l’unification des forces entre translation et rotation.
Et pas par une « matière noire » issue de l’enfer.
Il faudra quand-même que vous m’envoyez vos autres bouquins afin que je juge sur pièce.
Et si votre besoin d’ »unification », de « vérité » et de « réalité » n’était jamais que le reflet de vos peurs de « l’incertain »?
Dit autrement, ces notions complètement abstraites ne sont, à mon avis, probablement que la projection externe de notre nécessité interne de « sens » dont nous ne savons pas nous extraire pour justifier notre individualité.
Nous les plaçons à un tel niveau d’abstraction qu’il n’est plus possible d’en discourir dans quelque langage que ce soit, vernaculaire comme mathématique. Dans ce sanctuaire, nous savons nos projections à l’abri de toute preuve par la démonstration; enfin rassurés…
C’est notre approche individualiste et parcellaire qui, bien évidemment, nous plonge avec notre culture dans cet abîme. C’est donc sur cette mauvaise fée qu’il faut se pencher pour chercher une issue, plutôt que de continuer à plus parcellariser pour « mieux » unifier.
« Vérité » et « réalité » ont des usages politiques. Lisez le livre, vous verrez.
@ Paul Jorion
J’ai lu votre livre.
Je sais très bien l’usage manipulateur fait en politique de toute notion très abstraite dont on peut dire n’importe quoi sans être logiquement contredit (voir mon §3).
Merci à l’auteur pour ce commentaire clair qui me fournira une utile piste d’entrée pour appâter celles de mes connaissances potentiellement intéressées par l’ouvrage.
Je note que l’aspect spécifique de la contestation de la portée du théorème de Gödel, qui constitue un point assez jouissif de l’ouvrage, n’est évoqué que via des remarques génériques comme celle-ci.
« Je crois la piste très fructueuse qui consiste à montrer comment, dans nos raisonnements scientifiques, se logent des formes d’analogisme, comment ne pouvant tout expliquer par la cause nous cédons à la séduction du signe. C’est ce que Paul Jorion appelle “duplicité épistémologique” (p. 366), en quelque sorte un usage combiné de plans épistémologiques différents mais sans l’admettre. »
Or les isthmes qui rattachent l’ »île » où la science moderne s’est semblerait-il isolée du réel sont le monde des effets non linéiaires, de la bifurcation et des phénomènes qu’on met dans le pot « complexité ».
Ils ont été en partie vulgarisé par l’ouvrage de Gell-Mann « le quark et le jaguar », dans les années 1990. Si on relit aussi le « Gödel Escher Bach » de Hofstadter, qui fut populaire dans les années 1980, on y retrouve se tissage des signes et de la complexité.
On y évoque notamment l’analogie des messages itératifs avec ce qu’on savait à l’épique au sujet de l’ARN/ADN, qui s’est enrichi depuis (ARN intérférent, épigénétique), pour dévoiler des plans de complexité multiples de la vie.
C’est aujourd’hui le double monde de Google et des biotechnologies qui adresse donc ces affaires de complexité. Présenter « XGHT » à Google, c’est comme présenter un ADN TGGGCAA (ou un ARN UGGGCAA) en face d’un génome d’un être ou du génome d’une soupe comme celle de la flore intestinale, dont la complexité est elle-même incommensurable avec celle de nos cellules.
La réalité et la vérité certes injustement accolées par la pensée des modernes se délaminent quelque peu dans ces affaires.
Enfin, sur la vision de la langue et du « complexe », que faut-il garder de Freud ? J’aurais tendance à croire que le baluchon est mince si on se restreint au noyau évoqué, bien loin de ce que le psy du coin (ou le Bettelheim du coin) a retenu du Freudisme. Malheureusement, et malgré l’incroyablement bonne tenue de ce blog, je crains que je n’en sois réduit à réitérer l’appel du pied de Pierre un peu plus tôt :
Pouvons nous avoir un fil sur lequel nous pourrions comprendre quel « ensemble épistémologique » décante au coeur de ce qu’on peut dire, quand on a nettoyé les idées de Freud et Foucault de beaucoup de scories liées à ce que j’appelerais (suivant en cela René Pommier) de « l’esprit de système », pas toujours le plus heureux ?
Je rappelle aux lecteurs que si j’ai eu jusqu’ici envie de m’intéresser à un « proposeur de système » et que je m’en suis fait l’écho, il s’est agit de Bernard Stiegler. Et que lorsque je regarde l’usage qu’il fait de Freud, les « énergies libidinales » m’y semblent assez bien débarrassées de la gangue que je crois malheureuse et qui égrène des mots comme « désir refoulé / censure par l’inconscient / complexe sexuel infantile », ceci étant dit pour situer — sans rigueur certes — mon propos. Dit autrement, il y a pour moi un assez petit sous-ensemble à l’intersection « anthropologie x cognition x cerveau » qui mérite d’être une clé, mais pas forcément le chateau fort freudien construit autour de la porte à laquelle est attachée la serrure de ladite clé. [ Cette dernière partie de mon texte peut être censurée, M. le modérateur, ayant déjà eu droit à une réplique « sèche » après avoir évoqué ailleurs dans ce blog les récentes critiques de JM Mandosio sur Michel Foucault, je ne suis pas pressé d’avoir raison ou tort en la matière, ce blog reste précieux pour tout le reste.]
« La réalité et la vérité… se délaminent quelque peu dans cette affaire »
Waow! C’est de vous le concept d’auto-délamination? Et il est où le délaminoir? J’ai une petite envie là…
Ah, oui, vigneron.
Désolé, je raisonne souvent en analogies spatiales.
La délamination, c’est quand deux plaques collées ensemble se décollent.
(Comme l’ardoise ou comme les revêtements des bois dits stratifiés, ou le bon vieux contreplaqué).
Il me semble que la réussite de la vision mécaniste + thermodynamique (aux pbs microscopiques près) + électrique +quantique en physique (en gros 1600, 1750, 1850, 1920) est parvenu à certaines limites. La rançon que nous payons est l’abus du préfixe « nano » ces temps-ci, par exemple, pour des choses que nos aînés auraient qualifié de microscopique, tout bonnement. (et les fantasmes et amalgames fleurissant, comme pour les puces RFID, dont l’antenne est forcément pas nano (>0.5 mm, disons), et l’électronique assez rudimentaire).
En parallèle, et malgré le succès de l’approche hygiéniste pastorienne et de la bio moléculaire des années 1950 à 1970, on voit bien que certains approches atteignent des limites dans les systèmes complexes (biologie, environnement/climat, morphogenèse) ce qui amène à recouvrir de mots à la mode des réalités qui parfois le méritent, parfois pas (au choix fractales, métamatériaux). Je mets au-dessus du lot des concepts comme l’épigénétique ou les neurones miroirs, vraies découvertes récentes, riches et qui rende la mer « agitée » , et sollicitent nos intellects.
A suivre ?
@Timiota
Si les gosses avaient une notion aussi constituée de la « politique » qu’ils l’ont de ce que leurs parents leur refilent de «réalité » et de « vérité », pas de doute qu’ils confirmeraient P. Jorion.
Je ne lirais pas Stiegler ou Mandioso pas plus que je n’ai lu Sokal, le dernier Onfray etc. mais le bouquin de Jorion si. J’étais écroulé de rire en apprenant il y a 3,4 ans la découverte des « neurones miroirs. Depuis 1923 avec le texte de Freud « on bat un enfant » et la notion de transitivisme chez Lacan et son stade miroir, c’était déjà là, mais au moins avec une utilité concrète. Et bien sûr certains ont immédiatement « trouvé » que l’autisme est relié à une dysfonction des neurones miroir. Plus personne ne sait de quoi « on » parle avec ce terme d’autisme. Mais ça ne fait rien…J’entendais récemment un psychiatre déclarer : la clinique c’est quand on se réunit à plusieurs pour dire du mal de quelqu’un qui n’est pas là. Ça a l’avantage d’une définition radicale. Il n’y a pas de système ni chez Freud ni chez Lacan, juste un témoignage adressé à la communauté dite scientifique et au grand public au-delà, témoignage raisonné qui tente d’articuler ce qu’ils ont appris à écouter des gens dans un cadre expérimental et ce qu’ils ont attrapé en partie au hasard de ce que leur époque leur a fourni comme matière de savoirs établis (mal ou bien). Ces témoignages sont des récits d’une aventure interrompue par leur mort et ne manquent pas de contradictions internes ni d’ambiguïtés. Ils ne font pas « système » au sens de l’instabilité dans l’articulation des notions, concepts, logiques, entre elles dans la synchronie, et plus encore dans la diachronie. Ce qui m’amuse avec « l’approche hygiéniste pastorienne » c’est qu’elle a produit la peur sociale raisonnée des microbes, au point de créer un temps dans l’EMC encyclopédie médico-chirugicale « la névrose de nettoyage des ménagères de la Suisse Allemande ». Si une ménagère tombe dans les pommes à répétition on ira bien sûr rechercher un dysfonctionnement repérable avec l’imagerie cérébrale, en négligeant que ça lui arrive surtout en frottant les éléments de sa cuisine encastrée pour en enlever la saleté, sans lui permettre de découvrir son rapport au « self abuse » dont Twain a pu dire que c’était un divertissement.
– J’aimerais que tous les gens qui s’inspirent de Freud manipulent aussi peu que vous, Rosebud, les concepts liés à la culpabilité, aux désirs censurés, etc.
En effet, c’est surtout de ce côté là que je ne le sens pas. Je veux bien lire une réfutation de René Pommier par exemple, le cas échéant.
– Qu’il y ait des récurrences de langage entre des analyses « expérimentales » au sens de Lacan et au sens de l’imagerie cérébrale, tant mieux (les neurones miroirs). Ca ne me choque pas que le même langage et les mêmes mots (recouvrant une partie des mêmes choses ?) interviennent dans une civilisation qui va depuis la Grèce en passant par Montaigne, jusqu’à la psychanalyse et l’imagerie au services des sciences cognitives aujourd’hui.
Les « punctum » de Bosco, un peu oubliés (vers 16xx de mémoire) , sont des particules qui créent des potentiels de signe et pente alternant + et -, attraction et répulsion. Ce sont des concepts/particules qu’on peut retrouver sans trop de capillotraction dans le quark, l’atome, la mayonnaise (van der Waals, les micelles), eh bien tant mieux. Néanmoins, je préfère la dernière mouture pour les prédictions.
Je continuerai par Bernard de Chartres : « Nous sommes des nains sur les épaules des géants, et si nous voyons plus loin etc. », ce qui me fera dire ici « Si on me donne une jolie carte géographique de ce que je vois d’en haut, je la préfère à des descriptions fragmentaires ou voilées de ce que m’ont appris les géants eux-mêmes ».
Que nous commettions force erreurs et approximations dans la vision des systèmes de pensées qui ne sont pas les nôtres, et même sur le nôtre, j’en conviens. Que la vision « subtilement englobante » que put avoir le Stagyrite nous soit précieuse (car une fois passée un dur seuil, elle s’était presque pour la première fois libérée d’une histoire) j’en conviens itou. Mais de là à ce que les apports récents (p ex les apports à la compréhension de l’autisme) soient des fourvoiements parce que les expériences rapportées par Lacan et Freud, très interprétables, seraient des bases intangibles, eh bien donnons nous les moyens intellectuels d’une mise à plat, car ce n’est pas naturel de se faire une idée pour « l’honnête homme » d’aujourd’hui, et c’est à mon avis un but de ce blog…
Pour finir, sur les microbes, les débuts de Lovelock en biologie vers 194x furent effectivement de remettre en cause les tenants et aboutissants de l’hygiénisme de l’époque sur les sprays. Et aujourd’hui, je vous suivrai aussi sur ce terrain car par exemple, quand on fait des greffes de systèmes digestifs entiers (de l’oesophage au rectum, je ne le souhaite pas à mon ennemi, soit), eh bien on ne lave plus le greffon aux antibio, car en l’absence de flore intestinale, ça redémarre pas bien. On finit donc par comprendre aussi le « degré trois » de la grande série « Notre vie avec les microbes »(saison 1 : Pasteur, Saison 2, ADN/protéines , on en est à la saison 3) malgré les facéties de la ménagère suisse.
@ timiota 5 juillet 2010 à 23:32
1§ Les « inspirés » de SF sont aussi divers que ceux qui font des « écoles » économiques. Je découvre Réné Pommier sur son site :
« Pour combattre efficacement le « décodage », ma méthode a toujours été de m’appuyer quasi exlusivement sur une lecture aussi précise, aussi minutieuse que possible des textes, car tous ceux qui prétendent découvrir dans les grandes oeuvres littéraires, fût-ce après plusieurs siècles, ce que personne, à commencer par l’auteur, n’avait su voir avant eux, se révèlent, en réalité, incapables de voir ce qui s’y trouve vraiment. C’est pourquoi, parallèlement à la polémique, l’autre versant de mon oeuvre constitue une défense et illustration d’un exercice hélas ! de moins en moins pratiqué : l’explication de textes ».
Ça me suffit pour conclure que l’analyse ne peut que lui donner des démangeaisons jusqu’à devoir produire en pharmacien sa pommade : « Sigmund est fou et Freud a tout faux ».
Il fait aussi le balayeur en balayant les lectures sexuelles (cf. sa préface à Assez décodé !) répondant sans le savoir à l’appel de Lacan en 58 « Qui balaiera cet énorme fumier des écuries d’Augias, la littérature analytique ? » mais si vous jouez à paul, je ne jouerais pas à mike.
2§ Des neuros spécialistes disent que SF avait anticipé le fonctionnement de ce qu’ils découvrent.
Mais la question qui m’importe est : qui s’occupe concrètement des « troubles », que dit le nom qui est utilisé pour en parler, qui dirige la « demande » lors d’une plainte, qui se plaint, de quoi, comment, pourquoi etc. à qui faire « confiance » ?
3,4§ Bosco, Bernard de Chartres, je me suis renseigné : no comment.
5§ L’autisme – je m’amuse toujours à rappeler (ça s’est fait en l’allemand) que ce terme vient d’auto-érotisme auquel Bleuler à enlevé eros, et que Kanner a repris. L’autisme est devenu une épidémie aux mains de ceux qui en donnent le diagnostic. Il n’y a pas que dans la finance qu’il existe des bulles.
« Une mise à plat », c’est quand la bulle est dégonflée. Ce qu’il y a de sympa avec les entreprises c’est qu’elles naissent vivent et meurent quand elles n’ont pas atteint une taille critique. Il suffit de parcourir la liste des associations reconnues d’utilité publique pour remarquer que si certaines ont eu leurs heures de gloire en fonction de la place qu’occupait leur « utilité sociale » en rapport avec les théories et savoirs à la mode de leur temps, elles perdurent ensuite plus facilement que les entreprises. Godin a périclité avec la fin du poêle à charbon.
6§ Je ne connaissais pas Lovelock et je ne saisis pas ce §
Merci pour cette synthèse très utile. J’ai trouvé ici une recension nettement plus critique rédigée par un jeune normalien, doctorant en philo :
http://www.actu-philosophia.com/spip.php?article227
Je ne connais pas suffisamment les philosophes grecs pour me faire une opinion en ce qui concerne Platon, Aristote, l’invention de la logique, de la causalité, ou le platonisme. En revanche, il est tout à fait exact que les deux théorèmes de Gödel n’ont pas la portée épistémologique qu’on veut parfois leur donner. Ce sont des théorèmes qui disent quelque chose des langages formels utilisés en mathématiques. Or, ces langages sont utilisés par les scientifiques pour étudier la réalité. Confondant la réalité avec le langage utilisé pour la décrire, on attribue parfois à la réalité des propriétés « d’incomplétude » qui n’ont de sens que si l’on parle de syntaxe formelle. Je suis donc d’accord que le mieux serait de s’abstenir de toute glose sur le théorème de Gödel et ses prétendues conséquences sur les limites de la connaissance.
Vous voyez que vous pouvez être objectif.
Bonjour Paul
Gu Si Fang cite une critique, je me doute que vous l’avez lu, qu’en avez vous pensé?
Je vais la lire.
Je viens de passer une bonne partie du WE à lire « Comment la vérité… » Ca se lit assez bien, le sujet est passionnant, et la diversité des angles d’approche stimulante. Ce livre me semblait être un préalable avant de lire « Le prix ».
Je passe sur l’exactitude de l’histoire des idées, telle qu’elle est présentée ici : qui a inventé quoi à quelle époque ? Je ne sais pas. Mais on retient une progression qui a du sens : les sociétés primitives perçoivent le monde sensible, regroupent ces sensations en catégories, ce qui donne un langage. Puis ces mots sont reliés entre eux, et les relations sont ordonnées grâce à la notion de causalité. Enfin, une partie du langage est formalisée.
Cette présentation de la hiérarchie des connaissances est très pédagogique, ce qui l’emporte sur la précision historique. Par exemple, les exemples de sociétés primitives étudiées par Lévy-Brühl sont contemporains, mais c’est sans importance. Ils permettent d’illustrer les différentes étapes de manière étonnante.
Paul Jorion insiste à plusieurs reprises sur le fait que le résultat n’est pas unique, entièrement déterminé par la réalité, mais qu’il dépend beaucoup du chemin qui est suivi en cours de route. Plusieurs remarques viennent à l’esprit. Pourquoi ne pas évoquer le polylogisme de Marx ? N’aboutit-on pas fatalement au scepticisme radical en suivant ce raisonnement ? Que penser de l’idée selon laquelle l’apparition de la logique résulte d’un processus évolutionnaire ?
http://tinyurl.com/2b6xo5e
Sur la dépendance du langage selon les regroupements initialement formés, il faut préciser que cela n’a normalement pas d’importance sémantique. L’ajout de définitions (à condition qu’elles soient valides) change l’expressivité du langage, dans le sens où l’on peut dire la même chose avec moins de mots. Mais cela ne change pas la prouvabilité des affirmations : les définitions ne modifient pas les théories.
En revanche, la distinction entre identité et ressemblance est pertinente. L’ambiguité vient souvent du fait que l’on parle d’un attribut précis, mais sans le préciser. Lorsqu’on lit « un crapaud est une femme » dans un des exemples cités, j’imagine qu’ils ont quelque chose en commun mais pas tout! 😉 Les axiomes de l’égalité disent que deux objets sont égaux si et seulement si tous leurs attributs sont identiques. C’est la définition de l’égalité. En-dessous, il y a divers degrés de ressemblance.
Pour ce qui est de la force des différents modes de preuves, il est sidérant de lire une discussion aussi précise chez Aristote. On dit aujourd’hui la même chose de manière formelle : le reductio ad absurdum prouve plus que le tertium non datur qui prouve plus que ex falso quodlibet. Ainsi, la logique minimale est moins forte que la logique intuitionniste, laquelle est moins forte que la logique classique. D’où des débats historiques sur les modes de preuve admissibles ou non (Brouwer).
Je retiens pp.78-79 les points 3) et 4) : pour les philosophes, la validité d’un argument ne doit être jugée ni sur la qualité du locuteur, ni sur celle de l’interlocuteur, contre l’usage fréquent chez les rhéteurs d’utiliser des arguments ad hominem.
p. 130 la critique du découpage logique / syntaxe / sémantique me semble excessive. Découper un objet d’étude en sous-ensembles et les étudier petit à petit est généralement une bonne démarche. Il est possible que ce découpage contienne une part d’arbitraire, notamment logique / syntaxe, mais so what ?
Les exemples sont tous des jugements de faits, comme « le cheval est blanc » ; quid des jugement de valeur ? La distinction entre jugements de faits et de valeur est-elle pertinente dans cette discussion ?
p. 180, la question du monisme vs. dualisme méthodologique est effleurée. On aimerait en savoir plus (bon OK le livre est déjà long et l’éditeur râle…). En particulier, quid des sciences humaines dans ce débat, puisque la partie III ne traite que des sciences naturelles ?
La définition de la science p. 210 mériterait qu’on s’y attarde, en particulier, le fait de la définir comme un discours décrivant la Réalité-Objective (que je comprends comme le monde platonicien des essences). J’avoue que l’on s’y perd un peu entre la Réalité-Objective, le monde sensible et l’Être-Donné. Il manque quelques définitions pour le non-initié.
« La logique, quant à elle, m’apparaît, comme je l’ai dit, comme modélisation normative de l’usage spontané des stylisations inscrites dans «lalangue». » (p. 215)
J’ai peut-être tort, mais j’interprète ici « normatif » comme voulant dire arbitraire, subjectif, idiosyncrasique. Cela ne semble pas compatible avec la démarche aristotélicienne qui voit dans la logique un mode de preuve objectif.
P. 220 j’ai relevé la mention des propositions synthétiques a posteriori : quid de la possibilité de formuler des jugements synthétiques a priori ?
J’ai passé rapidement sur l’astronomie, pour me concentrer sur la partie relative au théorème de Gödel. Quel était l’ambition des logiciens qui ont tenté de refonder les mathématiques au début du XXème siècle ? Une formulation claire et concise est donnée par Gregory Chaitin : la vérité, rien que la vérité, toute la vérité. En d’autres termes : cohérence et complétude. Les travaux de Cantor avaient provoqué une sérieuse zizanie, et ce programme permettait de concentrer le débat 1) sur les axiomes et 2) sur les méthodes de preuve admissibles. En cela, je dirais que l’objectif a été plutôt atteint malgré les résultats de Gödel.
Une incidente : le théorème de Gödel dont il est question dans le livre est appelé « premier théorème d’incomplétude » et le second fait référence à l’impossibilité pour une théorie de prouver sa propre cohérence.
p. 305 je me demande s’il n’y a pas une confusion entre récursivité et récurrence. Quoi qu’il en soit, c’est un sujet qui mériterait d’être creusé. L’usage de l’induction (récurrence) dans les modèles de la physique n’a rien d’évident. Or, les physiciens utilisent de façon routinière des résultats qui ne peuvent pas être prouvés sans elle, ni sans une version faible de l’axiome du choix (le lemme de König). Par exemple, le fait qu’une fonction continue sur un intervalle atteint ses valeurs extrêmes, ou le célèbre théorème des valeurs intermédiaires.
On utilise les nombres réels en physique sans y penser, et ces propriétés semblent couler de source. Or elles reposent sur des axiomes dont on serait bien en peine de discuter la valeur de vérité de manière « dialectique ». Je rejoins totalement votre préoccupation ici. Une réponse est amha qu’une large part de la physique pourrait être faite avec une axiomatisation bien plus faible, mais que cela serait d’une lourdeur insupportable. En pratique, beaucoup d’énoncés mathématiques « utiles » commencent par un quantificateur universel : AxP(x), voire par AxEyP(x,y).
On peut ajouter que ce langage abstrait a trouvé une nouvelle jeunesse depuis qu’on a trouvé à l’interpréter dans le monde « réel » de l’informatique.
Je retiens pour terminer la phrase « les objets mathématiques ne sont ni inventés ni découverts: ils sont générés en tant que productions culturelles, au même titre que d’autres aboutissements de l’activité humaine, comme un prix » qui annonce votre dernier livre !
Ces remarques sont « en vrac ». J’espère qu’elles restent à peu près compréhensibles et je serai heureux d’en discuter.
Cdt,
GSF
« La logique, quant à elle, m’apparaît, comme je l’ai dit, comme modélisation normative de l’usage spontané des stylisations inscrites dans «lalangue». » (p. 215)
Non, normatif au sens simplement de « sous forme de règles ».
Paul,
Thibaut Gress, le normalien qui te consacre un article dans Actua Philosophia n’a pas compris certains éléments essentiels de ton argumentation et du coup leur portée.
De façon symptomatique, il se réserve d’ailleurs un droit à l’erreur de compréhension en émaillant sa critique de : « il semble que », « il n’est pas tout à fait sûr que » … « Jorion semble se tromper » …
A propos de la compatibilité (qui devient sous sa plume comptabilité ! ) des énoncés du discours Gress demande ce que désigne la pensée rationnelle qui ne parvient jamais à se contredire.
Ainsi pour la pensée spontanée, il hésite entre une « compatibilité qui y serait le sens syntaxique mais pas logique » et une « compatibilité qui serait le sens logique mais pas syntaxique ».
Il ne voit pas que la pensée spontanée a le même statut logique que la pensée rationnelle selon Aristote, la différence étant que chez ce dernier elle peut être réglée à partir d’un certain nombre de règles explicites. La cohérence que maintient la pensée rationnelle spontanée dans le discours s’appuie sur la signification des mots lesquels renvoient au monde familier, et non pas, comme le pense Gress, à la syntaxe.
Il conteste que tu puisses parler de modélisation mathématique « puisque (selon lui) le modèle ne porte que sur des propriétés analogues et non sur une nature similaire » invoquant alors Platon lequel donnerait une définition plus juste en rapportant la modélisation au rapport du modèle à la copie.
Pourtant le rapport du modèle à la copie chez Platon est secondaire dans sa métaphysique puisque les modèles doivent permettre grâce à la dialectique de s’élever jusqu’au niveau supérieur du monde des idées pures ou monde de l’intellect. La transitivité du modèle ne change rien à l’affaire, toute la philosophie de Platon vise le mouvement ascendant.
Pour Gress un modèle ne peut constituer une identité ontologique car, dit il en substance, tout modèle, par définition, creuse un écart.
Il ne comprend pas que l’écart ne réside pas tant dans la distance qui sépare le modèle des choses que dans le fait de faire tourner le modèle sur lui-même, d’en faire une entité autonome apte à rendre compte de toutes les manifestations du réel. Ainsi il fait l’impasse sur une définition de la modélisation comme système symbolique de représentation autonome. Il ne voit pas que c’est de geste de rapporter le modèle mathématique au Réel pour en faire l’unique réalité objective possible qui constitue l’identité ontologique et non pas la nature similaire des entités considérées. Or ce geste qui consiste à rapporter le modèle au réel a une dimension politique et sociale comme tu le dis avec force dans ton livre.
Faute d’avoir appréhendé cette dimension, Gress fait une critique superficielle et passe à coté de l’enjeu politique de la philosophie de la connaissance.
Je viens de lire le compte-rendu de mon livre par Thibaut Gress. D’abord, et comme le dit Pierre-Yves D., il y a là un nombre considérable de « Quel scandale ! », suivis de « Mais ai-je bien lu ? » Et le problème est essentiellement là : dans la lecture qui est faite. La principale erreur de lecture se situe ici : affirmer que ma thèse est que ce que découvrent Platon et Aristote en matière de vérité se trouve déjà dans la langue grecque. Or je dis spécifiquement le contraire : je rejette cette thèse que l’on trouve chez Trendelenburg au XIXe siècle et chez Benveniste au XXe. Ce que je montre pour commencer, c’est le contraste qui existe entre des pensées fondées sur la symétrie et celles fondées sur l’antisymétrie, ces dernières autorisant le discours de longueur potentiellement infinie et permettant de définir le discours vrai de deux manières : celui qui ne se contredit pas et celui qui est entièrement constitué de propositions vraies (cette dernière étant la position que Platon et Aristote défendront). Mais ce contraste qui est le fondement même de mon argumentation, Gress ne le comprend pas : il va même jusqu’à considérer la première partie consacrée à la pensée symétrique comme une pièce rapportée : « … qui ne prouve pas grand-chose quant au sujet étudié ». L’a-t-il seulement lue puisqu’il dit qu’il s’agit d’une réflexion sur Marcel Mauss, alors que c’est de Lucien Lévy-Bruhl qu’il est question ? Pour le reste, Gress m’attribue bien des vues sur Aristote qui ne me sont pas propres et que sans doute seul son manque de familiarité avec sa pensée l’empêche de reconnaître – ce n’est pourtant pas faute pour moi de mentionner mes sources. Quant aux nombreuses phrases de mon livre que Gress cite en disant haut et fort qu’il ne les comprend pas (comme Pierre-Yves l’a déjà relevé : lire « comptabilité », là où j’ai écrit « compatibilité », ne doit effectivement pas aider à la compréhension), je laisse aux autres lecteurs le soin de déterminer si j’ai eu tort de les écrire ou Gress de ne pas les comprendre.
Intéressant…
Le sujet me dépasse mais ça invite a s’y intéresser.
Thibaut Gress conteste la datation de l’invention de la vérité, la faisant remonter, à la suite de François Dosse, au Vième, soit un siècle plus tôt, tout ça parce que Thucydide aurait « constitué la spécificité de la discipline historique sur la notion de vérité« . Il me semble bien avoir lu un truc de ce genre chez Paul Veynes, dans Les Grecs ont-ils cru à leurs mythes ?, un « bel ouvrage » selon Thibaut Gress, alors que son auteur l’a publiquement regretté dans un débat télé. Tout le problème est de savoir de quelle vérité on parle. Il est évident que cette notion existait bien avant le IVième, ne serait-ce que par opposition au mensonge et à l’erreur. C’est con de devoir le rappeler.
Note : suis préoccupé par autre chose, pas la tête à cogiter ça, désolé.
Le seul reproche que je suis capable de formuler à l’endroit de l’ouvrage concerné, concerne la fameuse symétrie, illustrée par son fameux exemple : les jumeaux sont des oiseaux. Parler d’équivalence pour l’interpréter est réducteur : selon toute vraisemblance, les Nuer ne confondent pas les oiseaux et les jumeaux, pas plus qu’ils ne les posent pour équivalents. Il faut comprendre la phrase comme l’on dit : « je suis Balance », (natif du signe de la Balance), donc comme une phrase qui élude toutes sortes de choses que les Nuer ont sans doute en tête en parlant des jumeaux, mais qu’ils sont incapables d’expliciter à cause des limites de leur langage. Un peu comme cette tribu en Guyane qui ne sait compter que jusqu’à 7, après ils ne savent dire que « grand » ou « très grand ».
Crapaud Rouge,
Du point de vue de l’anthropologue, mais aussi pour les peuples considérés, il y a équivalence, car jumeaux et oiseaux dans le système symbolique des Nuers suscitent une réponse émotionnelle identique.
Cette réponse émotionnelle a son origine dans le rite d’initiation : par la douleur infligé au corps et mémorisée par l’initié, puis par une transmission culturelle qui passe par le langage, sont fixées puis nommées les entités ou substances fondamentales qui composent le monde et à partir desquelles se forme un réseau des connexions symétriques possibles, sur très peu de niveaux, ce qui bloque d’emblée toute logique d’emboitement à l’infini.
Par contre, il y a une question qui n’est pas abordée dans ce chapitre, sur laquelle j’aimerais avoir le point de vue de Paul. A savoir si le mode de classification primitif, au delà de son aspect structurant pour une une vision émotionnelle du monde, joue une rôle l’organisation sociale proprement dite de ces sociétés, et si oui dans quelle mesure et selon quelle articulation. Je pense notamment aux rôles et fonctions attribuées à chacun dans la société.
Pour ce que j’ai pu observer en Chine il à vingt ans de cela, les relations sociales y sont fortement ritualisées. Je n’invente rien en le disant, c’est toute là tout un aspect de la spécificité de la civilisation chinoise, bien décrit par les grands sinologues, de même que par Paul.
Cela signifie que les rapports hiérarchiques entre individus, au fondement de l’ordre social en l’absence d’un ordre politique autonome, qu’ils soient familiaux de maître à élève, de maître à disciple, ou encore dans le travail, sont médiatisés par des formules langagières, des postures corporelles, des positions spécifiques dans l’espace, qui activent ou simulent des réponses émotionnelles attendues. Lorsque des gens se rencontrent, pour la première fois, ou de façon habituelle dans un contexte autre que le contexte de l’intimité, il s’agit toujours de créer d’abord un climat émotionnel à même d’établir les rôles de chacun.
Pour un occidental c’est assez déroutant car le cadre temporel qui est le lien, linéaire, et dont le temps effectif de la rencontre est comme un segment d’une histoire à continuer, diffère du temps chinois, qui lui est comme déjà abstraitement constitué à la mesure de l’immensité de l’univers, si bien qu’il s’agit pour le chinois d’occuper cet espace-temps plutôt que de le parcourir, voire de l’inventer.
Pierre-Yves,
Désolé de vous répondre si tardivement, je n’ai découvert votre post que hier soir. Votre réponse est tout à fait censée, mais censée dans notre langage, lequel n’est qu’un réseau de connexions logiques infinies, mais dont chaque nœud est incapable de « convoquer » la réalité, de susciter une image mentale forte de la réalité qu’il désigne. Quand nous employons le mot cheval, aucun « être cheval » n’y est associé, nous ne pouvons penser qu’à un animal, (catégorie encore plus abstraite), à 4 pattes, etc. et nous pouvons au mieux que le lier à de vagues souvenirs pour dire : ah mais oui, ce n’est pas une vache, il ne rumine pas, etc.
Mon idée est donc que le langage, dans les peuplades primitives, est tout autre chose, de sorte que l’estimer à l’aune de nos connexions logiques n’a pas de sens.
@ Crapaud Rouge
D’après tout ce qu’on peut savoir du cerveau, on peut quand même supposer que le langage
fonctionne sur certaines bases communes.
Certains sons sont des « attracteurs », au sens des théories des systèmes complexes.
Ils sont forcément connectés à la réalité sensible.
Donc il existe grosso modo un « attracteur cheval » dans les cerveaux d’un peuple qui connait les chevaux en tant qu’espèce qu’elle voisine.
Après, la structure générale des attracteurs (permettant le « oiseaux-jumeaux » des Nuers) et la grammaire du langage, beaucoup ont du en parler, mais mon message c’est qu’il y a une aune commune, une série d’attracteurs liés à la réalité sensible et un tas d’autre qui s’y greffent, qu’on peut appeler spirituels, mais cela est réducteur. La partie du langage qui porte sur le corps humain, sur son propre corps, peut être fait d’attracteurs assez loin des notres, liés à la culture particulière déposée dans ce langage. A la limite, un attracteur « main » n’est pas obligé d’exister. (Ca me parait plus facile d’imaginer que « pied » n’existe pas en tant que tel, mais bon, c’est pour l’exercice de pensée)
.
Tiens, c’est une coïncidence ou quoi ? aujourd’hui au « grain à moudre », émission sur la musique. Le compositeur parmi les trois invités Pierre Charvet expliquait aussi comment le développement de la musique « occidentale » était devenu plus rapide et avait pris un rôle « universel », grâce à sa capacité à être mémorisé/noté dans l’écriture formelle du solfège, qui lui avait conféré un immense « avantage » (de ce point de vue) sur les musiques de traditions orales etc.
Cette mémorisation avait permis d’immenses orchestres ou des opéras par exemple, choses délicates en musique traditionnelle.
Il y a sans doute deux moteurs à rapprocher là : (i) le fait que les techniques de mémorisation (ici la feuille et le solfège) fournissent une assurance de pouvoir reproduire le même, et que cela conduit aussi à pouvoir s’en déprendre et à évoluer (sans que cela soit connoté bien ou mal) et de façon peut être analogue : (ii) le fait que l’asymétrie fournit un pouvoir à enchaîner les énoncés, avec des éléments communs : une assurance, si on note ces éléments, de les connaitre, et donc basé sur cette assurance, une conséquence qui est de ne cesser de s’en déprendre à l’échelle de peu de temps (le « temps de buzz local », un temps « bio-social »). Ca me fait mieux comprendre que Socrate ne fut pas très content de cette façon peu plaisante de faire qui consista à mettre la philosophie sur le papier pour pouvoir la relire, donc de philosopher sans rester dans la sphère du discursif, savoir-faire dont il était dépositaire. Quel fut le camp des sophistes dans cette affaire ?
Intéressante rencontre : oui, c’est la même chose, dans un autre domaine, la musique. Cela conforte ma thèse.
Timotia
Merci vous venez de formuler ce qui me semble être un des gros problèmes de la conscience occidentale : son égocentrisme boursouflé, centralisateur et nivellateur, qui se drape dans l’universalité tout en prenant soin, pour le mieux d’ignorer la concurrence, sinon de l’éliminer.
Combien de Chinois, d’Hindous, d’Arabes, d’Africains connaissent toutes les arcanes de la musiques occidentale, fabriquent et pratiquent ses instruments?
Des millions, mais la réciprocité est exception chez nos « musiciens » et « luthiers » occidentaux.
Que serions nous sans la lutherie Japonaise ou Chinoise?
Ma guitare « folk » électroacoustique made in china à 99 euros…….
Merci camarade ! C’est pas le prix du micro ton esclavage !
Combien de virtuoses « étrangers » conquis par notre « immense avantage » et sa capacité à être mémorisé/noté dans l’écriture formelle du solfège capables d’écrire leur musique « traditionnelle » dans notre « langue universel »?
Des foules?
Non , aucun, cars notre solfège qui met les hommes en rang sous les voûtes des églises, ou en lignes derrière des fifres et des grosses caisses, qui proscrit ‘l’accord du diable » dans sa musique sacrée, et bien en peine de retranscrire l’univers musical de ces civilisations à l’aide de notre gamme restreinte et sa sonorité instrumentale « classique ».
La musique occidentale est guerrière et conquérante. Elle s’interdit l’improvisation.
C’est de la musique en tube, avec la liste des conservateurs, des stabilisants, des agents de sapidité et de saveur imprimée dessus.
Alors, si la musique est la nourriture de l’Amour, sorts ton instrument et viens vivre l »harmonie du monde, loin des boites à rythmes chic-boum-boum, des séquenceurs à laver les cerveaux en boucles, et des musiques panurgiques pour grands troupeaux Wagnériens nostalgiques des « vaches-qui-rient » !
Pour reproduire « le même », il faut savoir faire « différent » sous peine d’être en retard dans la spirale du temps.
Un musicien amoureux sait ça. Dommage pour moi, je ne suis pas musicien. Je ne suis qu’un singe savant……
@ Pierre
Je serais un peu plus modéré sur « l’ouverture » musicale : vous seriez surpris du nombre de collègues compositeurs qui font un usage intensif des intervalles micro-tonaux afin de dévier musicalement du système occidental à 12 intervalles égaux, et composer dans des variétés infinies d’échelles différentes.
Julien-alexandre, vous et moi ne fréquentons que des êtres d’exception……!
Sur ce, la « mondialisation » a sa musique, la « world » comme on dit.
Un processus ne peut pas avoir que des inconvénients…… Les bâtards sont souvent plus intelligents que les chiens de race.
http://leweb2zero.tv/video/rikiai_9449ec820053838
@ Pierre
J’aurais du doubler les guillemets ?
Il va de soi que je n’accorde aucun fondement absolu à l’ »avantage » « universel » de la musique occidental.
Je me contentais de faire écho aux remarques de Charvet (qui furent plutôt apporouvée par l’immarcescible Maryvonne de Saint Pulgent).
Le fait d’avoir un langage « engrammé » est le point principale, l’écho de fait qu’il a rencontré et le développement qu’il a connu sont là.
Le degré d’aplatissement culturel lié à ce succès est une autre histoire, que je n’ai pas tenté d’écrire ici.
Je vous donne mes créances en la matière, c’est un peu stupide mais je ne vois pas mieux :
Aimant les nombres, je m’intéressai en première ou terminale (il y a prescription) aux systèmes non tempérés, dont des variantes bizarres ont existé, notamment parce qu’il s’agit d’approximer 3^p=2^q, ce qui se fait de plusieurs façons. J’ai moi-même essayé d’écouter le « Savart » ou le « comma » avec mes moyens (dont moyens électroniques).
J’ai écouté les ondoyantes notes d’Atahualpa Yupanqui.
Enfin, les bienfaits de la non-uniformisation occidentale m’ont frappé récemment (ou presque) autour de l’exemple de Buena Vista Social Club, que vous allez classer dans les occidentaux, mais la puissance d’expression d’un Ruben Valdez doit beaucoup à l’absence de Cuba de l’eau de Javel sonore qui transpire des haut-parleurs qui nous entourent.
Le miracle de la musique est multiple, il joue sur la possibilité de passer de « saturation » (cognitive) à « surprise », et de le faire de façon de plus en plus « éduquée », au sens du chamane plus qu’au sens de Boulez. J’évacue provisoirement l’affectif de ce tableau, ne sachant décrire comme l’y atteler, d’autres l’ont fait sûrement.
Vous admettrez après ces créances que ma remarque ait pu porter sur la « musique occidentale engrammable » en tant qu’elle a eu du succès, comme nous dissertons sur d’autres fils de la crise en tant qu’elle a eu lieu et se poursuit.
Quant à l’analogie que j’ai proposée, elle me semble justifiée aussi par l’inflation quantitative de textes se basant (quelquefois prétendument) sur des suites d’énoncés asymétriques sans fin, donc réductibles formellement à un faible noyau (pratiquement non, je sais), alors que le discours culturel de l’humain en général occupe un espace plus « symétrique », peut être plus harmonieux, mais incommensurable à un engrammage/langage unique.
Nous sommes donc d’accord j’espère, et je conclus en disant que, oui, ce qui est répandu me semble être ce qui est le plus réductible.
Et je continue d’être séduit (sans savoir plus argumenter pourquoi) par la notion de « pharmakon » de Stiegler (… si rosebud me lit ici, il ne m’a pas convaincu par ce que je n’y connais rien, soit, revoila une pharmacie), comme « modérateur » à doser des tendances qu’induisent ces langages engrammés, je ne suis pas sûr qu’on soit très proches des « hypomnémata », je demanderai à mon avocat pour ne plus me faire taper dessus.
A propos de modérateur, Pierre, le nôtre (Julien Alexandre) vous a sans doute répondu plus utilement que moi !
Merci beaucoup Timiota
Moi, c’est au « savant » de mon « singe savant » que j’aurais été bien inspiré de rajouter des guillemets.
Quand on grimpe aux arbres, il est préférable de savoir en descendre…..
« Je ne suis qu’un binaire embarrassé de signes. » Léo Ferré
Paul,
Je suis comme Guillaume : « Le sujet me dépasse mais ça invite à s’y intéresser ».
De fait, j’ai acheté votre livre, mais je n’ai pas encore eu le courage et la disponibilité d’esprit de m’y plonger car, rien qu’en le feuilletant, je me suis rendu compte que j’aurai tout de même beaucoup de difficultés à bien tout comprendre!
J’ai été, d’emblée, très séduit par son titre, pour la simple raison qu’il aurait pu être choisi par … Cornelius Castoriadis pour un livre sur le même sujet. J’ai pourtant été attristé de ne pas trouver son nom dans l’index des auteurs. Aucun reproche là-dedans : je sais bien que vous avez été éloigné de la « scène » parisienne, durant les 15 ans pendant lesquels vous avez travaillé sur ce livre.
Comme vous le savez sans doute, C.C. est un penseur protéiforme que ces vastes connaissances encyclopédiques (dont, il est utile de le rappeler, en sciences exactes) ont permis d’aborder, de manière, je crois, très convaincante, un tas de domaines, dont ceux que vous traitez dans votre livre.
Je ne peux pas (il faudrait me replonger dans la lecture de tous ses livres) en donner, ici, ne fût-ce qu’un aperçu succinct. Je me permets de vous renvoyer, pour l’essentiel, au volume de ses séminaires intitulé « Sujet et vérité dans le monde social-historique ». Je vous signale aussi la parution en fin d’année 2010 du « Cahiers Castoriadis n° 6 » publié par les Facultés universitaires St-Louis à Bruxelles, qui porte justement sur le thème de la Vérité : http://www.castoriadis.org/fr/readText.asp?textID=85
J’attendais l’occasion que me donne maintenant votre billet pour lancer ce commentaire, en espérant qu’il vous intéressera et vous incitera à vous lancer dans la lecture de Castoriadis (si ce n’est déjà fait).
Bien à vous.
@ tous
Timiota écrit : « Or, ces langages sont utilisés par les scientifiques pour étudier la réalité. Confondant la réalité avec le langage utilisé pour la décrire. »
C’est exactement la réflexion que je me fais au sujet de l’interprétation des équations décrivant les phénomènes étudiés par la théorie de la relativité restreinte, à savoir les notions de dilatations du temps, de contractions des longueurs et de réciprocité des points de vue des observateurs des différents référentiels en mouvement.
On voit dans le billet : http://www.pauljorion.com/blog/wp-content/uploads/Ether-et-Relativité-restreinte-2009-10-181.pdf que si l’on aborde les phénomènes relativistes sans les postulats d’Einstein sur la constance de la vitesse de la lumière, et sans postuler à priori l’équivalence des référentiels, alors on peu donner aux équations décrivant les phénomènes relativistes une interprétation très différente de celle d’Einstein, qui ne choque en rien le sens commun et qui respecte scrupuleusement les équations de la relativité et les observations.
Les équations de Maxwell prédisent que la vitesse de la lumière est constante. Toutefois, elles ne précisent pas si la vitesse de la lumière est constante par rapport à tous les observateurs, ou si elle est constante pour tous les observateurs. Cette nuance, qui au premier abord peut sembler sans intérêt, est en fait capitale pour obtenir une description correcte de l’espace temps.
Les postulats d’Einstein en posant l’équivalence des référentiels imposent la première possibilité. Pourtant, l’absence des mêmes postulats ferait préférer la seconde possibilité. En effet, en introduisant ses postulats, Einstein a totalement modifié la vision que l’on pouvait avoir de l’univers en introduisant la notion de concomitance du passé, du présent et du futur.
Alors qu’avant lui la notion de passé et de futur était parfaitement définie en soi, après lui, les notions de passé et de futur deviennent dépendantes de la localisation spatiale de l’évènement étudié.
Les transformations de Lorentz montrent que lorsque les observateurs d’un référentiel donné voient passer un autre référentiel se déplaçant à vitesse constante, ils constatent qu’au même instant, les horloges du référentiel en mouvement indiquent des heures différentes dépendant de leurs positions dans le référentiel en mouvement.
Les postulats d’Einstein imposent qu’à un instant donné, toutes les horloges d’un référentiel donné indiquent la même heure.
S’ils utilisent ces postulats, les observateurs du référentiel fixe en concluent que puisque les horloges du référentiel en mouvement n’indiquent pas simultanément la même heure, cela signifie que celles qui sont en avance sont dans le futur de celles qui retardent.
Si les mêmes observateurs n’utilisent pas les postulats d’Einstein, ils vont en conclure que ce décalage est simplement destiné à permettre à tous les observateurs de mesurer une vitesse constante pour la lumière. Dans ce cas là, il n’y a pas de différences fondamentale avec le décalage des différentes horloges présentes sur un parallèle qui doivent simultanément indiquer une heure différente pour que les différents observateurs présent sur ce parallèle puissent voir le soleil au sud à midi.
Cette interprétation contrairement à celle donnée par Einstein ne viole en rien le sens commun, tout en étant parfaitement cohérente aussi bien avec les observations qu’avec les équations décrivant les phénomènes relativistes.
Or, si le monde réel est suffisant pour décrire le monde selon Einstein, il devient insuffisant pour décrire le monde se passant des postulats d’Einstein. Dans ce cas là, il faut adjoindre au monde réel définit comme étant l’ensemble de la matière constituant l’univers, le monde imaginaire définit comme étant l’ensemble des images émis par la même matière depuis le bigbang jusqu’à nos jours (définition à préciser et à rendre plus rigoureuse, mais suffisante pour comprendre le sens général). C’est dans ce monde imaginaire, et dans ce monde uniquement qu’on retrouve la concomitance du temps, et là aussi, cela ne viole en rien le sens commun. Il n’est absolument pas choquant de considérer que l’on perçoit simultanément une image de la lune émise il y a une seconde, après qu’elle ait parcouru une seconde lumière pour aller de la lune à la terre ; et une image de Proxima du Centaure émise il y a quatre ans, temps qui lui est nécessaire pour parcourir la distance séparant Proxima de la terre. De même, il n’est absolument pas choquant de considérer que l’image de Proxima représentant cette étoile il y a quatre ans soit présente en même temps dans l’espace que celles la montrant il y a trois ans, deux ans, un an, et aujourd’hui, se trouvant respectivement à zéro, une, deux, et trois années lumières de la terre.
Cet espace imaginaire est déjà introduit dans les équations relativistes par la pseudo norme de Minkowski X^2+Y^2+Z^2 + (iCT)^2 = cte, qui n’est rien d’autre que l’équation servant de base à la détermination du temps propre dans mon billet en remplaçant X par VT et Y^2+Z^2 = (CT’)^2
Or, si la vitesse de la lumière est un maximum dans l’espace réel, comme le montre l’équation de l’énergie relativiste : E = mC^2 (1-V^2/C^2)^-1/2, elle devient un minimum dans l’espace imaginaire conformément à l’équation E = i mC^2 (-1+V^2/C^2)^-1/2 qui n’est rien d’autre que l’équation précédente écrite sous une forme différente.
Ceci n’est pas choquant si on considère l’équivalence entre l’accélération et la gravitation. On observe que la lumière est déviée par la gravitation. On doit donc en déduire, en toute logique, qu’elle est accélérée par le champ de gravitation, même si un observateur suivant la même géodésique continuera à mesurer sa vitesse égale à C.
Ces vitesses subluminiques seraient certainement très utiles pour interpréter les phénomènes de délocalisation révélés par la mécanique quantique. Un objet se déplaçant à une vitesse supérieure à la vitesse de la lumière sur une orbitale atomique passerait pendant la durée d’observation, un très grand nombre de fois au même endroit, tout en y restant à chaque foi un temps très court. Pendant le temps d’observation, il sera à l’endroit considéré sans y être. Par exemple, une particule se déplaçant à une vitesse légèrement supérieure à la vitesse de la lumière, parcourrait la trajectoire parcourue par un électron autour du noyau d’hydrogène, soit environ dix angströms, un milliard de milliard de fois en une seconde et y serait absente le reste du temps. Aussi, la seule chose qui aurait un sens pour l’expérimentateur serait de déterminer sa probabilité de présence, la connaissance de sa position exacte n’ayant aucun intérêt pratique pour lui.
Ainsi, avec les mêmes équations mathématiques, on peut avoir deux mondes totalement différents. Quelle interprétation choisir ? Celle d’Einstein ou celle présentée dans le billet mis en lien ? C’est la question que je me pose et que je vous pose à tous.
J’en profite pour remercier tous ceux qui m’ont déjà donné des éléments de réponse et m’ont grandement fait progresser sur le sujet.
HFD: précisions sur votre post dont j’éxtrait ce qui suit:
« Ceci n’est pas choquant si on considère l’équivalence entre l’accélération et la gravitation. On observe que la lumière est déviée par la gravitation. On doit donc en déduire, en toute logique, qu’elle est accélérée par le champ de gravitation, même si un observateur suivant la même géodésique continuera à mesurer sa vitesse égale à C. »
Je bute sur le « en toute logique », en effet:
En relativité générale, des lors que l’on veut prendre en compte les champs d’accéleration, qu’ils soient d’origine gravitationnelle ou d’une variation de la vitesse, ce qui constitue le principe d’équivalence, lequel est expérimentalement vérifié avec la plus grande précision; un rayon lumineux se voit classiquement courbé.
On doit pour construire la théorie abandonner la métrique de Minkovski, meme si les courbures sont tres faibles au niveau de notre galaxie, et à fortiori du systéme solaire ou cependant on a pu en mesurer les éffets des 1919. Les éffets d’un champ de gravitation sur la lumiére, conformément au prédiction de la RR, altérent sa fréquence et non pas sa vitesse. L’accélération gravitaire communique une énergie à la lumiére qui augmente sa fréquence, cet effet a également été constaté avec précision sur terre.
La relativité génerale est construite sur une métrique locale qu’Einstein avait par hypothése emprunté à Riemann, mais il revint au mathématicien David Hilbert de démontrer mathématiquement la valeur de cette hypothése. Il faut aussi se garder d’assilimiler les géodésiques de la relativité générale à une classe de référentiels généralisant ceux de la relativité restreinte; ce sont des courbes d’espace temps qui vérifient pour un corps d’épreuve le principe de moindre action, sur une telle courbe le corps d’épreuve est en chute localement libre et non pas dans l’univers comme en relativité restreinte.Il ne subit localement plus d’accélération, en particulier et c’est heureux pour Michelson et Morley les géodésiques de lumiére. Un corps est désigné d’épreuve si son contenu de matiére énergie est négligeable par rapport aux champs d’accélération environnants, un proton galactique un petit astéroide le sont mais pas un astre massif.
En l’état de nos connaissances, abandonner la constance de vitesse de la lumiére dans le vide mettrait à mal le principe Copernicien qui veut qu’il n’y ait pas de poste d’observation privilégié dans l’univers, et toute la cosmologie qui en découle ! Que signifierait la loi de hubble en l’absence de cette constance ?
Pour faire court, les transformées de lorentz ne s’appliquent formellement plus en relativité générale.
Il existe des théories qui ne plafonnent pas la constance de la vitesse de la lumiére à C, mais je ne crois pas qu’elles aient apportées du nouveau en physique; car si il existe en physique une induction comme poincaré l’avait développé dans La science et l’Hypothése, seuls des prédicats expérimentalement observables valident une théorie. C’est bien le drame de la relativité et de la physique quantique qui marchent en parallele par leurs prédicats sans parvenir à une synthése.
Les deux systèmes n’en faisaient qu’un.
La part levantine renforçant et stabilisant l’occidentale.
Le déclin des grands partis de « gauche » en occident a accompagné la régression des droits des travailleurs –leur rétribution salariale- et a comme précédé l’effondrement de l’empire soviétique.
Dès la chute de l’URSS, la tâche la plus urgente fut la destruction concertée entre les dirigeants occidentaux du pays d’entre les Deux Fleuves : 1991
Avril 1994 : fondation de l’OMC à Maarrakech et ouverture forcée (viol) des frontières des plus faibles, destruction efficace de ce qui a résisté comme mode de production et tissus sociaux à la colonisation classique, migrations et émigrations …
1999 : abrogation de la Glass Steagall Act
La financiarisation de l’économie a abouti à son extrême simplification.
Les fusions-acquisitions ont réduit de façon drastique les ‘auteurs’ économiques conduisant
à une fragilisation extrême du système.
Absence de contre-pouvoir idéologique, formation d’entités oligopolistiques, le capital va proliférer « hors sol ».
Tout système évolué dispose de boucles complexes de rétro-activité qui l’homéostasient.
Plus les mécanismes qui régissent le vivant sont se raréfient, moins il a de ressources pour s’adapter et échapper aux situations de stress.
Lors d’un récent congrès médical européen auquel je viens d’assister, le nombre des laboratoires exposants s’est dramatiquement réduit, reflet de cette situation de pauci-partenariats.
Les communications, rendant compte le plus souvent d’ « études » plus ou moins financées par ces mêmes laboratoires sont redondantes, non innovantes..
La recherche publique fondamentale de moins en moins présente et fortement anémiée ne fournit plus de sang neuf ni d’idée nouvelle au privé. Tout à fait emblématique d’une société sans émulation, simplement menée par des hâbleurs qui ‘communiquent’ puisque la part marketting l’emporte largement sur le domaine recherche et développement, je crois selon un rapport de 3 à 1.
Il se trouve que la question éthique arrive à croiser le problème structurel, mais de toutes les façons, nous le savons depuis quelque temps , le système n’est pas viable. Cela n’est pas à souhaiter ou à déplorer, il arrive à son terme. Je ne le regrette pas. Car le prêt avec intérêt a détruit irréversiblement ( ?) la diversité de l’humanité, l’a appauvri, l’a fragilisée, peut mêm la faire disparaître.
À nous – ceux qui le veulent bien- d’aider à la parturition d’un autre monde qui à peine à venir au jour.
Pour Paul Jorion, à la magie de l’implication et de l’inclusion correspond en biologie des mammifères la génération.
Un être donne naissance à un autre- un Tout Autre- avec la participation d’un autre.
Deux éléments distincts font exister un troisième vivant.
Ce n’est pas de la scissiparité. Il ne s’agit pas de la répétition du même à quelques erreurs hasardeuses près, mais de la combinaison complexe d’une moitié de chacune des deux propositions parentes. La logique tractée depuis le jeu des gamètes ! rires (d’enfants)
[…] http://www.pauljorion.com/blog/?p=13542 […]
Bonjour, et soyez en formes!
Avec les interrogations comme par ce billet, le livre mais le temps qui passe, revienne chez moi les sempiternelles étonnements, revenus ici par souvenirs, tandis que la nature de l’étonnement se constate plutôt chez moi, dans les répétitions, les similitudes à l’origine d’une quelconque information.
Je ne veux pas verser dans le tout psychologique à la suite, mais me demande s’il n’y aurait pas une « petite mathématique des formes et des frontières » qui rendrait compte des expériences que je vais relater.
Elle ne s’intéresserait pas seulement au inclusions et autres bijections, pas aux relations donc, mais au notions de l’apparition tant il est vrai que le monde réel à chacun procède d’une succession d’apparitions au moins.
Loin de moi quelconque mysticisme, aussi….
Que se passe-t-il en quelles frontières, l’étendue d’une forme s’explique-t-elle, s’invente-t-il une constante qui provisoirement en rende compte, et est-ce compatible avec l’échange de la pensée entre tous?
Il y a toujours dans l’intellection des choses, mais dans leur intuitive maîtrise, au moins un mécanisme instantané et mystérieux, par lequel une bribe suggère immédiatement un monde en soi, pas seulement indiquant l’origine (proposition langagière) datée et temporelle pour que navigue la madeleine, et pas seulement rameutant un continuum culturel qui permettrai de s’abstraire de la durée.
Expérience n°1/
Dans mon bain étant bébé, je joue avec un canard en plastique jaune, par la suite je reconnais un canard qui n’est pas jaune et qui, plutôt que d’avoir un goût de savon, s’envole et disparait derrière les arbres.
Expérience n°2/
On m’apprend quant au monde, qu’il y a des atomes qui forment molécules et qu’une physique, une chimie, une biologie, une météorologie…etc, qui en rendent représentation.
Oui mais, cette molécule d’eau qu’un jour j’ai bu, où est-elle aujourd’hui, je l’aimais bien cette molécule, alors j’aimerais bien de ses nouvelles.
Expérience n°3/
Lorsqu’avec une amie nous discutons de couleurs pour des motifs décoratifs, nous en venons, passage obligé, à dire les verts, plus précisément le même vert que chacun de notre coté
nous commentons. Nous sommes tellement d’accord au sujet de ce vert!
Ensuite, lorsque nous comparons nos échantillons, à l’évidence nous ne parlions pas du même vert!
Que se passe-t-il aux frontières de la vérité et du réel pour ce trois cas, comment ces frontières de l’apparition sont-elles semblables, et quand nous y promenons-nous?
Sur le muret, que fait le chat de Schroedinger?
Bonjour
Un ami m’a signalé votre discussion.
Je vous remercie d’avoir relevé la faute de frappe sur comptabilité qui est désormais corrigée.
Pour le reste, je maintiens absolument tout ce qu’il y a dans l’article.
Bien cordialement
T. Gress
Bien le bonjour
« Comment vérité et réalité furent inventées », Gallimard 2010
Il manque l’adjectif LA devant deux mots (maux).
C’est une manière de dire que votre livre est remarquable.
Merci bien.
Cependant j’ai un léger désaccord avec vous, oh seulement à partir de la page 332.
En effet, j’ai beaucoup travaillé sur la naissance du calcul infinitésimal, c’est Gilbert Arsac qui vient d’écrire un livre sur ce sujet et qui m’a sollicité sur des passages pas évidents de Newton et de Cauchy, + d’autres (il a été mon patron de thèse).
Voilà, en accord avec vous sur ce que vous nommez « physique virtuelle » du calcul infinitésimal, je ferai deux restrictions :
a) il a bien été fondé pour des classes de « bonnes » fonctions cf. Weierstrass etc. (en clair les dl donnaient lieu à des séries ayant un rayon de convergence >0);
b) le fondement mathématique de la validité de ce calcul infinitésimal n’a pu être fait que vers 1906, année où pour la première fois le concept mathématique de fonction a été défini (par Fréchet). J’utilise bcp, épistémologiquement parlant, le travail de Robinson et autres, qui ont créé l’analyse non standard; pour moi, il explicite seulement de manière nouvelle la difficulté qu’il y a eu à bien fonder le calcul infinitésimal; par contre l’analyse non-standard me sert bcp dans mon dialogue avec des physiciens en leur donnant une version non-standard de la relativité restreinte ou générale. Même Etienne Klein n’a rien su me répondre. Trop de matheux et de physiciens prennent des vessies pour des lanternes, i.e. sont Pythagoriciens comme vous l’exprimez si bien.
Je pourrais vous entretenir aussi sur le calcul fractionnaire, bâti par Riemann et Liouville d’un côté et par Weierstrass d’un autre, calcul oublié aujourd’hui mais combien précieux et qui éclaire la problématique que vous soulevez sur le calcul infinitésimal.
Une fois ces remarques faites, j’ai sursauté à la page 351, au premier mot « deux ».
Là vous allez trop loin ; il faut que l’on échange sur le sens de la démonstration par diagonalisation. J’ai toujours enseigné (de la licence à la prépa Agreg à l’Université Lyon1) que cette preuve signifiait une troisième chose : Si l’on suppose que l’ensemble des décimaux illimités compris entre 0 et 1 est indexé par les entiers, alors on arrive à une contradiction. Ce qui signifie simplement que l’on ne peut pas indexer ces décimaux par N.
J’ajoutai (je suis à la retraite maintenant) qu’on ne pouvait les indexer que par eux-mêmes (ou par qq chose d’équivalent) et c’est cela qui est signifié par le verbiage « puissance du continu ». Cette interprétation est indépendante, me semble-t-il, du fait que l’on soit Pythagoricien, plus ou moins réaliste, constructiviste (à voir dans la mesure où il y a refus a priori d’une indexation par N ?), antiréaliste ou encore gréco-judéo-chrétien idéologiquement dépendant.
Il faudra, je pense, rectifier le tir lors d’un prochain retirage de votre livre. Par ailleurs, pour moi les géométries non-euclidiennes ont bel et bien un support intuitif dans l’empirie quand on pense à l’hyperboloïde à une nappe ou même à la sphère et ont le même droit à être créées que la géométrie euclidienne à dimension quelconque.
Et je trouve le disque de Poincaré magnifique et le Ruban de Moëbius intrigant.
Cordialement
Michel Mizony
UMR CNRS 5208
http://math.univ-lyon1.fr/~mizony/ ;
Merci, vous me donnez envie d’en savoir plus sur le « calcul fractionnaire », que je ne connais effectivement pas.
Je comprends ce que vous dites sur la diagonalisation mais je ne vois pas la différence entre ce que j’avance et ce que vous dites vous-même quand vous dites : « Si l’on suppose que l’ensemble des décimaux illimités compris entre 0 et 1 est indexé par les entiers, alors on arrive à une contradiction. Ce qui signifie simplement que l’on ne peut pas indexer ces décimaux par N ». Ce qui est neuf, c’est en effet de dire qu’ils ne sont indexables que par eux-mêmes. Est-ce généralisable : toute classe de nombres n’est-elle indexable que par elle-même ? Cela restreindrait considérablement ce que l’on entend par « indexation ».
En théorie des ensembles les nombres ordinaux qui ne sont indexables que par eux-mêmes (plus précisément qui ne sont pas indexables par un ordinal inférieur) s’appellent des cardinaux. C’est le cas de tous les ordinaux finis. C’est aussi le cas de l’ensemble des entiers naturels, qui est le premier cardinal infini (aleph zéro), le premier immédiatement supérieur étant noté aleph un. L’hypothèse du continu est que l’ensemble des nombres réels a même nombre d’éléments (est en bijection) que aleph un. Cette hypothèse est consistante avec les axiomes classiques de la théorie des ensembles (Gödel) et sa négation également (Cohen).
Il me semble que c’est la méthode sur laquelle s’appuie tout pouvoir, faire croire que son propos, ses représentations englobent le réel, alors que c’est bien entendu la structure inverse qui est correcte. Ce que Bourdieu appelle la violence symbolique repose sur ce même tour de passe-passe. Le dominé par cette représentation la reprend à son compte, ne se rendant pas compte que par là il maintient sa propre domination.
Comme quoi, le relativisme peut être porteur de libération symbolique, sans pour autant sombrer dans un scepticisme stéril. Le relativisme peut nous aider à maintenir nos représentations à leur place, à ne pas se laisser dominer par elles.