Du 12 juillet au 1er septembre j’ai publié ici Ce qu’il est raisonnable de comprendre et partant d’expliquer en feuilleton et pas nécessairement dans le bon ordre. Pour ceux qui aimeraient le lire d’une traite, je l’affiche ici comme un texte complet.
Ce qu’il est raisonnable de comprendre et partant d’expliquer
Référence suggérée pour renvoyer à ce texte : « Ce qu’il est raisonnable de comprendre et partant d’expliquer », Blog de Paul Jorion, septembre 2007, http://www.pauljorion.com/blog/?p=173
Mon souci de constituer mes écrits en système résulte d’une préférence personnelle : si j’aime lire des textes purement techniques sur des questions tout à fait singulières, les considérations générales émises par l’un ou l’autre sur des domaines particuliers ne présentent à mes yeux guère d’intérêt. Pour ce qu’il en est des considérations générales, je préfère toujours m’en remettre aux quelques auteurs qui ont eu à coeur de construire des systèmes complets : Aristote, Leibniz, Hegel, ou dont l’ambition fut de cet ordre, même s’ils ne parvinrent à en écrire que les premiers linéaments, tel Wittgenstein ou Kojève.
C’est pourquoi si je consacrerai encore certains textes à des questions singulières, et en général d’ordre empirique, je conçois l’ensemble des autres a venir comme autant de contributions à un système unique, limitant mes ambitions à ce que mon discours soit non-contradictoire et sans me préoccuper surtout du degré de détail dans lequel je suis capable d’entrer sur tel ou tel sujet en particulier. À l’instar de Kojève qui concevait son projet comme une simple réécriture de Hegel, réécrit aujourd’hui à l’intention d’un lecteur contemporain, je ne présente mon propre système que comme un supplément à ceux produits par Aristote et Hegel, qui me semblent chacun complet en soi, et non–contradictoires l’un par rapport à l’autre.
Comme j’entends pouvoir parler de tout, même si c’est seulement à « vol d’oiseau », sans jamais m’abstenir au nom d’une incompétence postulée, j’imagine que l’on voudra bien attribuer à mon discours le statut de « philosophique », selon le principe que quiconque ambitionne de parler de tout sur un ton d’autorité, est soit fou soit philosophe. Cela ne me dérange en rien, pour autant que ce que dis de neuf puisse, comme ce fut le cas autrefois pour Henri Margenau (1901 – 1997), être pris en considération par les spécialistes de la question, au cas où ma contribution s’y avérerait opportune.
Je souscris à l’observation d’Einstein qu’une « science incompréhensible » ne mérite pas le nom de savoir : un savoir doit être compris pour pouvoir être transmis sous forme explicative, c’est à cette condition seulement qu’il peut constituer un apport à la culture commune. Je veux réactualiser aussi une préoccupation de la philosophie stoïcienne pour qui il s’agissait d’être « raisonnable » et je reformule la remarque d’Einstein, d’une manière qu’il n’aurait sans doute pas désavouée, en affirmant qu’un savoir ne doit pas seulement être compréhensible mai aussi « raisonnable ». Je vais ainsi examiner des questions tout à fait « raisonnables » : des questions que tout le monde se pose mais dont la réponse ne se trouve pas dans les livres, à savoir
1. des questions que la science ne se pose pas (ou ne se pose plus),
2. des questions que la philosophie se pose parfois mais qu’elle résout alors en général en ignorant les apports possibles de la science sur le sujet.
Il va donc de soi que les questions que j’aborderai aient des intitulés qui rappellent ceux des livres (hélas généralement perdus) des anciens philosophes grecs (1), tels que
1. Quels sont les types d’explications ?
2. Qu’est-ce que le changement ?
3. Qu’est-il raisonnable de dire à propos de l’avenir ?
4. Est-il raisonnable de chercher des choses de plus en plus petites ?
5. Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ?
6. Qu’appelle-t-on la vérité ?
7. Qu’est-ce que penser ?
8. Quel est le rapport entre la forme et le contenu ?
En chemin, un très grand nombre de problèmes scientifiques et philosophiques seront bien sûr abordés et ils le seront tous, comme je l’ai dit, autant que possible de manière exacte mais non nécessairement approfondie. Mon intention est de les examiner au niveau de leurs principes seulement car je ne vise nullement à écrire une encyclopédie.
Ma formation d’anthropologue transparaîtra dans le fait que je n’hésite jamais à rapprocher les perspectives « primitives » ou anciennes des perspectives scientifiques contemporaines. Cette méthode ne doit cependant pas être confondue avec un relativisme : l’approche scientifique se révèle dans tous les cas la plus complète et la plus cohérente. Ce qui sera éventuellement remis en question, ce sera le caractère « raisonnable » de certaines de ces démarches scientifiques.
1. Quels sont les types d’explications ?
Les explications sont soit « scientifiques » quand elles expliquent la nature en ses propres termes, soit « théologiques », quand elles évoquent pour expliquer la nature, des causes et des agents sur–naturels. Les explications scientifiques sont contraintes : chacune est réfutable de deux manières, soit en montrant un aspect de la nature qui contredit ce qu’elle avance, soit en montrant qu’elle invoque des causes et des agents sur–naturels. Les explications théologiques ne sont pas contraintes : toute contradiction peut être sauvée en postulant l’intervention d’un agent sur–naturel.
Les grands schémas explicatifs « scientifiques » appartiennent eux à quatre familles,
1. Les schémas « empiriques » pour qui le monde s’explique toujours localement soit en termes de connexions dans le temps : les phénomènes invoqués sont liés par la simultanéité, ils sont obligés d’apparaître en même temps (corrélation, covariation) soit en termes de connexions dans l’espace : si des phénomènes se ressemblent, c’est que leurs acteurs sont essentiellement les mêmes (ils partagent la même identité au sein des genres, des espèces).
2. Les schémas « réductionnistes » qui supposent des domaines réglés par leurs propres principes : le physique, le chimique, le biologique et le rationnel et où l’on explique l’un par l’autre, le chimique à partir du physique, le biologique à partir du chimique, le comportement rationnel à partir du biologique. Le réductionnisme est apparenté à l’épistémologie dite « positiviste » qui privilégie comme mode d’explication la modélisation mathématique, en termes de nombres et de configurations. Le premier grand théoricien du positivisme en philosophie des sciences est Ernst Mach (1838–1916) dont le nom fut retenu comme celui de l’unité représentant la vitesse du son.
3. Les schémas « idéalistes » qui définissent la Raison comme principe essentiel et caractérisent le biologique, le chimique, le physique comme des formes de plus en plus dégradées du Rationnel. L’idéalisme est apparenté à l’épistémologie dite de « philosophie naturelle » qui privilégie l’explication déductive à partir de concepts et à l’aide de phrases, et en termes de qualités plutôt que de quantités. Les premiers grands représentants modernes de la philosophie naturelle sont J. W. von Goethe (1749–1832) et G. W. F. Hegel (1770–1831), le premier connu surtout comme romancier et poète, le second comme philosophe.
4. L’idéalisme platonicien pour qui les mathématiques ne constituent pas une méthode de modélisation du monde mais reflètent sa réalité profonde. « Pour Platon les choses participent aux nombres », écrit Aristote. Ce schéma implique que « Le monde sous tous ses aspects est la matérialisation des nombres », il s’apparente de cette manière aux explications théologiques. Davantage que positivistes ou tenants de la philosophie naturelle, un très grand nombre de savants sont en réalité des idéalistes platoniciens.
Les épistémologies « positiviste » et de « philosophie naturelle » sont
1. partiellement réversibles l’une dans l’autre. Les grandes théories physiques sont apparentées à l’une ou à l’autre : la mécanique classique et la mécanique quantique sont proches du « positivisme » dans la mesure où elles sont centrées sur des modèles mathématiques (Poincaré, dans La science et l’hypothèse les appelle « sciences constructives »), la thermodynamique et la relativité sont elles au contraire proches de la « philosophie naturelle » dans la mesure où elles constituent le développement d’un concept central (Poincaré les appelle « sciences à principe »). Le concept central de la thermodynamique est le degré d’organisation, équivalent à une quantité d’information, celui de la relativité est l’impossibilité de définir un cadre de référence absolu (2). La « sémiophysique » développée par René Thom à partir de sa théorie des catastrophes est elle aussi proche de la « philosophie naturelle »,
2. partiellement incompatibles. La gravitation relativiste a une explication géométrique, la gravitation quantique s’explique par le comportement de particules. Cette incompatibilité souligne que si les épistémologies « positiviste » et de « philosophie naturelle » génèrent l’une et l’autre une explication complète, cohérente et satisfaisante du monde, les explications qui remontent des faits par la modélisation mathématique et celles qui descendent des concepts jusqu’aux faits de manière déductive, ne coïncident que partiellement, révélant l’irréductibilité ultime des mondes construits à partir de nombres et à partir de mots.
Tous les schémas explicatifs ont pour objet essentiel,
« Qu’est-ce que le changement ? »
2. Qu’est-ce que le changement ?
Pour Hegel, le changement est le donné premier : nous constatons le changement et nous disons que les choses sont en devenir.
Le changement est double : il s’observe comme mouvement et comme métamorphose. Pour que nous puissions observer le mouvement, il faut que la forme se maintienne au moins relativement constante : qu’une translation s’opère « à l’identique ». L’observation d’une translation conduit à supposer l’existence d’un cadre au sein duquel cette translation a lieu et ce cadre nous l’appelons l’espace. Dans la métamorphose, le changement de la forme s’opère sur une chose à laquelle, si nous voulons continuer de la considérer identique à elle–même, nous devons supposer un soubassement qui se maintient constant et que l’on appelle alors la matière dont elle est faite. Le temps, c’est la dimension supplémentaire que l’on est obligé de supposer si l’on veut parler de manière unifiée du changement sous ses deux aspects : en tant que mouvement et en tant que métamorphose.
Une fois en possession des catégories de l’espace et du temps, on considérera qu’il y a dans le changement un substrat « qui change » et que nous situons dans l’espace et une puissance « qui fait changer » et que nous appelons le temps.
Le changement est d’une complexité variable :
1. Le déplacement de corps inertes qui s’entrechoquent de manière indifférente lorsqu’ils se rencontrent, dont parle la mécanique classique.
2. L’affinité et la répulsion de corps chargés électromagnétiquement conduisant (dans l’affinité) à des composés aux qualités originales et dont parle la chimie.
3. La métamorphose des corps vivants dont certains, les prédateurs, sont attirés par d’autres, les proies (qui les fuient ou tentent de les repousser), et dont parle la biologie.
4. La croyance des êtres humains qui sont convaincus par d’autres qui les convainquent à l’aide de mots, dont parle un savoir qu’Aristote appelait analytique pour les choses certaines d’expérience, et dialectique pour les choses sur lesquelles les hommes se contentent de s’accorder.
Les schémas explicatifs du changement sont de plusieurs types
1. Les schémas « totémiques » en termes de « mutations » des choses d’une catégorie en une autre, celles-ci étant en nombre prédéfini :
a) Les moitiés, quatre ou huit « sections » de la pensée australienne.
b) Du Yin et du Yang dans la pensée chinoise, aux dix mille créatures.
Les schémas « totémiques » sont apparentés aux schémas explicatifs « empiriques » qui considèrent la proximité dans l’espace ou dans le temps comme significatifs et dont l’inférence quant à l’identité est fondée sur la corrélation (deux éléments au comportement hautement corrélé sont supposés identiques).
2. Les schémas « agrégatifs »
a) Empédocle : les quatre éléments : le feu, l’air, l’eau, la terre
b) Paracelse : les deux « éléments », la terre et l’eau, et les trois « principes », le soufre, le sel et le mercure
c) Le sens commun « moderne » : l’espace, le temps, la matière et la forme. J’ai rendu compte de sa genèse au deuxième paragraphe.
3. Les schémas « causaux »
a) Aristote : quatre types de causes, la matière, la forme, le moteur (la cause « efficiente ») et l’aboutissement (la cause « finale »).
b) La physique contemporaine : quatre forces élémentaires, la force intranucléaire forte, la force intranucléaire faible, la force électromagnétique et la gravitation.
Tous les schémas explicatifs du changement ont pour objet essentiel « Qu’est-il raisonnable de dire à propos de l’avenir ? »
3. Qu’est-il raisonnable de dire à propos de l’avenir ?
Le fait qu’il y ait un avenir s’observe dans le fait que toute chose est en devenir : elle change.
Dans une perspective « théologique », l’avenir se lit en découvrant la volonté des dieux par la divination.
Dans une perspective « empirique », on cherche les signes d’événements à venir, c’est–à–dire que l’on s’efforce de repérer ce qui les accompagne habituellement dans le temps et dans l’espace : « C’est ainsi que le blé, le seigle, les fleurs de lys, de ronces, de châtaigniers ou de genêts servent de critères (pour le début du captage du naissain d’huîtres) en Morbihan, les fleurs de vigne à Arcachon, les lys de Saint-Joseph à Marennes, etc. » (3).
Dans une perspective « scientifique », on s’efforce de découvrir des liens entre des événements inexpliqués (et dont le comportement est donc peu prévisible) et des événements expliqués (au comportement du coup hautement prévisible [4]). On explique ainsi de proche en proche en bâtissant sur un acquis. Dans les termes de Stegmüller : on prend une notion pré–systématique et on l’explique entièrement en termes de concepts théoriques ; elle devient alors à son tour concept théorique et est désormais prête à être invoquée dans l’explication d’autres notions pré–systématiques (5).
La philosophie grecque analyse sous le nom de « logique modale », deux couples conceptuels d’usage général dans le discours sur l’avenir, substituts du couple vrai / faux qui n’est pas d’application pour les événements futurs (6) :
1. nécessaire / contingent (non-nécessaire) ; selon que des configurations en entraînent d’autres dans tous les cas ou seulement dans certains. La mécanique classique va concentrer son effort de modélisation sur le nécessaire, appelant la configuration antérieure la « cause » et la postérieure, son « effet ».
2. possible / impossible (non-possible) ; selon que certaines configurations sont compatibles ou non avec des configurations existantes. Leibniz caractérise le monde comme maximisant les « com-possibles », autorisant dans un état–de–fait le plus grand nombre de choses possibles simultanément. Stephen Jay Gould réactualisa la même conception en paléontologie : le domaine biologique manifeste la variabilité maximale (le plus grand nombre possible de types de vivants simultanés).
La « théorie des probabilités » proposera à partir du XVIè siècle une quantification « fine » de la logique modale, attribuant aux événements à venir un degré intermédiaire entre, d’une part, le nécessaire (de probabilité « 1 ») et le contingent et, d’autre part, entre le possible (le nécessaire comme le contingent sont tous deux des « possibles ») et l’impossible (de probabilité
« 0 »).
Le « calcul différentiel » qui apparaît au XVIIè siècle sera l’instrument de modélisation mathématique du nécessaire. Il contraint cependant la manière d’examiner le changement :
1. Tout changement peut être caractérisé comme une trajectoire, exprimée comme équation différentielle, dans un espace (par dérivations successives, on obtient les degrés de changement, d’abord la distance, puis la vitesse qui est la distance par unité de temps, puis l’accélération qui est la vitesse par unité de temps, etc.)
Au XVIIè siècle, quand débute la physique dynamique l’espace en question n’est autre que l’espace « quotidien » à trois dimensions. Hermann Minkowski (1864–1909) montre à la fin du XIXè siècle que le temps est une quatrième dimension indissolublement liée aux trois dimensions de l’espace. Depuis, les savants envisagent les trajectoires d’objets étudiés en physique dans des « espaces de configuration » dont le nombre de dimensions est défini uniquement par le nombre d’« influences » subies par l’objet.
2. La trajectoire décrite par une équation différentielle est le plus aisément déterminée quand l’objet décrit est « inerte », c’est-à-dire lorsque son comportement peut être défini entièrement comme un ensemble d’« influences » qu’il subit (les paramètres de l’équation). Plus l’objet dispose d’une certaine « autonomie », plus il a tendance à influencer lui-même ce qui l’influence, plus le calcul devient difficile (d’où un glissement vers la cointégration qui ne privilégie pas l’action de l’un sur l’autre). Quand l’état d’un système dépend essentiellement de ses propres états antérieurs, on a affaire à un système dynamique discret.
3. La physique dynamique implique automatiquement une régression à l’infini : il doit exister un objet en amont dont le comportement est parfaitement « autonome » : il ne subit lui-même aucune influence. Aristote avait prévu cette contrainte quand il analysait les causes, il l’appela « moteur premier ». La possibilité existe évidemment, dans une perspective « théologique » qui invoque des agents sur–naturels, de situer ce primus movens en–dehors de la nature et de l’identifier à la « volonté divine ».
Parmi les influences possibles sur un objet se trouvent celles qu’imposent ses constituants, or l’on trouve toujours des objets plus petits. N’y a-t-il pas là aussi une régression possible à l’infini ? Autrement dit, « Est-il raisonnable de chercher des choses de plus en plus petites ? »
4. Est-il raisonnable de chercher des choses de plus en plus petites ?
La science découvre des objets de plus en plus petits. Les plus petits que l’on connaisse sont si petits que la seule justification pour chercher plus petit encore est l’espoir d’en découvrir de si petits qu’on n’en trouvera jamais de plus petits. Mais la démarche est-elle bien « raisonnable » ?
Ce qui oblige à poser la question est précisément le fait qu’il a toujours été possible jusqu’ici de trouver plus petit encore mais la conviction d’être arrivé au niveau le plus bas qui soit possible s’est toujours révélée temporaire.
De plus, les objets découverts ont toujours été de moins en moins compréhensibles : le comportement de plus petits que nous connaissions ne se situe plus ni dans le temps ni dans l’espace quotidiens ; il est impossible de s’en faire une représentation intuitive : il est impossible de les
« visualiser ». Pour tenter de les resituer dans un cadre qui nous soit compréhensible, certains se sont aventurés à leur supposer des logiques qui leur seraient spécifiques ; ainsi, en 1936, Birkhoff & von Neumann, puis Paulette Février en 1937, et en 1944, un philosophe, Hans Reichenbach.
C’est le fait même que les nouveaux objets découverts sont peu compréhensibles qui nous force automatiquement – dans une perspective
« réductionniste » – à chercher à restaurer l’intelligibilité perdue en descendant d’un niveau et en mettant en scène des objets plus petits dont le comportement rendrait compte des faits problématiques au niveau supérieur. C’est cet « automatisme » qui fit qu’à la fin du XIXè siècle le physicien et philosophe positiviste Ernst Mach refusa de croire à l’existence de l’atome, tant la « découverte » de celui–ci lui semblait une simple « nécessité » conceptuelle permettant de sauver certaines théories existantes.
Le fait que ce que nous savons des objets les plus petits se réduise, en l’absence de toute appréhension intuitive, à des systèmes d’équations ravit l’
« idéaliste platonicien » pour qui la Réalité est elle-même mathématique. Le
« positiviste » aimerait saisir l’objet « en lui–même », derrière le modèle. Le « philosophe naturel », lui, se méfie de tout ce qui ne peut pas être décrit de façon complète à l’aide de phrases (l’accent est mis par lui sur le qualitatif, de préférence au quantitatif).
Sur le plan de la vérification expérimentale, la mesure d’un objet très petit implique d’« interpréter » l’effet amplifié d’une interaction entre lui et un appareil de mesure qui n’est rien d’autre alors qu’un révélateur. Est-on encore certain dans ce cas de pouvoir distinguer ce qui, dans la mesure, reflète, d’une part, l’objet étudié et, d’autre part, le révélateur avec lequel il inter-agit ?
Les modèles mathématiques non–intuitifs de petits objets postulés réclament sans cesse d’autres modèles qui restaureraient l’intelligibilité là où celle–ci fait défaut. Mais tout nouveau modèle peut faire supposer à son tour que des objets réels correspondent à la partie originale de sa construction. Est-il bien raisonnable de découvrir de cette manière de nouveaux objets minuscules à partir de modèles qui semblent essentiellement s’« auto-engendrer » ?
Au XIXè siècle, le philologue Max Müller avait émis l’hypothèse que les mythologies résultent du fait qu’une explication n’est jamais complète : il subsiste toujours un résidu « anormal » qu’il convient d’expliquer à son tour. La recherche du plus en plus petit n’est-elle pas prisonnière désormais d’un simple « effet Müller » ? On pourrait le penser à la lecture de ce que Georges Lochak écrit sur l’équation de Dirac : « Les lois de symétrie font surgir certaines grandeurs mathématiques dont la présence s’impose à nous, au début comme celle d’objets un peu incongrus, voire encombrants et inutiles, mais dont l’interprétation nous révèle, pour certains d’entre eux, des propriétés physiques nouvelles ou des objets physiques entièrement nouveaux ; tandis que d’autres de ces grandeurs mathématiques restent longtemps rebelles à toute interprétation dans l’espace physique et conservent leur mystère » (Georges Lochak, « La géométrisation de la physique », in Logos et théorie des catastrophes. À partir de l’oeuvre de René Thom, Genève : Patino, 1988 : 187–197).
S’arrêter dans notre poursuite du plus en plus petit là où Mach le proposait aurait sans doute été prématuré. Ceci dit, ne serait–il pas plus raisonnable de décider un jour conventionnellement qu’on ne cherchera plus à découvrir des objets plus petits encore, en raison de notre incapacité de distinguer à ces niveaux des objets réels de simples effets de langage, dont on sait qu’ils sont capables eux de s’« auto–engendrer » perpétuellement ?
Cette dernière observation conduit à vouloir clarifier le rapport que nous établissons entre la réalité et nos théories. Autrement dit, « Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ? »
5. Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ?
Qu’il s’agisse des mots ou des objets mathématiques, le rapport entre eux et la réalité demeure mal compris en dépit de vingt-cinq siècles de réflexion sur le sujet par la science et par la philosophie.
Certains mots sont les étiquettes d’objets, mais ceci ne s’applique qu’aux mots qui ont un « référent » matériel évident, comme les pommes ou les poires ; un mot tel « néanmoins » n’est manifestement pas l’étiquette d’un objet existant dans le monde.
Le rapport entre les objets mathématiques et la réalité présente des aspects très divers :
1. L’arithmétique a un rapport « naturel » avec le monde. Les « nombres naturels » comme trois fonctionnent comme des étiquettes. Mais ce rapport « naturel » est moins évident déjà pour les « nombres irrationnels » tels que racine carrée de deux qui est l’étiquette de la diagonale d’un carré de côté égal à un. Le rapport « naturel » a disparu avec les « nombres complexes » dont une partie est imaginaire : un multiple de la racine carrée de moins un – laquelle n’a plus de signification intuitive du tout. De même pour les
« nombres transfinis » qui sont des ensembles originaux au-delà du fini.
2. La géométrie a aussi un rapport « naturel » avec le monde : elle décrit les propriétés des proportions remarquables des grandeurs que l’on observe sur des surfaces et dans des volumes. La géométrie opère sur le continu comme l’arithmétique sur le discontinu. Quand l’arithmétique travaille sur le continu, elle montre ses limites et est obligée de recourir à l’approximation.
3. Certains mathématiciens ont cherché à purifier la mathématique de ce rapport « immédiat » avec la réalité : Cantor reformule le nombre comme un symbole abstrait engendré par une simple règle (« principe d’induction complète » de Poincaré), Frege accuse Hilbert de vouloir en faire de même avec la géométrie.
4. Le calcul différentiel, on vient de le voir, est né pour décrire des trajectoires, sinon, l’algèbre est surtout abstraite, elle est souvent comme une « logique » qui réglerait l’arithmétique et la géométrie.
5. Lorsque le rapport « naturel » d’un modèle mathématique à la réalité est perdu, le modèle ne retrouve de signification qu’une fois « interprété », c’est-à-dire lorsqu’on établit des « règles de correspondance » entre lui et des objets du monde réel : lorsque l’on dit « ce symbole représente la distance, celui-ci le temps, et celui-là la vitesse », on établit un « isomorphisme », une correspondance de configuration et de « métrique », de grandeurs, entre un modèle mathématique et son « interprétation » dans le monde.
Dans la pensée traditionnelle chinoise, le « caractère » représentant quelque chose fait partie de cette chose au même titre que ses autres propriétés : le mot est un attribut de la chose elle-même.
6. Le nombre dans la conception que s’en fait l’« idéaliste platonicien » est un peu comme le caractère en Chine : le nombre qui caractérise la chose est un aspect de la chose elle-même, et le mathématicien n’invente pas les mathématiques, il les découvre, semblable à un explorateur qui découvre un continent.
7. Chaque nouveau « système de nombres » a été créé pour résoudre une impasse au sein des mathématiques, ce que les philosophes appellent une « impossibilité transitionnelle ».
8. Résoudre une telle impasse est une entreprise très différente selon que l’on conçoit les mathématiques comme « découvertes » ou « inventées ». Le fameux théorème d’« incomplétude de l’arithmétique » de Gödel a vu s’affronter mathématiciens, logiciens et philosophes autour de la question : le théorème est-il une découverte ou tour de passe-passe ? (7)
Une conception qui contourne ces difficultés, c’est celle que je défends, qui replace l’Homme pleinement au sein de l’évolution naturelle du monde, et qui considère que les mots et les objets mathématiques ne sont ni découverts ni inventés mais qu’ils se créent et que le lieu de leur création est l’esprit humain.
Pour préciser davantage le rapport entre un mot et ce dont il parle ou un objet mathématique et ce qu’il modélise, il est nécessaire de traiter une nouvelle question, « Qu’appelle-t-on la vérité ? »
6. Qu’appelle-t-on la vérité ?
Les définitions classiques de la vérité sont peu éclairantes : « dire ce qui est, comme il est et de ce qui n’est pas, qu’il n’est pas » affirme l’Éléate sous la plume de Platon (Le Sophiste). Les définitions héritées de la Scolastique sont toutes du même type que l’on trouve d’abord chez Thomas d’Aquin :
« adéquation du mot et de la chose », ce qui nous ramène à la question que j’ai déjà évoquée du sens des mots, relativement simple pour ceux qui ont un « référent » évident comme les pommes ou les poires, obscure dans les autres cas, tel « néanmoins ».
Toutes les cultures ne jugent cependant pas les phrases en termes de leur vérité ou de leur fausseté. En Chine ancienne une phrase devait convenir « être K’o ». Pour nous « la neige est noire » est faux parce que la neige est en réalité « blanche ». En Chine ancienne, « Tout le monde aime le prince » n’est pas k’o, parce que la phrase serait inconvenante dans la bouche de sa propre soeur.
Au départ, Platon et Aristote invoquent la question de la vérité de manière polémique, pour répondre à l’objection sceptique des Sophistes. Ces derniers observent que des discours partant de prémisses identiques et qui ne se contredisent pas eux-mêmes peuvent cependant se contredire entre eux et ils en tirent la conclusion que la vérité est une illusion.
Aristote déplace la question de la vérité et de la fausseté de la phrase, de l’adhésion du locuteur à ce qu’elle avance (sa mise en cause personnelle dans le fait de prétendre qu’« il est vrai que ceci », et qu’« il est faux que cela ») vers le contenu de la phrase elle-même, indépendamment de la personne qui la prononce. La vérité ou la fausseté est désormais un attribut de toute phrase : celle-ci est considérée en soi comme vraie ou comme fausse.
L’objection des Sophistes est en réalité irréfutable. Chaque domaine – les disciplines scientifiques en particulier – constituera son propre « jeu de langage » (comme le dira Wittgenstein), disposant de son propre « fonds de vérité » dont le rayonnement est essentiellement local et difficilement articulable avec d’autres.
Ce qu’Aristote parvient à faire, c’est montrer que si l’on part de principes que l’on sait vrais (sur quoi tout le monde s’accorde), on peut définir des règles telles que, si deux orateurs les respectent, non seulement ils ne se contrediront jamais eux-mêmes mais en plus, ils ne se contrediront jamais entre eux.
1. Aristote applique aux mots la « théorie des proportions » de son contemporain, le mathématicien Eudoxe. Une proportion continue (deux termes extrêmes distincts et un terme moyen unique) débouche sur une conclusion originale liant les deux extrêmes. C’est la théorie du syllogisme.
2. Aristote crée ainsi de toutes pièces l’analytique que nous appelons aujourd’hui « logique » (sa dialectique examine les raisonnements valides à partir d’opinions seulement plausibles : tester des hypothèses et opérer des inductions).
Dans le système d’Aristote – qui reste le nôtre – on peut alors dresser le catalogue des propositions vraies :
1. Celles qui sont vraies parce qu’elles tombent sous le sens, et que chacun les tenant pour vraies il est légitime de les prendre comme points de départ de raisonnements,
2. Celles qui sont vraies parce qu’elles sont les conclusions de raisonnements partant de propositions vraies.
3. Celles qui sont vraies par convention, parce qu’elles sont des définitions, c’est-à-dire des raccourcis obtenus dans la langue en remplaçant des suites de termes par un seul (ce qu’Ernst Mach appela l’« économie mentale »).
Comme de deux propositions vraies on ne peut tirer qu’une seule conclusion vraie, on sera obligé pour poursuivre ses raisonnements, soit d’introduire de nouvelles définitions – et les nouvelles vérités que l’on générera ainsi seront de simples conséquences de ces définitions, soit d’aller chercher dans le monde de nouveaux faits qui « tombent sous les sens », des observations venant corroborer soit des hypothèses, soit des faits d’induction.
On suppose en général que la logique joue un rôle directeur dans ce que nous appelons penser, mais est-ce le cas ? essayons de déterminer, « Qu’est-ce que c’est que penser ? »
7. Qu’est-ce que penser ?
Il y a à première vue deux types de penser distincts : l’« association libre » et le « calcul ». L’« association libre » caractériserait le fonctionnement de cerveau en roue libre, le « calcul », son fonctionnement dirigé.
1. Dans l’« association libre », c’est la configuration du réseau de nos éléments de mémoire, de nos traces mnésiques, qui détermine comment la pensée se constitue dans ses séquences. Le rêve parcourt sans contraintes le réseau des traces mnésiques connectées dans notre cerveau. L’émotion, qui dans la veille inhibe certains parcours possibles, est ici déconnectée : il n’y a pas dans le rêve de « dynamique d’affect » qui dirigerait la pensée.
2. Dans le « calcul », il y a enchaînement – apparemment contrôlé par la conscience – des étapes successives d’une procédure suivie systématiquement. Dans ce cas–ci, un espace de représentation se met d’abord en place, ensuite des images y sont mises en scène, celles-ci sont finalement manipulées selon les enchaînements imposés par la procédure suivie.
Dans la veille, l’affect canalise, décide à certaines bifurcations de diriger le train de pensées vers tel branchement plutôt que vers tel autre en fonction de l’urgence ressentie. Il joue un rôle identique à celui d’un gradient, tout comme avec une rivière qui descend vers la mer parce qu’il existe un gradient, une pente, parce que l’eau qui la constitue suit la courbe de la pente la plus raide jusqu’à atteindre le niveau de la mer. C’est un effet de la gravité : le centre de la terre joue le rôle d’un attracteur (que l’on appelle aussi en physique un « puits de potentiel »). Dans la pensée, l’intention ou le souci jouent le même rôle que la gravité dans le cas de la rivière qui s’écoule vers la mer. Je m’explique.
1. Le « souci » est un puits de potentiel auquel nous ne pouvons rien faire, il appelle l’« association libre » vers lui.
2. En réalité le « calcul » opère de la même manière : l’intention est aussi un « souci » qui nous possède. Aussitôt que l’intention se présente, la vision du projet accompli agit comme un puits de potentiel. Celui-ci ne sera atteint que plus tard, mais il guide vers lui parce qu’il s’est créé au moment où l’intention est apparue. Si la procédure à suivre est déjà inscrite dans notre mémoire, c’est le gradient seul qui la guide. Sinon, nous consultons le manuel chaque fois que l’inquiétude (l’affect) nous prend quant à la suite correcte des opérations et interrompt notre effort.
3. Dans une conversation, on n’a pas le temps matériel d’« avoir l’intention de dire » tout ce que l’on dit rffevtivement « emporté par son élan » : une fois lancée sur sa pente, la parole se poursuit jusqu’à extinction, jusqu’à ce que le gradient d’affect vienne mourir dans un puits de potentiel. C’est le discours de l’autre qui, mettant mon affect en émoi, relance le processus, à savoir recrée un nouveau gradient.
4. On s’entend parler quand on parle, mais on s’entend parler aussi bien quand on pense ou quand on lit. Si ce que l’on dit, on n’a jamais eu « l’intention de le dire », alors ce que l’on dit, on le découvre seulement au moment où on se l’entend dire. Et ce que nous disons met notre affect en émoi au même titre que ce que l’on entend dire par autrui.
5. Notre parole (aussi bien intérieure qu’extérieure), au moment où nous l’entendons, modifie notre affect alors même que notre discours est en train de se dérouler. Il y a rétroaction (feedback), effet en boucle, et la dynamique se réalimente avec un retard qui est le temps qui se passe entre le moment où je « me l’entends dire » et le moment où cela « met mon affect en émoi ».
La cause efficiente chez Aristote est la manière dont nous nous représentons spontanément la pensée, avec une intention comme son point de départ. Au contraire, dans la perspective plus correcte du gradient, le « puits de potentiel » s’assimile à la cause finale d’Aristote.
La logique d’Aristote (analytique et dialectique) est une modélisation de la dynamique de gradient telle qu’elle s’exerce sur la pensée. La logique formelle contemporaine est un modèle très partiel de la logique classique (aristotélicienne et scolastique), un objet algébrique très particulier de la famille des « treillis ».
Il n’en reste pas moins que nous n’avons encore fait qu’effleurer la question de ce pouvoir dont disposent les phrases, aussi faut-il se demander « Quel est le rapport entre la forme et le contenu ? »
8. Quel est le rapport entre la forme et le contenu ?
Nul ne connaît la réponse à cette question. Seuls ont été produits des débuts d’explication qui n’ont débouché que sur des impasses.
La question fut essentielle dans la philosophie scolastique qui l’a explorée systématiquement. La distinction entre « catégorèmes » (offrant le contenu) et « syncatégorèmes » (fournissant l’armature) lui est centrale. Furent examinées de manière approfondie la question de la suppositio : ce qu’un mot « suppose » dans le contexte particulier de son usage dans une phrase, et celle des consequentiae : les implications possibles d’une phrase en fonction de sa forme.
Le point d’aboutissement de cette réflexion fut la théorie du complexe significabile de Grégoire de Rimini (mort en 1358). Ce fut un échec : la seule conclusion certaine à laquelle il aboutit fut que le sens des phrases est davantage que le sens des mots qui la composent. Mais comment et pourquoi, nul ne parvint à le dire.
Dans les années 1930 la question fut reprise dans un contexte différent : à propos de la distinction faite par le mathématicien Hilbert entre énoncés « mathématiques » (offrant le contenu) et « méta-mathématiques » (fournissant l’armature), ces derniers jouant le rôle de règles de la démonstration mathématique. Le théorème d’« incomplétude » de Gödel (dont nous avons vu plus hautulevait déjà la question de savoir si les mathématiques sont découvertes ou inventées) a également relancé ce débat dans la mesure où sa démonstration suppose que la distinction entre « mathématiques » et « méta-mathématiques » est parfaitement comprise et maîtrisée. Wittgenstein a entièrement disséqué la question mais sans réellement la résoudre.
Dans les années 1950-70, le linguiste Noam Chomsky a tenté de trouver une solution au problème dans le cadre de sa « linguistique transformationnelle » (ou « grammaire générative »), qui s’articule autour de la distinction syntaxe / sémantique. Sa tentative a échoué lorsqu’il s’est vu forcé de définir comme « règles syntaxiques » des règles du type « si le sujet de la proposition est un être animé… », qui impliquent automatiquement des considérations sémantiques.
La solution du problème doit peut-être être cherchée dans la « linguistique » d’Aristote (8) dans la mesure où celui-ci construisit une théorie de la pensée très complète sans jamais distinguer forme et contenu. Plus tard certains auteurs utilisèrent la distinction qu’il établit en physique entre l’« en puissance » et l’« en acte » pour assimiler la syntaxe à l’« en puissance » et la sémantique à l’« en acte ».
La manière dont Aristote ignore la distinction contenu / forme est celle que l’on peut appeler « dialectique » au sens que Hegel donna à ce terme :
1. On part d’un concept (Cendrillon) et on l’associe à l’une des catégories qui s’applique à lui : « Cendrillon est dans la cuisine » (catégorie du lieu) et l’on obtient un jugement.
2. On prend maintenant deux jugements « Cendrillon est un personnage de conte de fées » (catégorie de la substance seconde) et « Cendrillon est dans la cuisine » et on les exhausse (“Aufhebung”) en une conclusion : « Un personnage de conte de fées est dans la cuisine ».
3. On prend ensuite cette conclusion et on la rapproche d’un nouveau jugement et on les exhausse à leur tour en un discours ou en un raisonnement (dans un cas comme dans l’autre, un logos).
Les projets d’Intelligence Artificielle qui reposent sur des manipulations de phrases achoppent aujourd’hui sur le clivage syntaxe / sémantique impossible à combler. La solution réside sans doute dans l’exhaussement aristotélicien : permettre aux mots de s’associer selon la logique de « gradient » qui caractérise la pensée.
Notes :
(1) Voici les titres d’ouvrages perdus de philosophes grecs mentionnés par Diogène Laërce. Pour Protagoras : « Les livres que l’on a conservés de lui sont les suivants : Art de la dispute, de la Lutte, des Sciences, du Gouvernement, de l’Ambition, des Vertus, de la Constitution, des Enfers, des Fautes commises par les hommes, des Préceptes, Procès sur le paiement, Discussions (deux livres) » (p. 186), et pour Zénon de Cittium : « Quand il écrivit un ouvrage sur la constitution, quelques-uns dirent par plaisanterie qu’il l’avait écrit sur la queue du chien. Outre ce livre, il écrivit encore : De la vie selon la nature, de l’Instinct ou de la nature humaine, des Passions, du Devoir, de la Loi, de l’Education grecque, de la Vue, du Tout, des Signes, les Pythagoriques, les Universaux, des Dictions, Cinq questions homériques, de l’Audition poétique. On a de lui encore : l’Art, Solutions, Deux réfutations, les Mémorables de Cratès, Morale. Voilà quels sont ses livres » (p. 52). Diogène Laërce. Vie, Doctrine et Sentences des Philosophes Illustres, II, traduction, notice et notes par Robert Genaille, Paris : Garnier-Flammarion 1965.
(2) Utilisant la distinction de Poincaré, Einstein caractérisait lui–même le style de sa démarche de « science à principe ». Dans une allocation en hommage à Max Planck, prononcée en 1918, il soulignait l’affinité entre la relativité et l’épistémologie de « philosophie naturelle » : « La tâche suprême du physicien est de parvenir à ces lois élémentaires universelles à partir desquelles le cosmos peut être bâti par déduction pure » (in Edward M. MacKinnon, Scientific Explanation and Atomic Physics, Chicago : Chicago University Press, 1982 : 307).
(3) Marteil (sous la direction de), La conchyliculture française. Troisième partie : L’ostréiculture te la mytiliculture, Nantes : ISTPM, 1979, p. 340.
(4) De nombreux savants, dont Albert Einstein et René Thom, considèrent qu’un processus stochastique (aléatoire) n’est pas réellement « expliqué » et requiert d’être examiné dans un espace contenant un certain nombre de dimensions supplémentaires.
(5) Wolfgang Stegmüller, The Structure and Dynamics of Theories, New York : Springer-Verlag, 1976.
(6) Voir mon Principes des systèmes intelligents, Paris : Masson, 1990, p. 134.
(7) Voir mon texte « Le mathématicien et sa magie : théorème de Gödel et anthropologie des savoirs » ; sur mon site Internet et le blog que je lui ai consacré : Le loustic qui s’est convaincu qu’Einstein était bête.
(8) Voir mon « La linguistique d’Aristote », in V. Rialle & D. Fisette (eds.), Penser l’esprit : Des sciences de la cognition à une philosophie cognitive, 1996, Grenoble: Presses Universitaires de Grenoble: 261-287 ; également sur mon site Internet.
Une réponse à “Ce qu’il est raisonnable de comprendre et partant d’expliquer (texte complet)”
C’est exactement ce que fait René Thom avec sa théorie des catastrophes, et il le fait de paire avec la morphogénèse biologique.
(Son ouvrage de référence « Stabilité structurelle et Morphogénèse » a pour sous-titre: « Essai d’une théorie générale des modèles »).
Note technique: dans la théorie des systèmes dynamiques où, en gros une dynamique quelconque est « somme » d’une dynamique hamiltonienne et d’une dynamique de gradient Thom ne s’intéresse (philosophiquement) qu’aux dynamiques de gradient. Ce qui ne l’a pas empêché de s’intéresser mathématiquement à la théorie du « chaos », précisément à la turbulence faible de David Ruelle (son voisin à l’IHES) et F. Takens.