Georges Brossard



Faire et connaître

Chapitre 9 : Exemples de vérité dans les sciences

Dernière mise à jour le 01/01/2016

Accueil

Philosophie

Économie

Blog

Dessins

Poèmes

Souvenirs

Sites

Contact


Note : ce texte date d'une dizaine d'années et est en cours de réécriture

  

On trouvera ici l'analyse de quelques découvertes scientifiques dans lesquels il y a de la vérité. On tentera d'en goûter la saveur et de trouver d'où celle-ci provient. Qu'est-ce que cette vérité ? Comment est-elle apparue ? Quel sens a-t-elle ?

Galilée observe la Lune

En 1609-1610, Galilée observe le ciel avec sa lunette. "Que vit-il dans la Lune, l'astre le plus proche, objet de sa première attention méticuleuse ? Ce qu'il voyait, ce n'était pas la Lune agrandie, brillante, sphérique, comme elle aurait dû l'être, étant donné sa qualité d'astre, c'est-à-dire de corps parfait : non, , c'était autre chose, une Lune différente, avec des taches obscures ou des changements lumineux en rapport avec les déplacements relatifs de la Lune et du Soleil." (p.50) Ici, une expérience, au sens empiriste du terme, vient contredire ce que les théories aristotéliciennes en vigueur, fondées sur la distinction essentielle entre les mondes supra et infra lunaires, laissaient attendre. En quoi consiste l'expérience ? Il s'agit d'"observations".

L'expérience : construction et perception

Que "voit" Galilée ? il voit des taches. Les voit-il ? non, ce n'est pas son œil, mais son œil plus son télescope. L'observation n'est donc pas naturelle, mais effectuée à l'aide d'un instrument construit spécialement à cet effet. 

De la page 66 à 68, Galilée explique comment il a construit son télescope et ce que l'on peut en attendre. Voici un résumé de ce récit :

1. "Il y a dix mois, environ, me parvenait la nouvelle qu'un Flamand avait construit une Lunette qui rendait visibles les objets très éloignés de l'œil de l'observateur"

2. Il a ensuite recherché l'"explication d'un tel instrument"

3. Et "imaginé les moyens d'en construire un du même type"

4. S'"appuyant sur la doctrine de la réfraction"

5. Il a obtenu le résultat désiré

6. "Je préparai d'abord un tube de plomb , aux extrémités duquel j'appliquai deux lentilles, l'une plan convexe et l'autre plan concave"

7. "je vis des objets assez grands et assez rapprochés, 3 fois plus rapprochés et 9 fois plus grands qu'à l'œil nu".

8. "Finalement, sans regarder ni à la fatigue, ni à la dépense",

9. il a "pu construire un instrument si perfectionné, qu'il faisait apparaître les objets près de 1000 fois plus grands et 30 fois plus proches qu'à l'œil nu".

En fait, il semble que les explications théoriques de Galilée sur le fonctionnement optique de son instrument sont insuffisantes :

" Ces considérations, dit-il, abordées superficiellement et presque du bout des lèvres, suffisent pour l'instant ; nous nous réservons, en une autre occasion, d'examiner de façon plus complète la théorie de cet instrument. " et Emile Namer ajoute en commentaire : "  Galilée n'a jamais eu le temps d'élaborer cette théorie. Mais Képler s'y est consacré dans sa Dioptrique (1611), d'une manière peu satisfaisante, d'ailleurs. Il fallait encore attendre Ch. Huyghens avant que la théorie optique du télescope ait un caractère réellement scientifique. " (p.68)

 

Il est particulièrement intéressant de noter que, simultanément, la doctrine de la réfraction a été un matériau indispensable à Galilée pour la construction de sa lunette, et, par ailleurs, le fait que cette "doctrine" ait été insuffisante ne constitue pas un obstacle, ni à la construction de l'appareil, ni à la validité des observations qu'il rend possibles (on dirait peut-être plutôt de nos jours " théorie ", plutôt que "doctrine", mais le changement de terminologie n'est pas indifférent et il est préférable de conserver ici ce terme qui correspond mieux à la notion de contenu positif de l'enseignement de la " doctrine ", que certainement Galilée vise ici). Le pragmatisme dirait certainement que cette doctrine, pour insuffisante qu'elle nous paraisse aujourd'hui, était " vraie " parce qu'elle a permis la construction du télescope. Pour autant, il ne condamnera pas la doctrine élaborée plus tard par Huyghens. Quelle est la vraie doctrine, alors ? La réponse pragmatiste à ce genre d'interrogation est qu'elle n'a pas de sens. Aucune n'est " vraie " absolument. Certes, mais, à son tour, la réponse pragmatiste ne peut être elle-même vraie " absolument ". Dans quel sens est-elle donc vraie ?

 

En fait, Galilée, ne nous en demande pas tant ! Il nous explique pourquoi son appareil grossit la vision que nous avons d'un objet éloigné : c'est parce que la diffraction causée par les lentilles fait que les rayons reliant notre œil à l'objet n'embrassent qu'une partie de celui-ci ( il ne prend pas la peine de préciser que, comme ils embrassent une partie plus petite dans une même surface - celle de l'ouverture du tube - , l'image que nous en percevons est plus grande en proportion ). Il nous explique comment, à partir de là, on peut mesurer " sans commettre d'erreur dépassant une ou deux secondes " les intervalles compris entre les Etoiles. Et, dit-il, " ces considérations suffisent pour l'instant ". Galilée n'en demande pas plus à la doctrine de la diffraction. Cette explication galiléenne limitée n'est pas pragmatiste, dans le sens où elle se suffirait de ce qui réussit, elle est opérationnaliste, dans le sens où elle se limite à ce qui est engagé dans l'opération qu'elle décrit. Ce n'est pas suffisant en attendant quelque chose de plus définitif, c'est suffisant par rapport aux opérations effectuées.

 

Cette doctrine a précédé la construction de l'instrument. Cette construction n'a donc pas procédé de l'application aveugle de recettes et les résultats obtenus sont bien ceux que la réflexion théorique préalable laissait espérer. La vision que nous obtenons ensuite grâce à l'instrument une fois celui-ci réalisé est, elle aussi, conforme à ce que la doctrine laisse prévoir et ne résulte donc pas d'un simple hasard heureux ou d'une opération magique. Le rapport entre ce que nous voyons et les objets réels est bien semblable à ce que la doctrine nous fait croire. Mais, toute autre doctrine qui conduirait aux mêmes résultats pourrait prétendre au même statut de vérité. Ainsi, nous formulons notre question en termes légèrement différents. Nous ne demandons plus quel est le sens du mot " vrai ", mais plutôt qu'est-ce qui est vrai dans cette doctrine que nous supposons vraie ? Et Galilée nous oriente vers une réponse modeste comme : " tous les principes qui conduiraient à ces conclusions ont de bonnes chances d'être vrais ". Dire que la vérité absolue n'existe pas implique soit qu'il n'existe pas du tout de vérité, soit qu'il en existe une relative. Il faut alors dire à quoi cette vérité est relative et comment elle l'est. Avec quoi une proposition doit-elle entretenir une relation, et quelle relation, pour être vraie ? Les propositions constituant la doctrine de la diffraction entretiennent ici une relation très profonde avec le travail de Galilée et en sont une partie constitutive, au même titre que les matériaux qu'il a utilisés, comme le tuyau de plomb ou les lentilles. La relation que nous constatons ici est à la fois heuristique et probatoire. En effet, la doctrine lui a permis de concevoir comment il pourrait atteindre un résultat semblable à celui dont il a entendu parler. Les propositions de la doctrine de la diffraction agissent comme des lignes traçant la voie des solutions possibles au problème posé. Elles indiquent dans quelle direction chercher et quelles conditions remplir. La doctrine assure aussi que ce que nous voyons n'est pas un mirage ou un événement exceptionnel, mais qu'il entre bien dans l'ordre naturel auquel nous nous attendons. Elle offre une sorte de garantie de répétabilité, même si celle-ci, bien sûr, doit être confirmée par l'expérience. Il semble clair que si Galilée n'avait pas eu cette doctrine à sa disposition, à la fois comme moyen de découverte et comme garantie d'intelligibilité, il n'eût pas réalisé son instrument ni, a fortiori, ses observations.

 

Les faits et leur interprétation

Une fois la lunette construite, viennent les observations. On se limite ici à celles de la Lune.

Galilée observe des taches. Que "représentent" ces taches ? comment les interpréter ?

Certaines se voient déjà à l'œil nu et il les appelle Grandes et Anciennes. Sa découverte concerne des taches non visibles à l'œil nu et il fait trois observations :

 

1. " la ligne qui sépare la partie obscure de la partie claire ne s'étend pas suivant une courbe uniforme (...) , mais elle est tracée de manière inégale, en dents de scie, et assez sinueuse " ;

2. " parfois, un grand nombre de petites taches noires, entièrement séparées de la zone obscure, sont parsemées sur presque toute la plage déjà illuminée par le Soleil "

3. " les petites taches ont ceci de commun, que toutes et toujours elles dirigent vers le Soleil leur partie [la plus] noirâtre ; à l'inverse, dans la partie opposée au Soleil, les taches noires sont illuminées en leurs extrémités et couronnées de cimes éclatantes. " (p.70)

 

Galilée cherche à présenter ses observations de la façon la plus neutre et la moins interprétative possible. Il ne parle évidemment pas des vallées et des montagnes qu'il suppose comme étant la réalité du relief lunaire, mais seulement de taches. On pourrait en effet, par fantaisie, imaginer une autre interprétation de ses perceptions. Il la suggère lui-même : " de nombreuses excroissances lumineuses pénètrent, au-delà des limites, dans la zone de ténèbres et, inversement, des particules obscures s'introduisent dans la partie illuminée ". Pourquoi, en effet, ne pas supposer que ces " taches " ne représentent pas plutôt des corpuscules sombres ou clairs qui s'interpénètrent ? Il est vrai que cette interprétation serait difficile à concilier avec l'observation n°3 ci-dessus.

 

En fait, dès la première observation mentionnée, une hypothèse est présente. La phrase entière de Galilée est la suivante : "  la ligne qui sépare la partie obscure de la partie claire ne s'étend pas suivant une courbe uniforme, comme cela arriverait en un solide parfaitement sphérique, mais elle est tracée de manière inégale, en dents de scie, et assez sinueuse ". L'observation de l'irrégularité de la ligne est contemporaine de la conscience de ce que l'on percevrait de cette ligne si la surface était parfaitement sphérique. On ne peut pas dire encore que Galilée perçoit le relief de la Lune, mais il perçoit que sa surface n'est pas une sphère parfaite. Le modèle d'une sphère parfaite impliquerait le fait d'une ligne séparant la lumière et l'ombre nette et uniformément courbe, ce qui n'est pas le cas, donc le modèle (d'une sphère parfaite ) est faux.

 

Dans quelle mesure peut-on distinguer la perception de l'interprétation ? Dans quelle mesure Galilée aurait-il vu les taches s'il n'avait pas eu l'idée qu'elles pouvaient dénoter les reliefs de la surface lunaire ? Dans quelle mesure peut-on parler de perception ou d'expérience là où ce n'est que par l'intermédiaire d'un instrument construit ad hoc que la perception a lieu ?

 

La réponse à ces questions ne fait pas de doute : la perception par Galilée des reliefs de la surface lunaire n'est en rien naturelle. Mais on en conclut souvent que cette artificialité entraîne une certaine fausseté, ou, au moins, un défaut d'objectivité. C'est là un glissement de sens injustifié.

 

Toute perception est interprétation. Voici un chien. Oui ? Comment savez-vous que c'est un chien ? Vous voyez des formes de couleurs, d'ombres et de lumières, qui s'agitent, se déplacent comme le font habituellement les chiens. Mais en est-ce un ? Je remarque que ses oreilles se dressent lorsqu'on l'appelle et que sa queue remue. Mais je ne le remarque que parce que je m'attends à ce qu'un chien ait de tels comportements. Rares sont les perceptions spontanées. Elles sont en fait des vérifications d'hypothèses non formulées et la plupart du temps inconscientes. Les impressions visuelles sur la rétine n'ont en elles-mêmes pas de sens et le sens que nous leur donnons provient de nos attentes. On ne voit que ce que l'on s'attend à voir, et, seuls, les esprits particulièrement agiles et ouverts sont capables de mettre en œuvre dans leur perception un éventail suffisamment large d'hypothèses pour voir des choses surprenantes que les autres ne voient pas. La recherche de perceptions pures ou, mieux, purement naïves est illusoire et relève d'un présupposé métaphysique erroné, qui voudrait que l'interprétation entache, en quelque sorte, la vérité de l'observation.

 

Et il est vrai que le préjugé nous fait voir ce qui n'existe pas mais que nous nous attendons à voir. Comment, alors, distinguer le préjugé qui entrave la perception du réel et l'hypothèse qui nous y aide ? Deux éléments seulement nous aident à faire cette distinction :

1. l'expérience ultérieure qui confirme ou infirme notre première interprétation ;

2. le fait que là où le préjugé agit, en quelque sorte, clandestinement, sans que nous ayons conscience de sa présence et de son action, l'hypothèse peut plus facilement être mise à jour, formulée et admise comme telle. Bien sûr, elle est, dans la plupart des cas de la vie courante, ignorée et elle reste inconsciente. Mais un effort intellectuel permet toujours de la mettre à jour et de l'accepter en tant que telle, alors que le préjugé nous échappe ou est nié.

Galilée certainement n'était pas inconscient des hypothèses à l'œuvre dans ses observations. Il a imaginé, construit et étalonné son instrument, il a mis en forme ses perceptions (sous forme d'observations) en vue de la vérification de ces hypothèses. Les observations de Galilée sont un bon exemple de construction de l'observation. Mais cet exemple est-il généralisable ? Quelle est la part de construction dans la plupart des observations courantes qui constituent ce que nous appelons l 'expérience sensible ?

 

Galilée a perfectionné son œil naturel par un instrument ad hoc. L'œil naturel n'est à son tour qu'un instrument. Les objets que nous percevons par son moyen ne sont ni verts, ni rouges, ni carrés, ni ovales, etc. ce sont simplement des amas d'atomes (qui, eux-mêmes ne sont que des occurrences de hautes densités d'énergie), et c'est cet instrument qui nous donne l'occasion de les percevoir tels que nous les percevons, avec formes, couleurs, etc. Bien entendu, ce qui est dit de l'œil et de la vision peut l'être aussi des autres sens. Les sons sont des masses d'air en vibration ; les goûts et les odeurs des particules chimiques qui provoquent des réactions électriques dans nos organes, etc. Les perceptions se font par l'intermédiaire de dispositifs physiques et chimiques qui ne ressemblent pas (ou très indirectement) aux " objets " que nous percevons. Simplement, ces instruments qui mettent en relation notre subjectivité et d'autres événements du monde ne sont pas construits par nous dans ce but, comme ce fut le cas pour la lunette de Galilée, mais ils nous sont en quelque sorte donnés par la nature (pour ne pas parler ici de ce qui nous vient de la " culture "). Mais il n'y a, à partir de là, aucune raison de considérer comme plus réels les objets tels qu'ils nous permettent de les percevoir. Qu'elle se fasse au moyen des instruments donnés et dont nous sommes, pour la plupart, inconscients, ou au moyen d'instruments inventés et construits par nous, la perception met en relation un sujet et un objet au travers d'un processus complexe dont les caractéristiques impriment leur marque dans le résultat final lui-même, c'est-à-dire dans notre observation. Nos observations ne sont pas simples et naturelles, mais complexes et produites. C'est cette production complexe qu'il faut analyser et comprendre.

 

En outre, dans ces instruments inventés et construits, nous devons non seulement ranger la matérialité de ces instruments (le tube de plomb, les lentilles) mais aussi tout le contenu mental qui a conduit à leur conception et à leur construction (l'hypothèse sur la surface de la lune, la doctrine de la diffraction, le savoir-faire technique, la patience, la fatigue, l'argent, et, même l' " air du temps ").

 

La plupart des théories de la connaissance reposent sur l'idée qu'il y aurait une connaissance " pure ", qui serait indiscutable, et des connaissances " mêlées " d'illusions, d'intérêt, d'idéologie, d'affectivité, etc. Selon les préférences doctrinales, la connaissance " pure " est située plutôt dans la sphère de l'intellect ou de la raison, c'est le rationalisme ou l'essentialisme, ou plutôt dans la sphère de la perception ou de l'expérience, c'est le sensualisme et l’empirisme. Enfin, une troisième position, constructiviste, partant du constat, que nous venons de faire, que même les connaissances soi-disant élémentaires ne sont pas " pures ", conclut que la connaissance elle-même est une illusion, que la vérité n'existe pas, ou tout au moins pas en tant qu'elle signifierait une certaine correspondance entre nos idées et des réalités extérieures.

 

Mais quel sens donnons-nous à cette idée de connaissance " pure " ? On vient de voir que, si l'on veut, par là, désigner une connaissance dans laquelle l'objet lui-même serait donné sans qu'intervienne le moindre élément relevant du sujet, alors l'expérience n'en fournit aucun exemple. L'expérience met toujours en œuvre des instruments et des attitudes qui font partie du sujet et qui sont à la fois matériels et intellectuels. Simplement, ces instruments et ces attitudes sont, tantôt plus spontanés, tantôt plus artificiels, et plus ou moins conscients, réfléchis et analysés. Ces éléments liés au sujet (les instruments qui lui rendent la perception possible, l'attention et les hypothèses qui la lui rendent observable, les conceptions et le langage qui lui rendent ces observations formulables) sont réels et déterminent de façon très positive le contenu de la perception et de l'expérience , et, donc, de notre connaissance de l'objet. Mais on ne peut en déduire que cette connaissance n'est pas vraie ou qu'elle n'est pas une relation à l'objet lui-même. Galilée a observé la Lune à travers l'optique de son instrument, mais on ne peut pas en conclure que ce n'est pas de la Lune qu'il s'agit !

 

La théorie est-elle vraie ?

Mais le message céleste selon Galilée ne s'arrête pas là. Ces observations ne sont en quelque sorte que la formulation, l'énoncé du message, mais non son contenu, sa signification. En fait, ces taches "montrent" que la surface de la Lune n'est pas régulière, qu'elle comporte des reliefs, et que ces reliefs produisent des ombres comme les montagnes et les vallées terrestres. Galilée transpose le modèle terrien pour formuler une hypothèse sur les reliefs de la Lune. Cette transposition, pour être valide, suppose fausse la cosmologie en cours, selon laquelle les lois du monde sublunaire ne peuvent s'appliquer au monde céleste. Autant la vérité des vues de Galilée ne fait plus de doute pour nous, qui avons marché sur la Lune, par télévision et bande dessinée interposées, autant celles-ci représentaient en son temps une hypothèse hardie. Qu'est-ce qui, alors, les lui a fait tenir pour vraies contre les doxae de son temps ?

Une réponse probabiliste pourrait être que son interprétation permettait de rendre compte d'un ensemble plus vaste de phénomènes avec moins d'hypothèses. Ce n'est pas certain, si l'on tient compte du fait que la Dioptrique impliquée par ses recherches comportait un assez grand nombre d'axiomes non vérifiés empiriquement. Cette réponse tient simplement pour une coïncidence heureuse le fait que les explications de Galilée embrassent un plus grand nombre de faits. Le réalisme de principe affirmera que la réalité des objets correspondant aux observations de Galilée est un postulat nécessaire pour rendre cette coïncidence intelligible.

En fait, l'interprétation de Galilée est plus vraie parce qu'elle est en adéquation avec les opérations matérielles (y compris dans leur conception intellectuelle) qu'il a effectuées alors que celles qu'il rejette ne sont en adéquation qu'avec des discours théoriques portés par la tradition dogmatique des Ecoles. Le vrai se mesure aux conditions nécessitantes de la réalité qui ont toujours une force supérieure à toute mesure de cohérence intellectuelle.

Descartes mesure la chute des corps

Une lecture géométrique de la réalité

Cette aventure intellectuelle se situe encore dans un contexte aristotélicien. La loi d'inertie n'était ni établie ni même conçue, et le mouvement d'un mobile devait s'expliquer par l'action d'une cause, l'impetus. Mais, en principe, les impetus s'épuisent dans la production du mouvement, et celui-ci s'éteint progressivement. Galilée opéra par rapport à cette conception une véritable révolution, en posant la question de façon totalement différente : le mouvement, mesuré par la vitesse du mobile (espace/temps), se conserve et ce sont ses accélérations et décélérations qui doivent être expliquées par des causes. Le programme de Galilée est d'établir un principe mathématique d'où l'on pourrait déduire les vitesses réelles des corps en chute libre. Mais l'observation de ces vitesses était difficile, d'une part du fait de l'imprécision des instruments de mesure (essentiellement, l'œil humain), et, d'autre part, du fait que les mouvements réels mettent tous en jeu un facteur "externe" qui fait que les chutes ne sont pas "libres", mais freinées par la résistance de l'air. D'où la nécessité d'inventer la vitesse des corps en chute libre, étant entendu que cette invention devait correspondre au plus près possible aux observations. La formulation verbale par Galilée de la loi de chute des corps correspond aux observations, c'est-à-dire qu'elle fait de la vitesse à un moment donné une fonction du temps écoulé depuis la chute. Par contre, la formulation mathématique n'est pas juste et substitue l'espace parcouru depuis le début de la chute au temps écoulé. Le savant hollandais Isaac Beekman rapportera des observations expérimentales qui corroboreront la relation de la vitesse au temps et non à l'espace. Correspondant de Descartes, il formulera, grâce à l'aide de celui-ci, une loi "correcte" de la chute des corps. Pour mesurer la vitesse à un moment t, on part de la mesure du temps observé pendant toute la durée de la chute. Descartes transpose les propriétés géométriques des triangles dont t est un côté sur une représentation graphique du mouvement. Dans cette représentation, le temps est représenté par une ligne. Descartes "lit" cette ligne comme un espace, alors que Beekman l'interprète correctement comme une représentation du temps. Plus tard, Descartes, à son tour, veut construire une physique "véritable", c'est-à-dire, entièrement déduite des vérités premières qu'il tire de sa raison. Arrivé à maturité, il se méfie des expériences que "les autres ont déjà faites" qui sont "pour la plupart, composées de tant de circonstances ou d'ingrédients superflus, qu'il lui serait malaisé d'en déchiffrer la vérité; outre qu'il les trouverait presque toutes si mal expliquées, ou même si fausses, à cause que ceux qui les ont faites se sont efforcés de les faire paraître conformes à leurs principes" (Discours de la méthode, sixième partie). Il invente, de nouveau, la loi de la chute des corps. De nouveau, il substitue l'espace au temps dans la formule, parce qu'il transpose analogiquement son raisonnement géométrique. Sa conclusion est fausse, dans le sens où les mesures que l'on peut en déduire par le calcul ne correspondent pas aux observations. Cette erreur célèbre révèle le point de vue du sujet Descartes, géomètre. Ainsi, ce que contient de vérité l'erreur, c'est la trace de l'analogie utilisée par Descartes pour construire le modèle du réel. Descartes n'a pas construit, à proprement, parler un monde géométrique, que l'on pourrait prendre pour vrai à condition d'admettre ses principes, mais un modèle géométrique du monde, et c'est là la vérité de ce discours erroné. La proposition formulée par Descartes est sa vision géométrique du monde. Cette proposition est fausse, mais il est vrai que cette fausseté même montre la perspective réelle du sujet Descartes par rapport à son objet. On remarquera que, du même énoncé - la réponse fournie par Descartes à Beekman - ce dernier avait induit une autre proposition, rectifiant implicitement l'erreur de son correspondant.

Descartes, voulant formuler à sa manière la loi de la chute des corps découverte par Galilée, fut influencé par son modèle géométrique de la nature. Au lieu d'introduire dans son modèle l'idée que la vitesse est proportionnelle au carré des temps, il la fit proportionnelle au carré des espaces. Les calculs effectués avec la formule cartésienne ne donnent pas les mêmes résultats que ce qui se produit effectivement, où la vitesse est bien relative aux temps et non aux espaces. Mais, pour des raisons techniques, la confrontation avec les faits fut longtemps loin d'être simple : on ne savait pas mesurer précisément la vitesse d'un corps en chute libre ; sans compter que dans l'atmosphère terrestre, il n'y a pas de chute libre à proprement parler. Ainsi, le modèle de Descartes expliquait-il, en quelque sorte, des "non-faits", des observations virtuelles, mais pas les faits. Les partisans de Descartes ont maintenu souvent que les faits, difficilement observables et contrôlables, étaient conformes aux calculs de leur maître. Rares sont les cas où les tenants d'un modèle acceptent de reconnaître que, vrai ou faux, il n'explique pas grand chose. Ils préfèrent souvent maintenir les "faux faits" qui restent cohérents avec leur modèle, quitte à nier l'évidence expérimentale. C'est bien ce qui se passa avec les Cartésiens.

 

Redi embête les mouches

L'histoire des idées comporte de nombreux exemples de théories destinées à expliquer des "non-faits". La théologie en constitue évidemment un réservoir presque inépuisable. Mais les sciences dites positives n'en sont pas non plus exemptes. Il y eut ainsi pendant longtemps des théories expliquant la génération spontanée, c'est-à-dire l'apparition d'organismes vivants qui ne sont pas la descendance d'une semence préalable, jusqu'à ce qu'on montrât qu'il n'y avait pas de génération spontanée. Aristote et Lucrèce étaient d'accord au moins sur ce point, de penser que la vie se crée à partir de la pourriture de certains éléments de "terre" humide. Unanimité de la "science normale" pour cette forme de génération spontanée de la vie à partir de la pourriture. Les biologistes ont interrogé ce dogma de façon continue dans l'histoire de cette science, et, d'une certaine façon, n'ont jusqu'ici rien fait d'autre que repousser de plus en plus loin cette notion en montrant qu'aucun fait ne lui correspondait. La théorie de la génération spontanée est néanmoins maintenue, sous des formes diverses, et parfois comme signe d'une intervention divine, comme modèle de création de la vie. Mais ce modèle emprunte à des faits qui n'en sont pas, et donc constitue ou bien une simple erreur, ou bien un mystère.

E. Guyénot, dans l'Histoire générale des sciences, sous la direction de René Taton (Paris, PUF, 1958), décrit la démarche de Francesco Redi : "C'est ainsi que l'on attribuait à la génération spontanée l'origine des vers qui apparaissent dans les cadavres et les viandes en putréfaction. F. Redi, en 1668, s'attaqua à cette croyance. Il s'était rendu compte que ces vers étaient des larves de mouches et qu'elles provenaient des œufs que les mouches avaient déposés sur la chair des cadavres. Il fallait le prouver pour convaincre les partisans de la genèse spontanée. Les expériences de Redi furent simples, mais démonstratives.

Des viandes et des cadavres de poissons, de serpents sont enfermés dans des bocaux dont l'ouverture est close par du papier fort ou une toile à mailles assez fines pour empêcher les mouches d'y pénétrer : dans ces conditions les viandes pourrissent mais ne renferment jamais de vers. Dans les bocaux laissés ouverts, où les mouches peuvent entrer librement, les cadavres sont toujours remplis de larves. La question était tranchée." (tome II, p.369)

Le premier mérite qui revient à Francesco Redi dans cette entreprise de débuscage des non-faits de génération spontanée, c'est d'avoir conçu le doute sur la théorie de la génération spontanée. Ce doute l'a conduit à l' interrogation de la nature et non seulement à une simple spéculation intellectuelle. Par l'observation, Redi en était arrivé à concevoir l'hypothèse préalable que les vers apparus dans les viandes en décomposition étaient nés déposés par les mouches. Il a donc entrepris la construction d'un dispositif questionnant : "il place donc des morceaux de viande dans des fioles à large ouverture, et laisse les unes ouvertes, à l'air libre, tandis qu'il recouvre les autres d'un "papier ficelé et bien hermétiquement assujetti". Peu de jours après, les viandes contenues par les fioles ouvertes sont remplies de vers, celles des fioles bouchées sont demeurées parfaitement désertes. (...) N'en fallait-il pas conclure que la viande elle-même est incapable de produire des asticots et que leur formation dépend d'une cause extérieure ? On pouvait toutefois objecter à cette conclusion que la stérilité des viandes enfermées tenait au défaut d'aération. Mais Redi renouvela ses essais en substituant au papier une gaze à mailles très fines ; et les résultats n'en sont pas modifiés pour cela. Leur interprétation, dès lors, n'offre plus d'équivoque ; et, pour ce qui est de cette cause extérieure qui se laisse arrêter par la gaze aussi bien que par le papier, on n'aura point de peine à la déterminer : elle se confond avec les mouches, qui s'introduisent dans les fioles ouvertes pour y déposer leurs œufs." (Jean Rostand, Esquisse d'une histoire de la biologie", pp. 11 et 12)

Les expériences Redi reposent comme hypothèse sur une transposition analogique de la naissance des vers des mouches, observée dans la nature à celle des vers sur la viande en décomposition. L'observation seule ne prouve rien. Des milliers de cuisinières ont obervé qu'un torchon posé sur la viande empêche que des asticots s'y développent. Redi transpose et reconstruit le fait observé. Sa démarche comporte ensuite un dispositif expérimental inventé et réalisé par lui qui modifie le possible et l'impossible, les mouches ne pouvant pas se poser dans les fioles fermées. La détermination des causes possibles est précisément délimitée par ce dispositif lui-même, puisque les mailles des gazes utilisées sont assez larges pour laisser passer l'air mais pas assez pour laisser passer les mouches.

Causalité et implication : on voudra bien remarquer en cette occasion que ce n'est pas la cause qui implique l'effet, mais l'inverse. Le langage courant, en effet, nous incite à utiliser la conjonction "donc", ou l'expression "par conséquent" pour lier la cause et l'effet dans le sens cause ® effet : on dirait facilement "des mouches sont venues pondre, donc, il y a des vers". Mais le conséquent causal est l'inverse du conséquent logique. En logique, b est le conséquent de a si on n'a jamais a sans b. On dit que a implique b. Ce que Redi a montré, c'est qu'il n'y avait pas de vers sans mouche, que la présence des vers impliquait celle préalable des mouches. Il n'a pas montré - et il ne cherchait pas à le faire ! - qu'il n'y avait pas de mouche sans vers, ce qui signifierait que les mouches pondent toujours des œufs, et que ceux-ci éclosent toujours. Autrement dit, c'est bien l'effet qui implique sa cause (il ne peut se produire si celle-ci ne s'est pas produite auparavant) et non la cause qui implique son effet. Ceci se reconnaît usuellement lorsque l'effet est pris pour indice de la cause : "il y a des vers, c'est donc qu'il y a eu des mouches", où "donc" est bien utilisé dans son acception logique, contrairement à la phrase "il y a eu des mouches, donc il y a des vers", où "donc" est utilisé dans une acception causale.

Redi a-t-il inventé le garde-manger ? Il est probable que non. Mais les ménagères et les cuisiniers ne se souciaient pas de génération spontanée, et se fiaient probablement aux critères de "scientificité" de l'époque, c'est-à-dire la conformité aux théories aristotéliciennes, sans percevoir la moindre contradiction entre la réalité expérimentée quotidiennement et la doxa. Réciproquement, les savants ne pouvaient soupçonner que les tamis ménagers pouvaient avoir un rapport quelconque avec quelque chose d'aussi important et digne que la génération spontanée, l'origine de la vie !

Le modèle de la génération spontanée se trouvait donc infirmé par un fait. Pourtant, il est vrai que la théorie de la génération spontanée a continué d'avoir ses partisans, au moins jusqu'à Pasteur. Et il ne faut pas croire que ces partisans ne reconnaissaient pas la vérité des faits établis par Redi. Mais qu'est-ce qui est vrai dans ces faits ? "La conception de la continuité vitale qui est encore aujourd'hui la nôtre, (...) ne devait s'imposer à tous que deux siècles plus tard, après d'interminables controverses". Redi a montré qu'il est faux que les vers apparaissent de façon spontanée sans que des mouches aient auparavant pondu leurs œufs sur la viande. Il s'agit d'une vérité négative. Il n'a pas montré que toute vie apparaît comme suite d'une vie préalablement existante, ce qui serait la vérité positive complémentaire, la "conception de la continuité de la vie". La question que Redi a posée à la Nature au sujet des vers sera posée à nouveau pour les "animalcules" non visibles à l'œil nu, comme les micro-organismes qui apparaissent dans un bouillon de culture, et demandera alors des dispositifs expérimentaux plus complexes. La fausseté d'un modèle n'implique pas la vérité du modèle contraire. Le vrai se limite à ce qui est fait.

Lavoisier questionne la chaleur

Le Mémoire sur la chaleur, présenté par Lavoisier et Laplace à l'Académie des Sciences en 1780 présente la réflexion des savants en train de se constituer et n'occulte en rien le processus par lequel peu à peu les vérités sont mises à jour, au contraire de ce que ferait un texte présentant des résultats sous forme d'un système théorique achevé. Les auteurs ont des visées théoriques très larges et profondes, ambitieuses, par rapport aux controverses du temps, mais font preuve d'une réserve méthodologique qui n'épargne au lecteur rien de leurs doutes, et veille à ne condamner d'avance aucune hypothèse, soucieux, comme animés d'un positivisme avant l'heure, de s'en tenir aux faits seuls d'abord.

La recherche dont Lavoisier et Laplace rendent compte dans ce mémoire intervient dans un contexte où la pensée scientifique est imprégnée de concepts et de démarches qui nous semblent aujourd'hui étrangers. Quelles étaient ces conceptions et quels changements la recherche Lavoisier et Laplace y introduisent-ils ? Trois notions sont tout-à-fait " basiques " pour les savants de l'époque (et pour le public aussi) :

1- La causalité. Chaque phénomène constaté procède d'une cause, cette cause est propre à ce phénomène et lui est, en général proportionnée. Cette notion de causalité universelle et individualisée à la fois est, pour les contemporains de nos auteurs, le modèle de rationalité. Toute explication à prétention scientifique doit attribuer à chaque phénomène une cause qui le précède, et qui l'explique en propre. De nos jours, même si ce schéma de pensée existe encore chez de nombreuses personnes, il n'en est pas moins fortement modifié. Il nous paraît légitime, par exemple, d'admettre qu'un phénomène ne comporte pas une seule cause, mais dépend plutôt d'un ensemble de conditions, dont certaines sont nécessaires, mais aucune suffisante. Les lois quantitatives qui introduisent des proportions entre les phénomènes ne sont pas des lois causales, mais des lois de relations entre les grandeurs physiques. Dans la pensée du XVIIIème siècle, la cause entretient avec son effet un lien intime : elle doit être de même " nature ", elle détermine la grandeur de l'effet par sa propre grandeur, et elle fait cesser l'effet lorsqu'elle-même cesse d'exister. Parfois, l'effet se prolonge alors que la cause n'est plus visible ( après qu'une flamme a chauffé un corps, celui-ci reste chaud quelque temps, par exemple, alors qu'on a éteint la flamme). Il faut donc chercher une cause cachée, ou imaginer des mécanismes de rémanence.

2 - La nature des choses. Bien que cette expression fasse évidemment penser au poème de Lucrèce, ce n'est pas dans ce texte que s'en trouve la référence théorique. On se rapprocherait plutôt de la notion de quiddité utilisée par la philosophie scolastique. Si l'effet produit est d'une certaine " nature ", la cause, en quelque manière, doit être de même nature ( si la flamme chauffe un corps c'est qu'elle est de nature chaude, elle est de la chaleur, d'une certaine façon ). Cette nature sert aussi à expliquer la diversité des comportements des différents corps dans l'univers. Avant Galilée, on pensait que les corps lourds, par nature, tombaient, alors que les corps légers, par nature, montaient, certains pouvant monter ou descendre plus ou moins vite par des mélanges de natures lourde et légère, etc. L'abandon de cette façon de penser ne s'est pas faite brusquement avec l'avènement de la physique de Galilée ; la révolution galiléenne ne s'est pas faite en un jour. Galilée a eu des précurseurs. Lui-même n'a peut-être pas toujours été conscient de toutes les implications générales de ses théories sur la chute des corps, et c'est à Newton qu'on doit d'avoir développé et construit une explication globale cohérente des découvertes galiléennes. Bien des façons de penser postérieures (et peut-être même encore de nos jours) sont empreintes des visions scolastiques sur la nature propre à chaque chose comme principe d'explication des événement survenant à cette chose. On le verra, il en était bien ainsi dans les réflexions sur la chaleur qui entouraient Lavoisier et Laplace.

3 - Les fluides. Il y a ainsi des causes naturelles, c'est-à-dire liées à la nature intrinsèque de chaque corps, qui expliquent les comportements de ces corps par eux-mêmes. Mais l'expérience montre quotidiennement que les corps interagissent les uns sur les autres, semblent s'échanger des propriétés sensibles ou mesurables, sans que cet échange lui-même soit perceptible. Ces échanges ou interactions, pour être intelligibles à nos ancêtres, devaient avoir un support matériel, quoique invisible et hors du champ de notre expérience sensorielle immédiate. C'est le rôle joué par certains " fluides " de la physique du XVIIIème siècle. Ces fluides sont différents de nos fluides actuels, comme l'eau, l'air, l'huile, etc., qui étaient souvent désignés par le terme de " liqueurs ". Les fluides du XVIIIème siècle sont le support de propriétés physiques susceptibles de se déplacer dans l'espace, d'un corps à un autre, notamment, et en échappant à notre perception. Il y a ainsi des fluides magnétiques, qui expliquent que l'aimant attire le fer à distance. Ce fluide est le vecteur des propriétés magnétiques. De la même manière, les réflexions sur la chaleur mettent presque toujours en jeu un " fluide calorique ", vecteur des effets attribués à la chaleur. Ces théories sont souvent qualifiées de "matérialistes", parce qu'elles font de la chaleur une matière. On dirait plutôt une substance : la chaleur comme substance, le gaz phlogistique, la chaleur spécifique des corps. Lavoisier et Laplace produisent des occurrences différentes de chaleur et un moyen commun de les mesurer. Ils ne se préoccupent pas de leur nature, mais de la manière de les produire et de les mesurer.

 

Des causes individualisées, une cause correspondant à chaque événement, des natures propres à chaque corps, comme le caractère d'une personne lui est propre, et des fluides, enfin, sortes de messagers et de monnaie d'échange entre les corps, tels sont les modèles qui permettaient au XVIIIème siècle de se représenter les événements de manière compréhensible. En fait, on l'a vu, un autre modèle de rationalité se faisait place dans les esprits, modèle que nous avons pris l'habitude d'identifier à la démarche de Galilée en mécanique. La démarcation que nous établissons entre ces deux modèles est devenue pour nous classique au point que nous ne l'interrogeons plus. En fait, alors que le modèle expérimental et mathématique se développait et se construisait pierre à pierre, la démarcation entre ces deux modes de compréhension du réel, et pour cause, n'existait même pas. Les deux façons de penser coexistaient naturellement dans le même discours et s'interpénétraient de façon inextricable.

Lavoisier et Laplace, dans un autre domaine de la physique, poursuivent, d'une certaine façon, le programme galiléen, et tentent d'interpréter les phénomènes sur la base de l'expérience et de la rationalité mathématique, mais non sans être encore empreints des façons de penser médiévales, qui constituaient, en fait, la manière naturelle de penser, à partir de laquelle seulement pouvait se constituer progressivement une compréhension des phénomènes ancrée dans ces phénomènes eux-mêmes, et non plaquée dessus.

Une des difficultés principales de cette recherche est d'ordre lexical. On vient de le voir, les mots du XVIIIème n'ont pas le sens de leurs homonymes du XXème. La " nature " est devenu une notion plutôt romantique, voire politique, elle ne fait plus du tout référence à ce principe d'explication causale qui serait propre à chaque entité et déterminerait ainsi son comportement. Et c'est bien le sens actuel psychologique (on parle, par exemple, de la nature d'un enfant, pour parler de son caractère, de sa personnalité, etc.) qui se rapprocherait le plus de la notion physique du XVIIIème. C'est ainsi que les événements de la vie d'un corps ou d'un fluide sont expliqués par sa " nature ", un peu de le même façon que le destin d'une personne s'explique en grande partie par sa " nature ".

Autre exemple, la causalité universelle a peu à voir avec notre déterminisme actuel. Certes, au XVIIIème siècle aussi, chaque événement doit avoir une cause, mais les critères de vraisemblance des causes ne sont pas de même type qu'aujourd'hui. On admet alors plus facilement qu'aujourd'hui des interventions extraordinaires, voire surnaturelles, et une cause, au fond, peut être un miracle. La causalité régulière de la nature doit en quelque sorte se battre contre les interventions extraordinaires. Les fluides du XVIIIème sont, on l'a vu, hors de notre expérience sensible immédiate et ont peu à voir avec les fluides étudiés, par exemple, par la mécanique des fluides d'aujourd'hui.

Parfois, les significations anciennes et modernes se côtoient sans que les ambivalences soient mises en évidence. Les distances entre ces deux ensembles de sens ne sont pas stables et les glissements peuvent se produire à notre insu.

 

 

 

Les auteurs commencent par un rappel rapide des théories en cours sur la nature de la chaleur ; ils présentent ensuite un nouveau moyen de la mesurer, rapportent diverses expériences où est mis en œuvre ce procédé de mesure et, finalement, en tirent quelques conclusions sur la théorie de la chaleur, et de phénomènes comme la combustion et la respiration :

il est désormais possible de mesurer la chaleur dans toutes ses différentes manifestations usuelles d'une seule et même manière, grâce à un concept unique de chaleur ;

des lois plus générales que celles admises jusque là peuvent être formulées sur l'équilibre de la chaleur, et ces lois ont un pouvoir explicatif très étendu ;

la chaleur dégagée par une combinaison ne s'explique pas par les chaleurs spécifiques des corps combinés ;

le rôle joué par " l'air pur " dans ces phénomènes n'est pas non plus contestable ;

une théorie unique commune de la combustion et de la respiration, fondée sur les points acquis précédents, est possible.

On examinera successivement ces cinq résultats. Ils se répartissent en deux groupes : les deux premiers et le cinquième expriment positivement des généralités non certaines ; les troisième et quatrième expriment négativement des certitudes particulières.

1/ Premier résultat : la possibilité universelle de mesurer la chaleur

Deux innovations théorique sont à la base de cette nouvelle possibilité : la première est une distinction claire entre température et chaleur ; la seconde est l'élaboration d'un concept nouveau de la chaleur qui s'étend à tous les phénomènes où celle-ci intervient. Quelles sont les caractéristiques de ce nouveau concept ?

Premièrement, ce concept n'est pas simplement un concept de la chaleur, mais aussi un concept de la quantité de chaleur. Les auteurs ne définissent pas une idée de chaleur que l'on chercherait ensuite à mesurer. Ils cherchent au contraire d'emblée à définir ce que l'on mesure lorsqu'on mesure la chaleur.

Deuxièmement, il est constitué à la fois par différenciation d'avec le concept de température et par unification de différentes notions primitivement plus ou moins indépendantes, comme la chaleur libre, la chaleur combinée, la chaleur dégagée, la chaleur spécifique et la chaleur absolue, qui sont subsumées sous un concept générique de chaleur. La différenciation d'avec la température est implicite dans le texte des auteurs en même temps que sont établis les liens entre les deux notions. Ils écrivent : " si l'on suppose deux corps égaux en masse, et réduits à la même température, la quantité de chaleur nécessaire pour élever d'un degré leur température peut n'être pas la même pour ces deux corps ". La chaleur est ainsi implicitement définie comme ce qui fait varier la température et doit, de ce fait, être rapporté à la masse. La distinction était déjà présente dans les travaux de Joseph Black, mais sans poser aussi clairement les rapports entre les deux notions ainsi distinguées. En effet, la distinction mise au jour par Black juxtaposait des notions distinctes et autonomes qui apparaissaient comme autant de formes de chaleur : température, chaleur apparente, chaleur latente, capacité de chaleur, etc. Au contraire, la distinction introduite par Lavoisier et Laplace établit un lien expérimental et causal entre les notions de chaleur et de température, et rassemble par ailleurs en une conception unifiée les différentes manifestations de la chaleur.

Troisièmement, le nouveau concept de chaleur est un " concept-question " et non un " concept-réponse ". C'est-à-dire que le nouveau concept n'est pas une réponse à la question " qu'est-ce que la chaleur ? " (p. 14 : " dans l'ignorance où nous sommes de la nature de la chaleur ... " ; " de même qu'en dynamique nous représentons la force par le produit de la masse et de la vitesse, quoique nous ignorions la nature de cette modification ... "). Deux conceptions de la chaleur sont en cours à l'époque, la chaleur comme fluide (" calorique ") et la chaleur comme résultant des mouvements des molécules de matière et les auteurs ne tranchent pas pour l'une ou l'autre, chacune expliquant une partie des phénomènes constatés. Le nouveau concept de chaleur qu'ils proposent n'est pas une troisième conception qui s'ajouterait à celles de la chaleur-fluide et de la chaleur-mouvement, mais une manière nouvelle et plus précise de définir ce dont nous parlons lorsque nous nous posons la question de la nature de la chaleur et que nous y répondons par l'une ou l'autre des théories de la chaleur-fluide et de la chaleur-mouvement. Ils ne proposent pas une nouvelle réponse, mais définissent le contenu de la question.

Ainsi, le nouveau concept de chaleur est distinct (de celui de température), unique (pour toutes les manifestations de la chaleur), quantifiable, et indépendant des hypothèses sur la nature de la chaleur et les mécanismes sous-jacents des divers phénomènes concernés.

2/ Deuxième résultat : formulation de lois plus générales sur l'équilibre de la chaleur

La notion de chaleur comporte trois grandes catégories d'occurrences empiriques :

1. Les changements d'état des substances (vaporisation, liquéfaction, solidification)

2. Les dégagements de chaleur lors de certaines combinaisons chimiques

3. Les chaleurs spécifiques des corps.

Or, le nouveau concept de chaleur, inclus dans le premier résultat analysé ci-dessus, est précisément le concept unificateur qui permet de mesurer la chaleur de la même manière dans ses diverses manifestations. Ni la notion de température, ni les diverses chaleurs (" dégagée ", " latente ", etc.), plus ou moins proches, soit des sensations vécues, soit des vertus occultes des corps, n'avaient ce pouvoir unificateur. Le nouveau concept unificateur de la chaleur est le premier élément sur lequel reposent les lois de l'équilibre de la chaleur.

Le second élément est le principe selon lequel " dans les changements causés par la chaleur à l'état d'un système de corps, il y a toujours absorption de chaleur " (cf. 3.3.0.1.). Les auteurs ont montré en 3.2. que les exceptions apparentes à ce principe ne sont pas dues à une libération de chaleur latente enfermés dans les corps, mais " à des causes particulières " liées aux dispositifs expérimentaux, et les expériences qu'ils vont relater, faites à l'aide de la nouvelle méthode qu'ils proposent, confirmeront cette affirmation. La notion de système de corps est ici essentielle, et fera l'objet d'une considération particulière.

C'est grâce à ces deux éléments que peuvent prendre naissance et être formulées les lois de l'équilibre de la chaleur, exposées dans une théorie (cf. 3.3.1.) qui formule une sorte d'équivalence entre deux aspects de la chaleur :

1. la chaleur comme cause d'une variation donnée de température d'une masse donnée

2. la chaleur comme cause d'un changement d'état déterminé d'une même masse.

Cette équivalence détermine, selon la théorie des auteurs, les états d'équilibre possible d'un corps donné à une température donnée. En effet - et c'est là l'autre hypothèse de la théorie - , les molécules d'une substance ont entre elles une " affinité " qui tend à les réunir. La chaleur tend à les écarter, et l'équilibre réalisé entre ces deux tendances permet de mesurer " l'affinité " spécifique des molécules du corps en question.

La notion d'"affinité" des molécules entre elles est nouvelle au temps de Lavoisier et Laplace. Elle oriente les chimistes vers une application particulière des lois de la gravitation de Newton, sans réduire la chimie à une sorte de département de la mécanique. Elle est tout juste pressentie comme une hypothèse permettant peut-être d'ordonner les propriétés spécifiques connues des différents corps. Dans les travaux de nos auteurs, elle apparaît comme en négatif, révélée, pour ainsi dire, par le travail de la chaleur qui tendrait à dissocier les particules agrégées par l'affinité. Elle n'est donc pas présente ici comme l'hypothèse explicative générale qu'avancent de nombreux chimistes de l'époque, mais comme le complément contextuel opératoire nécessaire des actions de la chaleur.

Ainsi, le nouveau concept de chaleur est distinct de celui de température, unique dans ses manifestations diverses, et mesurable , dans ces mêmes diverses manifestations, d'une seule et même façon. En outre, non seulement la chaleur doit être rapportée à la masse des corps, mais aussi à une autre de leur propriétés : "  les forces d'affinité des corps les uns avec les autres " (cf. pp. 56 et 57).??

3/ Troisième résultat : la chaleur dégagée par une combinaison ne s'explique pas par les chaleurs spécifiques des substances combinées.

Une conclusion négative suppose manifestement deux éléments : 1/ la formulation d'une hypothèse ; 2/ des aspects du réel qui contredisent cette hypothèse, et qui, donc, d'une certaine manière, " parlent " le même langage qu'elle. Une question, donc, posée à la réalité, et une réponse, provenant de cette même réalité, qui se trouve être négative. Cette double condition pose le problème suivant : comment en arrive-t-on à la position d'une question, comment est produit le " texte " de la question , d'une part, et, d'autre part, comment se produit la découverte et l'analyse d'un autre " texte ", dans le " grand livre de la Nature ", qui réponde à la question posée. Afin d'examiner en quoi et comment ces conditions sont remplies dans le travail relaté par le Mémoire dans ce passage, il faut résumer brièvement l'itinéraire suivi par les auteurs.

Leur question de départ est celle de la " chaleur absolue ", qui s'entend par opposition aux simples différences de chaleur qui, seules, nous sont accessibles immédiatement par l'expérience. " La chaleur spécifique, que nous avons déterminée précédemment, n'est, à proprement parler, que le rapport des différentielles des quantités absolues de chaleur ", constatent les auteurs (p. 42), et, concluent-ils, " de même que le mouvement général qui nous transporte dans l'espace est insensible dans les mouvements que les corps se communiquent à la surface de la terre ", de même, la chaleur " qui leur est commune doit rester inconnue " (p. 43). La recherche de la chaleur absolue semble ainsi une question vouée à rester sans réponse. C'est donc la question qu'il faut changer !

En 3.2.1. , les auteurs formulent l'hypothèse que " la chaleur qui se dégage dans les combinaisons n'étant pas l'effet d'une inégalité de température dans les substances que l'on combine, elle pourrait peut-être nous conduire au rapport que nous cherchons "(p.43) . En effet, l'idée est que l'on connaîtrait la chaleur absolue d'un corps si l'on connaissait le rapport entre cette chaleur absolue et l'accroissement de chaleur qui élève d'un degré sa température, accroissement que nous savons mesurer, par le moyen du dispositif nouveau mis au point par les auteurs et décrit dans le Mémoire(cf. bas de la p. 42).

Afin de rendre praticable leur hypothèse de recherche (c'est-à-dire de " poser leur question à la Nature "), les auteurs sont conduits à en adopter deux autres, qui semblent communes à de nombreux chercheurs de l'époque et " les plus simples que l'on puisse faire " (p. 45) :

1. " la quantité (totale) de chaleur libre est toujours la même avant et après les combinaisons "

2. " les accroissements de chaleur correspondants à des accroissement égaux de température sont proportionnels aux quantités absolues de chaleur " des corps concernés.

Ces hypothèses étant posées, on obtient la formule qui devrait donner " le nombre des degrés auxquels répond la chaleur de l'eau à zéro "(p.45) :

60 . g

x=------------------------------------

m . (a-c) + n . (b-c)

g représente le nombre de livres de glace fondue par le refroidissement jusqu'à zéro de la combinaison de deux substances, c'est-à-dire, finalement, la chaleur dégagée par cette combinaison.

m et n les poids des deux substances combinées.

a et b les " rapports des quantités de chaleur renfermées dans une livre de chacune de ces substances à zéro à celle que contient une livre d'eau à la même température " (p. 43), c'est-à-dire, après l'adoption de l'hypothèse 2 ci-dessus, leurs chaleurs spécifiques, et

c , de la même manière que pour les deux éléments de la combinaison, est la chaleur spécifique de la combinaison elle-même

x, enfin, est " le nombre de degrés auquel répond la chaleur de l'eau à zéro ".

Comme le disent les auteurs, " il ne s'agit plus maintenant que d'appliquer cette formule aux résultats de diverses combinaisons ; car, si l'on trouve constamment la même valeur de x, " (ce que l'on devrait normalement trouver, x représentant indirectement la chaleur absolue de l'eau, qui doit être une constante spécifique de l'eau), " quelle que soit la nature des substances que l'on combine, ce sera une preuve de la vérité de ces hypothèses " (p.45).

Or, si les deux hypothèses sont bien solidairement impliquées dans l'établissement du raisonnement, elles le sont à des tires divers, et leur sort ne sera pas le même à la fin de la recherche.

Celle-ci est relativement aisée, puisque les manipulations ont déjà eu lieu et que les données g, m, n, et a, b et c ont été définies comme correspondant aux résultats des expériences précédemment décrites dans le Mémoire ( article 2), les premières l'étant directement, et les trois dernières par une approximation fondée sur la deuxième hypothèse.

Le résultat devrait donner une valeur constante de x. Il n'en est rien. Dans certains cas, les écarts pourraient être mis au compte des incertitudes des mesures (cf. pp. 46,47), mais l'application de la formule à des " combinaisons dans lesquelles la chaleur dégagée (g) est une part considérable de la chaleur absolue "  (a, b, c)(p. 48) conduit à la conclusion que la théorie " dont il s'agit " " n'est pas généralement vraie, et que, dans plusieurs cas, elle souffre des exceptions considérables " (p.50).

Pages 48, 49, la conclusion est formulée de façon légèrement différente : " on ne peut se dispenser de reconnaître, ou que la quantité de chaleur libre n'est pas la même avant et après les combinaisons, ou que les chaleurs spécifiques n'indiquent pas les rapports des quantités absolues de chaleur ".

Enfin, de nouveau page 50 : "la connaissance des chaleurs spécifiques des substances et de leurs combinaisons ne peut conséquemment nous conduire à celle de la chaleur qu'elles doivent développer en se combinant ".

Voici donc les principales étapes du chemin parcouru :

1. Recherche de la " chaleur absolue "

2. Etablissement d'une formule donnant la température absolue de l'eau à zéro en fonction des chaleurs spécifiques des éléments d'une combinaison et de cette combinaison elle-même, et de la chaleur dégagée par celle-ci.

3. Confrontation de cette formule avec les résultats expérimentaux.

4. Double conclusion : 1/ sur l'impossibilité de saisir les quantités absolues de chaleur à partir des chaleurs spécifiques ; 2/ sur l'impossibilité de connaître la chaleur dégagée par une combinaison à partir des chaleurs spécifiques.

Cette double conclusion correspond évidemment à la double hypothèse qui fonde l'établissement de la formule (cf. p. 45), double hypothèse invalidée par l'expérience. Dans la formulation de la conclusion des pages 48 et 49, les deux parties sont reliées de façon disjonctives par " ou ". La conclusion formulée page 50 montre que ce " ou " n'est pas disjonctif. Il convient donc de considérer séparément chacune des deux hypothèses. La première, qui veut que " la chaleur libre est la même avant et après les combinaisons ", peut être désignée " hypothèse sur la chaleur dégagée " ; et la seconde, celle qui veut que les chaleurs spécifiques soient proportionnelles aux chaleurs absolues, " hypothèse sur la chaleur absolue ". La première est fausse dans tous les cas, y compris ceux où la seconde l'est également.

Deux hypothèses, donc, logiquement, deux conclusions. Toutefois, initialement, une seule formule traduisait ces hypothèses en vue de leur confrontation avec les résultats expérimentaux. En voici une analyse.

60 . g

x=------------------------------------

m . (a-c) + n . (b-c)

En neutralisant les masses (m=n=1), le dénominateur devient :

            a + b - 2c

c'est-à-dire qu'il exprime la différence entre la somme des chaleurs spécifiques des substances combinées et celle de la combinaison, à masses égales.

On peut alors extraire g (c'est-à-dire la chaleur produite par la combinaison), et on obtient, en négligeant les 60, qui sont un rapport constant propre à l'eau :

            g = ( a + b - 2c ) . x

où x est une constante inconnue, la chaleur absolue de l'eau. La formule signifie donc que la chaleur développée par une combinaison est proportionnelle à l'excédent de la somme des chaleurs spécifiques des combinés sur celle de la combinaison. Elle exprime donc la première hypothèse, car on a, en négligeant x :

            a + b = 2c + g

où les premier membre de l'égalité est la chaleur des combinés avant la combinaison, et le second, la chaleur après la combinaison (" la quantité (totale) de chaleur libre est toujours la même avant et après les combinaisons ").

Cette hypothèse, en fait, est indépendante de la seconde et est infirmée par les résultats, quelle que soit la valeur de vérité de celle-ci.

En effet, la seconde hypothèse, sur la chaleur absolue, visait à établir un lien entre les quantités de chaleur absolue (inaccessibles par l'expérience) et les accroissements de chaleur (accessibles par le biais des accroissements de température). Cette seconde hypothèse aurait été, sinon démontrée, du moins rendue vraisemblable, si la première avait été vraie, car elle aurait alors fournie une explication vraisemblable à la vérification de cette première hypothèse. Mais celle-ci n'étant pas vérifiée, elle devient une sorte de béquille inutile dont on ne peut dire ni qu'elle soit vraie, ni qu'elle soit fausse, mais rendue peu vraisemblable par le fait que la première, dont elle est solidaire, est invalidée.

Ainsi, à une question formulée verbalement sous une forme duale, le " grand livre de la Nature " ne répond que dans ses propres termes, qui sont en même temps ceux-là même des expériences effectuées précédemment par Lavoisier et Laplace, selon la procédure qu'ils ont définie, mise au point, et réalisée. L'expérience rend une réponse univoque à une seule des deux hypothèses avancées, celle qui correspond à sa propre structure. En effet, le concept de chaleur mis en œuvre par les auteurs dans leurs expériences permet bien de mesurer de façon identique plusieurs types de chaleur différente, ici la chaleur libre dégagée et la chaleur spécifique. Mais il ne permet pas de constater un lien entre chaleur absolue et accroissement de température. La réponse fournie par la Nature est bien formulée dans les termes de la question posée par les opérations effectuées par les expérimentateurs, et ne prend pas en compte les hypothèses purement spéculatives des chercheurs. Sur ces dernières, la réponse est en quelque sorte absente : l'idée d'un lien entre chaleur absolue et chaleur spécifique n'est pas définitivement écartée, elle est seulement inaccessible par les moyens employés.

Le point de départ de la recherche était bien la notion de chaleur absolue. La détermination de cette notion constituait bien, en un sens, l'objectif visé. Mais le concept de chaleur utilisé n'aurait rendu possible cette détermination que par le rôle qu'aurait joué la chaleur absolue dans les dégagements de chaleur par les combinaisons si la théorie exprimée par la première hypothèse sur la chaleur dégagée avait été vraie. Le concept de chaleur proposé par les auteurs permettait de donner un sens à cette hypothèse n°1 comme règle de production de chaleur, et la réponse fournie par " le grand livre de la Nature " ne pouvait concerner que la partie de la question correspondant au concept mis en œuvre dans le dispositif expérimental, quelle que soit la formulation verbale de la question par ailleurs.

On notera que la réponse - négative - est certaine. La fausseté de l'hypothèse est bien prouvée par les résultats des mesures effectuées qui sont incompatibles avec cette hypothèse, alors que si, au contraire, ils avaient été compatibles (la valeur de x ayant été alors constante), la vérité des hypothèses, n'aurait pas été prouvée, malgré ce que disent les auteurs. A strictement parler, l'hypothèse aurait alors été vraisemblable, mais non prouvée pour autant, alors que sa fausseté est prouvée.

 

4/ Quatrième résultat : rôle de l'air pur dans les dégagements de chaleur

Les deux résultats précédents permettent d'ouvrir une perspective plus large sur les processus d'oxydation.

L'identité de nature entre combustion et respiration (" la respiration est donc une combustion, à la vérité fort lente, mais d'ailleurs parfaitement semblable à celle du charbon ", p. 75), cette conclusion, les auteurs y parviennent après avoir montré :

1. que la respiration fait subir à l'air pur une altération en air fixe ;

2. que cette altération est le principal phénomène en jeu dans la respiration ;

3. que la production de chaleur dans les deux processus est proportionnelle à la formation d'air fixe,

ce troisième point étant en contradiction immédiate avec l'hypothèse sur la chaleur dégagée dont nous venons d'étudier la négation??.

Sur quoi s'appuie, cette fois, cette nouvelle affirmation, positive, elle, de l'identité des deux processus, respiration et combustion ? Deux faits se produisent simultanément lors de ces deux processus et induisent l'idée qu'ils ont des éléments communs : tous les deux s'accompagnent de dégagement de chaleur, et tous les deux s'accompagnent d'altération d'air pur en air fixe. Mais cette concomitance n'est pas suffisante. Le fait décisif est provoqué par l'expérimentation et c'est l'égalité des relations quantitatives entre les deux phénomènes qui induit réellement l'idée d'une identité de nature, c'est-à-dire des enchaînements de causes et d'effets, entre les deux processus.

A partir de cette première identification de deux cas de production de chaleur, on s'oriente vers une " théorie " positive générale de la production de chaleur, comme résultant de la formation d'air fixe à partir de l'air pur. Mais cette théorie n'est encore que partielle et n'est pas esquissée comme conception nouvelle de la chaleur en tant que réponse aux questions sur la nature de la chaleur (concept-réponse). Par contre, le point qui est acquis est celui de l'identité de la combustion et de la respiration. La preuve de ce point est fondée négativement sur le refus de l'hypothèse n°1 précédente et sur le fait qu'il n'y a pas, dans la respiration comme dans la combustion, d'autre transformation chimique que celle de l'air pur en air fixe. La négation est certaine ; l'affirmation probable. Le concept général d'oxydation est présent, à l'état latent dans le Mémoire, mais n'y est pas formulé et ne peut intervenir d'une façon productive. Le concept de chaleur dont nous disposons est un concept-question, indicatif, et ne nous donne pas de réponse à la question de la production de la chaleur ; ou, plutôt, il ne nous donne sur les conditions de cette production que des réponses négatives (telle théorie n'est pas acceptable) ou licitatives (telle théorie est compatible avec ce qui se produit dans l'expérimentation), mais non affirmatives. Ainsi l'oxydation?? comme cause de la chaleur est compatible avec la négation d'une théorie opposée (la chaleur spécifique comme cause des chaleurs dégagées) et elle est aussi compatible avec la théorie d'un équilibre entre la chaleur et les " affinités " des molécules, mais elle n'est pas formulée positivement. Les auteurs s'en tiennent en effet à ce qu'autorise le dispositif créé.

5/ Cinquième résultat : espoir d'une théorie chimique unique de la combustion et de la respiration

Le Mémoire affirme l'unité des deux phénomènes et renforce l'hypothèse du rôle qu'y joue l' " altération de l'air pur ". Cette hypothèse est exposée dans l'article quatre du Mémoire. Néanmoins, il ne fournit pas une théorie complète unifiée de la combustion et de la respiration et les auteurs se contentent d'indiquer sur quelles fondations une telle théorie pourrait se construire.

Cette possible théorie commune de la respiration et de la combustion repose en premier lieu sur le principal résultat acquis antérieurement, à savoir le moyen commun de mesurer la chaleur dans ses diverses manifestations. En effet, il faut bien, d'abord, que la chaleur dégagée aussi bien dans la respiration que dans la combustion fasse l'objet d'un processus de mesure homologue pour que l'idée même d'une explication commune ait un sens (expériences sur la chaleur dégagée par la respiration et la combustion : pp. 37 à 40). L'idée qui, dans l'article quatre du Mémoire, sert de principe à cette théorie commune des deux phénomènes, est que la chaleur dégagée respectivement par la respiration et par la combustion est proportionnelle à l' " altération de l'air pur " qui s'est produite dans ces deux phénomènes. Pour en arriver là, il fallait préalablement que la chaleur soit devenue un seul et même objet d'expérience ( et de mesure) dans la combustion et dans la respiration. Et, là encore, nous retrouvons les caractéristiques du nouveau concept de chaleur : il est rigoureusement distinct de celui de température ; il est lié aux variations de température et d'état de masses données ; et il s'agit bien d'un concept-question et non d'un concept-réponse.

La deuxième condition à remplir pour obtenir ce résultat était de mesurer dans les deux cas l' " altération de l'air pur " produite.

Deux autres résultats établis précédemment viennent conforter l'idée centrale de cet article quatre. Ils n'en sont pas la condition, mais ils en augmentent la vraisemblance en l'insérant dans un ensemble théorique cohérent.

Le premier de ces deux résultats est établi dans la section repérée 3.2. (pp. 42 à 52 du Mémoire), dans laquelle les auteurs, on s'en souvient, parviennent à la conclusion que " la connaissance des chaleurs spécifiques des substances et de leurs combinaisons ne peut conséquemment nous conduire à celle de la chaleur qu'elles doivent développer en se combinant " (haut de la p. 50). Cette conclusion négative confirme a contrario la " conjecture très vraisemblable " (p. 59) que " la chaleur et la lumière qui s'en dégagent (de la combustion, de la respiration et de la calcination des métaux) sont " dues, au moins en grande partie, aux changements que l' air pur éprouve " (p. 58). Le raisonnement est le suivant :

La combustion est une combinaison ;

la respiration est une combustion (p. 75) ;

la chaleur dégagée par les combinaisons n'est pas proportionnelle aux chaleurs spécifiques des corps combinés (section 3.2.) ;

elle est, par contre, proportionnelle aux altérations subies par l' " air pur ", qui se combine avec la base de l' " air fixe " (article 4)

la conclusion attendue serait : la combustion est provoquée par une altération de l'air pur ; mais elle n'est pas formulée telle quelle.

La conjecture sur le rôle joué par l'air pur n'est, certes, pas prouvée par ce qui précède, mais son opportunité et sa crédibilité en sont accrues. La proportionnalité entre la chaleur dégagée et les altérations de l'air pur ne suffit pas à établir une causalité, mais elle la suggère fortement. De même, la conclusion de la section 3.2. n'est peut-être pas sans exception. Notamment, les auteurs accordent à Crawford (p. 59) , dans le cas particulier de la combustion, la légitimité de son opinion selon laquelle la chaleur dégagée provient d'une " perte de chaleur spécifique " de la part de l' " air pur ". Lavoisier et Laplace ne contredisent pas directement cette opinion, mais ils développent une hypothèse alternative dont ils montrent qu'elle est, elle, compatible avec tous les éléments expérimentaux connus.

Surtout, la conclusion non explicite de nos auteurs rendrait inutile et caduque la théorie du phlogistique, admise presque par tous les scientifiques de l'époque. Lavoisier en a été l'un des premiers et des plus tenaces adversaires, mais non sans y avoir adhéré lui aussi dans un premier temps et en n'y renonçant qu'avec la plus grande prudence. Cette théorie faisait du phlogistique, fluide impondérable et inobservable directement, le "principe" de la combustion et des autres phénomènes voisins, comme la respiration. Trouver une autre cause aux changements d'états, de composition et de poids des corps dans la combustion revenait à rendre le phlogistique superflu. Nos auteurs n'ont pas encore le sentiment de disposer de suffisamment de certitudes pour avancer sur un tel terrain, et ils limitent leurs conclusions à ce qu'autorisent leurs travaux expérimentaux. Cette prudence révèle non pas seulement l'honnêteté, ou l'habileté polémique des auteurs, mais surtout, et d'abord - parce qu'il fonde épistémologiquement cette honnêteté et cette habileté -, le rapport essentiel entre le vrai et le fait

L'autre résultat qui vient conforter la thèse de l'article quatre est la théorie, formulée en 3.3.,de l'équilibre entre la chaleur et les " affinités " des molécules. Les deux théories - celle de la production de la chaleur dans la respiration et la combustion par " altération de l'air pur " et celle de l'équilibre entre chaleur et " affinité " des molécules - ne sont pas explicitement rattachées l'une à l'autre, mais leurs liens sont clairs, étant donnée la portée générale dans cette section repérée 3.3.

En première approche, cette section, 3.3., est essentiellement expérimentale et semble consacrée à la solidification de l'eau en glace et à la liquéfaction de la glace. Mais elle n'en contient pas moins cette formule conclusive générale (p. 56), qu'il y a un " équilibre entre la chaleur, qui tend à écarter les molécules des corps, et leurs affinités réciproques, qui tendent à les réunir ". La dernière partie de cette section 3.3. est consacrée à l'action des acides. Les auteurs annoncent que la généralisation de ces considérations, qui permettra de " mesurer avec précision les forces d'affinité des corps les uns avec les autres " fera " l'objet d'un mémoire particulier " (pp. 56, 57). L' " affinité " des molécules de l' " air pur " et de celles de la " base de l'air fixe " n'est donc pas connue avec précision. Mais elle est essentielle dans les " altérations " et permet donc bien d'étayer, sans la démontrer, l'hypothèse que c'est cette altération qui est la cause de la production?? de l'air pur.  L'idée qu'il y a un équilibre entre la chaleur produite et les affinités en question provient de l'équivalence constatée des dégagements de chaleur dans la combustion comme dans la respiration.

En quel sens la compréhension des phénomènes de combustion et de respiration comme résultant de la combinaison d'air pur avec la base de l'air fixe contribue-t-elle à la théorie de la chaleur, ou au contraire, lui est-elle étrangère ? La discussion de la thèse de Crawford (p. 59) nous permet d'illustrer ce point. D'après Crawford, la chaleur produite dans la combustion proviendrait de la chaleur spécifique (c'est-à-dire propre à chaque corps, selon sa nature) perdue par l'air pur lors de la combustion. Mais cette conception de la chaleur vise à répondre à des questions relatives aux phénomènes de dégagement de chaleur. Ce n'est pas ce que cherchent nos auteurs, qui cherchent à appréhender la chaleur sous toutes ses formes. La divergence de vues ne porte pas essentiellement sur la représentation que Crawford et Lavoisier/Laplace se font de la chaleur (le concept-réponse) que sur ce qui est censé être représenté (le concept-question) . Crawford interroge une sorte de vertu caloriférique propre qui expliquerait les dégagements de chaleur. Lavoisier et Laplace, eux, interrogent un fait physique universel (la chaleur mesurée selon leur procédé) et cherchent un concept unificateur autour duquel les diverses théories explicatives des différents phénomènes particuliers viendraient s'organiser rationnellement. C'est la même chaleur qui intervient dans les changements d'état des corps (quelles que soient les températures spécifiques auxquelles ces corps se solidifient, se liquéfient, ou s'évaporent), dans les phénomènes où interviennent les chaleurs spécifiques (dont seules les valeurs varient d'une substance à l'autre, mais non la nature), et, enfin, dans la combustion et dans les diverses combinaisons chimiques (qui dépendent des affinités spécifiques des différentes substances). Là où Crawford cherche une réponse à une question particulière, Lavoisier et Laplace élaborent une problématique universelle. La différence de ces deux perspectives est fondamentale dans l'approche d'un " objet ", supposé être le même dans les deux cas.

Tels sont donc les résultats obtenus à la suite du travail décrit dans le Mémoire. Comment ces modifications des théories de la chaleur ont-elles été rendues possibles par des modifications des concepts, en particulier celui de chaleur ?

Tout d'abord, la structure de rédaction du Mémoire peut induire une vision inverse de la situation: la nouvelle conception théorique de la chaleur (pour autant que le Mémoire en contiendrait une) ne procéderait pas de nouveaux concepts, mais plutôt de constatations empiriques, de cet empirisme que Bachelard n'estimait indispensable que pour le "dépasser". En effet, les auteurs présentent d'abord une nouvelle méthode pour mesurer la chaleur - un dispositif matériel ingénieux décrit de manière très détaillée -, rapportent les expériences faites par ce moyen, et, enfin seulement, tirent quelques conclusions générales, d'ailleurs très réservées et aux prétentions théoriques limitées. C'est apparemment là une démarche typiquement empiriste, et le rationalisme qui y serait à l'œuvre se limiterait à la construction d'un chaudron plein de glace !

En fait, ce qu'enseigne l'analyse du Mémoire, c'est que la conception universalisante de la chaleur ne se "dégage" pas naturellement des faits empiriques, comme la brume se dégage de la rosée, mais qu'elle est bien inventée, et que la pièce maîtresse de cette invention n'est pas seulement un dispositif matériel et sa mise en œuvre, mais bel et bien également un concept, au sens le plus abstrait du mot, de chaleur. Mais ce que montre aussi l'analyse, c'est que le sens de ce concept et sa portée de vérité sont tout entiers dans ce dispositif matériel et les opérations que les auteurs effectuent et que ce sont là ses véritables référents. Il n'y a pas de distance entre ce qu'enseigne le concept et ce que contiennent les faits matériels décrits par les auteurs. Le concept n'est pas autonome et idéal : il est incarné dans un dispositif matériel artificiel et le dispositif n'est pas aveugle, il est créé et construit.

Le premier aspect de la formation du nouveau concept de chaleur est sa différenciation nette d'avec celui de température. Il est vrai que, dans quelques passages, le mot de chaleur semble employé pour celui de "température" : "Si, dans une combinaison ou dans un changement d'état quelconque, il y a une diminution de chaleur libre, cette chaleur reparaîtra toute entière..."(p. 13); plus loin : "ainsi les changements de la glace en eau et de l'eau en vapeur font disparaître, au thermomètre, une quantité très considérable de chaleur ..." (p.13) ; et : "Si l'on mêle ensemble une livre de glace à zéro et une livre d'eau à 60 degrés, on aura deux livres d'eau à zéro pour le résultat du mélange : il suit de là que la glace absorbe 60 degrés de chaleur en devenant fluide." (pp. 31-32). Dans ces passages, la température est désignée par les termes de "chaleur", "chaleur libre" ou même "chaleur apparente". En outre la mesure de la chaleur est exprimée en degrés, unité de compte de la température, entretenant l'illusion d'une confusion entre les deux notions. Ces occurrences, où les deux concepts semblent confondus, donnent en même temps la clef de leur distinction : la température, rapportée à la masse, est un signe de la chaleur ; ce n'est que parce que les deux quantités d'eau et de glace sont équivalentes, que la température est équivalente à la chaleur dans l'exemple cité. Mais cette distinction entre les deux concepts est entièrement contenue aussi dans la différence des modes de mesure : la température se mesure avec un thermomètre (et avant Lavoisier et Laplace, c'était aussi avec un thermomètre que l'on mesurait la chaleur), alors que la chaleur se mesure dorénavant avec une balance, pour peser la masse d'eau fondue dans l'appareil construit par les deux savants.??(autres systèmes de mesure)

Les contenus théoriques du concept de chaleur correspondent exactement à la mise en œuvre de ce dispositif. Les raisonnements du Mémoire s'appuient sur l'hypothèse selon laquelle, à travers toutes ses manifestations, changements d'état des corps, changements de température, combustion, dégagement de lumière, respiration, etc., c'est bien toujours d'une seule et même réalité qu'il s'agit, de la chaleur. Comment cette réalité doit-elle être interprétée ?

Une première conception consiste à voir dans ce concept commun de la chaleur, présente dans ses diverses manifestations, une substance permanente. C'est ce que défendent les tenants du fluide calorique. C'est la vision chosiste de la réalité qui nous est si familière qu'elle semble naturelle. Un objet doit être une chose. La chaleur, objet de l'étude, doit être une sorte de chose, à laquelle on conférera certains attributs compatibles avec les faits. Les auteurs ne s'attachent pas à cette interprétation. D'abord, parce qu'elle rend difficilement compte des faits : dans certains cas, le dégagement de chaleur s'accompagne d'une augmentation de la masse, ce qui conduirait à supposer pour ce fluide calorique une masse négative, hypothèse peu vraisemblable. Ensuite, cette hypothèse, pour conforme qu'elle soit à nos habitudes mentales, n'en est pas moins une hypothèse, que les auteurs ne veulent pas multiplier. Le rejet de cette conception repose donc sur deux exigences philosophiques : 1/ le respect d'une certaine vraisemblance ; 2/ l'économie des hypothèses.

Est-ce à dire que la chaleur ne serait qu'une convention pour réunir sous un même chapiteau un ensemble d'expériences ? La validation de cette convention unificatrice résiderait dans son succès a posteriori : la possibilité ainsi offerte d'envisager dans une même et seule conception globale une série de phénomènes distincts justifie cette convention. Le probabilisme irait un peu plus loin encore : la convergence d'un aussi vaste ensemble de phénomènes variés ne peut être le fait du hasard. Bridgman trouve le signe de la réalité dans cette convergence des probabilités. La pluralité des méthodes permettant de parvenir à un même résultat est le signe de moins en moins niable de la réalité de ce point où convergent les méthodes différentes.

Le travail relaté par le Mémoire va à la fois plus et moins loin que les interprétations probabilistes.

Plus loin, parce que l'unité de la chaleur n'est pas supposée ni conventionnelle, elle est réalisée. Réalisée par le fait que c'est le même dispositif de mesure qui permet, lors de manifestations différentes, de l'évaluer de façon précise et commensurable. L'unité de la chaleur est un fait structurant de la situation créée par la fabrication de l'appareil décrit par Lavoisier et Laplace. Ce fait délimite ce qui est possible, et cette définition matérielle du possible par la réalisation de l'appareil est commune aux diverses expériences. Cette communauté des possibilités de mesure de la chaleur est, elle aussi, un fait. Les différents résultats des expériences sont des faits et leur simultanéité logique est aussi un fait, car ils sont rendus possibles par le même fait, créé par les auteurs. C'est un fait que la chaleur peut être mesurée de telle façon et que la chaleur dégagée dans les combinaisons chimiques n'est pas proportionnelle aux chaleurs spécifiques des corps combinés et que le dégagement de chaleur dans les combustions et dans la respiration est corrélé à la formation d'air fixe (de gaz carbonique). Chacun de ces éléments est un fait et leur conjonction aussi est un fait. Il autorise la représentation de la chaleur selon le modèle d'un fluide, et aussi selon le modèle d'un mouvement des particules composant les corps. Il permet même peut-être d'avoir une préférence pour cette dernière représentation, mais il est lui-même étranger à cette représentation.

Le Mémoire va aussi, dans un certain sens, moins loin que les interprétations conventionnalistes et probabilistes. En effet, il ne situe pas les affirmations théoriques sur le plan des représentations conceptuelles possibles de la chaleur. Il ne présente pas un modèle nouveau de chaleur, qui serait plus ou moins probable. Plus modestement, les auteurs réduisent l'ambition de leur propos à la présentation d'une nouvelle méthode de mesure de celle-ci. Au point même que dans le début de la lecture, on peut être tenté de n'y voir qu'une sorte d'astuce technique destinée à faciliter le travail des chercheurs. La portée du travail est plus profonde, car elle change complètement la façon de poser les problèmes liés à la chaleur en montrant le rôle joué par l'air pur et l'air déphlogistiqué. Ce qui est changé dans la théorie de la chaleur, ce n'est pas la représentation, mais le concept du référent de cette représentation. Nous n'avons pas de nouvelles réponses à d'anciennes questions, mais une nouvelle façon de poser la question. Et cette nouvelle position de la question est délimitée, dessinée pour ainsi dire, par le factum des opérations du travail décrit par le Mémoire.

Le fait constitué ici présente les trois caractéristiques suivantes :

1. il est créé par les auteurs selon un plan préconçu par eux et réalisé par des opérations matérielles elles aussi préconçues et enchaînées les unes aux autres

2. il s'impose et délimite ce qui est possible ; il ne se comporte ni comme une convention ni comme une hypothèse que l'on peut modifier à sa guise

3. il est décrit, signifié, par un discours, le Mémoire lui-même ; il est représenté, mais n'est pas lui-même une représentation.

Ainsi, le nouveau concept de chaleur est distinct (de celui de température), unique (pour toutes les manifestations de la chaleur), quantifiable, et indépendant des hypothèses sur la nature de la chaleur et les mécanismes sous-jacents des divers phénomènes concernés.

Tout le raisonnement du traité sur la chaleur est fondé sur la notion de "système de corps". Ce raisonnement s'effondrerait si l'on pouvait imaginer que la chaleur se dissipe dans l'environnement extérieure ou au contraire que celui-ci en fournit aux différents corps sur lesquels portent les expériences. L'appareil imaginé par Lavoisier et Laplace et construit sur leurs instructions réalise comme produit d'une opération le système de corps, comme ensemble de corps isolé du reste de l'univers. En fait, cet appareil intervient comme la réalisation d'une condition de la transposition des raisonnements algébriques aux grandeurs physiques mesurées. En effet, si l'on pouvait supposer que de la chaleur dégagée par les corps soumis aux expériences se dégage dans l'environnement, ou au contraire, que celui en apporte à ces corps, les équations qui posent comme nulle la différence entre la somme des chaleurs ne seraient pas valables. Lavoisier et Laplace modifient donc les conditions de l'expérience pour que la transposition des traitements algébriques qu'ils veulent utiliser soit valide.

Revenir sur ce point permet de mieux embrasser la notion de modèle et de mieux appréhender les conditions de validité d'une "vérité" par rapport au fait. Le texte du mémoire est cité et référencé ci-dessus en 1.3.3.3.

La constitution d'un système de corps non dépendant d'influences ou d'échanges thermiques avec l'environnement est le point crucial de toute la série d'expériences rapportées dans le mémoire et des raisonnements qui sont fondés sur ces expériences. C'est en effet la condition pour pouvoir imputer les effets mesurés aux processus produits à l'intérieur du système, en écartant les éventuelles autres causes.

La constitution de ce système repose à son tour sur l'hypothèse faite que toute la chaleur produite s'épuise dans la fonte d'une première couche de glace avant qu'un second quantum ("degré", disent les auteurs, mais nous évitons ce terme à cause de son emploi dans la mesure des températures) de chaleur vienne faire fondre une seconde couche, et ainsi de suite. Cette hypothèse est présentée comme vraie sur la base d'observations de ce qui se passe naturellement.

Il y a donc trois modèles ou analogies qui sont supposées vraies :

1. Un modèle de ce qui se passe dans la nature lorsqu'une quantité de chaleur fait fondre successivement les différentes couches d'un bloc de glace, et non tout le bloc en profondeur, comme on pourrait, après tout, l'imaginer suivant un autre modèle. " Si l'on transporte une masse de glace, refroidie à un degré quelconque, dans une atmosphère dont la température soit au-dessus du zéro du thermomètre, toutes les parties éprouveront l'action de la chaleur de l'atmosphère, jusqu'à ce que leur température soit parvenue à zéro. Dans ce dernier état, la chaleur de l'atmosphère s'arrêtera à la surface de la glace, sans pouvoir pénétrer dans l'intérieur ; elle sera uniquement employée à fondre une première couche de glace, qui l'absorbera en se résorbant en eau ; un thermomètre placé dans cette couche se maintiendra au même degré, et le seul effet sensible de la chaleur sera le changement de glace en fluide. Lorsque ensuite la glace viendra à recevoir un nouveau degré de chaleur, une nouvelle couche se fondra et absorbera ainsi toute la chaleur qui lui sera communiquée ; en vertu de cette fonte continuelle de la glace, tous les points intérieurs de sa masse se présenteront successivement à la surface, et ce n'est que dans cette position qu'ils commenceront à éprouver de nouveau l'action de la chaleur des corps environnants. " (p.19)

2. Le plan de construction de l'appareil conçu sur le modèle du modèle ci-dessus. " Que l'on imagine présentement, dans une atmosphère dont la température soit au-dessus de zéro, une sphère de glace creuse, à la température de zéro degré, et dans l'intérieur de laquelle on place un corps échauffé à un degré quelconque ; il suit de ce que nous venons de dire que la chaleur extérieure ne pénétrera point dans la cavité de la sphère, et que la chaleur du corps ne se perdra point au dehors, et s'arrêtera à la surface intérieure de la cavité, dont elle fondra continuellement de nouvelles couches, jusqu'à ce que la température de ce corps soit parvenue à zéro ; on n'a point à craindre que la fonte de la glace intérieure soit due à d'autres causes qu'à la chaleur perdue par le corps, puisque cette glace est garantie de l'impression de toute autre chaleur par l'épaisseur de la glace qui la sépare de l'atmosphère et, par la même raison, on doit être assuré que toute la chaleur du corps, en se dissipant, est arrêtée par la glace intérieure, et employée uniquement à la fondre de là il résulte que, si l'on recueille avec soin l'eau renfermée dans la cavité de la sphère, lorsque la température du corps sera parvenue à zéro, son poids sera exactement proportionnel à la chaleur que ce corps aura perdue en passant de sa température primitive à celle de la glace fondante ; car il est clair qu'une double quantité de chaleur doit faire fondre deux fois plus de glace, en sorte que la quantité de glace fondue est une mesure très précise de la chaleur employée à produire cet effet. " (p. 20)

3. Un modèle de représentation de l'appareil tel qu'il est finalement réalisé. "Nous n'avons considéré une sphère de glace que pour mieux faire entendre la méthode dont nous avons fait usage. Il serait très difficile de se procurer de semblables sphères, mais nous y avons suppléé au moyen de la machine suivante. La figure 1 de la planche 1ère représente cette machine vue en perspective, la figure 3 représente sa coupe horizontale; la coupe verticale, représentée dans la planche II, fig. 1, découvre son intérieur. Sa capacité est divisée en trois parties; pour mieux nous faire entendre, nous les distinguerons par les noms de capacité intérieure, capacité moyenne et capacité extérieure. La capacité intérieure f f f f (fig. 1 et 3, planche II) est formée d'un grillage de fils de fer soutenu par quelques montants du même métal; c'est dans cette capacité que l'on place les corps soumis à l'expérience; sa parie supérieure se ferme au moyen d'un couvercle représenté séparément (planche II, fig. 2) ; il est entièrement ouvert par-dessus, et le dessous est formé d'un grillage de fil de fer. La capacité moyenne b b b b (fig.1, planche II) est destinée à contenir la glace, qui doit environner la capacité intérieure, et que doit fondre la chaleur du corps mis en expérience : cette glace est supportée et retenue par une grille m m, sous laquelle est un tamis n n ; l'un et l'autre sont représentés séparément (planche II, fig. 4 et 5). A mesure que la glace est fondue par la chaleur du corps placé dans la capacité intérieure, l'eau coule à travers la grille et le tamis ; elle tombe ensuite le long du cône c c d (planche II, fig. 1) et du tuyau x y , et se rassemble dans le vase P placé au-dessous de la machine ; k est un robinet au moyen duquel on peut arrêter à volonté l'écoulement de l'eau intérieure. Enfin, la capacité a a a a a est destinée à recevoir la glace qui doit arrêter l'effet de la chaleur de l'air extérieur et des corps environnants ; l'eau que produit la fonte de cette glace coule le long du tuyau S T , que l'on peut ouvrir ou fermer au moyen du robinet r. Toute la machine est recouverte par le couvercle F G (planche I, fig. 2), entièrement ouvert ans sa partie supérieure et fermé dans sa partie inférieure ; elle est composée de fer blanc peint à l'huile pour le garantir de la rouille. Pour la mettre en expérience, on remplit de glace pilée la capacité moyenne et le couvercle F G de toute la machine. On laisse ensuite égoutter la glace intérieure (nous nommons ainsi celle qui est renfermée dans la capacité moyenne et dans le couvercle intérieur, et qu'il faut avoir soin de bien piler et de presser fortement dans la machine) ; lorsqu'elle est suffisamment égouttée, on ouvre la machine pour y placer le corps que l'on veut mettre en expérience, et on la referme sur-le-champ. On attend que le corps soit entièrement refroidi et que la machine soit suffisamment égouttée ; ensuite on pèse l'eau rassemblée dans le vase P. Son poids mesure exactement la chaleur dégagée par le corps ; car il est visible que ce corps est dans la même position qu'au centre de la sphère dont nous venons de parler, puisque toute sa chaleur est arrêtée par la glace intérieure, et que cette glace est garantie de l'impression de toute autre chaleur par la glace renfermée dans le couvercle et dans la capacité extérieure. (...) La figure 4 de la planche 1ère représente un seau de tôle destiné à recevoir les corps sur lesquels on veut opérer ; il est garni d'un couvercle ab, percé dans son milieu et fermé avec un bouchon de liège c traversé par le tube d'un petit thermomètre. La figure 5 de la planche 1ère représente un matras de verre dont le bouchon est traversé par le tube cd du petit thermomètre rs ; il faut se servir de semblable matras toutes les fois que l'on opère sur les acides, et , en général, sur les substances qui peuvent avoir quelque action sut les métaux. T (fig. 6, planche I) est un petit cylindre creux que l'on place au fond de la capacité intérieure pour soutenir les matras. Il est essentiel que, dans cette machine, il n'y ait aucune communication entre la capacité moyenne et la capacité extérieure, ce que l'on éprouvera facilement en remplissant d'eau la capacité extérieure. S'il existait une communication entre ces capacités, la glace fondue dans l'atmosphère, pourrait passer dans la capacité moyenne, et alors l'eau qui s'écoule de cette dernière ne serait plus la mesure de la chaleur perdue par le corps mis en expérience. Lorsque la température de l'atmosphère est au-dessus de zéro, sa chaleur ne peut parvenir que très difficilement jusque dans la capacité moyenne, puisqu'elle est arrêtée par la glace du couvercle et de la capacité extérieure ; mais, si la température extérieure était au-dessous de zéro, l'atmosphère pourrait refroidir la glace intérieure ; il est donc essentiel d'opérer dans une atmosphère dont la température ne soit pas au-dessous de zéro : ainsi, dans un temps de gelée, il faudra renfermer la machine dans un appartement dont on aura soin d'échauffer l'intérieur ; il est encore nécessaire que la glace dont on fait usage ne soit pas au-dessous de zéro ; si elle était dans ce cas, il faudrait la piler, l'étendre par couches fort minces, et la tenir ainsi, pendant quelque temps, dans un lieu dont la température soit au-dessus de zéro. La glace intérieure retient toujours une petite quantité d'eau qui adhère à sa surface, et l'on pourrait croire que cette eau doit entrer dans le résultat de nos expériences ; mais il faut observer qu'au commencement de chaque expérience la glace est déjà imbibée de toute la quantité d'eau qu'elle peut ainsi retenir ; en sorte que, si une petite partie de la glace fondue par le corps reste adhérente à la glace intérieure, la même quantité, à très-peu près, d'eau primitivement adhérente à la surface de la glace doit s'en détacher et couler dans le vase P, car la surface de la glace intérieure change extrêmement peu ans l'expérience. Quelques précautions que nous ayons prises, il nous a été impossible d'empêcher l'air extérieur de pénétrer dans la capacité intérieure ; lorsque la température est de 9 à 10 degrés, l'air renfermé dans cette capacité est spécifiquement plus pesant que l'air extérieur ; il s'écoule par le tuyau x y, et il est remplacé par l'air extérieur qui entre par la partie supérieure de la machine, et qui dépose une partie de sa chaleur sur la glace intérieure ; il s'établit donc ainsi, dans la machine, un courant d'air d'autant plus rapide que la température extérieure est plus considérable, ce qui fond continuellement la glace intérieure ; on peut arrêter, en grande partie, l'effet de ce courant en fermant le robinet k ; mais il vaut beaucoup mieux n'opérer que lorsque la température extérieure ne surpasse pas 3 ou 4 degrés ; car nous avons observé qu'alors la fonte de la glace intérieure, occasionnée par l'atmosphère, est insensible, en sorte que nous pouvons, à cette température, répondre de l'exactitude de nos expériences sur les chaleurs spécifiques des corps, à un quarantième près, et même à un soixantième près, si la température extérieure n'est que d'un ou deux degrés. Nous avons fait construire deux machines pareilles à celle que nous venons de décrire ; l'une d'elles est destinée aux expériences dans lesquelles il n'est pas nécessaire de renouveler l'air intérieur ; l'autre machine sert aux expériences dans lesquelles le renouvellement de l'air est indispensable, telles que celles de la combustion et de la respiration ; cette seconde machine ne diffère de la première qu'en ce que les deux couvercles sont percés de deux trous, à travers lesquels passent deux petits tuyaux qui servent de communication entre l'air intérieur et l'air extérieur ; on peut, par leur moyen, souffler de l'air atmosphérique sur les corps combustibles ; ces tuyaux sont représentés dans la figure 2 de la planche Ière ." (pp. 25 à 30)

Le modèle 1 est supposé adéquat à la réalité de la nature.

Le modèle 2 est supposé adéquat au modèle 1.

Le modèle 3 est supposé adéquat au modèle 2 et à la réalité de l'appareil.

Qu'est-ce qui fonde ces trois suppositions ?

La première supposition est fondée sur la non-observation de conséquences factuelles supposées nécessaires de l'hypothèse contraire : en enfonçant un thermomètre dans le bloc de glace, on constate que la température ne s'y est pas élevée, ce qui aurait censé être le cas si la chaleur se diffusait rapidement sans être absorbée, "arrêtée" par la fonte de la première couche de glace.

La supposition 2 porte sur l'adéquation de deux objets mentaux et implique l'adéquation des idées entre elles et des mots aux idées.

La supposition 3 est double : adéquation de ce que l'on perçoit ou de ce que l'on décrit à la réalité matérielle de l'appareil et adéquation de cette représentation supposée adéquate au modèle 2 (le plan de conception de l'appareil). Les deux sens du mot "modèle", qui gène les traducteurs de Wittgenstein, sont ici simultanément présents.

 Enfin, l'ensemble de ces trois suppositions fonde la supposition cruciale de la validité des expériences du Mémoire, à savoir que les objets d'expérience constituent bien un système de corps isolés thermiquement, et, donc, que les équations arithmétiques sur la production, le transfert, et l'action de la chaleur sont effectivement applicables. Le statut épistémologique de ces suppositions est donc fondamental.

Par "statut épistémologique", il ne s'agit pas d'entendre les causes de la croyance, mais les raisons de la croyance, que celle-ci soit effective ou non. Les thèses présentées souvent comme "pragmatistes" ou "positivistes", et qui fondent la vérité des propositions scientifiques sur la cohérence linguistique ou sur la cohésion sociale (le "consensus de la communauté scientifique") sont évidemment ici inadéquates. Ce n'est assurément ni l'une ni l'autre qui empêchent les échanges thermiques entre les corps expérimentés et l'environnement. Or, c'est bien de cela qu'il s'agit, de ce fait, et non seulement de l'acceptation d'une hypothèse théorique. On peut, en effet, concevoir que le public apprécie le texte de Lavoisier et Laplace sur la base d'une conviction emportée par la vraisemblance verbale et un accord commun sur celle-ci, mais ce n'est pas cela qui rendrait valide le raisonnement utilisé dans le Mémoire.

En fait, cette validité est bien fondée sur la réalisation effective du dispositif, conforme au plan, et mettant en œuvre des mécanismes éprouvés et imaginés à la fois.

Le mécanisme "éprouvé" est celui utilisé comme matière première ou instrument dans la construction de l'appareil : l'expérience "naturelle" du modèle 1, d'une part, et la fabrication et la peinture de l'appareil pour empêcher l'action de la rouille, d'autre part. L'imaginé est celui des sphères de glace qui assurent, par la fonte successive de leurs couches (selon ce qui a été "éprouvé" dans le modèle 1), l'isolation thermique du dispositif. On pourrait donc en conclure que la question du statut épistémologique de nos suppositions est renvoyée devant des critères de véracité des perceptions sensorielle et de l'imagination. En réalité, la question n'est pas là, car cette question concerne notre conscience du dispositif, mais non la question de la validité de l'utilisation des raisonnements arithmétiques qui est : y a-t-il ou non quelque raison de craindre que la fonte de la glace intérieure soit due à d'autres causes qu'à la chaleur perdue par le corps, ou qu'elle ne soit pas garantie de l'impression de toute autre chaleur par l'épaisseur de la glace qui la sépare de l'atmosphère et est-on assuré que toute la chaleur du corps, en se dissipant, est arrêtée par la glace intérieure, et employée uniquement à la fondre ? La réponse à cette question se trouve entièrement et uniquement dans le travail de conception et de réalisation du dispositif. Le contenu de vérité de tous les raisonnements sur le concept de chaleur du Mémoire sera donc conditionné par ce travail. Encore une fois : par ce travail lui-même, non par la connaissance ou l'opinion que nous en avons.

 

Einstein court après un train

Une construction théorique 

Au moment où Einstein conçoit la Relativité restreinte, la physique comprend deux branches, chacune régie par un ensemble de principes très peu nombreux, la mécanique et l'électrodynamique. Il ne sera ici question que de la relativité exposée dans le mémoire de 1905.

La mécanique s'était initialement constituée par l'application des procédures et des connaissances de la géométrie à la cinématique et à la dynamique. Ainsi constituée, elle avait d'abord "annexé" l'acoustique en appliquant aux phénomènes sonores ses propres principes, puis la thermique en expliquant la chaleur des corps par les mouvements (mécaniques) des molécules, et, dans la foulée une partie de la chimie. Cette série d'analogies productives avait fini par ranger un grand nombre de phénomènes dans les conséquences d'un petit nombre de lois, formulées par Galilée et Newton.

L'électrodynamique s'est constituée plus tard et d'un mouvement inverse: les branches secondaires, l'étude des aimants, des rayonnements thermiques et de l'optique s'étaient considérablement développées de façon pratiquement indépendante chacune, avant d'être unifiée par l'application, simple et répétée, des principes formulés par Maxwell à ces domaines divers.

La Relativité a unifié ces deux grandes branches, mécanique et électrodynamique, en une seule science physique, où un nombre encore plus petit de principes faisaient (et font) office de lois de la nature. La relativité apparaît ainsi comme une conception extrêmement abstraite et, lors de ses débuts, ses adversaires y voyaient même une sorte de jeu intellectuel séduisant mais inutile et sans grand rapport avec "le réel" (cf. François Croze, par exemple). Einstein lui-même a dit que plus une science est vraie, moins elle est réelle.

A la différence des exemples de Galilée, Redi ou Lavoisier, Einstein ne présente aucun fait nouveau ni aucun dispositif expérimental original pour étayer ses découvertes. Son travail est "simplement" un travail de remise en ordre conceptuelle. Il cherche "seulement" à "construire à l'aide de ces deux suppositions une Electrodynamique des corps en mouvement simple et exempte de contradictions"(p.3). Son travail est la construction d'une théorie. Pour autant le point de départ en est une série de faits expérimentaux qu'il rappelle dans l'introduction. Ces faits sont subsumés par les théories de Maxwell. Les physiciens contemporains avaient élaboré des hypothèses ad hoc pour rendre compatible ces faits (et notamment la fameuse expérience de Michelson) avec la loi de composition des vitesses de Galilée et de Newton, admise comme une loi de la Nature. Le programme que se fixe Einstein est de rendre compte de l'ensemble de ces faits et des théories qui leur sont associées par un édifice théorique simple qui les embrasse en même temps que la mécanique. Il annonce qu'il prendra comme prémisses 1/ le "principe de relativité", "conjecture" selon laquelle "aucune propriété des phénomènes ne correspond à la notion de mouvement absolu", "conjecture" qu'il souhaite "élever au rang d'une hypothèse"; et 2/ "la supposition que la lumière se propage toujours dans le vide avec une certaine vitesse c indépendante de l'état de mouvement de la source lumineuse". Ayant fixé son objectif et le plan de son ouvrage, il mentionne les instruments qu'il compte utiliser, "la cinématique du corps rigide", "car les énoncés de toute théorie visent aux rapports entre des corps rigides (systèmes de coordonnées), des horloges et des processus électromagnétiques. L'oubli de cette circonstance est à l'origine des difficultés avec lesquelles l'Electrodynamique des corps en mouvement a actuellement à lutter."

La réalisation de son travail est conforme à ce plan. Pour réparer l'"oubli" mentionné ci-dessus, il commence par analyser ce que l'on entend par simultanéité de deux événements, puisque le constat d'une telle simultanéité est à la base de toute mesure de temps et de longueur, mesures qui seront ensuite utilisées dans toutes les expériences dont il s'agit de rendre compte. Ensuite (pp. 8 à 11), il montre que "deux événements, qui vus d'un système de coordonnées, sont simultanés, ne le sont plus, quand on les observe d'un système en mouvement par rapport au premier": la simultanéité est relative. Dans le troisième paragraphe, il expose une "théorie de la transformation des coordonnées et du temps lorsqu'on passe d'un système au repos à un système animé d'une translation uniforme par rapport au premier"(p. 12). Cette transformation, formulée par Lorentz, semblait jusqu'alors incompatible avec la loi galiléenne de composition des vitesses, à moins d'imaginer des hypothèses ad hoc de contraction de la matière. Elle était pourtant nécessaire pour décrire les phénomènes électromagnétiques observés. Einstein montre qu'elle peut être déduite de sa définition de la simultanéité et du principe de la relativité de celle-ci. En quatrième lieu, Einstein explicite "la signification physique des équations concernant des corps rigides et des horloges en mouvement" (p.20). La théorie rend compte des apparentes "contraction des espaces" et "dilatation des temps" observées dans les expériences et qui avaient donné naissance aux hypothèses ad hoc dont Einstein veut faire l'économie. Le cinquième paragraphe (p.24) comporte la démonstration d'un "théorème de l'addition des vitesses" qui se substitue à celui de Galilée, tout en l'englobant comme particulier lorsque les vitesses relatives des systèmes de coordonnées sont faibles par rapport à celle de la lumière. Einstein passe alors à la seconde partie de son programme : "Nous avons ainsi déduit les propositions fondamentales de la cinématique correspondant à nos deux principes. Nous allons maintenant montrer leur application à l'électrodynamique" (p. 26). Il a organisé en un ensemble hypothético-déductif les lois sur le mouvement. Dans cet ensemble, les principes de la relativité et de la constance de la vitesse de la lumière sont les seules hypothèses de départ, et il ne rencontre aucune contradiction ni avec la mécanique classique, ni avec les phénomènes observés à son époque, dont au contraire, il déduit les formules descriptives comme autant de théorèmes de cet ensemble. Ces lois vont être appliquées au cas particulier de l'électrodynamique dans la seconde partie du Mémoire, pour rendre compte de cinq catégories de phénomènes :

1. Les "forces électromotrices se manifestant par suite du mouvement dans un champ magnétique"

2. Les phénomènes d'aberration et l'effet Doppler

3. La "pression de rayonnement exercée sur des miroirs parfaits

4. La "transformation des équations de Maxwell-Hertz en tenant compte des courants de convection".

5. La "dynamique de l'électron lentement accéléré.

La Relativité et les images

La vulgarisation, faite par Einstein lui-même ou par d'autres savants, a souvent présenté un côté faussement concret de la relativité : la physique semble y traiter d'objets très concrets et même quotidiens (les trains, les voyageurs, les observateurs, les montres, etc.), auxquels il arrive, comme dans une fantasmagorie déconcertante d'étranges aventures. Les règles raccourcissent, les montres se dérèglent, les voyageurs vieillissent à des vitesses vertigineuses, les trains n'assurent jamais les correspondances, etc. Les récits de ce qui se passe pour ces éléments dans la logique de la Relativité (le voyageur de Langevin revient sur Terre un an après l'avoir quittée, mais celle-ci a vieilli de deux siècles) ont soulevé des controverses sur l'invraisemblance de la théorie. Il s'agit, en fait, de modèles pédagogiques. Il faut plutôt y voir une simple imagerie où les termes concrets seraient en quelque sorte les représentants des concepts physico-mathématiques : un train serait une image d'un système galiléen, une horloge remplacerait les interféromètres ou les quartz, le voyageur ou l'observateur tiendraient lieu de l'origine des systèmes de coordonnées. Les invraisemblances disparaissent dès que l'on prend conscience que ces images concrètes ne doivent pas être hypostasiées, mais qu'elles ne sont que des signes conventionnels qui servent de support au raisonnement physico-mathématique, tout comme le font les symboles habituels, x, y, t, c, etc. Ainsi, la transposition analogique effectuée dans ces exposés n'est pas, comme on pourrait le penser, une sorte d'extrapolation à partir d'expériences courantes, ou bien encore la représentation d'expériences de pensées non réalisées mais supposées réalisables. Ce qui est effectué, c'est une traduction des exposés théoriques initiaux dans laquelle les termes mathématiques et physiques sont remplacés par des termes du langage courant. Les relations entre les concepts que représentent ces termes n'ont rien à voir avec les relations qu'ont les objets qu'ils désignent dans la vie quotidienne (le voyageur de Langevin serait mort foudroyé par l'accélération, les trains lancés aux vitesses vertigineuses en cause auraient fondu ou déraillé, etc.). Les relations entre les véritables référents de ces termes sont celles-là même des concepts utilisés dans les mémoires initiaux. Ce fait illustre une nouvelle fois la nécessité, établie dans le chapitre 4, de distinguer rigoureusement l'énoncé et la proposition. Les énoncés de ces vulgarisations sont faux, alors que les propositions sont vraies. Il faut entendre par la première de ces affirmations, non pas que la vulgarisation est mal faite ou trompeuse, ou approximative, mais simplement que l'énoncé résulte d'une transposition analogique impossible. Il faut entendre par la seconde partie de la phrase que les propositions sont vraies autant que la théorie einsteinienne est vraie.

L'abstraction et les opérations

A l'inverse, la relativité a souvent été présentée sous un aspect faussement abstrait : son caractère de pure réorganisation théorique des concepts a conduit à réduire son apport à l'invention d'un continuum quadridimensionnel qui aurait remplacé l'espace et le temps. Il faut d'abord noter que ce continuum d'espace-teps n'a pas été créé par Einstein lui-même, mais par la mathématicien Minkowski. Celui-ci a développé une géométrie particulière correspondant aux caractères physiques des intervalles d'espace et de temps, comme la géométrie d'Euclide correspondait à peu près à l'espace et au temps galiléens. Cette formulation mathématique des résultats relativistes a présenté surtout l'intérêt de simplifier les calculs. Elle a aussi désubstantialisé l'espace et le temps. Einstein avait déjà rejeté la notion d'éther comme un support inutile d'un espace absolu qui ne "correspondait à aucune propriété des phénomènes". La conception de l'espace-temps montrait encore mieux que l'espace et le temps ne peuvent être conçus que comme les propriétés des relations entre événements, et non, comme la métaphysique traditionnelle les présentait, comme les substrats ou les contenants des choses. Ainsi, le modèle quadridimensionnel, emprunté à l'axiomatique mathématique, a-t-il servi par analogie de tableau représentatif des propriété relationnelles des événements physiques.

Einstein commence son travail par l'analyse des opérations de mesure. Le Mémoire commence en effet par une définition de la simultanéité, qui est à la base de toute opération de mesure de temps ou de longueur, puisque celles-ci supposent la coïncidence des extrémités du segment à mesurer et d'un index sur une échelle. La construction théorique du Mémoire n'est donc pas bâtie sur une simple supposition arbitraire, mais sur la conceptualisation d'une opération matérielle qui est la condition même des observations dont il s'agit de rendre compte.

La constance de la vitesse de la lumière, qui constitue le deuxième principe sur lequel repose l'édifice, a longtemps été mise en question. Les expériences ont faites et refaites, critiquées. Il est vrai que s'il était démontré que la vitesse de la lumière variait en fonction des déplacements de la source lumineuse, la théorie s'effondrait, puisque l'un de ces principes était faux. En fait, Einstein ne revendique pas la constance de la vitesse de la lumière comme un fait d'expérience, mais comme une "supposition" (p. 3). Cela a peut-être été déterminant dans la vision conventionnaliste de la théorie de la relativité par Poincaré. Quoi qu'il en soit, il suffisait à Einstein que cette constance ne fût pas fausse. Pour autant, ce n'est pas non plus une vision probabiliste qu'il en avait. Cette "supposition" (puisqu'il ne s'agissait pas d'un fait avéré) n'avait pas seulement pour fonction de rendre cohérent l'édifice de la physique. En effet, cette constance "supposée" de la vitesse de la lumière était aussi une condition de l'expérience de Michelson, dont l'objectif était de montrer la réalité d'un espace absolu et du mouvement de la Terre dans cet espace. Or, c'est précisément cet espace dont Einstein niait l'existence dans son premier principe. Tenir pour principe la constance de la vitesse de la lumière était donc nécessaire pour ne pas tomber dans un cercle vicieux simpliste dans lequel tout aurait été relatif. Tout l'intérêt de la construction einsteinienne était de tenir simultanément les deux principes, dont le deuxième "n'est qu'en apparence incompatible" (p.3) avec le premier.

Ainsi, bien qu'elle ne fût qu'une construction théorique, la théorie de la Relativité s'ancrait fermement dans les pratiques expérimentales de son temps, a comporté une analyse fine des opérations qui en sont à la base, et a produit, en remplacement d'un modèle newtonien limité à la mécanique des vitesses lentes, un nouveau modèle capable de l'intégration des faits expérimentaux "paradoxaux", de la réinterprétation opératoire des modèles ad hoc inventés pour les expliquer, et d'une conception unitaire des phénomènes physiques. Mais ce nouveau modèle ne se substitue pas purement et simplement à l'ancien. L'ancien modèle échouait à expliquer les résultats négatifs de l'expérience de Michelson. Celle-ci cherchait à mettre en évidence le mouvement de la Terre par une différence de propagation de la lumière selon que la vitesse de celle-ci s'ajoutait ou se soustrayait à celle de celui-là. La réponse de la Nature semblait impliquer que la lumière se propageait toujours à la même vitesse. Einstein ne repose pas une énième fois la même question. Il ne propose pas non plus un nouveau modèle qui rendrait compte de la réponse. Il questionne la question elle-même et en analyse les conditions en se demandant ce que signifie la simultanéité et la transmission des signaux. Il interroge donc la réalité même - c'est-à-dire les conditions incontournables - de nos questions. Ainsi, le modèle d'espace qui se substitue à l'ancien en est-il différent non seulement par son contenu, son concept-réponse, mais aussi par son intention, son concept-question. L'espace n'est pas seulement "relatif" là où il était "absolu", en outre, il est une géométrie de la physique.

Vérité et réalité

La Relativité est-elle vraie ? Le nouveau modèle élaboré par Einstein n'est pas un nouveau modèle de l'espace ou du temps, ni, non plus des "corps" (électrons, photons ou autres) en mouvement. Il est un ensemble de formules permettant d'en calculer les propriétés les plus simples et les plus générales. Il ne représente ni l'espace-temps ni les corps qui sont censés s'y mouvoir, mais les règles auxquelles obéissent les événements observables autour de ces corps. Le conventionnalisme de Poincaré n'a tendance à voir dans la construction einsteinienne qu'une des solutions possibles au problème purement théorique qui consisterait à trouver un système d'axiomes desquels ces règles pourraient être déduites. Allant plus loin encore dans cette direction, on a parfois conclut de la Relativité à un relativisme philosophique, selon lequel les représentations se valaient toutes pourvu qu'elles ne fussent pas en contradiction avec certains traits de l'expérience. Une certaine ambiguïté sur la vulgarisation relativiste venait même surajouter à cette conception l'idée que la prétendue équivalence des mesures différentes des différents observateurs impliquait une semblable équivalence de toutes les affirmations de tous les sujets sur tous les objets. La brève étude qui précède montre que, en dehors d'une construction théorique commode qui fonctionne, la théorie de la Relativité est aussi une analyse fine des opérations expérimentales de son temps et de ce qu'elles impliquent conceptuellement quant aux caractéristiques réelles des objets auxquelles elles s'appliquent (relativité de la simultanéité, constance de c comme conditions indépassables de ces opérations expérimentales).

On voit alors que la véritable question épistémologique n'est pas : " la Relativité est-elle vraie ?", mais "Qu'est-ce que la Relativité a de vrai ?" De la même façon, la Relativité a permis de comprendre la vérité contenue dans la Mécanique newtonienne : certains des principes de celle-ci sont faux lorsqu'ils sont appliqués à certains domaines (les grandes vitesses). La Relativité les intègre en produisant des formules équivalentes pour les domaines où ils restent vrais. Elle permet de comprendre ce qu'ils avaient de faux et ce qu'ils avaient de vrai.

 

Heisenberg détermine l'indétermination

 

Quelques éléments du contexte : dualisme ondes/corpuscules, relativité, quanta, vitesse, temps et espace

Le dualisme ondes/corpuscules

Deux modèles de la lumière et des phénomènes électromagnétiques coexistent, non pas comme deux hypothèses contradictoires exclusives l'une de l'autre, mais comme deux modèles complémentaires expliquant chacun un ensemble d'aspects de la réalité. Les concevoir comme exclusif se pose lorsque l'on veut absolument une représentation moniste de la réalité.

Relativité

La relativité des mesures d'espace et de temps est acquise simultanément avec le postulat d'une constance, celle de la vitesse de propagation des ondes électromagnétiques, et une conséquence, l'invariance des intervalles d'espace-temps.

Les quanta

Les phénomènes physiques ne sont pas continûment distribués dans l'Univers, mais de façon discontinue. Les équations permettant de situer ces phénomènes font toutes intervenir une seule et même constante, dite de Planck, qui détermine les quanta de matière et d'énergie. Une façon de se représenter ces quanta est de les rapprocher soit du modèle corpusculaire, dans lequel ils sont assimilés à des sortes de billes, soit du modèle ondulatoire, dans lequel les quanta sont assimilés au ventre des ondes.

Vitesse, espace et temps

Les représentations traditionnelles de la vitesse sont liées à sa définition de rapport entre l'espace parcouru et le temps mis pour effectuer ce parcours. L'idée la plus courante sur la mesure de la vitesse consiste donc en fait, dans la mesure simultanée de deux intervalles d'espace et de temps, et suppose donc la mesure de la position précise du mobile à deux instants précis. En fait, les expérimentateurs mesurent fréquemment la vitesse directement et, notamment, en la comparant à la vitesse de la lumière, grâce aux interférences. Plus généralement, et en dehors même des phénomènes électromagnétiques, l'existence d'une vitesse angulaire rend possible la mesure de la vitesse à partir de n'importe quel phénomène circulaire périodique, comme, par exemple, l'effet stroboscopique, ou encore les tachymètres des autos.

La relation d'indétermination de Heisenberg

Cette relation pose qu'il est impossible de déterminer de façon simultanée la position spatio-temporelle et la vitesse d'une particule subatomique et que la détermination de ces deux mesures est complémentaire. Cette impossibilité est expérimentale et non théorique. Elle est paradoxale si l'on se réfère à la mesure de la vitesse par celle des positions successives du mobile. Elle ne l'est pas si on se souvient que la mesure de la vitesse est indépendante de la mesure des positions du mobile. La relation d'Heisenberg n'est pas une simple énonciation e cette impossibilité expérimentale, elle en donne une formulation mathématique déterminée, par laquelle la précision de la mesure de la vitesse est inversement corrélée à celle de la mesure de la position et réciproquement. L'indétermination de l'une des mesures est complémentaire - au sens mathématique du terme - de celle de l'autre mesure.

On emploie plus souvent le terme d'incertitude que celui utilisé ici d'"indétermination". C'est pourtant le terme employé par Heisenberg lui-même dans son livre "La nature dans la physique contemporaine". (p. 47, par exemple). Deux autres raisons rendent ce terme préférable à celui d'incertitude.

La première raison est positive et se réfère au sens probabiliste de la relation de Heisenberg, qu'il oppose au déterminisme mécaniste. Dans la théorie de la probabilité, la certitude est la probabilité maximale de 1/1, mais son complément n'est pas l'incertitude, mais la probabilité. Ce que la relation de Heisenberg exprime et quantifie, c'est la possibilité de déterminer simultanément la position et la vitesse d'un élément. Elle relie l'indétermination propre à chacune de ces deux mesures.

La seconde raison est négative et se réfère au sens courant et psychologique du terme d'"incertitude". Traduite en termes logiques, il s'agirait plutôt d'"indécidabilité". Or la théorie de Heisenberg n'établit nullement le caractère indécidable d'une proposition quelconque, mais plutôt l'imprécision nécessaire et quantifiée de certaines mesures.

Le terrain expérimental de Heinsenberg est essentiellement lié à la spectroscopie, c'est-à-dire, l'analyse des radiations électromagnétiques, utilisant une source émettant en général un rayonnement monochromatique, un dispositif de séparation des radiations (prismes, etc.), des dispositifs de réception et détection qui transforment le rayonnement en phénomènes électriques, thermiques, mécaniques facilement mesurables. L'objet est donc étudié indirectement par ses effets.

Ceux-ci relevaient de la théorie des quanta formulée notamment par Sommerfeld. Pour relier celle-ci à la mécanique classique - newtonienne -, Bohr avait élaboré une théorie de correspondance, montrant que la théorie quantique s'approchait de la théorie classique lorsque les nombres de quanta mis en jeu deviennent très grands. Certains résultats expérimentaux semblaient "anormaux" par rapport à cet échafaudage théorique. L'invention de Heisenberg par rapport à cette situation fut de faire appel à des méthodes de calcul préexistant dans le domaine mathématique (matrices de Cayley) pour calculer, à partir de la théorie quantique et du principe d'indétermination, les probabilités des événements produits en laboratoire. Les fonctions exprimant ces probabilités étant de forme périodique, on a parlé d'ondes de probabilité.

Interprétations

Les théories de Heisenberg - et lui-même est en partie à l'origine de ce fait - ont presque autant fait l'objet d'interprétations "philosophiques" que de discussions physiques. Elles bousculent en effet le modèle chosiste de la réalité. Si les éléments de matière et d'énergie devaient, en effet, être considérés comme des sortes de petites billes projetées dans le vide, les modèles mécanistes élaborés par Laplace, et les modèles enfantins des jeux de billes seraient les lois de la Nature mises en pièce, non seulement par Heisenberg, mais déjà par Einstein, celui-là n'ayant donné que le coup de grâce après que celui-ci a sapé les fondements. Mais il ne suit pas, évidemment, du fait que les lois que nous attribuons à la Nature sont fausses que celle-ci n'existe pas ou qu'elle n'ait pas de lois du tout.

Le modèle proposé par Heinsenberg est probabiliste. On ne sait où se trouve la matière et l'énergie. On sait seulement décrire des fonctions d'ondes dont les ventres sont les intervalles de la plus forte probabilité d'interactions. Dans ce modèle, l'indétermination et la fluctuation ont remplacé la détermination rigoureuse et précise et la permanence dans l'espace et le temps. Depuis Parménide, un grand nombre de penseurs rechignent à penser le fluctuant et l'inconstant. Platon transfère dans le domaine de la réalité l'argument socratique de la cohérence de la pensée pour faire de la permanence un critère de réalité. Ce faisant, Platon a créé le prototype d'une attitude métaphysique très souvent reprise par la suite, mais manifestement erronée. Le premier pas en effet de la philosophie critique doit être d'admettre que ce qui semble vrai de la pensée ne l'est pas forcément de la réalité.

On a beaucoup insisté sur le caractère mathématique et "abstrait" du modèle de Heisenberg. Les ondes et même les corpuscules semblent se fondre dans des fonctions mathématiques complexes que l'on ne peut pas "se représenter". La réalité deviendrait stochastique, alors qu'elle semblait constante. C'est oublier que la constance est aussi un concept mathématique abstrait. Il est seulement plus ancien et plus familier. La physique quantique n'est donc pas "plus mathématique" ou "moins réaliste" que la physique classique. Elle fait simplement appel à des notions mathématiques plus complexes et moins quotidiennes.

La dualité onde-corpuscule instaurée par la physique quantique a été interprétée comme impliquant que la réalité n'était que conventionnelle, puisqu'elle pouvait aussi bien être conçue sur un modèle que sur l'autre. Il faut d'abord remarquer que les deux modèles sont complémentaires et que le domaine de validité de l'un est le complément du domaine de validité de l'autre. Il n'y a pas de libre choix arbitraire entre deux interprétations à la discrétion du sujet. Ensuite, et surtout, l'équivalence de deux théories ne signifie nullement qu'aucune n'est vraie, puisque, précisément, elle signifie qu'elles le sont toutes les deux. Mais c'est cette dualité même qui est difficile à comprendre et à admettre. Cette difficulté repose sur l'idée - fausse, comme cela a été montré dans le chapitre 7 - qu'un modèle doit nécessairement, pour être vrai, être universellement et totalement vrai. Or, la vérité d'un modèle n'est, par définition, que partielle, la difficulté consistant à délimiter cette part de vérité. Le désir du tout ou rien, et l'illusion que ce désir correspond à la situation réelle, est la source de bien des erreurs et confusions, dans lesquelles, un peu comme Don Quichotte, le mauvais philosophes part à la conquête du vaste Univers à l'aide d'une petite vérité locale, mais souvent sans voir les pépites sous les pattes de son cheval.

Heisenberg invite aussi à substituer au modèle de la relation homme-nature, dans lequel celui-là serait une sorte de spectateur extérieur à celle-ci, un autre modèle dans lequel l'homme est un élément de la nature en interaction avec d'autres éléments. A partir de là, par diverses extrapolations, on a tiré de "la physique contemporaine" diverses formes de subjectivisme, notamment kantiennes et conventionnalistes, dans lesquelles la réalité serait une création plus ou moins autoritaire du sujet ou bien un miroir des propriétés de celui-ci. Heisenberg écrit que "l'homme ne rencontre plus que lui-même" (La nature dans la physique contemporaine, p. 28). Mais que l'homme soit en interaction avec d'autres éléments de la nature n'implique pas que la nature soit une sorte de produit de nos activités, mais seulement que les perceptions que nous en avons sont déterminées (oui …) par ces activités. Dire que la "nature en soi" ne nous est pas donnée est une simple tautologie. L'exemple même de Heisenberg montre que le chercheur n'est pas seul en face d'un miroir. C'est précisément en réaction à des réponses négatives ou limitatives de la nature qu'il a été conduit à produire le nouveau modèle probabiliste opposé à l'ancien modèle substantialiste.

 

 

Conclusions

1. Sextus Empiricus avait raison : nous ne percevons les objets qu'indirectement, nous ne percevons pas les causes, mais leurs effets.

2. L'homme n'est pas seul dans l'Univers ; les réponses à ses questions proviennent d'une altérité radicale dont la réalité est aussi certaine que la sienne propre

3. Les progrès de la pensée, qu'ils soient "normaux" ou "révolutionnaires", comportent à titre d'hypothèse la transposition d'un modèle, ou d'un élément de modèle à un domaine qui n'est pas celui dans lequel ce modèle a pris sa validité

4. Certaines de ces extrapolations ou transpositions sont productives (et prédictives …), d'autres sont infirmées, d'autres sont abusives. Ces dernières sont repérables en ce qu'elles méconnaissent les caractéristiques opérationnelles du modèle dans son domaine d'origine.

5. Les travaux de laboratoire sont le domaine d'origine des connaissances scientifiques.

6. Une proposition est une réponse à une question

7. Chaque concept est double : l'un correspond à l'objet à propos duquel la question se pose, l'autre à la réponse fournie à cette question. Cette dualité n'est pas sans rappeler la dualité extension/compréhension de la scolastique, à ceci près que l'extension - la désignation de ce à propos de quoi on parle, de l'objet - aurait elle-même une compréhension, une définition analytique.

8. De nombreux malentendus, confusions, et sophismes, procèdent de la méconnaissance de cette dualité. L'erreur la plus fréquente est de transposer abusivement des caractéristiques d'un concept-réponse au concept-question correspondant. La découverte de la vérité consiste souvent dans une nouvelle position de la question, qui apparaît alors comme révolutionnaire. C'est ce qu'ont fait, par exemple, Lavoisier à propos de la chaleur et Einstein à propos de l'espace et du temps.

9. L'homme pose des questions à la nature par le moyen de ce par quoi il en participe le plus, c'est-à-dire son corps et ses prolongements, tels que les instruments et autres dispositifs matériels.

 

Compléments du 16/01/04 et du 29/11/04

 

Quelques remarques sur la "scientificité"

La démarche scientifique comporte au moins trois étapes distinctes : l'invention, à laquelle correspondent des critères heuristiques, l'exposition, à laquelle correspondent des critères didactiques, et la démonstration ou probation, à laquelle correspondent des critères apodictiques.

On a longtemps implicitement ou explicitement admis que l'analogie n'avait de valeur qu'heuristique. Et en fait, il n'est pas du tout dans mon propos actuel, malgré l'importance que semble lui donner ce texte, de lui attribuer quelque valeur apodictique. Néanmoins, il ne faut pas oublier, lorsqu'on discute des critères épistémologiques du vrai, que ce qu'il s'agit de démontrer ou d'invalider, c'est la portée d'une analogie. Je ne dis pas que l'analogie est vraie, je dis que ce que nous jugeons lorsque nous posons la question de la vérité d'une assertion, c'est une analogie, et qu'il est donc essentiel de savoir en quoi cette analogie consiste.

Le statut de la méthode hypothético-déductive dans les sciences est ambigu. Cette ambiguïté remonte à son origine, dans l'exposé des Eléments d'Euclide. Les mathématiques, selon l'étymologie du mot, consistaient en une somme de connaissances à apprendre et les Eléments en sont un exposé dans lequel l'auteur a cherché à réduire les connaissances essentielles au plus petit nombre d'éléments possible. Deux interprétations de cette démarche sont possibles : selon la première, il s'agirait de satisfaire à un objectif mnémotechnique, en réduisant le complexe à l'élémentaire, le multiple au simple ; selon l'autre interprétation, il s'agirait de donner un fondement certain aux nombreux théorèmes empiriquement connus par ailleurs. Les deux interprétations se confondaient dans la vision platonicienne, où le réel est pur et simple, et où, par conséquent, les éléments euclidiens, des idées simples et non mélangées auxquelles on a réduit les règles empiriques sont par définition plus réelles que l'empirisme que l'on en déduit par démonstration. De la seconde interprétation est toutefois née l'idée que la démonstration logique avait une valeur apodictique. Spinoza croit prouver les théorèmes de son Ethique en les déduisant more geometrico de quelques principes judicieusement choisis et considérés comme self-evident.

Il en va tout autrement aujourd'hui pour trois raisons apparentes dès la phrase précédente. 1/ Le more geometrico n'est qu'une des logiques et des modes de calcul propositionnel possibles. L'enchaînement supposé "rationnel" des éléments et de leurs conséquences n'a rien d'absolu ni de définitif. 2/ Les principes sont choisis et, pour un ensemble donné de "vérités" à établir, plusieurs ensembles d'axiomes sont possibles. 3/ L'évidence est la pire ennemie de la vérité, puisqu'elle se présente au contraire comme son alliée. Henri Poincaré se demandait comment il est possible que l'intution puisse nous tromper à ce point. La critique de Descartes par Vico repose entièrement sur celle de la notion d'évidence comme fondement de la vérité. Pourtant, nombreux sont encore de nos jours les auteurs qui oublient ou négligent l'une ou l'autre de ces raisons ou les trois ensemble et accordent une valeur apodictique à la démonstration logique, croient à la valeur rationnelle des principes qu'ils ont choisis arbitrairement, ou proposent comme points de départ indiscutables de leurs raisonnements des jugements considérés par eux comme self-evident (c'est à dessein que je cite ici ce terme en anglais, car cette notion se retrouve, paradoxalement, fréquemment dans la littérature américaine, où l'on attendrait plus de ... pragmatisme).

Bertrand Russell, dans l'article "On the notion of cause" de son livre "Mysticism and logic" (Londres, Unwin books, 1963, p. 132), établit que le but de la connaissance scientifique n'est pas de rechercher les causes des événements observés, mais des relations plus ou moins constantes entre des variables impliquées dans ces événements. Il souligne le caractère anthropomorphique de la notion de cause. Ce que nous appelons "cause" n'est en fait que celles des circonstances d'un événement qui nous intéressent à un moment et dans des conditions données parce qu'elles concourent ou s'opposent à certains de nos désirs ou certaines de nos actions.

Il faut porter une attention particulière à une sorte de cause utilisée en théorie de la connaissance. L’expérience est souvent décrite comme un processus où tout se passe comme si des causes externes venaient exciter les organes sensoriels et provoquer ensuite, avec ou sans intervention de l’intellect, de schémas sociaux, linguistiques, psychomoteurs, etc. une perception qui a un sens, constituant ainsi l’information élémentaire constitutive de l’expérience, et, in fine, le fondement de la connaissance dans une conception empiriste. Ces causes externes sont nommées " objets ". Je vois un chien. Je suppose qu’un objet " chien " est la cause des sensations visuelles que j’interprète dans ma perception comme étant un chien.

Si, en fait, on applique ce qui vient d’être dit sur les causes en général à ce type particulier de causes, on voit que la notion d’objet doit être revue fondamentalement. D’abord, aucune chose n’est cause de rien. Pas plus ce chien qu’autre chose. La cause de ma vision du chien, c’est un ensemble de conditions optiques (la lumière, incidente et réfléchie par la surface des poils du chien, la forme de son corps, etc., mon appareil optique personnel, naturel, iris, cristallin, rétine, et, éventuellement, artificiel, lunettes, etc.), physiologiques (le bon fonctionnement de mon appareil optique naturel, de mon système nerveux sensitif, de mon cerveau), psychologiques ( mon attention , ma mémoire, mon intelligence, ma culture, mes habitudes – et si je n’avais jamais vu de chien ? – et si j’avais la phobie des chiens ?-, etc.), sociales et culturelles (le sens que cette vision a pour moi, à mon époque,, dans la société où je vis, dans la langue que je parle, etc.). De toutes ces conditions, on extrait arbitrairement un ensemble qui semblent décisives ou plus significatives, constituant l’objet chien. Mais on voit bien que cet objet n’est pas une chose, mais bien plutôt un certain aspect d’un état de choses constitué par une relation complexe entre plusieurs éléments.

Les modèles utilisés ou présentés par les scientifiques sont de trois sortes :

1. Les premiers sont issus des mathématiques et représentent des rapports de cohérence logique entre des lois de la nature. Par exemple, la géométrie d'Euclide a constitué un modèle utilisé par la suite pour formaliser les lois de la balistique ou de la mécanique céleste. C'est une sorte de moule logique qui guide dans la formulation claire et cohérente des lois scientifiques. La vérité de certaines propositions se transfère à d'autres en vertu de la cohérence logique entre celles-ci et celles-là. Evidemment, la validité de ce "transfert" est proportionnelle à la validité de la logique utilisée.

2. Les seconds sont des scenarii de ce qui aurait pu se passer dans la réalité, en application des lois contenues dans les modèles du premier type. Par exemple, les météorologues, appliquant des formules de mécanique des fluides, de thermodynamique, de probabilité, et d'autres disciplines, produisent des modèles de l'évolution climatique de la planète. Ce sont des scenarii causaux qui rendent vraisemblables certains événements par le fait que ceux-ci sont déduits de l'application de lois scientifiques préalablement admises et d'événements antérieurs avérés ou supposés. Un enchaînement de causes et d'effets prend ici la place d 'un enchaînement de principes et de conséquences.

3. Les troisièmes sont de type causal comme les seconds, mais de cette sorte particulière de cause rappelée il y a peu ci-dessus, les "objets". Les modèles d'objets sont des sortes de maquettes de la réalité dont les comportements supposés sont conformes aux événements observés (dans la mesure où le modèle est bon, bien sûr). Par exemple, le gène est un objet supposé (longtemps avant d'avoir été "observé", voire cartographié) rendant compte du comportement probabiliste des caractères héréditaires.

 Le recours à chacun de ces trois types de modèles peut être tantôt légitime et correct, tantôt abusif, tantôt confusionnel. Il est légitime et correct dans la mesure où il se fait en conscience de ses limitations et de sa validité. Il est abusif lorsqu'il présente, par exemple, comme apodictique une déduction logique, qui ne fait qu'établir une certaine cohérence entre deux ou plusieurs propositions, ou lorsqu'il présente comme un récit historique un scenario probable, ou encore lorsqu'il présente comme une réalité, ce qui n'en est qu'un modèle possible. Il est confusionnel lorsque les enchaînements de causes et d'effets sont présentés, par exemple, comme des conséquences logiques (alors qu'on sait que le rapport entre cause et effet est l'inverse de celui entre principe et conséquence). Les sciences sociales, et notamment l'économie, sont parcourues d'assez nombreux abus et confusions de ce type. L'usage de modèles "scientifiques" n'est pas une garantie de scientificité. C'est cet usage lui-même qui doit être scientifique, c'est-à-dire empreint d'esprit critique.

Dans la société et la philosophie contemporaines, la scientificité intervient de deux façons distinctes. Je ne parle pas ici de l’intervention de la science comme source de techniques nouvelles, mais comme source de vérité. On l’invoque à l’appui de telle ou telle thèse dans un débat selon les deux perspectives suivantes :

1.       A partir de ses résultats, réels ou supposés

2.       En référence à sa méthode, censée conduire plus surement à la vérité.

 

Les extrapolations à partir des résultats scientifiques sont constitués de modèles de type 2 et 3 de la liste ci-dessus.  Mais, tandis que le modèle scientifique tient sa vérité, même incertaine et douteuse, de sa confrontation avec les expériences, son extrapolation vise par définition un domaine qui n’est pas limité à celui pour lequel il a été conçu initialement. La thermodynamique conçue pour rendre compte du fonctionnement des machines, puis de certaines fonctions des êtres vivants, suppose constitué un « système physique » répondant à certaines conditions d’autonomie. Appliquée à l’histoire de l’univers, elle conduit à la formulation de récits hypothétiques. Les découvertes archéologiques montrant des ancêtres de l’homme actuel dans une même région du globe sont interprétés comme signifiant une origine unique et commune de l’espèce humaine, voire comme une confirmation du récit biblique. Ces récits présentent des scenarios vraisemblables et intéressants en tant qu’hypothèses compatibles avec nos connaissances scientifiques. Mais ils sont souvent présentés comme des résultats ou des conséquences de celles-ci. On ne considère et ne retient plus que la dogmatique de leur scientificité, sans la critique qui donnerait son sens réel à l’analogie qu’ils véhiculent. On est donc alors dans le domaine de la doxa et de la métaphysique, au sens que le positivisme donne à ce terme, c’est-à-dire d’une extrapolation incontrôlée à partir de connaissances réputées acquises.

Lorsqu’on se réfère à la méthode de la science, plusieurs aspects peuvent être en jeu. Comme je l’ai dit, on peut se référer à l’esprit critique que la démarche scientifique comporte. Les exemples que nous venons d’examiner dans ce chapitre en montrent deux aspects essentiels : d’une part  l’examen critique de la question que l’on se pose, et d’autre part, l’interrogation matérielle de la nature pour contrôler la réponse. L’esprit critique de la science est différent de l’esprit critique « littéraire », quoique il puisse lui être heureusement associé dans le même personnage. Il ne s’agit pas d’une remise en cause plus ou moins systématique des opinions acquises, ni même seulement d’une analyse textuelle de leur contenu, même si ces démarches peuvent être utiles au chercheur scientifique. La clarification de la question à laquelle on cherche une réponse est essentielle car elle permet de la poser correctement, de la « traduire » convenablement en termes d’expérience, et de bien comprendre la réponse. Lavoisier et Laplace, avant et au lieu de se pronocer sur la nature de la chaleur, c’est-à-dire sur les réponses que l’on peut apporter à cette question redéfinissent ce à porpos de quoi cette question est posée et définissent dans les termes d’un procédé expérimental matériel comment la question peut être posée et les réponses interprétées. Einstein, plutôt que de trancher en faveur de l’une ou l’autre des réponses apportées au paradoxe de la constance de la vitesse de la lumière (s’agit-il d’un vent d’éther ? d’une contraction des objets ? ), examine et redéfinit ce que l’on entend par simultanéité et mesure du temps, c’est-à-dire les termes dans lesquels nous posons la question.

Ensuite la question n’est pas posée à l’esprit en tant que tel, mais à la nature, de façon matérielle. La réponse n’est pas attendue d’un raisonnement, mais d’un dispositif matériel qui réalise la question et présente des faits constituant des éléments de réponse. Evidemment, on pourra dire que les exemples examinés relèvent tous des sciences expérimentales de la nature et que ce fait n’est donc pas étonnant et ne reflète que le biais de l’échantillon examiné. En serait-il autrement dans ue recherche portant sur d’autres domaines ? Tout dépend alors de la définition de ces domaines. S’il s’agit de domaines n’ayant rien à voir avec la nature, la réponse est évidemment positive. Mais il est tout aussi évident que si l’objet visé a une réalité, alors toute cette démarche est valide et s’applique à une telle recherche.

Deux termes utilisés dans le paragraphe précédent ne manqueront pas de susciter les interrogations de certains lecteurs : « réalité » et « nature ». Outre ce qui a déjà été dit à ce sujet dans le chapitre 8, on peut encore préciser l’usage fait ici de ces deux mots de la façon suivante. Ils sont utilisés ici en tant qu’ils s’opposent à des créations purement mentales et reconnues comme telles, comme le rêve, les images poétiques ou artistiques, et visent le domaine du réel qui conditionne et détermine les possibilités d’action de l’être humain. Voici une première délimitation du champ d’application qui devrait satisfaire une partie des inquiétudes possibles. Une autre partie provient de lecteurs pour qui ces termes, même limités au contexte que je viens de définir, n’ont tout simplement pas de sens, puisque ce sens est lié, précisément, à un contexte, et que c’est donc seulement celui-ci qui fournit un sens. Deux cas peuvent alors se présenter : 1/ ou bien le contexte que j’ai évoqué suffit à préciser le sens du terme, et on peut certes remplacer celui-ci par celui-là, mais on ne fait que transposer dans un vocabulaire nouveau ce qui s’exprime dans un vocabulaire usuel sans ajouter de concept nouveau ; 2/ ou bien il faut prendre le deuxième emploi du mont « contexte » dans la phrase précédente dans un sens différent de son emploi dans le premier membre de la phrase, et cela signifie que l’on caractérise comme textuels et langagiers toute l’activité humaine et son environnement. Cette position ne me semble tenable que dans les limites d’une analogie approximative qui peut être éclairante pour certains aspects, mais ne rend pas compte de tous les aspects de la réalité. Je ferai paraître prochainement un examen des thèses de Richard Rorty.

Une autre référence fréquemment faite à la scientificité come méthode est la cohérence logique, considérée comme l’apanage de la science. Elle est en fait surtout l’apanage de la science constituée et  de l’exposé de la science, et on lui prète à tort une valeur apodictique. Lorsque Einstein élabore la théorie de la relativité, il n’entend pas montrer par là que celle-ci est vraie. Il ne suppose pas non plus que les principes qu’il prend comme points de départ déductifs de cette théorie sont vrais ou avérés. Il les prend bien pour des suppositions. Ce qu’il veut montrer, c’est qu’il est  possible de les adopter comme vrais et de construire une théorie cohérente qui rende compte des autres faits. Il veut mopntrer à quelles conditions cela est possible. Il fait pour ainsi dire une expérience logique et énonce les faits qui la rendent possible. Ainsi l’usage du raisonnement seul, et principalement du raisonnement déductif, n’est-il pas en lui-même un élément de scientificité.

Remarques à propos de l'histoire de l'astronomie



  

ccueil du site

Haut de la page