Article d'Olaf

Physique

De quoi ça parle, la perception trompeuse, méthode(s) et certitudes

Olivier Parriaux 12 février 2017 selon la vision de Etienne Klein, CEA, France

 

De quoi ça parle ?

Ça parle du monde naturel perçu mais…

sans s’arrêter à la perception et au sens commun, qui peuvent être trompeurs : il faut déshabiller l’objet pour trouver des lois, des invariants…

… dans le but de s’approcher de la réalité, de faire des prévisions puis d’agir sur le monde naturel.

 

La perception trompeuse (exemples)

 

- Le soleil (et les étoiles avec) tourne autour de la terre.

Ceci induit dans la représentation cyclique qu’a le Mensch de sa destinée que le futur est dans le passé qui revient périodiquement. Cette représentation traditionnelle prend fin avec Copernic (1473 – 1543) et son système héliocentrique, ce qui ouvre vers le futur dans lequel le Mensch peut se projeter d’où l’apparition des utopies.

- La chute des corps, la définition du temps physique.

Galilée (1564-1642) met en contradiction la déduction observationnelle d’Aristote (les corps lourds tomberaient plus vite que les légers) par simple expérience de pensée (sans monter sur la Tour de Pize) et conclut que tous les corps tombent à la même vitesse v quelle que soit leur masse m. De plus, il crée une première définition du temps physique t qui est proportionnel à la vitesse de chute v par t = v/g, g = 9.81 N/Kg est l’intensité de la pesanteur à la surface de la terre.

- Le temps (son déroulement et sa flèche).

Le temps a autant de significations que d’individus et on en parle encore dans le langage courant comme avant Galilée. Il est important en physique de distinguer le cours du temps qui est spatialisé sous forme d’une droite, comme les trois coordonnées d’espace, à ceci près que le principe de causalité impose que la droite n’est parcourue que dans un sens, que ce qui est passé est irrémédiablement révolu (les voyages dans le temps sont impossibles) ; la relation logique entre cause et effet est « temporalisée » dans le cours du temps. Le cours du temps « accueille », lui, des phénomènes physiques qui, eux, dépendent du temps ; s’ils sont irréversibles (nuage de lait dans un café, deux gaz se mélangeant), cela définit une flèche du temps qui correspond à une entropie toujours croissante (2ème principe de la thermodynamique). Voir la confusion de Prigogine entre cours du temps et phénomènes temporels (à la fin de ce texte).

- La simultanéité, la chronologie en rapport avec la relativité restreinte.

En physique newtonienne les interactions sont instantanées et deux événements simultanés le sont pour tout observateur (c’est du bon sens car le Mensch ne se déplace pas assez vite pour qu’il en soit autrement). Or, la relativité restreinte (Einstein 1905), qu’on devrait d’ailleurs plutôt appeler « universelle », dit que chaque observateur a son propre temps propre, ces temps propres n’étant plus synchronisés et pouvant être très différents si les différentes vitesses des référentiels des observateurs sont grandes relativement à la vitesse de la lumière, c; la simultanéité n’est plus un absolu et les interactions ne sont plus instantanées. C’est la vitesse de la lumière qui devient un absolu (dans tout référentiel) et elle est limitée ; mais le principe de causalité impose que la chronologie entre deux événements observés par différents observateurs est maintenue.

 

Exemples concernant les particules élémentaires (mécanique quantique) :

- La relation d’«incertitude» de Heisenberg (qui devrait plutôt être désignée par «relation d’indétermination»).

En parlant d’ «incertitude» on infère que cette méchante mécanique quantique nous empêche de connaître précisément des éléments de réalité, par exemple qu’on ne peut connaître en même temps la position et la vitesse d’une particule (e.g. d’un électron). En effet, le bon sens de la mécanique classique attribue à un objet des propriétés, un état (e.g. position, vitesse) qu’il a en propre indépendamment du fait qu’on les mesure ou non. Si on les mesure, on fait une sorte de « sténographie » de la réalité préexistante. Or, l’état d’un électron est défini par une énergie, un « spin », et nullement par une position dans l’espace et une vitesse (ce n’est pas un « corpuscule »), l’état étant un « vecteur » dans un « espace de Hilbert ». En demandant à l’électron de nous dire où il est et sa vitesse on pose une question non-pertinente qui ne correspond pas à son état ; il nous répondra quelque chose mais quelque chose qui sera approximatif. Ainsi, en attribuant à une particule des propriétés que notre perception juge « naturelles » on s’interdit le contact avec les éléments de réalité auxquels la physique quantique donne accès.

- L’objet quantique et ses propriétés, localité, non-localité

Plus mystérieux, plus ébouriffant encore – en fait inaccessible - pour le sens commun est le phénomène de l’ « intrication » de deux particules « jumelles » (e.g. une paire deux photons issus ensemble d’un seul et même processus d’émission de lumière) distingués par leur état de polarisation qu’on définira ici par v pour l’un (vertical) et h pour l’autre (horizontal). L’un des photons est dirigé vers la doite, l’autre vers la gauche (via deux fibres optiques, exemple de l’expérience de N. Gisin à Genève, 2006). A vingt kilomètres à droite du point d’émission je mesure l’état de polarisation du photon de droite ; ce photon n’a pas un état prédéterminé v ou h que la mesure nous révèlerait ; il a un état « superposé » de v et h (tout comme celui de gauche). C’est le processus de mesure qui réduit son état à v ou h (l’acte de mesure est consubstantiel à l’état). Ce qui se passe alors instantanément, c’est que l’état du photon de gauche est v si j’ai mesuré h pour celui de droite ou h si j’ai mesuré v à droite comme si les deux photons s’étaient donné le mot instantanément où « instantanément » signifie « plus vite que la vitesse de la lumière », ce qu’il est impossible d’assumer depuis 1905. Il faut dire ici que ce que conteste cette expérience ce n’est pas un sens commun très ordinaire : c’est l’hypothèse des tenants de l’ancien testament de la mécanique quantique (Einstein, De Broglie, Schrödinger, contre l’interprétation « orthodoxe » de Copenhague par Bohr, Heisenberg, Born) selon laquelle l’état d’une particule pré-existerait à sa mesure.

- Confusion masse – matière

Aux vitesses de déplacement qui sont les nôtres ici-bas il y a pratiquement identité entre « quantité de matière » et « masse d’inertie » qui, elle, est la résistance au changement de vitesse ou changement de direction (i.e. résistance à l’accélération-décélération). Or, lorsqu’un veut par exemple accélérer une particule comme dans l’accélérateur du CERN aussi près que possible de la vitesse limite de la lumière sa masse d’inertie tend vers l’infini alors même que sa masse- quantité de matière reste la même.

 

Méthode(s) (hypothético-déductive)

- Séparer le sujet de l’objet pour s’éloigner du réel empirique (mise en relation par structure opératoire mathématique)

- Abstraire l’objet et projeter des hypothèses,

- Mathématiser ses propriétés,

- Définir les confrontations avec la réalité perçue (définir les expériences critiques dans notre monde à 4 dimensions) permettant de vérifier les déductions faites à partir des hypothèses.

 

Quelques certitudes

- La réversibilité temporelle des équations de la physique newtonienne (et de l’équation de Schrödinger pour la mécanique quantique) n’est pas en contradiction avec l’irréversibilité des phénomènes macroscopiques.

Le débat féroce à la fin du XIXème siècles entre la vision thermodynamique dominante des transferts irréversibles de chaleur exprimée par le 2ème principe de la thermodynamique de la croissance de l’entropie S (Oswald) et la vision atomiste statistique basée sur la physique newtonienne réversible temporellement (Boltzmann), alors que l’atome n’avait pas encore été découvert, fut résolu sans heurts (à part de suicide de Boltzmann) par la découverte de l’atome et ses constituants durant la 1ère décennie du XXème siècle. (L’entropie S = k log(M), M est le nombre Ω {\displaystyle \Omega } d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d'équilibre d'un système donné au niveau macroscopique, loi exprimant un phénomène irréversible sur la base d’un modèle microscopique réversible, k constante de Boltzmann). Est-ce une anomalie de l’histoire des sciences que cette question soit revenue sur le tapis par le prix Nobel (1977) I. Prigogine avec, entre autres, son livre « La fin des certitudes » 1996 ?

- La confusion entre déterminisme et prévisibilité

Les phénomènes chaotiques sont déterministes, contrairement au bon sens (et celui de Prigogine, voir fin de texte) mais on ne connaît pas toujours, ou il est impossible pratiquement de connaître les conditions initiales d’un système complexe précisément, donc le résultat est imprévisible.

- Le principe de causalité est encore inviolé

mais il doit être réinterprété suivant la théorie physique concernée.

- La théorie peut avoir raison contre l’expérience et imposer des sauts ontologiques dans notre représentation du monde :

# La radiation « béta » et l’existence du neutrino en réponse à la supposée non-conservation de l’énergie constatée expérimentalement

Note 1: depuis le début du XXème on ne parle plus de principe de conservation de la masse mais de conservation de l’énergie par l’égalité célèbre entre masse et énergie : E2 = m2c4 + p2c2 (le 2ème terme, où p est l’impulsion, est nécessaire pour exprimer qu’une particule de masse nulle (e.g. un photon) possède une énergie.

Note 2: le principe de la conservation de l’énergie est une conséquence de l’invariance des lois physiques au cours du temps.

La radiation béta est la transformation d’un neutron d’un noyau instable sous forme d’un proton et de l’émission d’un électron. Du fait de la conservation de l’énergie, les électrons émis devraient toujours avoir la même énergie cinétique. Or, ce n’est pas ce qui est observé (en 1931). Comment se sortir de ce paradoxe ? Législativement en révisant la confiance qu’on a dans la loi de la conservation de l’énergie ? ou ontologiquement en supposant qu’il y a quelque chose dans la réalité que l’on n’a pas « vu » ? Pauli opte pour cette 2ème option et suppose – et calcule – avec Fermi l’existence du neutrino qui ne sera découvert qu’en 1956.

# La causalité et l’existence de l’antimatière

Dirac réécrit l’équation de Schrödinger en y intégrant la relativité restreinte pour modéliser le comportement de particules quantiques relativistes ayant une très grande vitesse (1928). Il tombe avec un exemple de particule sur le paradoxe où la particule disparaît avant d’avoir été créée. Il en conclut qu’il doit introduire le principe de causalité dans son équation, ce qu’il fait et tombe sur un deuxième paradoxe : son équation donne deux solutions, l’une pour une particule connue, l’autre pour une « antiparticule » de même masse mais de charge électrique opposée (e.g. l’ « anti-électron » comme électron de charge positive). Or en 1932 on découvre en effet dans le rayonnement cosmique les « positrons ». L’existence de l’antimatière – qui n’existe plus dans l’univers mais que l’on peut recréer – est donc liée au principe de causalité.

# Le boson de Brout-Englert-Higgs en réponse à la nullité de la masse selon le « modèle standard »

Le « modèle standard » de la physique parvint dans les années soixante à unifier dans le même formalisme théorique trois des quatre forces ou interactions fondamentales dans l’univers (force électromagnétique, force nucléaire faible, de faible portée, responsable du rayonnement béta, force nucléaire forte, responsable de la cohésion du noyau de l’atome; la force gravitationnelle n’est pas comprise dans le modèle standard). Le modèle standard parvint à identifier et donner les propriétés de 61 particules quantiques qui, toutes, ont été découvertes et mesurées expérimentalement avec grande précision jusqu’à aujourd’hui. Or il contient un paradoxe majeur : toutes les particules devraient avoir une masse d’inertie nulle alors que la masse de la majorité d’entre elles a été mesurée précisément non-nulle. Comment lever ce paradoxe ? Législativement en concluant à la non-validité du modèle standard et en procédant à sa révision ? ou en postulant sa validité et en cherchant ce qu’on a pu omettre de la réalité ? Trois chercheurs optent pour la deuxième option et publient simultanément (Higgs et les deux autres) en 1964 quelque chose d’incroyable : que la masses des particules fondamentales n’est pas une propriété première des particules mais l’effet d’une interaction avec un champ uniforme dans l’espace, le champ de Higgs, qui « freine » les particules et leur confère leur inertie, leur masse. Ainsi, le vide n’est pas vide mais rempli de particules latente (le champ) qui n’ont pas assez d’énergie pour exister et que l’énergie de protons projetés les uns contre les autres au LHC à Genève permet de « réveiller » momentanément.

On touche là, avec ces trois derniers exemples des « éléments de réalité » qui échappent totalement à l’intuition humaine et que l’esprit humain peut toucher grâce à un appareil mathématique et conceptuel d’une grande complexité mais aboutissant à une représentation unifiée et simplifiée. Bernard d’Espagnat, décédé en 2015, parlait de l’accès à une « réalité voilée ».


 

Critiques de la position de Prigogine

+ D’Etienne Klein «Le facteur temps ne somme jamais deux fois»:

- Amalgame « cours du temps » - « flèche du temps »

- Contestation de la validité de la mécanique newtonienne

- Incompréhension des apports de la physique statistique de Boltzmann

+ De Jean Bricmont « Science of Chaos or Chaos in Science ? » dans Physicalia Magazine, 1995:

- Critique très détaillée au niveau physique

- Confusion «déterminisme» - «prévisibilité» sur le chaos.

- La prétention largement diffusée selon laquelle la science est en crise, alors que ses réalisations récentes sont le signe d’une progression inouïe, nourrit le relativisme et ouvre les portes aux pseudosciences et superstitions.

+ De R. et A. Pred, University of California, «The new naturalism – A critique of « Order out of Chaos » », 1985,

- Critique très détaillée

- Consternation face à l’extrapolation des hypothèses physiques dans le domaine des sciences humaines où les événements sociaux seraient le résultat de systèmes hors-équilibre (sans aborder la question du pouvoir entre agents sociaux).

+ De René Thom, spécialiste de la théorie des catastrophes, « Halte au hasard, silence au bruit », Le Débat n°3, 1980. « En guise de conclusion », 1981, dans « historique de l’étude des systèmes complexes », Univ. Rennes ainsi que chez Salvador Dali.

- Critique de fond

- Exemple de la chute d’une pièce de monnaie (confusion « déterminisme » - prévisibilité »)

+ Mon interrogation : que diable allait faire Isabelle Stengers dans cette galère ? Prigogine, Stengers, La nouvelle alliance (Gallimard, 1979)