Vous êtes sur la page 1sur 122

PHYSIQUE QUANTIQUE

POUR DÉBUTANTS
PHYSIQUE QUANTIQUE
POUR DÉBUTANTS

Apprenez Simplement les Théories des Trous Noirs et de la


Relativité
Découvrez l'Énergie de l'Univers, la Connexion Espace-
Temps et les Particules Élémentaires

Pierpaolo Amadeo
Copyright © 2021 - Pierpaolo Amadeo

Tous droits réservés.

Ce document vise à fournir des informations exactes et fiables sur le sujet et


la question abordés. La publication est vendue avec l'idée que l'éditeur n'est
pas tenu de fournir des services de comptabilité, officiellement autorisés ou
autrement qualifiés. Si des conseils juridiques ou professionnels sont
nécessaires, il est recommandé de faire appel à une personne exerçant la
profession en question.

Il n'est en aucun cas légal de reproduire, de dupliquer ou de transmettre une


partie de ce document sous forme électronique ou sur papier.
L’enregistrement de cette publication est strictement interdit et le stockage
de ce document n’est autorisé qu’avec l’autorisation écrite de l’éditeur.
Tous droits réservés.

Les informations fournies dans le présent document sont déclarées


véridiques et cohérentes, car toute responsabilité, en termes d'inattention ou
autre, de toute utilisation ou abus de toute politique, processus ou direction
contenue dans le présent document est une responsabilité solitaire et
absolue du lecteur destinataire. En aucun cas, toute responsabilité légale ou
toute faute ne sera prise vis-à-vis de l'éditeur pour toute réparation,
dommage ou perte monétaire due aux informations qui y sont contenues,
directement ou indirectement.

Les informations qu'elles contiennent sont fournies uniquement à des fins


d'information et sont universelles. La communication des informations est
sans contrat ni garantie. Les marques utilisées dans ce livre le sont
uniquement à des fins de clarification et sont la propriété des propriétaires
eux-mêmes, non affiliés au présent document.
CONTENU
Introduction
Chapitre 1
La carte de la physique quantique
Chapitre 2
Au début, elle était mécanique
2.1 La physique classique
2.2 La thermodynamique et la théorie cinétique
2.3 Loi sur la conservation de l’énergie.
2.4 L’entropie décadente du temps
2.5 Ondes de lumière
2.6 La nécessité de dépasser le modèle classique
Chapitre 3
Et puis tout est devenu relatif
3.1 Le champ
3.2 Relativité spéciale
3.3 Relativité générale
3.4 Hilbert et la naissance d’une nouvelle idée de l’espace mathématique
Chapitre 4
L'expérience surprenante de young
4.1 Le dualisme quantique et le principe de complémentarité
Chapitre 5
L'avènement des quanta, le vent de copenhague
5.1 Mais qu’est-ce que sont les quanta?
5.2 L’un ne peut exister en présence de l’autre
5.3 Statistique de Bose-Einstein
5.4 La superposition quantique et l’entanglement
Chapitre 6
Le boson le plus célèbre du monde
Chapitre 7
Chaînes et supercordes
Chapitre 8
De combien d'univers l'univers est-il fait?
Chapitre 9
Ce qui se passe dans un trou noir
Chapitre 10
L'antimatière et les voyages intergalactiques
Chapitre 11
Cerveau quantique
11.1 L’expérience du choix retardé et les théories de Penrose et Wigner
Chapitre 12
Un nouveau relativisme quantique?
Note de l'auteur
Glossaire
Bibliographie
Auteur
INTRODUCTION

Ceux qui ne sont pas choqués la première fois qu'ils


découvrent la mécanique quantique ne peuvent pas l'avoir
comprise.
Neil Bohr

O n affirmerait presque qu'Einstein et Pais on les voit marcher sur les


boulevards silencieux de Princeton tard dans la soirée, revenant du
centre de recherche le plus célèbre du monde, l'Institut de Recherche
Avancée, en discutant de leurs théories scientifiques. Le pas lent et cadencé
de ceux qui sont plus concentrés sur la conversation que sur le chemin à
suivre, les mains ramassées derrière le dos, le regard absorbé des esprits en
ébullition et une grande lune à faire le réflecteur, pointée précisément sur
les deux protagonistes. Ils s’appellent par leur nom, comme d'habitude entre
collègues, Pais dit quelque chose sur le concept de mesure en mécanique
quantique et voilà qu’Einstein s'arrête soudainement, le regard tourné vers
le ciel, résumant le concept plus complexe de l'avant-garde scientifique en
une seule, simple et efficace, question: "Mais êtes-vous vraiment convaincu
que la lune n'existe que lorsque vous la regardez?"
Avec une remarquable capacité de synthèse, Einstein vient de poser
à son ami (et biographe) Abraham Pais, une question qui exprime
l'essence même des plus grandes révolutions scientifiques des cent
cinquante dernières années: l’adoption d’une perspective relativiste
et le choix de se concentrer sur les microparticules comme objet
principal de l’observation (Quanta).

Je sais, cette question ne vous suggère rien, elle vous perturbe, et


pourtant plus tard vous vous retrouverez soudainement conscient
de ce qu'Einstein avait l'intention de demander (et vous vous
retrouverez probablement à vous poser la même question).

Le charme, depuis toujours lié à l'intangibilité naturelle de la réalité


dans son essence la plus pure, primitive et originale, vient de ceux
qui sont encore aujourd'hui les mystérieux mécanismes d'attraction
parmi les éléments constitutifs du monde tel que nous le
connaissons.

Mais, qu'est-ce que la physique quantique?

Qu'est-ce que c'est?

Y a-t-il vraiment un lien universel entre tous les éléments qui


composent la réalité?

Ce que nous appelons des "coïncidences", est-ce vraiment un


accident?

Est-il possible d'agir sur la réalité à travers les potentialités de


l'esprit humain?
Ce ne sont là que quelques-unes des grandes questions auxquelles
les scientifiques et les universitaires du monde entier se sont
efforcés pendant des siècles de répondre (et comme nous aurons
l'occasion de l'approfondir, les plus fructueux d'entre eux sont ceux
du CERN de Genève).

La physique, les mathématiques et l'ingénierie sont universellement


considérées comme des sciences inaccessibles, et soyons clairs: au
niveau académique et au niveau de la recherche, elles le sont
vraiment. Pourtant, la complexité des études qui sous-tendent ces
disciplines n'implique pas nécessairement que les solutions et les
théories proposées par certains des esprits les plus brillants de la
planète ne puissent pas être expliquées (et comprises) par le public
"profane".

Einstein lui-même a démontré qu'il est possible d'extraire les


concepts fondamentaux de la physique, de les libérer de la
complexité naturelle de la matière, de manière à les rendre clairs et
compréhensibles à ceux qui, avec l'aide d'une bonne dose de
curiosité, souhaitent comprendre les grands mystères de l'univers.
Poussé par le désir d'aider son collègue Leopold Infeld, qui
connaissait des difficultés financières compte tenu de l'absence
d'une bourse de recherche, il publia avec ce dernier, en 1938, le
premier (et probablement à ce jour le plus réussi) ouvrage de
vulgarisation scientifique destiné au grand public: "L'évolution de
la physique" (traduit et publié en Italie en 1948). Utilisant un
langage étonnamment "non académique" (et incroyablement
captivant), les deux scientifiques accompagnent le lecteur à travers
un voyage à la découverte des théories les plus complexes posées à
la base de la physique moderne. En suggérant une approche de type
"investigateur", le lecteur est invité à enquêter et à analyser les
indices que la nature offre, afin de résoudre les mystères qui
régissent la réalité du monde dans lequel nous vivons. L'expérience
de divulgation a obtenu d'excellents résultats, générant au fil des
ans un intérêt croissant pour les lois de la physique et le monde des
quantiques qui y est lié.

Ces derniers temps, avec l'avènement d'Internet, la curiosité des


non-initiés s'est fortement accrue, comme en témoignent les
nombreux documentaires, programmes et canaux
d'approfondissement, livres et manuels, articles de blogs et
quotidiens, axés sur le sujet, qui sont publiés chaque jour. La
quantité d'informations disponibles est si importante que dans
certains cas elle peut être confuse et difficile à comprendre, c'est
pourquoi j'ai décidé de réorganiser les principales théories qui sous-
tendent la physique quantique en créant un chemin par étapes facile
à suivre, mais pas pour ce trivial ou superficiel. D'ailleurs, ce qui
pousse les êtres humains, depuis l'Antiquité, à se poser des
questions sur les origines de l'univers et les lois qui régissent
l'essence même de la vie, c'est bien le charme des mystères qui leur
sont sous-jacents. C'est la curiosité qui pousse les chercheurs à
trouver des explications et des solutions, et c'est la même curiosité
qui vous a amené ici, entre ces pages (ou l'on pourrait affirmer que
ce sont les quantiques qui vous ont amené ici, mais nous le verrons
plus tard).

La curiosité alimente le progrès et la connaissance, stimule l'esprit


qui, par le retour, par l'expérience, améliore les performances. Tout
est relié, lié et connecté dans ce monde, tout comme le sont les
quantiques.

Si vous êtes aussi curieux de savoir comment et comment ces


relations imperceptibles affectent nos vies et la réalité qui nous
entoure, alors vous êtes au bon endroit (et probablement au bon
moment). Vous découvrirez que rien ne se passe par hasard et que
même derrière la lecture de ces pages il y a une raison, une raison
pour laquelle vous vous êtes retrouvé ici plutôt qu'ailleurs. La
conscience qu'il y ait des liens (et donc des explications) entre les
événements qui se produisent dans nos vies et la réalité quotidienne
avec laquelle nous nous trouvons en interaction, changera pour
toujours la façon dont nous regardons le monde et les événements
qui vous concernent. Je pourrais vous demander si vous êtes prêt à
commencer ce voyage, mais la question serait purement rhétorique,
vous êtes déjà là, donc d'un point de vue quantique, vous êtes
clairement prêt.

Une dernière chose: dans les premiers chapitres de ce livre, vous


trouverez des concepts que vous aurez probablement du mal à
comprendre, vous pourriez décider d'abandonner la lecture, de ne
pas le faire! Je vous assure qu'avec le temps, tout (ou presque) sera
beaucoup plus clair et logiquement relié. Nous sommes prêts.

Bon voyage!
Chapitre 1
LA CARTE DE LA PHYSIQUE
QUANTIQUE

La physique quantique formule des lois qui réglementent


non pas des individus, mais des multitudes. Ce ne sont
plus les propriétés, mais les probabilités qui font l'objet de
la description.
Les lois qui ont été formulées ne nous ouvrent plus
l'avenir de ces systèmes. Ce sont les lois qui régissent les
variations de probabilité dans le temps, les lois
concernant les grands agrégats d'individus.
A. Einstein

L a science-fiction nous parle de moteurs perpétuels, de vaisseaux


spatiaux intergalactiques, de voyages dans le temps, de visions à
distance, de phénomènes inquiétants d'interaction entre les univers et les
dimensions parallèles.
Or, nous savons que le préfixe fanta- indique précisément qu'il s'agit de
sujets fantastiques dictés par l'imagination, et pourtant, la direction de
certaines théories scientifiques modernes semblerait pointer précisément
vers ces concepts typiquement objet de romans ou de films par nature non
référencés ou référençables à la réalité.

Avant de commencer notre voyage, il est primordial de procéder à un


aperçu rapide et générique de la science des quantiques, afin d'introduire
des noms et des concepts qui deviendront de plus en plus familiers en
procédant à la lecture.

Qu'est-ce que la physique quantique? En termes simples, c'est la physique


qui explique comment fonctionnent les particules qui forment la réalité
(celles qui ne peuvent pas être divisées) et le monde dans lequel nous
vivons: c'est, en d'autres termes, la meilleure description que nous avons de
la nature et de ces particules originelles, infiniment minuscules et
incroyablement rapides (ce n'est pas un hasard si la science de l'infiniment
petit et rapide est définie).

La physique quantique traite de plusieurs phénomènes dans lesquels les


forces des particules interagissent, la nature de ces forces est
traditionnellement analysée et étudiée à travers trois théories différentes qui
peuvent être classées comme suit: électromagnétisme: étude liée à la force
par laquelle les atomes sont attirés entre eux et se lient en créant de
nouvelles molécules; théorie de la force nucléaire forte, c'est-à-dire étude
des processus conduisant à la stabilité du noyau à l'intérieur d'un atome;
théorie de la force nucléaire faible, c'est-à-dire étude du phénomène de la
désintégration radioactive des atomes.

Au cours des cinquante dernières années, ces trois théories ont été réunies
en une seule grande théorie supranationale, connue sous le nom de "modèle
standard" de la physique des particules, qui est devenue le modèle théorique
de référence pour l'étude des forces fondamentales.

Dans le modèle standard, les particules élémentaires sont divisées en bosons


et en fermions (nous approfondirons ces concepts au cours de notre
voyage).

Le modèle standard est la théorie la plus éprouvée du fonctionnement de


base de la matière qui ait jamais été conçue. L'événement le plus marquant
qui prouve la validité de cette théorie a eu lieu en 2012, lorsque le boson
d'Higgs a été découvert, c'est-à-dire la particule qui donne de la masse à
toutes les autres particules fondamentales, dont l'existence avait été prédite
sur la base des théories quantiques des champs en 1964 (il a fallu 48 ans
avant de pouvoir en prouver l'existence).

Les milliards et milliards d'interactions dans ces environnements de matière


surpeuplés d'atomes, de sous-atomes et de microparticules nécessitent le
développement de "théories de champ efficaces", c'est-à-dire des théories
qui négligent certains détails en faveur d'une vision plus spécifique. La
difficulté de la construction de ces théories est la raison pour laquelle de
nombreuses questions importantes dans la physique de la thermodynamique
restent non résolues, une sur toutes: "parce qu'à basses températures, il est
possible de conduire de l'énergie électrique à travers certains matériaux,
mais qui ne se comportent pas comme des conducteurs lorsqu'ils sont dans
des contextes à température ambiante".

Mais, à la base des nombreux problèmes pratiques d'adaptation des lois de


la physique à la réalité, se cache un fascinant mystère quantique.

En termes simplistes et un peu sceptiques, on pourrait dire que la physique


quantique implique des choses très discutables sur le fonctionnement de la
matière, qui sont complètement en contradiction avec la nature des choses
telles qu'elles apparaissent et telles qu'elles semblent fonctionner dans le
monde réel.

Les particules quantiques peuvent se comporter comme des particules


lorsqu'elles sont situées en un seul endroit; ou elles peuvent agir comme des
vagues, réparties dans tout l'espace ou dans plusieurs endroits en même
temps. La façon dont les quantiques apparaissent (sous forme d'ondes ou de
particules) semble dépendre de la façon dont nous choisissons de les
mesurer ou plutôt du fait même que nous décidons de les observer, et avant
de les mesurer, elles semblent ne pas avoir de propriétés définies, nous
amenant devant certaines des plus grandes énigmes sur la nature de la
réalité.

Cette confusion conduit à des paradoxes apparents (que nous aurons


l'occasion d'approfondir) comme le paradoxe du Chat de Schrödinger, où,
grâce à un procédé mental, la double nature quantique est mise en doute; ou
l'expérience bouleversante de Thomas Young, ou de la double fissure. Ou
encore le paradoxe de Gibbs. En physique moderne, les situations
paradoxales semblent être la norme (à la fin de notre voyage, nous
approfondirons l'interprétation relativiste de Carlo Rovelli visant à résoudre
les apparents illogismes des théories quantiques les plus discutées).

L'un des aspects les plus fascinants est le phénomène appelé entanglement,
ou autrement dit, pour reprendre les mots d'Einstein, "action spectrale à
distance". En effet, des études suggèrent que les particules quantiques sont
capables de s'influencer mutuellement, instantanément, même lorsqu'elles
sont éloignées l'une des autres kilomètres. Ces particularités quantiques, qui
nous sont complètement étrangères, sont utilisées avec des résultats
étonnants dans les nouvelles technologies comme la cryptographie
quantique (avec laquelle des centaines de milliers d'informations sont
encodées et donc inaccessibles) et les systèmes d'exploitation basés sur des
algorithmes quantiques (les soi-disant superordinateurs, comme celui utilisé
pour décoder les messages du célèbre tueur en série surnommé Zodiac).

Mais comment cela fonctionne vraiment, personne ne le sait.

Certains, naturellement découragés, pensent que nous devrions accepter les


explications fournies par la physique quantique, même si elles sont en
contradiction flagrante avec la perception que nous avons du monde réel et
des phénomènes qui s'y produisent. D'autres attendent encore de nouvelles
découvertes, plus compréhensibles et compatibles avec ce que nous
observons objectivement dans la vie de tous les jours.

Dans tout cela, il y a plusieurs questions non résolues et qu'il est difficile
d'ignorer.

Tout d'abord, il y a la question de la gravité, qui semble avoir été piégée


dans la théorie de la relativité d'Einstein (théorie, précisons-le, fortement
anti-quantique). Malgré les efforts nombreux et intenses pour ramener la
gravité sous le chapeau de la science quantique (en arrivant ainsi à une
seule et unique "théorie du tout" indivisible et invariable), aucune
conclusion n'est encore parvenue à ce sujet. En outre, les récentes
découvertes scientifiques ont montré que 90% de l'univers est constitué de
matière noire et d'énergie noire, dont nous savons peu et rien d'autre que
ceux qui ne peuvent certainement pas être expliqués par le modèle standard.

Nous pourrions raisonnablement conclure, pour l'instant, que le monde est à


un certain niveau quantique et que le chemin pour comprendre si la
physique quantique est effectivement en mesure de fournir les réponses
manquantes est long et incertain (bien que très fascinant).
Il est temps de remonter le temps, quand la physique est devenue
indépendante de la philosophie et que les premiers phénomènes naturels ont
trouvé des explications qui sont, dans une certaine mesure, toujours
valables aujourd'hui. C'est l'histoire de la physique classique et de ses
protagonistes, les principales théories classiques sont les piliers des
découvertes modernes les plus étonnantes.
Chapitre 2
AU DÉBUT, ELLE ÉTAIT
MÉCANIQUE

Créer quelque chose à l'image de la nature signifie créer


une machine, et c'est en apprenant les mécanismes
internes de la nature que l'homme est devenu un
constructeur de machines.
E. Hoffer

L es sujets traités dans ce chapitre sont le fruit d'une sélection orientée


vers l'acquisition de certains des principes fondamentaux de la
physique, préparant à l'introduction et à l'explication des phénomènes dont
s'occupe la mécanique quantique. Il est clair que le but est de comprendre
les aspects généraux qui sous-tendent les théories scientifiques et
mathématiques complexes (souvent extrêmement techniques). La
compréhension impose un certain degré de simplification qui n'enlèvera
rien à la description générale du monde de la physique quantique.
L'évolution de la physique, de classique à moderne, est un parcours rythmé
par quelques découvertes fondamentales que nous examinerons mieux dans
le troisième chapitre. Il s'agit d'un parcours extrêmement fascinant, riche de
rebondissements, dont nous avons, heureusement, beaucoup de nouvelles et
de témoignages (les physiciens sont notoirement prolifiques écrivains,
célèbre la citation d'Abraham Pais sur le point "Il n'y a pas une âme sur
Terre qui puisse lire le déluge de publications de physique dans son
intégralité").

2.1 La physique classique


Nous sommes au bord d'une route, un ballon (frappé un peu plus tôt par
notre ami, que nous appellerons Cooper) court le long d'un chemin de terre,
après quelques mètres, il va commencer à ralentir pour finalement s'arrêter.
Plus le ballon est poussé, plus la distance parcourue est grande. Jusqu'ici,
tout semble assez logique, élémentaire. Le ballon, épuisé, s'arrête. Et
pourtant, la physique nous dit que le ballon peut ne jamais s'arrêter, ou
s'arrêter plus tôt que prévu, ou qu'il peut rester immobile pour toujours, que
sa vitesse de déplacement ne dépend pas seulement de la force avec laquelle
nous le frappons, mais aussi des éléments qui constituent des frictions sur la
route, le vent, la distance et toute une série de variables autours. C'est le
concept d'inertie qui décrit ce qui arrive à un corps en présence ou en
l'absence de l'action d'une force extérieure sur lui, c'est-à-dire sa capacité
innée à résister au mouvement. Si Cooper n'avait pas frappé le ballon, celui-
ci serait resté où il était; au contraire, si Cooper l'avait poussé, peut-être à
l'aide d'un canon parabolique, le ballon déjà en mouvement aurait augmenté
la vitesse et prolongé sa course, ce qui nous introduit au concept de
"mouvement rectiligne uniforme", c'est-à-dire la constatation que si un
corps est à l'arrêt ou en mouvement uniforme (sans variation de vitesse),
alors sur ce corps n'agissent pas des forces externes (c'est-à-dire qu'il n'y a
rien et personne qui le pousse, le tire ou le soulève); si des forces opposées
agissaient sur ce corps, leur résultat serait nul. Mais qu'est-ce que cela
signifie que la résultante des forces est nulle? Que si Cooper pousse avec un
pied le ballon vers moi, mais à l'autre extrémité il y a moi qui avec mon
pied pousse le ballon vers Cooper, et que tous les deux nous poussons avec
la même force, en même temps, le ballon reste quand même immobile. Par
conséquent, un corps stable tend naturellement à rester dans cette condition
(à moins qu'une force extérieure soit exercée sur lui); de même, un corps en
mouvement tend à maintenir une démarche constante (uniforme) à moins
qu'une force ne soit exercée sur lui. Ce phénomène est résumé par la loi
d'inertie sanctionnée par Newton selon laquelle "chaque corps persiste dans
son état de repos ou de mouvement uniforme et rectiligne, à moins qu'il ne
soit contraint de modifier cet état, par des forces agissant sur celui-ci".

Le principe d’inertie a une double paternité: Galilée le décrit en détail dès


1632, mais c'est Newton qui l'énonce de manière formelle. Sa validité
dépend des systèmes de référence dans lesquels il est observé, c’est-à-dire
dans les systèmes de référence inertiels où l’accélération est causée par
l’action d’une force extérieure ou par l’interaction d’un corps sur un autre.

C'est l'un des concepts fondamentaux qui sous-tendent la physique moderne


parce qu'il a stimulé, entre autres, les présupposés de la théorie de la
relativité spéciale. Comme nous aurons l'occasion d'approfondir plus avant,
en effet, en fonction de la mesure de la distance (plus ou moins grande) sur
laquelle un corps se déplace en l'absence de forces extérieures, le
mouvement est rectiligne uniforme dans les courtes distances; au contraire,
elle prend des trajectoires géodésiques de l'espace-temps, dans les plus
larges.

Et la conclusion de toute cette histoire est que la perception que nous avons
de la réalité que nous regardons autour de nous pourrait être fausse et nous
induire en erreur. La force externe agissant sur un corps n'affecte pas la
vitesse du mouvement, mais la variation de cette vitesse. Mieux, donc,
vérifier que ce qui semble, est réellement ce qu’il est, et ne pas se contenter
de ce qui apparaît à nos yeux (en physique quantique, nous allons bientôt
apprendre, ce qui semble presque jamais correspondre à la réalité de ce qu'il
est).

Regardons un peu l'histoire.

La physique est la science qui étudie la nature (au sens le plus large) et les
phénomènes qui y sont liés, afin de comprendre les lois que ces
phénomènes régulent. Le terme "physique" vient du grec "physiká" ou
"choses naturelles".

Considérée depuis longtemps comme la reine des sciences, jusqu’au XVIIe


siècle, elle a été identifiée pour la plupart comme une branche sous-
ordonnée de la philosophie et c'est précisément déjà parmi les grands
philosophes de la Grèce antique que nous pouvons trouver les premiers
exemples de théories et d'hypothèses directement liées au monde de la
physique (Empédocle, Thalès, Parménide, Démocrite, Anaximandre).

Bien que beaucoup de ces théories soient pacifiquement reconnues comme


ayant trait à l'étude de la physique, dans le domaine historique, il est
traditionnellement utilisé de faire remonter la naissance de la physique
classique au XVIIe siècle, pendant ce qui est historiquement appelé
"Révolution scientifique". Parmi les protagonistes incontestés de cet
événement: Isaac Newton et Galilée. La méthode scientifique, également
appelée expérimentale, est à la base de cette révolution et, une fois de plus,
les honneurs de la découverte sont de Galilée. Vous le savez déjà, mais une
brève révision peut être utile: la méthode scientifique est une sorte de
protocole à suivre pour prouver une hypothèse quelconque et consiste à
recueillir des données empiriques qui doivent être soumises à une analyse
mathématique et logique minutieuse afin de vérifier la validité de la thèse et
éventuellement les aspects étiologiques liés à un phénomène donné.

La physique se décline en plusieurs sous-catégories, chacune liée à un


aspect de la réalité différent. Pour ce qui nous intéresse, nous nous
concentrerons sur la physique mécanique, qui étudie principalement le
mouvement des corps, entendu comme mouvement d'un corps à l'intérieur
de l'espace, et qui, à son tour, est déclinée en mécanique classique,
statistique, relativiste et quantique. Mais pourquoi étudier pendant des
siècles de quoi dépend le mouvement? La réponse se trouve dans des
aspects infinis de votre vie quotidienne (des moyens de transport à
l'approvisionnement en énergie, à la production industrielle et ainsi de
suite). Si l'homme n'avait pas découvert les principes qui sous-tendent le
mouvement des corps, aujourd’hui notre mode de vie serait complètement
différent. Revenons à nous.

La mécanique classique explique parfaitement la plupart des phénomènes


directement observables par l'homme, tandis que la mécanique quantique
est utilisée pour expliquer les phénomènes liés à la nature et au mouvement
des atomes et des molécules. Souvent, on dit aussi que la mécanique
classique étudie l'infiniment grand, tandis que la mécanique quantique
étudie l'infiniment petit.

Maintenant que nous avons clarifié de quoi nous parlons lorsque nous
utilisons le terme "mécanique", nous devons nous concentrer sur la
définition de "mouvement", c'est-à-dire le mouvement d'un corps (qui se
déplace donc à l'intérieur d'un espace en changeant la position dans laquelle
il se trouvait à l'origine), pendant un certain laps de temps, à l'intérieur de ce
que l'on appelle le "système de référence". En termes plus simples, il s'agit
des déplacements que notre ami Cooper étudie depuis sa maison, pour venir
chez nous, le long d'un parcours bien connu et pendant un horaire défini.

Lorsque nous observons un objet en mouvement, nous avons tendance à


associer la vitesse du mouvement à la force qui se dégage par une poussée
donnée dans une direction donnée (nous l'avons vu tout à l'heure dans
l'exemple du ballon). C'est une association mentale naturelle qui découle de
ce que nous observons. Donc on peut conclure que plus la poussée est
grande, plus la vitesse est grande, non? Faux. Ou plutôt, parfois, ça peut
être mal. "Ce n'est pas, comme nous le suggère l'intuition, le lien entre force
et vitesse, mais le lien entre force et variation de vitesse ou accélération qui
constitue la base de la mécanique classique" (L’Évolution de la physique,
Einstein et Infeld). Or, que voulaient dire exactement les deux auteurs? En
gros nous pouvons tout résumer à la force et à l'accélération. La force agit
sur la vitesse en la variant en positif ou en négatif. Selon la direction vers
laquelle la force agit sur l’objet en mouvement: nous aurons accélération,
lorsque la force est en ligne avec la direction du mouvement (variation
positive); la décélération, lorsque la force est exercée dans la direction
opposée et inverse (variation négative). Donc, chaque fois que nous
observons une variation de vitesse, nous devons nous rappeler que la cause
est une force externe qui agit sur le corps en mouvement, ce qui signifie que
la force et l'accélération sont des concepts interdépendants et
interconnectés. Pas seulement. La force agit aussi sur la direction du
mouvement. Le rapport entre la variation de vitesse et la direction du
mouvement est conventionnellement appelé vecteur, c'est-à-dire une unité
de mesure qui décrit à la fois (en attribuant une valeur) la vitesse et la
direction, et qui est identifiée par le symbole de la flèche (dirigée en
fonction de l'orientation de l'exercice de la force).
Mais ce n’est pas seulement la force externe qui agit sur le corps, mais la
masse du corps lui-même qui influe sur la variation de la vitesse de
mouvement. La masse est ce qui détermine le comportement dynamique (et
donc le mouvement) des corps lorsqu’ils sont soumis à des forces
extérieures. En physique classique, il est considéré comme l’une des
propriétés intrinsèques de la matière (nous verrons avec l’avènement du
relativisme comment cette perspective sera déformée). Les lois de Newton
nous disent que la masse est la constante proportionnelle entre la force
extérieure et l’accélération qui en résulte. Mais comment la masse affecte-t-
elle le mouvement? Pour en revenir à l’exemple du ballon: un ballon gonflé
d’air se déplacera plus vite qu’un ballon rempli de sable, non? Oui, mais
pas vraiment. D’après une célèbre expérience conçue par Galilée (légende
selon laquelle il l’a mis en pratique près de la tour de Pise, mais on n’a
aucune certitude), deux corps, avec des masses différentes, laissés tomber
par une tour, à partir d’une hauteur identique, enregistrent le même temps
de chute. Comment est-ce possible? Parce que la Terre sur laquelle nous
nous trouvons exerce une force imperceptible, mais très puissante appelée
la gravité. Vous ne pouvez pas croire qu’une feuille de papier et une brique
tombent à la même vitesse, je sais. Et pourtant, en changeant la perspective,
c’est comme ça que ça marche. Il faut imaginer les deux corps comme
“liés” ensemble. En clair: si nous laissons tomber un sac de sable de 10 kg
et un de 5 kg, en même temps, de la même hauteur, le sac le plus lourd
touchera le sol en premier. Mais si nous attachons ensemble les deux sacs,
ils vont toucher la terre ensemble, simultanément, parce que la gravité va
les attirer vers le bas quel que soit leur poids. Cependant, la Terre n’exerce
pas la même force “attirante” sur tous les corps, mais le fait différemment
selon la masse, et pourtant, puisque l’accélération en chute de différents
corps, placés à une même hauteur, est constante, nous pouvons conclure que
l’accélération d’un corps en chute augmente proportionnellement à son
poids et diminue en fonction de sa masse inerte (c’est-à-dire sa masse
déterminée sans tenir compte de la force de gravité), ce qui signifie que
poids et masse inerte coïncident, mais surtout, qu’encore une fois, notre
perception des phénomènes physiques ne correspond pas toujours à la
réalité de ce qui se passe dans le monde.

Cette force qui nous tient les pieds sur terre et nous empêche de prendre
l’avion lorsque nous participons à une course d’athlétisme, elle s’appelle
par sa gravité (même le Soleil et les autres planètes exercent une gravité),
c’est Newton qui s’est rendu compte qu’il existe une règle universelle en
référence à cette force, et précisément: “la force d’attraction entre deux
corps dépend de la distance qui les sépare” (loi gravitationnelle).
Grâce aux intuitions de Galilée et de Newton, la mécanique classique est
capable d’expliquer et de faire des prédictions extrêmement précises sur les
mouvements des planètes et des autres corps célestes. Partant du principe
que l’analyse rationnelle et mathématique des forces et des mécanismes
d’attraction ou de répulsion connexes permet de savoir à l’avance comment
et dans quelle mesure les corps vont se déplacer, les scientifiques pensaient
pouvoir expliquer tous les phénomènes naturels qui se produisent dans
l’univers.

La grande limite de la mécanique classique, c’est l’incapacité à inclure la


vitesse dans le concept d’action d’une certaine force, en se concentrant
uniquement sur la distance dont elle dépend, ce qui, nous le savons, fausse
le résultat. En effet, dans le cas de la lumière ou de l’électricité, c’est la
vitesse qui affecte la force qui cause le phénomène de mouvement.
L’exemple principal est celui de l’aiguille magnétique dans l’expérience de
Rowland. Si nous faisons tourner à grande vitesse, mécaniquement, un
disque chargé sur le bord duquel, disons dans l’hémisphère gauche, nous
avons superposé une aiguille magnétique, nous constaterons que l’aiguille
se déplace, attirée par le centre du disque en rotation et qu’elle pointera
dans la direction centrale en suivant la ligne d’un rayon du disque;
inversement, il restera perpendiculaire au bord en cas de disque à l’arrêt.

Qu’est-ce que ça veut dire? Objectivement, la question est très complexe.


En résumé et en simplifiant au maximum, nous pouvons dire que les
charges électriques mises en mouvement à une certaine vitesse, par une
action mécanique, génèrent un champ magnétique. En soi, ce ne serait pas
une nouveauté, si ce n’est que le mouvement dans ce cas est induit par
l’action mécanique et non électrique. Pour l’instant, cela peut vous sembler
un peu flou, je sais, mais gardez à l’esprit les concepts de mouvement, de
masse et de gravité, vous en aurez bientôt besoin pour comprendre
comment fonctionne l’univers et la réalité dans laquelle nous vivons.

2.2 La thermodynamique et la théorie


cinétique
Encore? Je sais, c’est un livre de vulgarisation, pas un manuel de physique.
Pourtant, un bref rappel de la thermodynamique est nécessaire. Bref,
promis, mais nécessaire.

Par “thermodynamique”, on entend l’étude des transformations et des


“échanges” (c’est-à-dire les cessions irréversibles) qui se produisent entre la
chaleur et le “travail” (au sens de la physique) et vice versa, à la suite d’un
changement des variables de température et d’énergie.

Pour mieux comprendre, nous devons examiner ce que l’on entend en


physique par: chaleur, travail et température. Il est clair que nous pouvons
reconnaître des sensations de chaleur et de froid simplement par le toucher.
En fait, encore une fois, la perception que nous avons du monde par nos
seuls sens peut nous induire en erreur. L’exemple le plus connu est celui des
3 récipients remplis respectivement d’eau chaude, tiède et froide. Si nous
mettons la main gauche dans le premier récipient, nous ressentons de la
chaleur, si en même temps nous insérons la main droite dans le second,
nous ressentons une sensation de froid. Si nous enlevons soudainement les
deux mains de ces récipients pour les insérer dans celui avec de l’eau tiède,
nous enregistrons des sensations contrastées (froid pour la main qui avait
été immergée dans l’eau chaude; chaleur pour la main qui avait été plongée
dans l’eau froide). C’est un peu comme quand nous voyons les touristes
suédois se promener à manches courtes en un jour d’automne ici en Italie,
ils sont habitués à des températures notoirement plus rigoureuses que les
nôtres et pour cette raison ils ont tendance à se sentir plus chaud que nous.
Or, nous savons par expérience que deux corps, lorsqu’ils sont placés à
proximité, tendent à atteindre la même température (loi de Black), c’est-à-
dire qu’un corps plus chaud transfère ou cède de la chaleur à un corps plus
froid et vice versa. Le résultat final est une sorte d’équilibre entre donner et
avoir. Nous savons aussi que pour faire bouillir un litre d’eau pour les pâtes,
il faut moins de temps que pour porter à ébullition 10 litres. Enfin, nous
savons que certains corps se réchauffent plus rapidement que d’autres. Le
temps que chaque corps (ou matière) utilise pour “se réchauffer” est appelé
chaleur spécifique. C’est clair.

Nous savons aussi que le frottement entre deux corps (mains, pierres,
bois...) produit de la chaleur et que celle-ci n’est qu’une des nombreuses
formes prises par l’énergie (parce qu’elle se transforme en “travail”), ou
mieux, est l’énergie dite cinétique, qui en physique se réfère spécifiquement
au mouvement moléculaire (donc voici de nouveau la corrélation entre
mouvement et énergie).

Mais qu’entend-on par “travail” en physique? C’est un peu plus difficile à


comprendre, parce que le terme travail dans ce cas est utilisé avec une
signification différente de celle que nous lui associons
conventionnellement. Techniquement, le “travail” se réfère à l’énergie qui
est transférée entre deux corps (ou des objets ou des particules) au moment
où se produit un déplacement (qui, comme nous l’avons vu dans les
chapitres précédents, se fait par l’exercice d’une force extérieure). En gros,
le travail sur un corps est égal à la variation de son énergie cinétique. À
chaque degré de température correspond une énergie cinétique moyenne
donnée. Mais la température? Qu’est-ce que c’est? C’est l’unité de mesure
conventionnelle avec laquelle nous attribuons une valeur à une quantité de
chaleur donnée.

Pour conclure et sans entrer dans les détails, nous pouvons supposer que la
théorie cinétique de la matière nous explique le comportement des
particules en termes de pression et de température (en particulier en ce qui
concerne les molécules de gaz). Sachant qu’un gaz peut être réduit à l’état
liquide, par une réduction de température qui modifie son état physique,
nous pouvons calculer l’énergie cinétique d’un système. La diminution de
la température de la matière d’un corps ou d’un objet correspond en effet à
la diminution de l’énergie cinétique moyenne des particules que cette
matière constitue.

Mais pourquoi nous embourbons-nous dans les théories cinétiques de la


thermodynamique? Parce que c’est seulement ainsi que nous pouvons
conclure que l’explication de tous les phénomènes naturels se réduit à
l’interaction entre les particules matérielles, c’est-à-dire, c’est en observant
les comportements (et les mouvements) des particules que nous sommes en
mesure de comprendre comment fonctionne l’univers.

Les limites de la théorie cinétique des gaz étaient dans la difficulté


d’observer des particules aussi microscopiques que celles qui forment des
gaz et des vapeurs et c’est pour dépasser cette limite que le mouvement
brownien entre en scène. Grâce à l’application de la théorie cinétique,
Brown a prouvé, au-delà de tout doute raisonnable, que les molécules plus
petites, immergées dans un liquide comme l’eau, constitué comme nous le
savons de molécules plus grandes, sont bombardées par ces dernières,
créant une situation de choc continu (c’est-à-dire qu’une sorte de
mouvement constant et désordonné se produit). Brown lui-même raconte:
“en examinant la forme de ces particules immergées dans l’eau, j’ai
remarqué que beaucoup d’entre elles étaient en mouvement... ces
mouvements étaient tels qu’après des observations répétées, ils ne
pouvaient être causés ni par des courants dans le fluide, ni par son
évaporation progressive, mais qu’ils devaient appartenir aux particules
elles-mêmes”. Les particules ne restent pas inertes, elles ne bougent pas.
L’expérience était basée sur le comportement des pollens dispersés dans
l’eau. Brown a observé que bien qu’aucune force extérieure ne soit exercée
sur le liquide, les pollens se déplacent dans toutes les directions à l’intérieur
du liquide. Il en est ressorti, dans un premier temps, que les pollens ne
subissaient pas l’action d’une force extérieure et qu’ils avaient donc “leur
propre vie” et se déplaçaient de façon autonome. Poussé par le désir de
vérifier cette supposition, il a mené l’expérience plusieurs fois, en utilisant
différents matériaux (fragments de matière sans vie). Il a finalement
démontré que le mouvement fou dépendait uniquement de l’action des
particules du fluide sur les particules qui y sont immergées (cette
conclusion a également été obtenue grâce à la contribution d’Einstein).
Grâce à l’étude du mouvement brownien, il est possible de comprendre
quelque chose de plus que la théorie cinétique de la matière. Le mouvement
fou de ces particules ne serait pas créé si les particules “bombardantes” de
l’eau n’étaient pas dotées d’énergie (et donc ne possédaient pas une certaine
masse et vitesse). Nous pouvons en conclure que l’analyse du mouvement
brownien permet de déterminer, en termes quantitatifs, la masse d’une
molécule. Voici une découverte surprenante! Ce ne sont pas seulement les
grands corps célestes qui ont une masse, mais aussi les plus petites
particules de l’univers, ce qui, bien sûr, bouleverse la vision classique du
monde.

2.3 Loi sur la conservation de l’énergie.


“Il y a un fait, ou si vous voulez, une loi, qui régit les phénomènes naturels
connus jusqu’à présent. Il n’y a pas d’exception à cette loi, à notre
connaissance, elle est exacte. La loi s’appelle la conservation de l’énergie,
et c’est vraiment une idée très abstraite, parce que c’est un principe
mathématique. Il dit qu’il y a une grandeur numérique, qui ne change rien
à ce qui arrive. Il ne décrit pas un mécanisme ou quelque chose de concret:
c’est juste un fait un peu bizarre. Nous pouvons calculer un certain nombre,
et quand nous finissons d’observer la nature qui joue à ses jeux, et de
recalculer le nombre, nous trouvons qu’il n’a pas changé.” C’est ainsi que
l’écrivait Richard Feynman et c’est ainsi que l’on entend encore
aujourd’hui réglementer le processus de transformation de l’énergie.

Revenons un peu en arrière, qu’est-ce que le mot énergie signifie en


physique?

Sans entrer dans les détails étymologiques, il suffira de savoir que l’énergie
mécanique (c’est-à-dire celle qui se réfère au mouvement) est le résultat de
la somme de l’énergie cinétique (que nous avons vu auparavant se référer
au mouvement moléculaire) et de l’énergie potentielle. Lors de l’échange
d’énergie mécanique entre deux systèmes, l’énergie en transit se transforme
et prend le nom de “travail”.

Essayons de comprendre. L’énergie cinétique est l’énergie possédée par un


corps en mouvement (on pourrait l’appeler “moteur”). L’énergie potentielle,
en revanche, dépend de la position du corps ou de l’objet par rapport à un
champ qui exerce une certaine force (c’est-à-dire gravité).

Revenons au principe de conservation dont parlait Feynman, à savoir la


constatation que la quantité d’énergie cinétique d’un corps avant le choc est
égale à l’énergie produite après le choc (les particules en collision
produisent de l’énergie) et essayons de rapporter tout cela à la gravité.

Imaginons lancer une balle de tennis dans les airs. L’énergie cinétique
produite par la balle en montant vers le haut (contre la résistance donnée par
la force de gravité) est convertie en énergie potentielle qui à son tour est
convertie en énergie cinétique tandis que la balle redescend fortement parce
qu’elle est fortement attirée par la force de gravité exercée par la Terre.
Voyons plus en détail les étapes de cet échange entre énergies: pendant le
voyage vers le haut, la balle produit de l’énergie cinétique parce qu’elle se
déplace, mais en même temps cette énergie se transforme en énergie
potentielle. Lorsque la balle atteint sa hauteur maximale, au-delà de laquelle
elle ne peut plus monter, l’énergie cinétique est épuisée, c’est-à-dire qu’elle
est considérée comme nulle et que toute l’énergie disponible est de type
potentiel. Quand la balle tombe et revient, l’énergie potentielle est
reconvertie en énergie cinétique. Il s’agit d’un processus de conversion
continue, marqué par le mouvement de la balle et sa position dans l’espace
par rapport à sa distance du corps qui exerce la force de gravité (la Terre). À
chaque instant du voyage de la balle, la somme de l’énergie potentielle et de
l’énergie cinétique est constante. Maintenant que nous avons compris le
processus de transformation de l’énergie de cinétique en potentiel, nous
devons introduire un troisième élément. Vous rappelez-vous que
l’embrayage génère de la chaleur et que la chaleur est aussi de l’énergie?
Nous devons donc aussi prendre en considération la chaleur du frottement.
Si nous décidons de faire rouler la balle du sommet d’une colline vers
l’aval, nous devrions garder à l’esprit que, pendant la descente, l’énergie
potentielle est convertie en énergie cinétique, mais aussi que lorsque la balle
s’arrête à cause du frottement, cette même énergie cinétique devient énergie
thermique. Du point de vue de la mécanique quantique, le principe de la
conservation de l’énergie trouve sa traduction et son fondement dans la loi
sur le mouvement perpétuel de Max Planck: “Il est impossible d’obtenir le
mouvement perpétuel par la mécanique, la chaleur, la chimie, ou toute
autre méthode, c’est-à-dire qu’il est impossible de construire un moteur qui
travaille en permanence et produit à partir de rien du travail ou de
l’énergie cinétique” (Traité sur la thermodynamique, M. Planck, 1945).
Mais pourquoi ne peut-on pas construire un moteur qui produise de
l’énergie de façon perpétuelle? Parce que l’énergie ne peut être transformée,
jamais créée, ni détruite, et sa transformation implique, à son tour, une
certaine utilisation d’énergie et la libération d’une autre. Maintenant que
nous en savons plus sur l’énergie, la masse et la gravité, passons aux effets
au fil du temps.

2.4 L’entropie décadente du temps


Nous sommes dans la cuisine, nous prenons le petit déjeuner visiblement
encore endormis, appréciant un silence inhabituel à la maison. Nous avons
notre tasse préférée entre les mains et sirotons notre café avec un grand
calme. Cooper entre soudainement dans la pièce en faisant un grand bruit,
nous prend par surprise et notre tasse préférée se brise ruineusement sur le
sol. On pourrait la réparer, coller les morceaux, mais elle ne reviendra
jamais. Voici une image qui explique l’entropie. L’exemple est emprunté à
un brillant Stephen Hawking qui écrivait en 1988:

“L’explication habituelle de pourquoi nous ne voyons jamais les morceaux


d’une tasse se réunir pour reconstituer l’objet intact est que ce fait est
interdit par la deuxième loi de la thermodynamique. Celle-ci dit que dans
tout système fermé, le désordre ou l’entropie augmente toujours avec le
temps. En d’autres termes, c’est une forme de la loi de Murphy: les choses
tournent toujours mal. Une tasse intacte sur la table est dans un état de
haut ordre, tandis qu’une tasse cassée sur le sol est dans un état de
désordre. On peut facilement passer de la tasse sur la table dans le passé, à
la tasse cassée sur le sol dans le futur, mais pas l’inverse”.

Dans le monde de la mécanique quantique, le terme “entropie” fait


référence au désordre moléculaire et aux particules qui composent un
système (compris comme corps matériel); lorsque nous sommes dans le
monde de la thermodynamique, l’entropie se réfère à ce qui n’est pas là, à
savoir l’énergie thermique absente (quantifiée en utilisant comme unité de
mesure la température) pour laquelle il n’est plus possible de se convertir en
travail. Sachant que l’énergie cinétique est un produit du mouvement
moléculaire qui suit des règles ordonnées, c’est pourquoi le terme entropie
désigne conventionnellement une situation de désordre, ou plutôt de hasard,
d’un système.

Ce phénomène explique la plupart des événements dont nous sommes


quotidiennement spectateurs inconscients. C’est Rudolf Clausius qui a
codifié le mécanisme de l’entropie en 1865, classant les processus en
réversibles et irréversibles. Il va sans dire que les processus irréversibles
sont ceux qui ne peuvent être inversés. L’exemple classique est celui de la
glace qui fond naturellement au contact d’une source de chaleur. Il est clair
que tant que la glace transformée en eau restera exposée à la chaleur, elle ne
pourra pas se regeler.

Si, au contraire, nous observons un système où il n’y a pas une telle


opposition entre les températures et que nous soustrayons de la chaleur au
système, alors, peut-être, nous pourrions obtenir une certaine réversibilité.
En résumé: s’il suffit d’agir sur une quantité minimale de chaleur pour
inverser le processus, alors nous sommes dans une condition réversible.
Clausius note que dans un système “isolé” (c’est-à-dire fermé et sans
rapport avec d’autres systèmes), le processus d’entropie ne s’arrête jamais,
est constant et perpétuel.

Résumons: l’augmentation du désordre moléculaire coïncide avec


l’augmentation de l’entropie; inversement, la diminution du désordre,
coïncide avec une diminution de l’entropie.

Venons-en à l’aspect le plus “inquiétant” de cette lente décadence. Clausius


étend de manière analogique le caractère constant de l’entropie, typique des
phénomènes observables dans la nature (tous irréversibles), au plus grand
système observable: l’univers.

Si l’univers (tel qu’il semble être) est, lui aussi, sujet à l’entropie, alors
l’énergie nécessaire au travail, celle qui en travail peut être convertie, est
vouée à finir. Il n’y en aura plus. En l’absence d’énergie, l’univers connaîtra
un refroidissement progressif et irrépressible, causant ce que Clausius lui-
même appelle la “mort thermique de l’univers”.

Il n’est pas possible d’arrêter le processus d’entropie, pas dans la réalité


telle que nous la connaissons.

Le fait est que dans le rapport entre l’entropie et l’énergie, lors de la


conversion de l’énergie en travail, une partie de l’énergie est naturellement
dispersée sous forme de chaleur.

L’entropie a fait l’objet d’un débat parmi les physiciens (il y a peut-être de
l’espoir que Clausius ait pris un mauvais chemin) depuis sa formulation il y
a maintenant plus de 150 ans. L’un des principaux sujets de discussion est le
paradoxe de Gibbs, c’est-à-dire l’expérience mentale dans laquelle
l’entropie d’un système semble dépendre de ce qu’un observateur en sait
(en physique quantique, c’est presque tout relatif!). Cette expérience est
décrite comme suit: il y a une boîte avec une partition à l’intérieur qui
sépare deux corps de gaz. Lorsque la partition est enlevée, les deux corps
gazeux se mélangent spontanément. Pour un observateur informé et
compétent, capable de distinguer les deux corps gazeux, l’entropie du
système augmente lors du mélange. D’autre part, pour un observateur
ignorant, qui ne peut discerner aucune différence entre les deux corps
gazeux, il n’y a pas de mélange visible et l’entropie reste inchangée.

Cette perception différente de la situation a un aspect physique puisque


l’énergie peut être extraite par le processus de mélange lorsque l’entropie
augmente. Cela suggère que l’entropie du système devrait être une quantité
objective, quelque chose qui ne cadre pas avec l’existence des différents
résultats pour les deux observateurs, qui ne dépend pas de leur perception
de la réalité du phénomène. Gibbs a cependant fait remarquer que
l’extraction de l’énergie dépend de l’appareil expérimental de l’observateur
(c’est-à-dire de sa conscience et de sa compétence). Ainsi, l’observateur
averti peut extraire de l’énergie, tandis que l’observateur ignorant doit faire
face à son incapacité à le faire. Cela rend la réalité de chaque observateur
cohérente avec le changement d’entropie auquel il assiste. En d’autres
termes: Cooper, qui ne comprend rien à la physique et ne sait pas que le
mélange entre les deux gaz produit de l’énergie extractible, ne pourra donc
jamais utiliser cette énergie disponible et s’il ne peut l’utiliser, alors nous
pouvons conclure qu’il n’y a pas d’énergie extractible pour Cooper. Au
contraire, vous qui vous y connaissez un peu, pourriez l’utiliser, donc elle
existe pour vous et elle est utilisable.

Surprenant et embrouillant la communauté des physiciens quand il fut


proposé pour la première fois en 1875, le paradoxe de Gibbs a depuis
trouvé de nombreuses solutions. Des chercheurs de l’université d’Oxford et
de l’université de Nottingham au Royaume-Uni ont récemment fait la
lumière sur le paradoxe de Gibbs dans le domaine quantique.

En exploitant les effets quantiques, ils ont démontré qu’il est possible
d’extraire plus d’énergie d’un système que ce qui serait possible de manière
classique. Leur résultat jette les bases théoriques d’une démonstration
expérimentale future et pourrait avoir des applications dans le but de
manipuler de grands systèmes quantiques. Les chercheurs ont considéré
comment les effets quantiques auraient influencé l’expérience mentale.
Comme dans le cas classique, l’observateur averti assiste à une
augmentation de l’entropie (tout comme avant, donc). Pour l’observateur
ignorant, en revanche, il y a une différence marquée après la transition vers
le royaume quantique. Bien qu’il ne soit pas encore en mesure de distinguer
les deux gaz, il peut maintenant voir une augmentation de l’entropie. À la
limite macroscopique, cette augmentation de l’entropie peut aussi devenir
aussi grande que celle que perçoit l’observateur informé. Les chercheurs
travaillent actuellement à une proposition visant à démontrer
expérimentalement cet effet. Ils ont déclaré que cela nécessitait un degré de
contrôle quantique, ce qui ne pourrait être possible qu’en respectant des
conditions strictes. Ils croient qu’il serait possible d’utiliser cette théorie
pour construire un moteur thermique quantique efficace, qui pourrait
fonctionner à des régimes où un moteur thermique classique échouerait
(vaisseaux spatiaux intergalactiques?).

Ce concept particulier, comme nous le verrons plus loin, a des implications


à la fois sur la Terre et dans l’espace. Hawking a théorisé que même les
trous noirs sont soumis à la loi de l’entropie. En ce qui concerne la
dynamique et les conséquences de l’entropie pour la vie sur notre planète,
comme nous l’avons vu, les perspectives ne sont pas meilleures. Si les
prévisions de Clausius étaient confirmées, ce que les chercheurs appellent
“Big Freeze” se produirait: le grand gel (clairement placé en antithèse avec
le Big Bang à partir duquel tout a commencé). La théorie est très
controversée et en physique quantique, le manque d’informations
disponibles sur les effets gravitationnels et quantiques de l’entropie semble
militer contre Clausius.

Il va sans dire que chacun d’entre nous devrait souhaiter que cette théorie
ne se produise jamais.

2.5 Ondes de lumière


Abandonnons un instant le domaine de l’énergie cinétique pour nous
concentrer sur l’un des phénomènes les plus complexes dans la nature: la
lumière. On est de retour sur le bord de la route. Notre ami Cooper tient une
torche. On en a une dans la main. Nous sommes à 3 kilomètres l’un de
l’autre. Cooper allume sa lampe torche, nous allumons la nôtre dès qu’on la
voit. Si la lumière parcourait 3 km/s, le signal envoyé par Cooper serait
visible exactement une seconde après l’allumage de sa torche; La lumière
de la nôtre arriverait à Cooper deux secondes plus tard. Cette expérience
mentale (qui part d’hypothèses Galiléennes) ne nous permet pas vraiment
de mesurer la vitesse de la lumière, mais nous offre la bonne approche à
partir de laquelle commencer. Le fait est que pour pouvoir mesurer la
vitesse exacte à laquelle la lumière voyage dans le vide, il faut observer des
distances infiniment grandes, bien supérieures à quelques kilomètres,
comme la distance entre les planètes. Il a été largement démontré
aujourd’hui que la vitesse à laquelle la lumière traverse l’espace est
d’environ 300 000 km/s. Cette valeur n’est pas toujours valable, mais elle
est expressément liée au phénomène de la lumière qui voyage dans le vide.
Que se passe-t-il lorsque la lumière traverse la matière, par exemple le verre
ou l’eau? Le phénomène que nous observons dans ces cas est appelé
diffraction. Pour comprendre de quoi il s’agit, on peut imaginer un canon
plongé dans l’eau, à la vue il apparaît plié, l’image subit une sorte de
déviation. La diffraction fait partie des phénomènes optiques, c’est-à-dire
tous les phénomènes qui ne peuvent être décrits qu’en considérant le
phénomène observé (dans ce cas, la lumière, mais aussi le son) comme une
onde (électromagnétique). En appliquant les principes de la physique
classique, nous sommes amenés à supposer que lorsque les corps de lumière
heurtent une surface, les effets qui se produisent sont les mêmes qu’une
force exercée par les particules sur d’autres particules matérielles, c’est-à-
dire que la vitesse est modifiée.

Nous ajoutons maintenant une autre information, à savoir que la lumière du


soleil est blanche (ou ainsi apparaît à nos yeux), mais quand la même
lumière traverse un prisme de cristal, elle se divise en plusieurs couleurs
(les mêmes que l’on peut observer dans l’arc-en-ciel). Huygens, nous dit
que la lumière est une onde, c’est-à-dire un transfert d’énergie (qui se
déplace à l’intérieur d’un espace relativiste, comme nous le verrons dans le
chapitre suivant). Nous savons aujourd’hui que l’objet physique “vague” est
caractérisé par deux grandeurs, vitesse et longueur. Dans la théorie
ondulatoire de la lumière, substitutive des théories classiques de Newton sur
les corpuscules de lumière, il est fondamental que chaque longueur d’onde
corresponde à une couleur spécifique. En effet, les couleurs peuvent être
isolées et observées individuellement (l’ensemble des couleurs des rayons
de lumière est appelé spectre). Nous pouvons en tirer les conclusions
suivantes: différentes longueurs d’onde, non seulement correspondent à
différentes couleurs, mais prennent la même vitesse dans le vide; la lumière
apparaît blanche, car elle est constituée de l’ensemble de toutes les
différentes longueurs d’onde appartenant au spectre. Cela suggère que tous
les phénomènes optiques répondent à la théorie ondulatoire. Sans entrer
dans les détails purement académiques, il nous suffira de savoir, pour
l’instant, que ces ondes sont transversales et non longitudinales, ce qui,
nous conduit à l’hypothèse fondamentale selon laquelle l’éther n’est pas de
l’air (comme l’a supposé à tort Huygens). Le concept même de l’éther, en
fait, de la physique classique, est en lui-même erroné. Avant l’avènement de
la théorie ondulatoire, en effet, en supposant la lumière constituée de
corpuscules, on avait supposé que les ondes électromagnétiques se
propageaient à travers une sorte d’espace gélatineux (l’éther lumineux). Les
expériences de Young remettent en question l’existence de cet élément, ce
qui rend nécessaire la recherche d’une solution différente au problème de la
propagation des ondes de lumière dans l’espace. La difficulté d’expliquer, à
travers la mécanique classique, la matière dont sont composés ceux qui
prennent aujourd’hui le nom de photons, est étroitement liée à
l’impossibilité de reconstruire un éther artificiel à travers lequel étudier les
comportements optiques des faisceaux de lumière; ces difficultés n’étaient
pas et ne peuvent être surmontées. Le fait que la lumière puisse traverser
aussi bien l’espace vide que le verre et l’eau (même si elle subit une
variation de vitesse) conduit à une seule hypothèse admissible, à savoir la
théorie de la relativité restreinte, que nous aborderons dans le chapitre
suivant. Pour l’instant, nous devons garder à l’esprit que le mouvement
d’un faisceau de lumière est de type ondulatoire et que ses ondes sont
transversales.

2.6 La nécessité de dépasser le modèle


classique
Malgré les tentatives d’adapter la physique mécanique, dans son acception
classique, à l’étude des phénomènes optiques et électriques, certaines
limites ne peuvent être franchies. À ce moment, où les scientifiques
prennent conscience que toute la réalité ne peut pas être expliquée par la
physique classique, le relativisme d’Einstein et les interprétations de Bohr
entrent en jeu (d’ailleurs ce sont précisément les difficultés rencontrées le
long du parcours qui incitent les esprits à rechercher des solutions
alternatives pouvant conduire à des explications vérifiées et vérifiables).
Nous énumérons quelques-unes des difficultés insurmontables à travers
l’application de la physique traditionnelle: l’incapacité de considérer la
vitesse comme un élément pouvant agir sur la force exercée sur une matière
donnée; l’inadaptation des modèles classiques à la vérification de la vitesse
et des phénomènes optiques liés à la lumière; l’erreur de considérer la
chaleur comme une substance au lieu de l’énergie (dans le cadre de l’étude
de la thermodynamique); l’inefficacité de l’adaptation des théories et des
modèles typiquement associés aux planètes et aux mouvements célestes, à
des particules infiniment petites comme les atomes et les molécules (et
quanta); Mais surtout, l’incapacité à expliquer le dualisme onde-particule
détecté dans les effets optiques par Einstein lui-même. Ces incompatibilités
descriptives et explicatives en ce qui concerne l’observation de ce qui est
dans la nature si microscopique qu’il ne peut être observé, ont conduit les
scientifiques à abandonner les théories classiques en faveur des nouvelles
hypothèses quantiques (que nous verrons d’ailleurs être probabilistes et non
absolues). Ensemble, nous découvrirons que l’abandon du modèle classique
n’a pas abouti à l’adoption d’un modèle unique, mais plutôt à une multitude
de théories alternatives, toutes avec l’ambition de devenir un système
d’explication unique possible. Du modèle standard à la théorie des cordes,
de l’interprétation de Copenhague aux dérivations des théories des
nombreux mondes et de l’entanglement quantique, toutes les nouvelles
théories cherchent à s’ériger en Théorie du Tout (la véritable chimère de la
physique moderne).

En réalité, nous sommes encore très loin d’un tel résultat. Les partisans de
l’un ou l’autre courant scientifique pensent clairement qu’ils sont tous
proches de la solution du problème, mais les preuves des résultats font
défaut.

Dans la physique moderne, les plus grandes conquêtes en termes de


connaissance du monde, concernent la conscience que l’espace et le temps
ne peuvent pas être considérés comme absolus, mais relatifs, c’est-à-dire
selon le système de référence. Les nouveautés introduites par la physique
quantique et relativiste ont ouvert la voie à de nouvelles tentatives afin de
comprendre et d’expliquer des phénomènes tels que les trous noirs,
l’essence dont est formée la matière, les interactions entre les particules
dont elle est composée, jusqu’à arriver aux hypothèses les plus extrêmes sur
l’existence de dimensions parallèles et contemporaines à celle dans laquelle
nous vivons.

C’est fascinant, je sais. Un peu effrayant aussi.

Je sais que vous avez hâte d’arriver à la fin du livre pour savoir si certaines
de ces théories sont vraiment possibles, mais pour atteindre n’importe quel
but, vous devez faire un voyage, donc nous devons poursuivre le chemin et
atteindre l’étape suivante.

L’argument suivant pourrait vous décourager, la théorie de la relativité est


souvent considérée comme une élaboration si complexe qu’elle ne peut être
décrite en termes compréhensibles par ceux qui n’ont pas une préparation
scientifique, et pourtant elle vous surprendra comme un concept si
innovateur et à l’avant-garde en fait soit, dans son essence, extrêmement
logique et déductif.

Nous avançons sans plus attendre.


Chapitre 3
ET PUIS TOUT EST DEVENU
RELATIF

En théorie de la relativité il n’y a pas de temps absolu,


mais chaque individu a sa propre mesure du temps, qui
dépend de l’endroit où il se trouve et de la façon dont il se
déplace.
S. Hawking

L e concept de relativité est étroitement lié au concept de “champ”, nous


ne pouvons pas faire abstraction de la compréhension de ce dernier si
nous voulons vraiment comprendre la théorie la plus célèbre d’Einstein. La
complexité des représentations mathématiques du champ nous pousse, une
fois de plus, à procéder en simplifiant, autant que possible, les aspects
techniques en faveur d’une vue d’ensemble. Quoi qu’il en soit, le
relativisme est un concept philosophique avant même qu’il ne soit physique
ou mathématique, ce qui signifie que nous pouvons en comprendre le sens
fondamental sans avoir à en approfondir les formulations scientifiques.
Nous essayons de retracer le moment où la transformation a eu lieu.
Nous sommes au début des années 1900, une époque de grande
effervescence pour la communauté scientifique, où la plupart des
protagonistes de la nouvelle physique naissante sont des personnalités
reconnues presque comme stars de cinéma (il y avait des gens qui auraient
tué pour avoir l’honneur d’accueillir Albert Einstein à sa table). Les
physiciens voyageaient d’une partie du monde à l’autre pour se rencontrer
et se confronter sur les théories qui les maintenaient éveillés pendant la nuit.

Il y avait le sentiment que quelque chose d’extraordinaire allait être


découvert et que le cours de la science allait changer pour toujours. À la
différence des révolutions scientifiques précédentes, où le tournant
dépendait principalement de personnalités (Copernic, Galilée, Newton), la
plupart des découvertes étaient le fruit de collaborations entre différents
représentants de la communauté scientifique. Les travaux d’Einstein, Bose,
Bohr, Schrödinger, Hilbert, Feynman et les autres sont étroitement liés,
interdépendants, souvent complémentaires. C’est quelque chose qui n’avait
jamais eu lieu auparavant et qui reflète le changement auquel la société et le
monde se dirigeaient. Aujourd’hui, la collaboration entre physiciens et
universitaires, d’un bout à l’autre du monde, est quelque chose de spontané
et de naturel. Autrefois, cependant, les difficultés évidentes liées aux
déplacements et aux communications rendaient la comparaison plus unique
que rare. Les histoires d’escarmouches et d’escarmouches professionnelles
parmi les principaux représentants de la nouvelle révolution scientifique
sont un fait bien connu, mais l’aspect positif de tant d’interaction ne peut
pas ne pas se reconnaître dans le développement de différentes théories à
double ou triple signature, mais commençons par le début.

3.1 Le champ
Conventionnellement, il est utilisé pour faire remonter l’avènement de la
physique moderne à partir du XIXe siècle, grâce aux nouvelles théories
introduites par James Clerk Maxwell et Heinrich Hertz. Nous devons à
Maxwell la réunification de toutes les théories éparses sur les phénomènes
électriques et magnétiques, dans la seule grande branche de
l’électromagnétisme. En effet, ses formulations et équations démontrent que
l’électricité, la lumière et le magnétisme sont des manifestations du champ
électromagnétique. La découverte la plus importante concerne la
propagation des champs électromagnétiques, qui se comportent comme des
ondes voyageant à la vitesse de la lumière. Mais allons-y dans l’ordre,
qu’est-ce que le champ?

Partant du principe que deux particules s’attirent l’une envers l’autre (force
d’attraction) avec une intensité plus élevée lorsqu’elles sont proches, avec
une intensité moindre lorsqu’elles sont éloignées, le terme “champ” désigne
l’espace entre deux corps qui s’attirent et donc la possibilité de mesurer un
ensemble de valeurs et de grandeurs en un point donné du champ. C’est un
objet physique. Il existe plusieurs types de champs (électriques,
magnétiques, gravitationnels), chacun étant pris en compte dans les
observations des phénomènes correspondants. La théorie des champs est le
moyen par lequel nous pouvons observer les dynamiques et les variations
d’un champ dans le temps. En fonction des formules utilisées pour prévoir
les variations d’un champ, nous nous retrouverons avec des solutions
classiques ou quantiques. En ce qui nous concerne, nous nous
concentrerons sur les champs électromagnétiques et les équations qui leur
sont applicables.

Grâce aux équations de Maxwell, vous pouvez prédire les scénarios


possibles de variation d’un champ en fonction des caractéristiques de
l’espace et du temps, et voici le moment de virage: la mécanique classique
permettait de prévoir le comportement des particules; avec les équations de
Maxwell, nous pouvons prédire le comportement de tout le champ
électromagnétique. Et ce n’est pas seulement, contrairement aux
applications en physique classique, ce qui importe dans les champs
électromagnétiques ce sont les interactions du ici et maintenant, pas ce qui
se passe ici, par rapport à ce qui se passe à grande distance (comme c’était
dans les champs gravitationnels de Newton). En d’autres termes, nous
pouvons prédire ce qui va se passer à l’intérieur du champ à très courte
distance et ensuite à une distance ultérieure encore et courte. De
nombreuses petites prévisions nous permettent d’observer des phénomènes
plus larges en termes d’espace et de temps. Tout cela pour arriver enfin à
une réflexion sur l’énergie. En effet, le champ représente l’énergie et ses
variations dans l’espace (à une vitesse donnée) produisent une onde
transversale (comme celle de la lumière, souvenez-vous?). Ces ondes
électromagnétiques se propagent dans un espace vide même lorsque la
charge qui les produit cesse soudainement de se déplacer et que le champ
devient électrostatique. Cela signifie qu’elles sont des ondes indépendantes
et que leur vitesse est la même que la lumière.

Comment? Pourquoi? Une onde électromagnétique peut-elle se déplacer à


300 000 km/s? Eh bien, oui. C’est ce qu’a démontré Heinrich Rudolph
Hertz, dont les théories (éprouvées par des expériences tout à fait
vérifiables) sont à la base des moyens de télécommunication avec lesquels
nous arrivons aujourd’hui à nous mettre en contact, en de très petites
fractions de temps, avec quelqu’un qui se trouve de l’autre côté du monde.

En résumé, il existe de nombreuses similitudes entre les ondes


électromagnétiques et les ondes de lumière. Les deux sont des ondes
transversales qui se propagent dans le vide à la même vitesse, la seule
différence étant leur longueur: courtes les ondes de lumière perçues par
l’œil humain, très longues les ondes électromagnétiques. L’espace vide dans
lequel elles se propagent, l’éther gélatineux pour lequel il n’a pas été
possible de créer un modèle mécanique aux fins de l’étude et de
l’observation classique, n’est autre que le champ ou mieux, l’espace-temps
quadri-dimensionnel. Le champ électromagnétique est donc quelque chose
de réel qui nous permet de comprendre les interactions entre les charges,
mieux et plus que ne peuvent le faire les charges elles-mêmes.

3.2 Relativité spéciale


Revenons un instant au concept d’inertie, à savoir que tous les corps, à
moins qu’ils ne subissent l’action d’une force extérieure, restent dans un
état de repos ou de mouvement rectiligne uniforme. Or, malgré l’incroyable
laps de temps qui s’est écoulé entre les deux découvertes, l’ancienne
détermination du principe d’inertie constitue l’approche à partir de laquelle
se développe toute la théorie de la relativité spéciale. Tout d’abord,
permettez-moi d’apporter quelques précisions sur ce que vous décidez
d’observer en physique, à savoir un système de référence. Cette expression
désigne tout système par rapport auquel nous pouvons observer et mesurer
un certain phénomène. Qu’est-ce que cela signifie concrètement? Lorsque
nous observons le mouvement d’un corps, nous pouvons facilement deviner
que ce mouvement doit être relativisé par le système de référence par
rapport auquel nous le regardons (observer un train en course du bord d’une
route est bien différent de le regarder en regardant par la fenêtre d’un autre
train en marche). L’utilisation d’un “système de référence” nous permet de
construire un graphique (ou une représentation mathématique) par lequel
nous pouvons décrire et mesurer les conditions d’espace, de temps, de
vitesse et de position de l’objet de notre observation.

Mais pourquoi y aurait-il une corrélation avec le concept d’inertie?

Parce que la physique nous enseigne que lorsque nous regardons un


“système de référence inertielle”, les lois de la mécanique sont “en
variantes”, c’est-à-dire applicables indistinctement du système (à condition
qu’il soit inertiel). Simplifions: un système inertiel est un système qui obéit
aux principes d’inertie et de mouvement rectiligne uniforme. Existe-t-il des
systèmes d’inertie? On pense généralement que le soleil et les étoiles (dites
fixes), ainsi que la Terre, peuvent l’être, mais ce ne sont pas de véritables
systèmes inertiels, car sujets à des mouvements de rotation qui génèrent une
force centrifuge (quoique négligeable).

Cependant, nous considérons qu’il existe des systèmes inertiels absolus,


pour ainsi dire, le postulat sur la relativité de Galilée dit: si les lois de la
mécanique sont valables pour un système de coordonnées donné, elles sont
valables pour tout autre système qui est en mouvement uniforme par
rapport au premier. Où est le problème? Il réside dans le fait que le
mouvement uniforme absolu, en physique classique, n’existe pas; de plus,
les lois physiques doivent pouvoir s’appliquer à tous les systèmes et pas
seulement à certains. En ce sens, la théorie de la relativité spéciale est une
spécification et en tant que telle, comprise et contenue, dans la théorie plus
large de la relativité générale.

Revenons un instant à notre discussion sur le problème de la mesure de la


vitesse à laquelle la lumière voyage dans le vide. Nous avons vu que cette
vitesse est constante. Revenons maintenant aux systèmes inertiels, où les
lois de la physique sont les mêmes pour les phénomènes optiques et pour
les phénomènes électromagnétiques. Mettons les deux informations
ensemble, pour essayer de comprendre ce qu’Einstein voulait dire quand il
a formulé la théorie de la relativité restreinte: si les observateurs sont
inertiels, les mesures qu’ils feront des variables espace et temps ne peuvent
correspondre, au contraire, des dilatations et des contractions de l’une et de
l’autre pourraient se produire.

De là découlerait la conception du continuum espace-temps comme unique


entité quadridimensionnelle. Comprenons ce que cela signifie.

Lorsqu’un objet se déplace en mouvement rectiligne uniforme (c’est-à-dire


en l’absence d’accélération, il est le long d’une ligne droite), les lois
applicables de la physique sont dites “invariantes”, c’est-à-dire valables
pour tous les systèmes observés sans distinction. Mais si, pour reprendre
l’exemple précédent, nous regardons par la fenêtre d’un train et voyons un
autre train à côté qui semble également se déplacer, sommes-nous dans le
train en marche? Ou bien sommes-nous à l’arrêt et l’autre train bouge-t-il?
Einstein nous dit que si le mouvement est parfaitement uniforme, il est
impossible de parvenir à une réponse certaine. Il semblerait donc que
l’incertitude soit la véritable certitude. Maintenant, nous avons aussi dit que
la lumière voyage à une vitesse d’environ 300 000 km/s, peu importe la
vitesse à laquelle un observateur se déplace ou la vitesse à laquelle un objet
émettant de la lumière se déplace, la mesure aura toujours le même résultat.

Imaginons que nous soyons à bord d’une fusée lancée vers l’espace,
regardons par la fenêtre et voyons que nous sommes en train de passer au-
dessus de la fusée sur laquelle Cooper est monté. Nous avons tous les deux
une montre au poignet qui a été parfaitement synchronisée avant le départ.
Que se passe-t-il? L’horloge de Cooper marquera quelques secondes en
arrière, c’est-à-dire que le temps passera plus lentement. Ce phénomène est
appelé dilatation temporelle. Mais quelque chose d’autre se produit, la fusée
de Cooper apparaîtra plus courte que la nôtre. En même temps, au moment
où notre fusée accélère, notre masse et celle de la fusée sur laquelle nous
voyageons augmenteront, nous deviendrons de plus en plus lourds et notre
fusée commencera à résister aux tentatives d’augmenter encore la vitesse.
Cette résistance implique que tout ce qui a une masse ne pourra jamais, par
nature, atteindre la vitesse de la lumière et que, comme la masse est aussi
énergie (et l’énergie possède une masse), nous pouvons fusionner les lois de
conservation en une seule formulation valable pour les deux caractéristiques
physiques. Mais s’il y a un lien aussi indissoluble entre la masse et
l’énergie, alors peut-être qu’elles sont interchangeables.

Nous voici enfin arrivés à la formulation la plus connue au monde: E = mc2


où E indique l’énergie, m la masse et c2 la vitesse de la lumière multipliée
par elle-même. La vitesse de la lumière étant de 300 000 km/s, même la
plus petite quantité de masse, multipliée par un nombre de 3 centaines de
milliers, équivaudra à une grande quantité d’énergie (c’est pourquoi les
bombes atomiques et celles à hydrogène sont si puissantes). Maintenant,
élargissons les horizons et voyons ce qui se passe en incluant la gravité dans
l’équation.

3.3 Relativité générale


Passons à l’ensemble le plus grand, celui de la relativité générale. En gros,
il décrit la gravité non pas comme la force invisible traditionnelle qui nous
attire tous, mais plutôt comme une courbure, ou plutôt comme une sorte de
pliage de l’espace, qui est: plus la masse de l’objet est grande, plus on
observe une déformation de l’espace autour de celui-ci. Le soleil, par
exemple, est si massif qu’il déforme l’espace à travers notre système
solaire, et c’est pourquoi la Terre et les autres planètes se déplacent le long
de voies curvilignes (orbites) autour d’elle.

Ça a du sens. C’est le discours de la balle sur le drap tendu et suspendu


créant logiquement un creux au centre du drap.

Mais Einstein nous dit aussi que cette déformation affecte non seulement
l’espace, mais aussi le temps. Pourtant, notre perception du temps est qu’il
passe à un rythme constant, le long d’une ligne droite, du passé vers le futur
(il ne peut donc s’écouler qu’en avant). La gravité peut-elle aussi affecter et
déformer le temps? On dirait bien.

Imaginons que Cooper soit monté en haut d’une montagne et qu’on soit
restés en bas. Les expériences (vérifiées) nous disent que l’horloge de
Cooper tape plus vite que la nôtre. Pourquoi? Parce que la force de gravité,
dans l’interprétation relativiste, déforme le tissu espace-temps en exerçant
sa force d’attraction bien connue. En pratique, l’espace et le temps étant
indissolublement liés, l’action de la gravité affecterait l’unité indivisible au
même titre qu’une force extérieure quelconque exercée sur un corps formé
de plusieurs composants.

La théorie de la relativité a été prouvée par quelques découvertes et


expériences scientifiques vérifiées au fil des ans. Pour n’en citer qu’une: la
découverte de l’orbite de Mercure, la planète la plus proche du Soleil. En
raison de la proximité entre les deux planètes, la force d’attraction entre les
deux planètes devait être (selon les lois de la mécanique théorisées par
Newton) plus forte que celle qui existe entre le Soleil et les planètes plus
éloignées. Selon les anciennes théories, la trajectoire suivie par Mercure
devait donc être identique à celle des autres planètes, seulement placée à
une moindre distance du Soleil. La théorie de la relativité explique d’une
part que Mercure doit tourner autour du Soleil. Mais de l’autre, qui doit le
faire en suivant une ellipse qui doit correspondre au système de
coordonnées relié au Soleil (de cette façon nous pouvons prédire et mesurer
la taille de l’orbite). En fait, ce qui ne pouvait pas être expliqué par les lois
de Newton a été démontré par la relativité d’Einstein.

Imaginer l’espace-temps quadridimensionnel est impossible pour l’esprit


humain, qui ne peut concevoir que des représentations bidimensionnelles ou
tridimensionnelles (dans notre esprit le temps est une ligne droite, qui suit
une direction bien précise). Pour cette raison, l’espace-temps quadri-
dimensionnel ne peut être décrit que par des formulations mathématiques
rigides et complexes qui nécessitent des connaissances et des compétences
bien plus avancées que celles qu’un livre au caractère ouvertement
divulguant, comme celui-ci, peut exprimer. Par ailleurs, le but de ce voyage
n’est pas de maîtriser les sciences quantiques, mais plutôt d’en comprendre
les traits généraux.

Pour cette raison, nous supposerons simplement que les descriptions des
mouvements dans l’espace-temps d’Einstein ont un caractère curviligne ou
à quatre dimensions (en opposition ouverte avec toutes les représentations
graphiques de la physique classique, dans laquelle il existe la
bidimensionnalité).

3.4 Hilbert et la naissance d’une nouvelle


idée de l’espace mathématique
En réalité, ce chapitre traite principalement de mathématiques, non pas de
physique, mais en mécanique quantique, d’ailleurs, il faut nécessairement
faire largement usage de concepts mathématiques pour comprendre les
dynamiques de particules infiniment petites. Les mathématiques deviennent
un instrument au service de la mécanique quantique, surtout lorsqu’il est
nécessaire de “représenter” des systèmes de détermination et de
vérification. Il est très difficile de traduire des formules mathématiques en
des mots faciles à comprendre, mais nous essaierons ensemble. Pour des
raisons d’opportunité évidente, nous laisserons de côté certains concepts qui
nécessitent des compétences trop avancées, en essayant de nous concentrer
sur les concepts fondamentaux.

Nous partons à nouveau des limites objectives de la mécanique classique,


dans ce cas de la difficulté d’expliquer et de décrire les constructions et les
interactions entre particules (atomes et molécules) parce qu’elles sont trop
petites pour être observées. Le problème se pose lorsque nous devons
représenter l’état physique de la matière, l’état physique étant une
classification conventionnelle des états que peut prendre l’agglomération de
molécules en fonction de ses propriétés mécaniques.

Ainsi, en mécanique quantique, l’état physique peut être représenté par les
mathématiques. Comment? En utilisant les espaces de Hilbert (que nous
verrons plus loin être rappelés aussi dans la théorie du multi-vers de
Tegmark).

L’espace de Hilbert est une construction mathématique (et non l’espace


comme nous l’entendons habituellement). En fait, l’espace, en
mathématiques, désigne un ensemble de vecteurs qui interagissent d’une
certaine manière (vous vous souvenez des flèches qui indiquent la direction
de la force?). Il s’agit d’un système tridimensionnel dans lequel la distance
métrique entre les vecteurs est définie. L’espace autour de nous est un sous-
ensemble de l’espace Hilbert que nous venons de définir, où les vecteurs
tridimensionnels suivent la géométrie euclidienne. Maintenant que nous
avons quelques idées sur la définition générique de l’espace, nous devons
imaginer un grand ensemble avec différents sous-ensembles concentriques à
l’intérieur. Un diagramme en oignon.

Le cercle extérieur est constitué par l’espace topologique, qui renferme


l’espace métrique, qui à son tour renferme l’espace vectoriel normalisé et
enfin, nous voici à l’espace de Hilbert, au cœur du diagramme.

Mais l’espace et l’espace topologique sont-ils la même chose? Non, ils ne le


sont pas. L’espace (toujours en mathématiques, vous abandonnez l’idée
d’espace physique pour la façon dont vous le percevez) est classé en deux
types fondamentaux: les espaces linéaires et les espaces topologiques. Cette
classification est grossière parce qu’elle laisse entendre qu’il existe des
alternatives à l’un ou à l’autre, mais vous devez savoir que ce n’est pas
toujours ce qui se passe parce qu’ils ne s’excluent pas toujours les uns aux
autres. Les espaces linéaires sont des espaces vectoriels qui obéissent à des
opérations prédéfinies, conformément au principe de linéarité. Ces espaces
sont toutefois limités par l’incapacité de définir une ligne perpendiculaire
ou un cercle, car il n’existe pas de concept de produit intérieur
(fondamental, nous verrons plus loin, pour nous retrouver dans les espaces
de Hilbert).

Les espaces topologiques sont plus proches du monde réel et nous aident à
définir les choses autour de nous comme des surfaces uniformes. Avant de
comprendre ce qu’est l’espace topologique, il est important de comprendre
la signification de la topologie. En mathématiques, la topologie est définie
comme une construction fondamentale de l’espace qui est préservée malgré
des déformations continues, c’est-à-dire qu’elle peut s’allonger, se plier,
s’effriter, mais pas s’arracher (comme les draps pour nous entendre).
L’espace métrique est un sous-ensemble de l’espace topologique dans
lequel la métrique peut être définie, c’est-à-dire où une fonction qui calcule
la distance entre deux points A et B dans l’espace peut être établie. Un autre
concept important que nous devons comprendre pour aller de l’avant est
celui de l’exhaustivité d’un espace métrique. Maintenant, pour comprendre
ce que cela signifie, nous devons mentionner ce que sont les séquences de
Cauchy. Nous n’allons pas entrer dans les détails, il suffit de savoir que
c’est une séquence dont les points se rapprochent de plus en plus au fur et à
mesure que la séquence avance. Dans un espace métrique, la séquence de
Cauchy est définie comme la séquence dont la distance se réduit au fur et à
mesure que la série de points avance dans l’espace. Les espaces métriques
n’ont pas de fonctions définies en dehors de la fonction métrique, mais la
plupart des applications dérivées de l’analyse d’un espace métrique
proviennent d’une norme, identifiée dans la longueur du vecteur. Qu’est-ce
qu’une norme? En mathématiques, la norme est une fonction qui émet une
valeur positive qui dénote la longueur ou la grandeur pour chaque vecteur
dans un espace vectoriel (à l’exception d’un vecteur zéro). Récapitulons.
Tous les espaces vectoriels normalisés sont des espaces métriques, car une
distance peut être définie à l’intérieur de ces espaces; la norme de chaque
transporteur est toujours un nombre réel positif.

Bien. Lorsqu’un espace topologique, normalisé et métrique est complet


(c’est-à-dire qu’il obéit à la séquence de Cauchy), il est appelé espace de
Banach. Et nous y voilà presque, accrochez-vous.

L’espace de Hilbert est une spécification de l’espace de Banach où


l’élément qui fait la différence est que les données relatives à la métrique
sont le résultat d’un “produit interne”.
Et maintenant? Qu’est-ce que ce produit intérieur? Les produits intérieurs
sont l’effet spécial des espaces métriques, car à travers eux il est possible de
calculer et de représenter l’orthogonalité et l’angle entre les vecteurs. Si on
décompose les produits internes, on arrive aux représentations de la
géométrie euclidienne (et c’est pourquoi parmi les définitions de l’espace
de Hilbert, on trouve souvent celle de “généralisation d’espaces
euclidiens”). Pour conclure, donc, l’espace de Hilbert est un produit
intérieur qui satisfait à l’exhaustivité. La structure supplémentaire qui le
rend complet est l’introduction d’une fonction de distance définie:

Il est clair que le sujet est complexe. Par ailleurs, les mathématiques doivent
répondre à des lois précises et rigoureuses, dont les principes sous-jacents
sont souvent extrêmement articulés, pour pouvoir fonctionner et jouer
correctement son rôle. En l’absence d’une formation scientifique
académique, comprendre en profondeur les implications de ces systèmes
fonctionnels est pratiquement impossible (en fait pas nécessaire), et
pourtant, avoir une idée, ne serait-ce que mentionnée dans ses contours
fondamentaux, de concepts tels que celui-ci est utile dans la compréhension
de constructions quantiques telles que le continuum espace-temps, les
interactions entre photons et d’autres nombreux sujets dont nous allons
traiter plus loin.
Chapitre 4
L'EXPÉRIENCE SURPRENANTE
DE YOUNG

Il est vrai que nous pouvons presque parler de “vagues” et


de “corpuscules”, mais les deux descriptions ont la même
validité.
W. Heisenberg

L ’une des expériences les plus connues dans le domaine de la physique


des particules est celle conventionnellement appelée “double fissure”
du physicien Thomas Young. Il ne s’agit pas d’une expérience mentale,
comme les paradoxes observés jusqu’à présent, mais d’une véritable
démonstration concrète.
L’expérience a montré que les particules de matière sont entourées d’une
sorte de vague autour d’elles et que l’acte même d’observer une particule
donnée entraîne des effets qui se produisent dans la réalité même de leur
comportement.
Imaginons un mur avec deux fissures. Imaginons maintenant notre Cooper,
face au mur et lancer des balles de tennis contre lui. Certaines rebondiront
sur le mur, mais d’autres traverseront les fissures. Désormais, faisons un pas
de plus et imaginons qu’il y ait un autre mur, juste derrière le premier. Il va
sans dire que les balles de tennis qui sont passées à travers les fissures du
premier mur vont le frapper. Si nous devions marquer tous les points où une
balle a frappé le deuxième mur, qu’observerions-nous? Probablement deux
bandes de signes plus ou moins de la même forme que les fissures.
Jusqu’ici, tout va bien. Imaginons à présent, remplacer les balles de tennis
par un rayon de lumière (d’une seule couleur, c’est-à-dire d’une seule
longueur d’onde, nous savons qu’on peut ne pas les isoler) et de placer les
deux fentes à une distance plus ou moins égale à la longueur d’onde de la
lumière elle-même. Lorsque l’onde traverse les deux fentes, elle se divise
essentiellement en deux nouvelles vagues, chacune s’étendant vers la paroi
arrière.

Ces deux vagues vont interférer. À certains endroits, où un pic rencontre un


creux, ils s’annulent mutuellement, à d’autres, où le pic rencontre le pic, ils
se renforcent mutuellement. Les endroits où les vagues se renforcent
mutuellement donnent une lumière plus brillante. Quand la lumière
rencontre la paroi arrière, nous observerons un motif rayé, appelé “schéma
d’interférence”. En physique, le terme interférence décrit la superposition
de deux vagues ou plus à un point X de l’espace. Les conséquences de
l’interférence sont visibles par la mesure de l’amplitude globale des ondes
superposées, qui ne correspond pas (comme cela devrait logiquement être) à
la somme de l’amplitude des ondes individuelles (celles qui se sont
superposées en un point donné), mais subit des variations (il semble n’y
avoir rien de logique, je sais).
Les bandes lumineuses proviennent des vagues, qui se renforcent
mutuellement. L’expérience a été répétée avec succès plusieurs fois au fil
du temps. Essayons d’en retracer une: imaginons que nous tirions un
faisceau d’électrons sur le mur avec les deux fentes, mais pour le moment
nous gardons scellée l’une des deux fentes. Certains électrons traverseront
la fente ouverte et frapperont le second mur comme le feraient les balles de
tennis: les points où ils arrivent et frappent le mur, forment une bande plus
ou moins de la même forme que la fente. Maintenant ouvrons la deuxième
fente. Logiquement, nous devrions nous attendre à voir deux bandes
rectangulaires sur le second mur (comme nous l’aurions attendu pour les
balles de tennis), comme cela s’est produit avec les balles de tennis, mais ce
que nous voyons est très différent: les points où les électrons frappent le
second mur s’accumulent pour reproduire le schéma d’interférence d’une
onde. Comment ça? Pourquoi agissent-ils ainsi? Une possibilité est que les
électrons interfèrent d’une manière ou d’une autre, ils ne vont donc pas
jusqu’aux mêmes endroits qu’ils pourraient atteindre s’ils étaient seuls.
Cependant, le schéma d’interférence reste également lorsque les électrons
sont activés un par un, de sorte qu’ils n’ont aucune possibilité d’interférer.
Étrangement, chaque électron contribue en fixant un point sur un schéma
général qui ressemble au schéma d’interférence d’une onde. Donc, peut-
être, l’interprétation correcte est que chaque électron d’une certaine manière
se divise, passe par les deux fissures en même temps, interfère avec lui-
même, puis se recombine pour rencontrer le second mur comme si c’était
une seule particule localisée. Si nous utilisons un dispositif pour vérifier
cela, nous nous rendrons compte, en réalité, que le modèle d’interférence
disparaît. D’une certaine manière, observer les électrons, c’est comme de
petites balles de tennis bien éduquées. C’est comme s’ils savaient qu’ils
étaient espionnés et décidaient de ne pas être surpris en train de tricher sur
des mystères quantiques. Que nous dit l’expérience? Cela suggère que ce
que nous appelons des “particules”, comme le sont les électrons, combinent
en quelque sorte des caractéristiques des particules et des caractéristiques
des ondes. Cela a été établi dans le principe de dualité des particules d’onde
de la mécanique quantique. Cela suggère que le fait d’observer, de mesurer,
un système quantique ait un profond effet actif sur le système. En 2018, il a
été mené à l’École polytechnique de Milan, l’une des expériences de
réplication les plus extraordinaires au cours de laquelle les chercheurs ont
réussi à observer pour la première fois dans l’histoire une interférence
quantique de l’antimatière.

La question de savoir comment l’observation peut affecter le comportement


des particules est le plus grand dilemme quantique depuis la naissance de la
physique moderne: le fameux problème de la mesure (vous vous souvenez,
au début de notre voyage, Einstein qui demande à Pais s’il est vraiment
convaincu que la lune existe seulement quand elle est observée? C’est
exactement ce qu’il voulait dire. Je sais, c’est comme voyager avec un œil
tourné vers l’avant et un œil tourné vers l’arrière, mais la physique
quantique suppose ceci. Le continuum espace-temps suppose ceci. Au fur et
à mesure que l’on avance, ce qui semblait difficile et impossible à
comprendre devient presque évident. C’est ce qui se passe en rassemblant
l’information, étape par étape, jusqu’à ce que vous atteigniez le but (ce que
je vous rappelle être une étape parce que la destination finale, en mécanique
quantique, n’existe pas).

4.1 Le dualisme quantique et le principe de


complémentarité
Nous avons vu que les photons (Quanta de lumière) se comportent comme
des corpuscules et comme des vagues en même temps. Nous savons que
cela est confirmé par l’expérience de la fente double de Young.

Les photons et les électrons manifestent à la fois la nature corpusculaire et


les mouvements ondulatoires. C’est Einstein qui définit les photons
quantiques de lumière en 1921 (ce qui lui vaut d’ailleurs le prix Nobel). En
1924, Louis de Broglie émit l’hypothèse que les particules dotées de masse
avaient quand même une onde physique (autrement dit des ondes
physiques, parce qu’elles appartiennent à la particule qui constitue la
matière). Niels Bohr a défini le principe de complémentarité: la conscience
de ne pas pouvoir en même temps le double aspect onde-particule au cours
d’une expérience réalisée sur des corps infiniment petits comme les corps
atomiques. Pour résoudre l’évidente contradiction du dualisme, Bohr a
supposé que la complémentarité impliquait une sorte d’exclusion, c’est-à-
dire que l’observation d’un aspect au cours d’un seul procédé expérimental
exclut par nature celle de l’autre.
Chapitre 5
L'AVÈNEMENT DES QUANTA,
LE VENT DE COPENHAGUE

Je n’ai peut-être pas beaucoup plus de temps, je ferais


mieux de passer à autre chose en pensant aux quanta.
J. Wheeler

E n 1900, le physicien Max Planck présente sa théorie quantique à


l’Académie Prussienne de Berlin. Planck avait essayé de découvrir
pourquoi le rayonnement lumineux d’un corps incandescent, change de
couleur (passant du rouge, à l’orange et enfin au bleu) à mesure que sa
température augmente.
Raisonnant sur les différentes solutions possibles, il a supposé que ce n’est
qu’en acceptant l’énergie comme intrinsèquement présente à l’intérieur des
unités constitutives de la matière que l’on peut expliquer le phénomène.
Afin de représenter mathématiquement ces unités individuelles, il a formulé
une équation spécifique et a donné à ces singularités le nom de “Quanta”.
L’équation n’expliquait pas vraiment le fonctionnement des quantiques (elle
se limitait à constater que, à certains niveaux de température discrets,
l’énergie d’un corps incandescent occupe différentes zones du spectre des
couleurs), mais en supposant qu’il existe, elle contribuait à changer pour
toujours le cours des événements scientifiques et de notre compréhension
du monde de la nature.

Les deux contributions principales à la théorie quantique de Planck (qui lui


a valu le prix Nobel en 1918) sont venues de Bohr et Heisenberg, avec
l’interprétation de la mécanique quantique dite de Copenhague, et de la
théorie des nombreux mondes (ou multivers).

Selon l’interprétation de Copenhague: “dans chaque expérience


apparaissent simultanément des aspects ondulatoires et corpusculaires, et
le fait qu’ils se présentent les uns et les autres donne lieu au trouble qui
engendre les relations d’indétermination”.

Bohr a déclaré qu’un quantum est tout ce qui peut être mesuré (une onde ou
une particule, par exemple), mais qu’on ne peut pas présumer qu’il possède
des propriétés spécifiques, ou même qu’il existe, jusqu’à ce qu’il soit
mesuré. En d’autres termes, Bohr soutient que la réalité objective n’existe
pas, tout dépendrait de la perspective de l’observateur (interprétation
subjectiviste). Einstein a vivement critiqué cette approche, car malgré les
calculs probabilistes, il devrait toujours être possible de connaître les
événements qui ont donné lieu à un événement donné. Dans une lettre
envoyée à Bohr en décembre 1926, il écrivit la célèbre phrase “Dieu ne joue
pas aux dés avec l’univers”, faisant précisément référence au fait que les
calculs de probabilités typiques fondant la mécanique quantique ne
pouvaient en aucun cas être l’explication, mais au mieux un élément de plus
pour arriver à la connaissance de la cause déterministe de l’événement. La
légende raconte que Bohr répondit: “Arrête de dire à Dieu ce qu’il faut faire
avec ses dés”. Einstein, profondément réaliste et déterministe, n’accepta
jamais la mécanique quantique comme une théorie complète et
satisfaisante, mais comme un pas supplémentaire vers la réalisation de
nouvelles théories définitives.

Reprenons le postulat de Copenhague, selon lequel les particules prennent


en même temps tous les états possibles jusqu’à ce qu’elles soient observées.
Ce concept est communément appelé principe de “superposition”, à savoir:
l’objet est dans tous les états possibles jusqu’à ce que nous prenions
conscience de l’état dans lequel il se trouve par la mesure de la réalité.

Le paradoxe du Chat de Schrödinger explique parfaitement ce concept qui


pourrait paraître, à première vue, très discutable (pour employer un
euphémisme). Voyons ça ensemble.

En 1935, le physicien Erwin Schrödinger conçoit une expérience mentale


pour remettre en question l’applicabilité de la thèse de Copenhague à tous
les cas où l’on cherche à relier la mécanique quantique à des phénomènes
macroscopiques (et donc dans un domaine différent de celui des particules).

En mécanique quantique, en effet, les objets sont décrits de manière


probabiliste (c’est-à-dire, pour décrire le fait qu’une particule puisse se
situer dans différentes positions dans l’espace, elle se décrit comme
occupant simultanément toutes les positions possibles; c.a.d.
chevauchement d’états). Cependant, au moment de l’observation, la
perspective change radicalement et la particule, une fois observée dans une
position donnée, prend définitivement cette position.

Retournons au chat. Dans l’idéal, ce dernier est enfermé dans une boîte,
reliée à un dispositif contenant une petite quantité de matière radioactive. Si
l’un des atomes de la substance radioactive devait se désintégrer
(désintégration radioactive), alors il activerait un dispositif supplémentaire
qui, à travers un marteau, casserait une fiole de cyanure (placée à l’intérieur
de la boîte avec le chat), conduisant dramatiquement à la mort du félin
(toutefois, nous pouvons le dire, scène plutôt macabre et sanglante).

En fait, si l’atome se désintègre, le chat meurt. Si cela ne se produit pas, le


chat vit. Mais parce que nous ne savons pas, jusqu’à ce que nous vérifiions
ce qui s’est réellement passé, dans l’état de non-observabilité et d’attente, le
chat est à la fois vivant et mort. Et c’est le fameux paradoxe de Schrödinger.

Tant l’interprétation de Bohr que celle des nombreux mondes offrent des
lectures et des résolutions alternatives du paradoxe. Selon Bohr, le
problème serait surmonté par le fait que ce n’est pas l’observateur externe
qui détermine l’événement mort ou vie du chat, parce que c’est le chat lui-
même qui effectue l’observation du système quantique, dont le résultat est
toujours défini (atome déchu = mort; atome non déchu = vie).

La théorie des nombreux mondes, quant à elle, résout le paradoxe dans les
termes suivants: les deux options sont toutes deux réalisables et réalisables,
car elles coexistent. Nous ne pouvons pas nous en rendre compte parce que
ce mécanisme est lié à tout l’univers (et pas seulement à l’endroit où se
trouve le chat). Donc, l’observateur qui ne vérifie qu’une des deux
possibilités, n’a en fait (et fait partie de) qu’un seul des deux états de
l’univers. L’univers de cet objet (système) se transforme en une série
d’univers parallèles correspondant au nombre d’états possibles dans
lesquels l’objet peut exister, chaque univers contenant un seul état possible
de cet objet. De plus, parmi tous ces univers, il y aurait un mécanisme
d’interaction qui en quelque sorte permet à tous les états du système d’être
accessibles. Les célèbres Stephen Hawking et Richard Feynman sont parmi
les scientifiques qui ont exprimé une préférence pour la théorie des
nombreux mondes comme interprétation résolutoire des paradoxes
quantiques.

Mais revenons à Schrödinger, qui a contribué, en 1926, à avancer encore


plus dans le progrès scientifique du monde quantique.

L’équation qui prend son nom, décrit la forme des ondes de probabilité (ou
fonctions d’onde) qui gouvernent le mouvement de petites particules et
spécifie comment ces ondes sont altérées par des influences extérieures.
Schrödinger l’appliqua à l’atome d’hydrogène pour déterminer la justesse
de sa formulation, en réussissant à prédire avec une grande précision
plusieurs de ses propriétés. L’équation est largement utilisée en physique
atomique, nucléaire et de l’état solide.

Une dernière remarque concerne Werner Heisenberg (qui a contribué aux


théorisations de l’interprétation de Copenhague). Lors d’un séjour sur l’île
de Helgoland, Heisenberg élabore la formulation du rapport entre
mécanique et quantique afin de multiplier les matrices (moment et position)
d’un système quelconque. La légende raconte qu’il a été surpris par
l’intuition ingénieuse, consterné a dit à ses collègues “Je ne sais même pas
ce qu’est une matrice”. En substance, l’équation d’Heisenberg sur les
matrices et celle de Schroedinger sur les fonctions d’onde sont équivalentes
et conduisent toutes deux au même résultat, tout en poursuivant des voies
différentes. La seule différence réside dans la complexité de la première par
rapport à la seconde (plus simple). Les deux hommes, ouvertement en
conflit, se laissent aller à plusieurs escarmouches au fil des ans, résolues
ensuite par Bohr qui organise une rencontre, à Copenhague, afin de mettre
la paix et d’approfondir le débat scientifique en termes de collaboration.
C’est ainsi qu’Heisenberg a formulé le “principe d’indétermination”,
observant l’objet à l’impossibilité de connaître exactement la valeur de la
position et de la vitesse, en même temps. En d’autres termes, le principe
établit la limite à la mesure des valeurs des grandeurs physiques d’un
système. C’est le moment de la rupture avec la physique classique. Nous
entendons toujours parler d’Einstein, de Feynman, d’Hawking, et pourtant,
c’est grâce à Heisenberg que le progrès scientifique s’est enfin libéré des
formalismes traditionnels pour s’aventurer dans la découverte de nouvelles
façons de comprendre et d’expliquer la réalité. Sans être trop long, nous
pouvons résumer le principe d’indétermination comme l’impossibilité de
déterminer avec précision les valeurs de deux variables incompatibles, en
laissant nécessairement à l’observateur le choix de mesurer une variable
plutôt qu’une autre et en mettant en place les dispositifs adéquats pour
effectuer cette mesure.

5.1 Mais qu’est-ce que sont les quanta?


Pour répondre à cette question, nous devons d’abord définir la notion de
matière. La physique classique définit la matière comme: tout objet ayant
une masse et occupant un espace. Il est clair que cette définition fonctionne
bien en ce qui concerne les questions macroscopiques relatives aux corps
célestes, mais elle est incompatible avec les objets d’étude infiniment petits
de la mécanique quantique et de la physique des particules.

Dans le domaine atomique et subatomique, la matière est donc décrite


comme étant constituée d’une certaine typologie de particules dites
fondamentales. Les particules qui composent la matière ne sont pas toutes
les mêmes, mais elles ont des propriétés et des caractéristiques différentes.
Les mesures utilisées pour décrire et représenter ces propriétés, en
revanche, sont des conventions qui en tant que telles restent toujours égales.
Des dimensions telles que la vitesse, la longueur, la masse, l’énergie
peuvent être utilisées pour décrire à la fois un proton et une balle de tennis.
Dans le monde des particules, les mesures sont incroyablement petites, il est
donc utile de connaître la longueur d’onde d’une matière particulière. En ce
qui concerne la mesure de la vitesse, le processus de mesure est plus facile
et plus rapide. Il suffit de diviser la distance en fonction du temps. En
référence au temps, nous pourrions appeler cela “relatif” pour une particule
qui a souvent une vie infiniment courte. Si vous regardez le temps de
l’univers, par contre, un million d’années correspond à une fraction de
seconde. Comme le dit Ford, le nombre de grains qui composent la matière.
La granularité de la nature peut se référer aussi bien aux choses qu’à
certaines propriétés de ces choses. C’est dans ce sens que l’on parle de
matière quantifiée et de propriétés quantifiées de la matière (par exemple la
charge électrique). En ce sens, la quantification fait référence au fait qu’il
existe une valeur minimale, non nulle, pour les différences entre les valeurs
qu’une quantité donnée peut prendre. Il s’agit d’un concept extrêmement
technique, pour lequel nous nous limiterons ici à donner les définitions de
“charge” et de “spin”. En mécanique quantique, la charge ou charge de
couleur, est une propriété typique des quarks. En fait, le spin est une
grandeur de particules utile à la définition de leur état quantique (il peut être
décrit comme la rotation d’une particule autour de son axe). Nous pouvons
conclure, sans entrer trop dans les détails, que les quanta ont les particules
fines et indivisibles de la matière avec une charge et des spins propres.
Chaque particule peut être alternativement encadrée comme boson ou
fermion (ce sont les deux grandes catégories dans lesquelles sont divisées
les particules subatomiques). Celles constituées d’un nombre impair de
quarks sont des fermions, celles où les quarks se trouvent en nombre pair
sont des bosons. Les bosons et les fermions ont de nombreuses propriétés
en commun, par exemple ils peuvent être à la fois chargés et neutres,
élémentaires ou composés, avoir une masse illimitée ou même nulle; mais
si on regarde les deux catégories en ce qui concerne la propriété du spin, on
découvre que tous les bosons ont un spin quantifiable avec un nombre
entier, tandis que les fermions semi-entiers (la moitié). La principale
différence réside dans leur comportement: les fermiers sont soumis au
“principe d’exclusion de Pauli”, à savoir: “deux fermions identiques et
identiques ne peuvent occuper en même temps le même état quantique”; au
contraire, les bosons préfèrent ce type de comportement. En substance, les
bosons sont responsables de l’assemblage des fermions et agissent sur leurs
modifications et interactions. Une métaphore souvent utilisée pour décrire
les interactions entre ces groupes de particules est celle des constructions.
Les fermions seraient les briques tandis que les bosons le mortier, ensemble
constituent le mur. Si la nature était constituée de particules semblables,
mais toutes différentes, il serait absurde de les distinguer en fermions ou en
bosons. Malheureusement, ou heureusement pour nous, dans le monde
subatomique il y a des particules absolument identiques, ce qui nous permet
de les décrire à travers les formules mathématiques et probabilistes de la
physique quantique.

5.2 L’un ne peut exister en présence de


l’autre
Nous venons de le mentionner. Voyons de plus près ce que c’est.

En 1925, Wolfgang Pauli théorise le principe d’exclusion des particules (loi


de Pauli). Encore valable aujourd’hui, c’est l’un des principes
fondamentaux de la mécanique quantique. C’est le principe qui explique la
stabilité de la matière, en particulier la règle selon laquelle deux ou
plusieurs fermions identiques ne peuvent se placer ensemble et au même
instant, dans un même état quantique. Cette règle ne s’applique qu’aux
fermions (catégorie à laquelle appartiennent les électrons, principaux
constituants de l’atome) et non aux bosons. Son importance en physique
atomique est d’avoir établi que les molécules ne peuvent être poussées les
unes contre les autres, ne pouvant pas les électrons d’une, occuper le même
état que les électrons d’une autre (si ce n’était pas le cas, la matière serait
complètement instable). Pauli parvient à cette conclusion en observant les
interactions entre les nuages atomiques (formés principalement
d’électrons).

5.3 Statistique de Bose-Einstein


En 1920 (c’est incroyable comme beaucoup de découvertes de la physique
moderne se sont concentrées autour des années 1920) un incompris
Satyendra Bose applique les principes de la statistique à l’étude des états
des particules. Sa théorie était formulée d’une manière si complexe qu’elle
a été rejetée par les principales revues scientifiques de l’époque qui ont
refusé la publication (les éditeurs ne comprenaient pas de quoi ils parlaient).
Il a fallu l’intervention d’Einstein pour obtenir la divulgation de cette
découverte et c’est pourquoi la formulation porte le nom des deux
scientifiques.

À partir des découvertes sur les quanta de lumière (photons) d’Einstein,


Bose applique les principes statistiques pour expliquer son comportement
(et il réussit).

5.4 La superposition quantique et


l’entanglement
En mécanique quantique, chaque état quantique d’une particule (ou d’un
atome) peut être interprété comme un mélange infini d’autres états
(superposition). Comme nous avons pu le constater, dans le paradoxe de
Schrödinger, l’hypothèse d’un état plutôt qu’un autre dépendrait de
l’observateur et des probabilités. La superposition quantique unit
inséparablement les différents états du système jusqu’à ce que nous
essayions de la mesurer. Le résultat de la mesure (état quantique) obéit aux
lois probabilistes. C’est la mesure qui fait l’une des deux possibilités. Une
tentative particulière d’expliquer le phénomène de superposition quantique
est celle communément appelée “expérience de choix retardé”. Le
physicien John Archibald Wheeler est à l’origine de cette découverte, qui
cherchait désespérément à savoir si l’état quantique des particules dépendait
réellement de l’influence de l’observation et de la mesure effectuée par un
observateur. Il s’agissait en particulier de déterminer si les photons sont
capables de percevoir et de détecter les instruments de mesure et, le cas
échéant, dans quelle mesure, ou si leur comportement est totalement
aléatoire.

En fait, nous pouvons la considérer comme une variante actualisée de


l’expérience de Young.

Kenneth Ford nous dit qu’en fait, pour résoudre ce mystère comportemental
des photons, nous devrions supposer que la communication entre le
dispositif de mesure et les photons est simultanée, c’est-à-dire qu’elle
voyage à une vitesse supérieure à celle de la lumière.

Soyons clairs (autant que possible).

Tout d’abord, nous devons nous rappeler que les photons ont été identifiés
par Einstein comme quanta de lumière. Ceux-ci seraient alternativement des
ondes ou des particules, selon qu’on procède ou non à leur observation et à
leur mesure. Toutefois, en vertu du principe de complémentarité, un photon
ne peut pas se comporter de deux manières en même temps (cela dépend du
fait que les dispositifs d’observation ne sont capables de détecter que l’un
ou l’autre comportement). Par conséquent, nous pouvons supposer qu’en
testant l’appareil afin de révéler les vagues, alors nous observerons le
photon se comporter comme tel. Étant donné que les photons sont détectés
en des points localisés du temps et de l’espace, le dispositif sera capable de
détecter l’onde pendant sa propagation de la source au dispositif lui-même.
Pour en revenir à l’interprétation quantique, si le photon peut choisir de se
comporter comme une onde ou comme une particule, quand est-ce qu’il
prendrait cette décision? L’expérience de la double fente nous dit que les
mouvements ondulatoires sont détectables par les interférences qui
apparaissent sur l’écran. Après une série d’expériences, il a été
définitivement démontré que les photons peuvent d’abord se configurer
comme des particules puis se comporter comme des ondes. La
transformation des conditions de l’expérience aurait un effet rétroactif en
influençant les décisions prises par le photon. Mais comme nous l’avons dit
tout à l’heure, la conclusion des études de Wheeler est que, comme l’a dit
un brillant Richard Feynman, “le comportement quantique des objets
atomiques (électrons, protons, neutrons, etc.) est le même pour tous, ce sont
tous des ondes-particules ou tout autre nom que vous aimeriez leur
donner”.

Le phénomène de chevauchement est lié à ce que l’on appelle


l’entanglement, c’est-à-dire la capacité de deux ou plusieurs particules à
s’influencer mutuellement, même si elles sont situées à longue distance. La
base de départ pour aborder le problème de l’entanglement est le principe
de chevauchement qui, comme nous l’avons vu, suppose l’indissociabilité
des états quantiques d’un système jusqu’au moment de son observation ou
de sa mesure. Comme le chevauchement implique que les sous-systèmes
peuvent se trouver à des positions différentes à l’intérieur de l’espace, on
peut en déduire qu’il y a une sorte de corrélation entre eux même à distance
(la paternité du terme est d’Erwin Schrodinger). En termes simples, la
mesure d’une particule fournit également des informations sur l’autre
(emmêlée avec elle) parce que la position et le moment des deux particules
sont inextricablement liés.

Le concept d’entanglement a été fortement critiqué par Einstein qui, en


1935, avec ses collègues Podolsky et Rosen, a théorisé le paradoxe appelé
“EPR” (acronyme des noms des trois physiciens). Partant des principes de
réalité, de localité et d’exhaustivité (propres à la théorisation physique), les
trois hommes rejetèrent l’idée d’une théorie quantique qui pourrait être
qualifiée de complète. Ces principes, en vérité, sont respectivement d’ordre
physique, philosophique et mathématique, mais dans leur ensemble, ils se
réfèrent à la mécanique quantique. Le principe de réalité est en effet un
élément fondamental du réalisme philosophique, à savoir la condition selon
laquelle la réalité existerait indépendamment de ce en quoi nous croyons ou
de la façon dont nous cherchons à la définir. Le principe de localité, c’est
l’hypothèse que des corps éloignés ne peuvent pas s’influencer
instantanément parce qu’ils sont soumis à la seule influence d’objets placés
à proximité immédiate. Le principe d’exhaustivité se réfère au fait qu’un
ensemble d’axiomes (conditions données pour certaines et absolues) est
capable de démontrer toutes les vérités d’une théorie.

La seule façon de résoudre le paradoxe est d’abandonner l’un des trois


principes cités. Se disant convaincu qu’il est impossible de renoncer aux
principes de réalité et de localité, Einstein a noté que la seule pièce du
puzzle qui devait succomber devait, par exclusion, être celle de
l’exhaustivité. Il a fini par conclure que la mécanique quantique est une
théorie largement incomplète, constituée de variables que nous ne
connaissons pas.

Près de trente ans plus tard, il a été démontré que même entre le principe de
localité et le principe de réalité, il existe des incompatibilités. Reprenant le
concept fondateur de la théorie de Copenhague, il est possible d’exclure le
principe de réalité précisément en raison de la coexistence entre
phénomènes locaux et non locaux.

Le principe de localité, qui suppose, comme nous l’avons vu, la proximité


entre les systèmes (corps et objets) pour le transfert d’informations et de
caractéristiques de un à l’autre, est le principal obstacle à la théorisation
quantique de l’entanglement, et pourtant, plusieurs expériences ont
démontré, au-delà du débat purement théorique, l’existence de ce
phénomène fascinant.

Les dernières innovations technologiques reposent précisément sur cette


prérogative quantique particulière (c’est à la base du fonctionnement des
super-ordinateurs et des programmes de cryptage). Non seulement elle est
actuellement étudiée en fonction de ce qui est encore aujourd’hui une
hypothèse plus de science-fiction que réelle, mais elle pourrait devenir
demain la conquête la plus importante dans l’histoire de l’humanité: la
téléportation.
Chapitre 6
LE BOSON LE PLUS CÉLÈBRE
DU MONDE

Cet été, j’ai découvert quelque chose de totalement


inutile.
P. Higgs

P eter Higgs n’avait même pas réalisé à l’origine l’extraordinaire


ampleur de sa découverte, mais ses théories comptent parmi les plus
importantes découvertes scientifiques du siècle dernier. La plus connue
(dont vous avez sûrement entendu parler) est celle relative au “Boson
d’Higgs”, autrement connu sous le nom de “particule de Dieu”. Leon
Lederman, qui a reçu un prix Nobel en 1988 pour avoir découvert deux
autres particules subatomiques, a inventé ce terme en 1993. Comme l’a dit
Eryn Brown, Lederman aurait voulu l’appeler la “maudite particule”. Peter
Higgs, l’inventeur de la théorie du champ qui porte son nom, se plaignit
beaucoup au cours des années du surnom donné par Lederman parce qu’il
trouvait inconvenant et profane (et trompeur) la référence de découvertes
scientifiques à des concepts de la sphère divine et religieuse. Mais venons-
en aux questions pratiques.
Le boson d’Higgs est la particule associée au champ d’Higgs, un champ
énergétique qui transmet de la masse aux choses qui le traversent. Selon les
théories cosmologiques, le champ d’Higgs imprègne tout l’espace vide de
l’univers à tout moment. De quel champ parlons-nous? Comme d’habitude,
nous sommes dans le monde des mathématiques et le champ d’Higgs n’est
qu’un champ scalaire, c’est-à-dire une fonction par laquelle on attribue une
valeur (scalaire) à un point donné dans l’espace. En physique, il est utilisé
pour décrire et mesurer la distribution de la température, de la pression ou
d’autres grandeurs dans l’espace. Peter Higgs et François Englert l’ont
théorisé en 1964, en particulier les deux ont établi que cela à travers le
champ, toutes les choses présentes dans l’univers - étoiles, planètes,
météorites et même personnes - acquièrent (ou ont acquis) une masse
déterminée.

En d’autres termes, le boson est la particule fondamentale associée, par


conséquent, à un champ qui fournit de la masse à d’autres particules
fondamentales comme, par exemple, les électrons. La masse d’une particule
détermine à quel point elle résiste à changer de vitesse ou de position
lorsqu’elle rencontre une force agissant sur elle. Toutes les particules
fondamentales n’ont pas de masse. Le photon, qui est la particule de
lumière et transporte la force électromagnétique, n’a pas de masse. Cette
circonstance, d’ailleurs, a conduit à tort beaucoup de physiciens à penser
que les particules de lumière n’étaient pas de véritables particules, mais
plutôt des corpuscules. Nous savons aujourd’hui (cela a été largement
réfuté) que ce n’est pas le cas et que les photons doivent également être
considérés comme des particules.
Mais revenons à notre boson. Les scientifiques ont confirmé son existence
en 2012 à travers les expériences ATLAS et CMS au Large Hadron Collider
(LHC) du CERN à Genève, en Suisse. Cette découverte vaut à Higgs et au
physicien Englert, l’attribution du prestigieux prix Nobel de physique. Les
chercheurs étudient actuellement les propriétés caractéristiques du boson
pour déterminer s’il correspond exactement aux prévisions du modèle
standard de la physique des particules. Si le boson d’Higgs s’écarte du
modèle, il peut donner des indices sur de nouvelles particules qui
n’interagissent qu’avec d’autres particules du modèle standard à travers le
boson d’Higgs et ainsi conduire à de nouvelles découvertes scientifiques.
En y regardant de plus près, on peut dire que le boson obtient sa masse tout
comme les autres particules, à partir de ses interactions avec le champ. Y a-
t-il plus d’un boson d’Higgs? On ne sait pas encore. Un modèle théorique
de la nouvelle physique, cependant, théorise l’existence de cinq bosons
d’Higgs. En ce qui concerne la capacité à fournir de la masse, nous savons
que, dans le cas des protons, le boson n’offre de masse aux quarks qui
composent précisément le proton lui-même qu’à hauteur de 10 %. Le reste
de la masse d’un proton, soit 90 %, provient des interactions entre les
quarks et de la force nucléaire. Comme le boson d’Higgs a pour rôle de
générer la masse d’autres particules et comme la matière noire peut être
détectée principalement à travers sa masse, cette particule peut être un
portail unique pour trouver des signes de matière noire. Qu’est-ce que la
matière noire? Nous ne le savons pas, mais nous pouvons supposer qu’elle
est constituée de particules stables tout aussi stables que la matière
ordinaire. Mais revenons au boson, qui a une durée de vie courte, très
courte pour être plus précis. Il reste stable pendant à peine un milliardième
de seconde avant que la désintégration n’intervienne et ne le transforme en
d’autres particules (essentiellement des quarks). La haute instabilité du
boson, comme beaucoup d’autres particules, tend à diminuer son influence
en ce qui concerne sa participation aux mouvements et aux phénomènes
gravitationnels de l’univers, contrairement aux électrons et aux protons (qui
constituent la base de la matière que nous connaissons et qui sont très
stables), qui nous permettent d’évaluer le comportement des étoiles, des
planètes et de nombreux éléments de l’univers. Cependant, comme suggéré
plus tôt, le boson pourrait nous aider à trouver les points de l’univers où se
trouve la matière noire. L’année dernière, toujours au CERN à Genève, une
équipe de scientifiques a observé un événement plus unique que rare: la
création de 3 bosons en même temps (choses d’une probabilité sur je ne sais
combien de milliards). Cet événement a donné une nouvelle impulsion aux
recherches pour adapter le fameux modèle standard aux nouvelles
découvertes. Un des chercheurs de l’équipe porte-bonheur a déclaré: “nous
savons par exemple qu’il existe quelque part une énorme quantité de
matière noire qui exerce une influence gravitationnelle sur les galaxies;
pourtant, l’existence de cette matière n’est pas couverte par le modèle
standard, dont les équations n’incluent pas de particules de matière noire ni
de particules qui transportent la gravité. Le modèle standard ne marche pas
non plus quand vous arrivez à des échelles d’énergie typiques des premiers
moments de la vie de l’univers, peu après le Big Bang. De ces
considérations, nous savons qu’il doit y avoir une théorie encore plus
grande et fondamentale que le Modèle Standard, encore à découvrir, une
“théorie du tout”.

En février de cette année, un autre phénomène très rare a été observé


(devinez où?) dans le laboratoire le plus célèbre du monde: la désintégration
d’un boson (ce n’est pas la rareté, nous avons dit qu’il tombe toujours) dans
un photon et deux leptons (la particularité est là). Le photon, comme nous
avons vu quelques concepts plus haut, n’a pas de masse, tandis que les
leptons ont une masse infiniment petite, mais ils l’ont quand même. Cette
découverte s’inscrit également dans la lignée des recherches et des études
sur la matière noire (qui semble constituer jusqu’à 80 % de l’univers). Il ne
reste plus qu’à attendre des nouvelles concernant ce sujet, il serait
intéressant qu’ils annoncent de nouvelles découvertes au moment même où
vous lisez ce livre (clairement de Genève). Pour l’instant, nous pouvons
conclure que de 2012 à aujourd’hui, les bosons ont été observés plusieurs
fois et que le progrès technologique permettra de plus en plus d’étudier et
d’observer les comportements et les états quantiques des particules.
Chapitre 7
CHAÎNES ET SUPERCORDES

La théorie des cordes est une tentative de description plus


profonde de la nature, en imaginant une particule
élémentaire non pas comme un point, mais comme le petit
anneau d’une chaîne vibrante.
E. Witten

L a théorie des cordes est l’une des théories les plus célèbres de la
physique moderne et vous avez certainement entendu parler de cette
théorie, mais c’est aussi l’une des plus difficiles à comprendre. Née dans
une tentative de concilier la théorie de la relativité et la mécanique
quantique, elle a été souvent critiquée et ignorée au fil des ans en faveur du
modèle standard (qui a pourtant ses limitations bien connues).
Probablement, parmi les raisons qui ont conduit à la moindre appréciation il
y a les dérives paradoxales en référence aux prévisions des univers infinis
dans la théorie du Multi-verso. C’est en tout cas une théorie assez
complexe, mais nous allons essayer, comme d’habitude, de faire un peu de
clarté. À la base de cette théorie se trouve l’idée que les particules que nous
observons en laboratoire ne sont pas des points dans l’espace, mais plutôt
de minuscules cordes (cordes), si petites que nos meilleurs instruments
d’observation ne peuvent pas dire si elles sont ponctuelles ou non. Cela
signifie qu’ils occupent une partie de l’espace, même microscopique, mais
néanmoins une partie de l’espace.
La vibration de ces petites cordes minuscules constituerait le mouvement
par lequel se produisent les interactions entre les particules, c’est-à-dire que
par ces vibrations la réalité viendrait à se former telle que nous la
connaissons. En plus de définir les caractéristiques dimensionnelles et
comportementales des particules, la théorie nous dit qu’il existe des
dimensions supplémentaires dans l’espace, en plus des mesures classiques
de longueur, largeur et profondeur, mais que nous n’en avons aucune
perception et connaissance parce qu’elles seraient des dimensions situées
dans des espaces minuscules.

Il y a une analogie assez célèbre entre ces microscopiques cordes théoriques


et les cordes d’un violon. Comme différentes vibrations d’une corde sur un
violon produisent des notes différentes, de la même manière, différents états
quantiques d’une chaîne donnent naissance à toutes les particules
élémentaires possibles, qu’il s’agisse d’un électron ou d’un quark ou encore
d’un gluon et ainsi de suite.

Sur une plus grande échelle d’observation, les cordes ne sont pas visibles,
elles ressemblent aux particules élémentaires, que nous connaissons bien
visuellement. Vous pourriez vous demander de quoi sont faites ces chaînes.
Et bien, la bonne réponse est qu’elles ne sont faites de rien, mais elles font
partie de tout. Essayons de simplifier: dans un modèle standard, une chaise
est constituée de bois, qui à son tour comprend plusieurs molécules, qui à
leur tour sont constituées d’atomes différents composés d’électrons, de
protons (formés de quarks) et de neutrons (formés également de quarks).
Mais qu’ont ces quarks et ces électrons dans leur structure? Eh bien, ils
n’ont rien parce qu’ils sont un produit final, qui ne peut pas être divisé,
scindé ou séparé davantage.

Nous venons de remplacer les objets élémentaires de taille zéro (particules


de forme) par un constituant élémentaire unidimensionnel appelé une
chaîne. En quoi l’objet élémentaire unidimensionnel est-il un progrès par
rapport aux particules ponctuelles? La différence réside dans le fait que
maintenant, en plus de leurs états quantiques, ces chaînes ont aussi une
longueur. Nous pouvons donc conclure que les cordes peuvent prendre
plusieurs arrangements et qu’elles peuvent être de type “ouvert” ou
“fermé”. Les chaînes ouvertes peuvent se lier à une extrémité d’une autre
chaîne ouverte et en former une nouvelle (ouverte), ou deux chaînes
ouvertes peuvent s’unir et former une chaîne fermée. Ces interactions de
cordes donnent naissance à cinq théories de cordes différentes, que nous
allons explorer en tant que différentes versions de la théorie des
supercordes. Intuitivement, ces cordes doivent avoir une certaine “tension”
(tout comme celles d’un violon). Cette tension donne naissance à différents
types de vibrations et fait émerger toutes les formes de particules
élémentaires. La caractéristique la plus stupéfiante de la théorie des cordes
est qu’elles peuvent prendre des dimensions que nous pourrions appeler
“supplémentaires”. Grâce à Einstein, nous savons qu’en plus de la
conception classique de la tridimensionnalité de la réalité, il faudrait
envisager une quatrième dimension, celle temporelle (théorie de la
relativité).

Cependant, les mathématiques de la théorie des cordes ne fournissent pas de


résultats complets avec seulement quatre dimensions. Il ne se stabilise
qu’en prévoyant un total de dix dimensions.
Passons aux supercordes. En fait, il serait plus correct de l’appeler la théorie
des cordes supersymétriques. En physique, nous savons qu’il existe deux
types de particules fondamentales. Bosons et fermions. Les bosons sont des
particules avec un spin entier qui joue un rôle de médiateur entre les forces
fondamentales; les fermions, en revanche, sont des particules à spin semi-
entier qui constituent la matière. Les physiciens s’attendaient à ce que les
bosons et les fermions soient reliés d’une certaine manière, mais les
mathématiques suggèrent le contraire. C’est alors que la notion de
supersymétrie entre en jeu. Le concept de supersymétrie nous dit que tous
les bosons ont un “super-partenaire” fermionique (et vice versa) avec un
spin qui diffère de moitié d’unité. Avec leurs différences de spin, ils
diffèrent également dans les propriétés collectives. Alors que les fermiers
aiment prendre un état différent, les bosons préfèrent rester dans le même
état.

Revenons aux dimensions mathématiques. La théorie des cordes en prend


dix, dont trois s’étendent indéfiniment dans l’espace et sont observables.
Mais si nous ne pouvons en observer que trois, où sont les six autres
dimensions de l’espace? Elles sont juste devant nos yeux, mais elles sont
tellement repliées sur elles-mêmes que nous ne pouvons pas les voir.

Les extra-dimensions sont comprises dans la notion mathématique de


“multiplicité”. Prenons, par exemple, une sphère relativement grande et
plaçons-nous sur une fourmi. La surface de la sphère apparaîtra plate à la
fourmi (qui joue ici le rôle d’observateur). La perception de la fourmi est
“localisée” tandis que celle de la sphère et de la fourmi dans leur ensemble
est “globale”. La sphère, dans ce cas, est un exemple de variété à deux
dimensions. La même chose se passe avec notre monde.
Continuons. Nous sentons que nous vivons dans une réalité en trois
dimensions. Même si nous ne devons pas considérer les postulats de la
théorie des cordes, la relativité générale nous suggère qu’il existe une
quatrième dimension, la gravité, et que le phénomène universel
(comprenant les quatre dimensions) est décrit à l’aide de la courbure liée à
cette dimension supplémentaire.

Sachant que la véritable connaissance d’un domaine réside dans l’essence


même de la matière d’étude, il est clair que mille théories et paramètres
apparemment différents pour élaborer la nature de la réalité, nous
préférerions une approche fondamentale unifiée. Nous avons déjà dit que le
modèle standard, bien que plutôt réussi, ne tient pas cette attente. Cela n’a
de sens que s’il est utilisé avec des dizaines de particules et des centaines de
paramètres qui ne sont pas bien définis, mais plutôt probabilistes. Arrivés à
la fin de notre voyage, nous savons qu’il existe plusieurs alternatives: la
mécanique quantique, la relativité générale, la théorie quantique des champs
et bien d’autres modèles avec lesquels nous pourrions obtenir plus
d’informations sur l’univers et la réalité qui nous entourent. Ne serait-il pas
extraordinaire que toutes ces théories soient unifiées d’une manière ou
d’une autre? La mécanique quantique et la gravitation ne devraient-elles pas
faire partie d’un cadre commun? Oui, elles devraient.

La Théorie du Tout est une tentative d’unifier différents modèles théoriques


pour expliquer la nature. La théorie des cordes s’est avérée être la candidate
la plus appropriée et la plus cohérente pour une approche unitaire et
globale. D’autre part, elle a prévu (de manière inattendue) la quantification
de la gravité avec les gravitons. Alors, pourquoi n’est-elle pas montée dans
les annales comme théorie définitive?
Le problème est que pour tester les hypothèses et les prévisions générées
par cette théorie, il est nécessaire d’utiliser une très grande quantité
d’énergie, ce qui rend difficile la réalisation d’expériences prouvant les
théories. Ci-dessous, une représentation graphique de particules en forme de
point (à gauche) et de chaînes fermées (à droite).
Chapitre 8
DE COMBIEN D'UNIVERS
L'UNIVERS EST-IL FAIT?

Le multivers existe parce que chaque choix que nous


faisons crée un carrefour sur la route, qui introduit un
monde parallèle.
B. Crouch

P assionné par les phénomènes d’entanglement et de superposition, le


physicien américain Hugh Everett III a théorisé que toutes les réalités
quantiques possibles existent en même temps dans une certaine réalité, en
raison du principe de superposition, c’est-à-dire en raison des possibles
états quantiques dans lesquels la matière se trouve. C’est là le fondement de
la théorie du multivers (aussi appelée “des nombreux mondes” ): “chaque
fois que le monde fait un choix au niveau quantique, l’univers se divise en
deux”. Le terme “de nombreux mondes” a été inventé par Brice Dewitt
pour expliquer l’idée que la mesure d’une des propriétés de l’état quantique,
produit comme conséquence la division de l’univers en mondes distincts,
chacun caractérisé par une mesure différente. La notion de mesure recouvre
à la fois le comportement et les caractéristiques des particules et les
dispositifs utilisés pour effectuer la mesure. Cela signifie que l’observateur
est étroitement lié au système observé, constituant de fait un réseau global
isolé. Selon Everett, tous les systèmes isolés sont résolus par l’équation de
Schrödinger. La mesure, qui n’est autre que la probabilité subjective de
l’observateur de se retrouver dans l’une des différentes réalités possibles,
est proportionnelle à la taille des probabilités relatives à chaque branche
distincte et différente. Cette théorie, qui peut sembler scientifique, est en
fait très ancienne. Les atomistes grecs et le philosophe Giordano Bruno
envisageaient déjà cette hypothèse. Parmi les partisans les plus connus de la
théorie, on trouve Stephen Hawking et Max Tegmark. Dans un article
célèbre publié dans le Journal of High Energy Physics, Hawking
approfondit cette théorie fascinante en partant du principe qu’après le Big
Bang, de nombreux processus d’expansion se sont produits, à l’intérieur de
l’univers, dont certains encore en cours, qui auraient culminé dans la
création d’une structure fractale où chaque bulle coïncide avec une unité
cosmique indépendante (univers à bulles). Les univers alternatifs seraient
régis par des lois physiques qui sont très similaires à celles que nous
connaissons déjà. Deux semaines avant sa mort, il a écrit avec son collègue
Thomas Herdog un article expliquant les fondements théoriques de la
“théorie du multivers”. Il traite notamment des bases mathématiques
nécessaires à la réalisation d’une sonde capable de prouver, au-delà de tout
doute raisonnable, la théorie. Comme il avait déjà eu l’occasion d’exposer
précédemment, Hawking expose l’hypothèse de la “fin” de l’univers, c’est-
à-dire l’épuisement de l’énergie disponible des étoiles, y compris le Soleil,
qui, comme nous le savons, est nécessaire condition de vie sur Terre. Le
principe, c’est celui de la déchéance du temps régie par la loi de l’entropie.
Max Tegmark, a suggéré que l’existence d’autres univers peut être déduite
par des observations cosmologiques. Le Suédois a également classé toutes
les configurations possibles dans une structure élémentaire, en partant d’une
hypothèse logique: “si nous acceptons l’idée d’univers possibles, alors nous
pouvons accepter le concept d’omni-verso comme l’ensemble de tous les
multi-vers possibles qui à leur tour comprennent toutes les configurations
possibles d’un univers”.
Tegmark, décrit les multi-vers en les classant selon quatre niveaux. Au
premier niveau, on suppose la présence d’un nombre infini de sphères de 45
milliards d’années-lumière, chacune contenant un univers aux
caractéristiques physiques et dimensionnelles plus ou moins similaires. Au
deuxième niveau, apparaîtraient un nombre infini de multi-vers de premier
niveau, placés dans une région infinie d’espace-temps; d’autres univers, de
dimensions et de constantes physiques différentes, formés tous par la
mousse quantique évoquée par la théorie de l’univers à bulles, seraient
également inclus. Le troisième niveau, donc, comprend tous les univers
possibles qui naissent de tous les résultats probables d’un événement. La
présence d’univers parallèles est également conçue par les catégories
précédentes, dans lesquelles tous les univers sont placés à une certaine
distance entre eux. Ceux du troisième niveau se trouvent dans l’espace de
Hilbert (espace mathématique abstrait) où ils coexistent sans aucune
interaction entre eux. Le quatrième et dernier niveau est celui dans lequel
tous les types d’univers, avec toutes les propriétés et caractéristiques
possibles, peuvent exister et c’est le maxi niveau supérieur qui comprend
tous les multi-vers. D’autres ne sont que l’omni-verso, dernière structure
hiérarchique qui comprend toutes les configurations infinies.

Au-delà des classifications de l’omni-verso de Tegmark, les théories qui


supposent l’existence d’univers parallèles subissent des déclinaisons plus
ou moins fantastiques. Le concept de déjà-vu est typiquement associé à ces
théories lorsque le sentiment de se trouver dans un lieu, un moment ou une
situation où il a déjà été précédemment, pourrait être expliqué comme une
sorte d’expérience interférentielle entre deux mondes (ou mieux, des
univers). Il suffit de penser qu’en 1999, un sondage spécial a été réalisé à
l’université de Cambridge à l’intention des participants d’un séminaire de
physique pour démontrer que cette théorie ne semble pas si absurde dans le
monde scientifique. Les scientifiques interrogés ont dû se demander dans
quelle interprétation de la physique moderne ils se reconnaissaient. Sur 90
physiciens, 30 ont déclaré croire en la théorie des nombreux mondes
d’Everett.
Chapitre 9
CE QUI SE PASSE DANS UN
TROU NOIR

“Selon la théorie de la relativité, rien ne peut voyager à


une vitesse supérieure à celle de la lumière. Donc si la
lumière ne peut pas échapper à un trou noir, rien d’autre
ne le fera. Tout est repoussé par le puissant champ
gravitationnel. On a donc un ensemble d’événements, une
région de l’espace-temps, dont on ne peut échapper pour
atteindre un observateur lointain. Cette région est ce que
nous appelons aujourd’hui un trou noir”.
S. Hawking

D ans l’imaginaire collectif et de science-fiction, le trou noir est un


énorme “portail” sombre qui aspire tout ce qui passe à côté de lui.
C’est un endroit d’où on ne peut pas sortir et où les survivants sont coincés
pour toujours, suspendus entre l’espace et le temps. C’est troublant, soyons
honnêtes, je ne pense pas que nous aimerions nous retrouver dans un tel
endroit. Pour ceux d’entre vous qui ont vu Interstellar, ça ne paraîtra
probablement pas si mal, mais les théories quantiques sont bien plus
dramatiques que le film.
Sur son site officiel, la NASA donne la définition suivante: “un trou noir est
un endroit dans l’espace où la gravité a une force d’attraction si puissante
que même la lumière ne peut pas sortir. La gravité est si forte parce que la
matière a été écrasée dans un espace minuscule (comprimé). Cela peut
arriver quand une étoile meurt. Comme aucune lumière ne peut sortir, les
gens ne peuvent pas voir les trous noirs. Ils sont invisibles à l’œil humain.
Les télescopes spatiaux avec des outils technologiques très avancés peuvent
aider à détecter les trous noirs à l’intérieur de l’espace. Ces instruments
spéciaux peuvent détecter que les étoiles très proches des trous noirs se
comportent différemment des autres étoiles.”

Ainsi, on peut en déduire que la présence d’un trou noir peut être détectée
par l’observation d’un comportement “différent”, par un corps, que la
théorie suggère d’être à proximité de ce “lieu”. Nous ne pouvons pas les
voir, mais nous pouvons supposer où ils sont grâce à l’observation du
comportement d’autres corps dans l’espace. Il a été supposé que tout ce qui
voyage à proximité d’un trou noir est invariablement attiré à l’intérieur.
Rien ne pourrait lui échapper, même pas la lumière. C’est difficile, mais
imaginons ce qui arriverait aux dimensions espace-temps. Probablement
cette force inexorable plierait autant la dimension temporelle que la
dimension spatiale. Ce repli temporel aurait pour effet un défilement très
différent de celui auquel nous sommes habitués ici sur Terre.

Les limites ou limites d’un trou noir, sont nommées en physique par le
terme “horizon”, et c’est précisément à proximité de cet horizon que le
temps commencerait à ralentir et à se déformer inexorablement. Certains
théorisent que le futur et le passé prendraient une sorte de contemporanéité,
donnée par le repli de la dimension temporelle, mais personne ne peut dire
avec certitude ce qui se passe.

La gravité exercée par un trou noir étant infiniment puissante, le temps à


proximité de son horizon coulera presque certainement beaucoup plus
lentement que sur Terre (rappelez-vous l’histoire de l’horloge qui tape
lentement plus nous sommes en aval?).

Cette extrême gravité aurait également des effets dramatiques sur les autres
dimensions de la matière, provoquant des effets bien plus “splatter”
(éclaboussés) que ceux d’un film de Tarantino.

Si nous tombons accidentellement près d’un trou noir, sa force


gravitationnelle attirerait à une vitesse supersonique les différentes
particules qui composent notre corps, ce qui engendrerait un effet dit de
“spaghettisation”, qui est, comme vous pouvez l’imaginer, un processus
dans lequel les objets ou les corps sont étirés de la même manière que les
spaghettis.

Étant donné les presque aucune difficulté à s’approcher en toute sécurité


d’un trou noir pour comprendre exactement ce qui s’y passe à l’intérieur, il
est peu probable que nous puissions en découvrir plus, mais plusieurs
théories suggèrent que l’univers a commencé à partir de quelque chose de
très proche d’un trou noir.

C’est Stephen Hawking qui a suggéré que, peut-être, tout n’est pas
incapable d’échapper à l’attraction perturbatrice d’un trou noir. En partant
de la théorie de Bekenstein selon laquelle les trous noirs sont également
sujets à l’entropie (c’est-à-dire à la désintégration naturelle au cours du
temps), Hawking a déduit que là où il y a entropie il y a température et où il
y a température il doit y avoir radiations (le soleil, les étoiles, tout corps
ayant un minimum de température doit nécessairement rayonner). Eh bien,
si rien ne peut échapper au trou noir logiquement, les radiations ne
pourraient pas non plus, et pourtant, nous avons dit qu’il y a entropie dans
les trous noirs. Et alors? L’explication d’Hawking est en fait complexe,
mais nous essaierons de simplifier autant que possible afin d’en comprendre
le contenu essentiel. Supposons qu’il y ait une paire de particules, il peut
arriver qu’elle se crée à proximité de l’horizon (du bord pour nous
entendre) du trou noir. Dans ce cas, l’une pourrait succomber à la force de
gravité et être aspirée, mais l’autre pourrait réussir à s’échapper, en
emportant une micro quantité d’énergie du trou noir. Il s’agit du phénomène
d’évaporation des trous noirs. Chaque fois qu’une particule s’échappe,
l’énergie du trou noir diminue, jusqu’à l’évaporation. La théorie n’a jamais
été vérifiée parce que l’événement n’a jamais été observé, mais il est
raisonnable de supposer que c’est exactement comme cela que cela
fonctionne.
Chapitre 10
L'ANTIMATIÈRE ET LES
VOYAGES
INTERGALACTIQUES

L’utilisation de l’antimatière comme source d’énergie est


en principe possible. S’il devient possible dans la
pratique, il le sera pour une civilisation différente de la
nôtre et beaucoup plus avancée; les humains ne peuvent
que rêver de ça.
K. W. Ford

P our vraiment comprendre ce qu’est l’antimatière, nous devons prendre


du recul et revenir au moment où, pour la première fois, la création de
matière a été observée. En 1961, un physicien autrichien nommé Bruno
Touschek mène une expérience intéressante aux Laboratoires nationaux de
Frascati. L’objectif était de faire circuler à l’intérieur d’un tube vide, des
particules et des antiparticules, dans le sens inverse afin de les faire
rencontrer (ou plutôt heurter) en vol. Lorsque des particules et des
antiparticules se rencontrent, toute l’énergie est concentrée au moment de la
collision. Plus la quantité d’énergie des éléments est élevée, plus la quantité
d’énergie concentrée dans la collision est élevée. Cette grande quantité
d’énergie ne charge rien et conduit à la création de nouvelles particules.
L’expérience a montré non seulement qu’il était possible de construire des
machines capables de produire de la matière, mais que les annihilations
entre électrons et positrons produisaient un grand nombre de particules.
C’est l’annihilation des particules qui crée la matière. Le concept a été
résumé par Stephen Hawking comme suit: “Aujourd’hui, nous savons que
chaque particule a une antiparticule, dans la rencontre avec laquelle elle
peut se détruire. (Dans le cas de particules porteuses de forces, les
antiparticules sont identiques avec les particules elles-mêmes.) Il pourrait y
avoir des antimondes entiers et des anticorps composés d’antiparticules.
Mais si vous rencontrez votre anti-moi, ne lui serrez pas la main! Vous vous
évanouieriez tous les deux dans un grand éclair de lumière”.
Bien que les particules puissent être produites en laboratoire, nous savons
que cela nécessite d’énormes quantités d’énergie, qui ne peuvent être ni
créées ni détruites, nous ne pouvons que la transformer. Si nous tentons de
simplifier au maximum, cela signifie que ni la matière ni l’antimatière ne
peuvent être considérées comme des sources d’énergie au sens propre du
terme. En avançant dans le raisonnement, nous pouvons conclure qu’il
n’existe pas de sources d’énergie inépuisables, car la transformation
d’énergie indique en elle-même qu’elle est consommée (l’énergie) pour
quelque chose (en conformité avec la loi de conservation). On dit à tort que
l’hydrogène est une source d’énergie inépuisable, mais, en fin de compte,
c’est aussi une imprécision. Chaque fois que nous cherchons à extraire
l’hydrogène pour l’utiliser comme “source d’énergie”, l’énergie dont nous
avons besoin pour l’extraction est plus grande que celle qui est libérée par
le processus de transformation en “travail”. De même, l’antimatière est
extraite de matériaux communs par un procédé qui nécessite une quantité
d’énergie non négligeable. Pas seulement. Il est pratiquement impossible de
le stocker et de le transporter ou de le stocker pour l’utiliser au besoin. Ces
dernières années, de nombreuses expériences ont été menées dans le but de
créer et de stocker suffisamment d’antimatière à des fins énergétiques, mais
l’expérience la plus réussie (celle réalisée en 2002 au CERN à Genève,
toujours elles) a également produit des quantités infinies d’antimatière
(avec un gaspillage extrêmement élevé d’énergie pour mener cette
expérience). Mais qu’est-ce que l’antimatière? C’est toujours une sorte de
matière, mais constituée d’antiparticules qui ont une masse égale et
correspondant aux particules de la matière ordinaire, mais qui ont une
charge électrique de signe opposé. Lorsque les particules entrent en contact
avec les antiparticules, ce qui se passe en physique, c’est ce qu’on appelle
un processus d’annihilation, c’est-à-dire qu’elles se transforment toutes en
énergie. Comme nous avons déjà eu l’occasion d’approfondir, cependant (et
c’est pourquoi nous nous sommes arrêtés sur certains sujets de
thermodynamique et d’entropie), selon le principe de conservation,
l’énergie libérée construit de nouvelles particules et antiparticules dont la
somme d’énergie est exactement égale à celle des particules originales. La
physique quantique étant une science probabiliste et non absolue, les
prévisions sur le type de nouvelles particules (et antiparticules) créées
répondront aux modèles probabilistes. Prenons un exemple: l’annihilation
entre un électron et un antiélectron, selon toute probabilité, donnera
naissance à deux ou plusieurs photons gamma.

Or, si seulement cela ne coûtait pas une fortune, tant en termes


économiques qu’énergétiques, tenter de produire de l’antimatière, son
utilisation et ses potentialités seraient infiniment plus favorables que les
matières énergétiques utilisées jusqu’à présent. Mais c’est précisément
parce que nous ne connaissons pas actuellement d’autres moyens de
produire de l’antimatière (et surtout, rappelons-le, nous n’avons même pas
assez de moyens et de connaissances pour la stocker) que l’idée d’utiliser
l’antimatière comme carburant pour les vaisseaux spatiaux est extrêmement
improbable. Ce ne sont que des possibilités réelles dans le monde de la
science-fiction aujourd’hui. Cela ne signifie pas que nous ne trouverons pas
le moyen de voyager à des vitesses “durables” (extrêmement plus élevées
que maintenant) mais que nous n’utiliserons pas l’antimatière pour le faire.
Chapitre 11
CERVEAU QUANTIQUE

Nos modèles de pensée subconsciente effondrent la


fonction d’onde quantique et génèrent la réalité.
A. Ray

N ous sommes au bord de la mer, au coucher du soleil, le bruit des


vagues nous ramène avec l’esprit à un vieil ami que nous n’avons pas
entendu depuis un moment. Soudain, nous sommes “perturbés” par une
vibration, quelque chose qui s’agite dans la poche de notre pantalon. C’est
un téléphone portable, un appel entrant, devinez qui c’est? Notre vieil ami
Cooper, quelle coïncidence! Ou non? Peut-être que c’est nous qui avons
attiré cet appel à travers notre pensée libre. Est-ce possible? Encore une
fois, la réponse pourrait venir du monde quantique.
La philosophie et la psychologie ont toujours cherché à expliquer comment
les idées naissent et comment la construction de nos pensées est influencée
par la perception de la réalité dans laquelle nous vivons. Selon la
conception classique, toutes les connexions causales entre les phénomènes
et les corps observables sont expliquées en termes d’interactions
mécaniques entre les réalités matérielles. Cette restriction sur le lien de
causalité n’est pas pleinement maintenue par les principes de la physique
actuellement appliqués (mécanique quantique), qui offrent par conséquent
une base conceptuelle alternative pour la description scientifique et la
modélisation des structures causales de la pensée. Les avantages, pour les
branches de la neuroscience et de la neuropsychologie, de l’utilisation des
postulats de la physique quantique, par rapport à celui de la physique
classique, découlent de quelques faits fondamentaux. Tout d’abord, des
termes tels que “sentir”, “connaître” et “comprendre”, parce qu’ils relèvent
exclusivement de la sphère de l’esprit et de l’expérience, ne peuvent être
décrits exclusivement en termes de structure matérielle. Deuxièmement,
pour expliquer les propriétés observables des grands systèmes physiques
qui dépendent sensiblement du comportement de leurs particules atomiques
et subatomiques, la mécanique quantique a dû introduire le concept de
choix et d’arbitraire typique de la pensée (le choix de l’observateur de
procéder à la mesure). Troisièmement, au sein de ce cadre conceptuel, les
choix effectués avec arbitraire et conscience sont décrits dans un langage
psychologique.

La conséquence de ces faits est que la physique du XXe siècle fournit un


cadre pragmatique rationnellement cohérent dans lequel les aspects
psychologiques des expériences quantiques sont liés entre eux de manière
mathématique spécifiée (les mathématiques peuvent être utilisées pour
expliquer cela). En résumé, les dynamiques quantiques sont utiles pour
expliquer comment le cerveau, la conscience et la réalité sont liés, voyons
comment.

À partir des découvertes de Bohr, Heisenberg, Pauli et d’autres inventeurs


de la théorie quantique, John von Neumann a étendu la science des
particules au domaine des neurosciences, en particulier au problème de la
compréhension et de la description des liens causaux entre l’esprit et le
cerveau. Comme il est désormais évident que le rôle de l’observateur joue
un rôle fondamental (de passif, en physique classique, à actif, en physique
moderne), il est clair que la participation de celui-ci à la réalité continue
d’être importante même lorsque les seules caractéristiques du monde
observées sont les propriétés à grande échelle des dispositifs de mesure. La
structure de la mécanique quantique est telle que, bien que l’effet du choix
effectué par l’observateur sur le système observé soit mathématiquement
spécifié, la façon dont ce choix a été déterminé ne peut être spécifiée. Cela
signifie que les choix faits par les observateurs doivent être traités comme
des variables d’entrée librement choisies, plutôt que comme des
conséquences mécaniques de lois de nature connue.

Von Neumann a formulé une théorie quantique rigoureuse qui permet aux
corps et aux cerveaux des observateurs, ainsi qu’à leurs appareils de
mesure, d’être déplacés dans le monde décrit physiquement. Ce changement
s’effectue à travers une série d’étapes, dont chacune pousse le système
d’observation bien au-delà de l’approche déjà innovante de Copenhague.

Il repose sur le concept pratique d’actions intentionnelles menées par les


observateurs. Chacune de ces actions est une préparation destinée à
produire une réponse expérientielle. Par exemple, Cooper pourrait fixer un
thermomètre de cuisine à la casserole avec la ratatouille dedans et s’attendre
à détecter une certaine température après 20 minutes sur le feu. Atteindra-t-
elle la température de cuisson pendant ces 20 minutes? La réponse dépend
de l’expérience.

La théorie quantique est donc une théorie basée sur l’information construite
par les actions préparatoires des observateurs à la recherche d’informations.
De telles actions d’enquête ne sont pas uniquement menées par des
scientifiques. Chaque enfant est continuellement engagé dans des efforts
intentionnels qui produisent des retours d’expérience du monde qui
l’entoure et dans lequel il est en interaction et plus il cherche à former une
expérience, plus il se formera des attentes sur quels types de retours il est
probable qu’ils suivront un type particulier d’effort. Ainsi, tant la science
empirique que les activités de notre vie quotidienne reposent sur des réalités
qui sont le fruit du binôme action-réponse.

L’une des principales fonctions du cerveau est de recevoir des indices de


l’environnement, de les traiter, de les analyser, de former un plan d’action
approprié et de diriger et de surveiller les activités du cerveau et du corps en
suivant le plan d’action sélectionné.

Ce sont des mécanismes que nous expérimentons chaque jour en personne,


même fuir en cas de danger répond à un mécanisme action-réponse basé sur
la mécanique quantique.

Il arrive parfois qu’en prenant une décision, nous ayons le sentiment d’avoir
pris la mauvaise décision. Les sentiments et les émotions sont généralement
compris comme n’étant pas liés à la sphère de l’esprit, mais plutôt à
quelque chose de plus insaisissable et intangible (conscience, esprit, âme).
En réalité, nous savons que des réactions chimiques bien précises se
produisent biologiquement lors de la manifestation d’un sentiment, d’une
sensation ou d’une émotion. Le fait même qu’il s’agisse d’interactions
chimiques, biologiques, entre particules, devrait nous suggérer, à la lumière
de tout ce qui est exposé au cours de ce parcours, qu’il existe des
mécanismes et des règles bien précis par rapport à ce type de réactions, tout
à fait semblables aux interactions que nous observons entre particules
subatomiques. S’il est vrai que nous sommes faits de la même matière dont
est fait l’univers, c’est-à-dire de quanta de subatomiques qui composent la
matière entière, y compris celle dont nous sommes faits, alors les
interactions qui seront soumises aux quantiques de notre cerveau doivent
être les mêmes que celles qui sous-tendent toutes les autres particules. Et si
ce qui vient d’être dit est vrai, alors même des phénomènes comme
l’entanglement doivent être rapportés aux quantiques de notre esprit,
exactement comme ils valent pour toute autre microparticule de ce monde.
Comme nous l’avons vu dans le chapitre correspondant, l’entanglement est
le phénomène par lequel deux particules peuvent communiquer certaines
informations, même si elles sont placées à une distance incroyable l’une de
l’autre. Ce qui vaut pour un système doit également s’appliquer à l’autre.
Von Neumann ne fait qu’étendre au cerveau les mêmes propriétés typiques
des quanta de matière. Maintenant, en abandonnant pour un moment les
techniques liées à l’association entre la mécanique quantique et la
neuroscience, nous pourrions nous imaginer que par une activation
volontaire de l’attractivité potentielle du cerveau, au sens quantique, nous
pourrions en quelque sorte agir sur la réalité et les événements de notre vie.

Il existe d’anciennes et de nouvelles théories à l’appui de cette thèse, allant


de la philosophie orientale à l’entraînement de certaines forces spéciales
internationales. De nombreuses tentatives et expériences ont été faites au fil
du temps, mais à ce jour, il n’existe aucune preuve concrète que l’être
humain puisse réellement agir en ce sens. Et pourtant, le fait même que l’on
continue à essayer, à enquêter, à expérimenter, afin de donner une réponse à
cette question, nous conduit à penser qu’effectivement ce que nous ne
contrôlons pas jusqu’au bout (la pensée libre de notre subconscient)
pourrait avoir des implications étonnantes sur le monde dans lequel nous
vivons.
11.1 L’expérience du choix retardé et les
théories de Penrose et Wigner
La conscience quantique est la théorie selon laquelle la conscience humaine
est une sorte de programme génétique pour des contenus quantiques dans le
cerveau et serait faite de la même substance que l’univers. Cette
“définition” a été accueillie avec beaucoup de scepticisme, ce qui n’est pas
surprenant étant donné les implications religieuses, biologiques, éthiques
qu’elle comporte.

Compte tenu des progrès technologiques récents dans le domaine de


l’ingénierie informatique avec des super-ordinateurs capables d’effectuer
des opérations que les ordinateurs normaux ne peuvent absolument pas
répliquer, on peut supposer, par analogie, que le cerveau humain, constitué
lui aussi de quanta, est effectivement capable de faire des choses
extraordinaires (nous avons vu dans le chapitre précédent que la thèse a
déjà été appliquée au domaine des neurosciences). Il est clair que la notion
de conscience quantique est généralement traitée comme une dérive
mystique, mais cela ne signifie pas qu’elle ne mérite pas d’attention (au
contraire, elle semble avoir récemment refait surface en générant un nouvel
intérêt).

Tout à l’heure, nous avons résumé le processus d’interaction entre la


réponse et l’action, auquel le cerveau semble se référer chaque fois qu’une
décision est nécessaire.

Reprenons l’expérience de John Wheeler, qui a précisément été conçue pour


tester la capacité d’autodétermination des particules.

Ce qui importe, ce n’est pas le type de mesure que nous voulons effectuer
sur un système particulier, mais le moment où nous mettons en œuvre
l’action.

C’est comme si la nature savait, non seulement si nous cherchons, mais si


nous allons regarder. Chaque fois que nous mesurons et observons le
chemin d’une particule quantique, celle-ci prend soudainement un seul état
quantique bien défini et tous les autres états possibles s’évanouissent.
L’expérience de “choix retardé” implique que le simple fait de remarquer
par l’observation plutôt que toute perturbation physique causée par les
dispositifs de mesure peut entraîner l’hypothèse d’un état quantique
définitif.

Mais cela pourrait-il donc signifier que la véritable détermination d’un état
quantique n’a lieu que lorsque le résultat d’une mesure a atteint notre
conscience? On ne sait pas.

Il est difficile d’établir s’il existe effectivement un lien entre la conscience


et la mécanique quantique. C’est le physicien hongrois Eugene Wigner,
naturalisé américain, collègue de von Neumann, ami d’Einstein et beau-
frère de Dirac qui a admis cette possibilité dans les années 1930 (et nous
constatons encore une fois une certaine implication répandue parmi les
protagonistes qui ont conduit à la naissance de la physique quantique).

En 1961, Wigner conçoit une théorie qui prend le nom de “la conscience est
la cause de l’effondrement”. La formulation de cette théorie naît du désir de
résoudre le paradoxe appelé “de l’ami de Wigner”. Le paradoxe se
développe comme une extension analogique du paradoxe du chat de
Schrödinger avec le but précis d’introduire le problème du rapport corps-
esprit dans le débat sur la mécanique quantique. Pour comprendre de quoi
Wigner et ses collègues parlaient, nous devons faire une petite prémisse sur
la notion de “défaillance d’onde”, c’est-à-dire, la détermination de l’état
d’un système à la suite d’une mesure (en clair, il se réfère au moment où le
système prend un état quantique déterminé à la suite de la mesure d’une de
ses variables).

Wigner résolvait le problème en affirmant qu’il était le premier observateur


conscient du phénomène à causer l’effondrement (avec pour conséquence
l’évaporation de tous les autres états possibles). Cette interprétation est
reléguée au domaine de la métaphysique, bien que Wigner ait été un
participant actif dans les découvertes quantiques.

À ce jour, il n’y a pas d’interprétation unique de ces expériences quantiques


et en définitive, les conclusions que vous voudrez tirer des résultats des
expériences de Young, Wheeler, des paradoxes de Schrödinger et Wigner,
dépendront de vous. Quoi qu’il en soit, avant que vous ne preniez une
décision contre ou pour, nous devons introduire les théories de Roger
Penrose, physicien britannique qui, dans les années 1980, s’est passionné
pour le sujet. Il a notamment suggéré que cette liaison pourrait fonctionner
dans la direction opposée. “Que la conscience influence ou non la
mécanique quantique, peut-être la mécanique quantique est-elle impliquée
dans la conscience”.

Penrose disait que ce n’était pas exclu, que notre capacité à assumer des
états mentaux apparemment incompatibles n’est pas une simple perception
ou un simple sentiment, mais un véritable effet quantique. Peut-être que la
mécanique quantique est vraiment la façon dont fonctionne notre
conscience. Après tout, le cerveau humain semble capable de gérer des
processus cognitifs qui dépassent encore de loin les capacités des plus
puissantes machines technologiques. Penrose a proposé pour la première
fois sa théorie sur les analogies quantiques entre les interactions de
particules et la conscience humaine, dans son livre “L’esprit nouveau de
l’empereur”, publié en italien en 1992. La thèse proposée consiste à
supposer que la gravité est la raison pour laquelle tout objet plus grand
qu’un atome ne peut pas montrer des caractéristiques et des effets
quantiques, car la gravité serait responsable de la superposition de tous les
états quantiques dans la dimension espace-temps. Il a suggéré que les
structures impliquées dans ce qu’il appelle lui-même la “cognition
quantique” pourraient être composées de filaments de protéines appelés
microtubules (qui sont bien connus en biologie et se trouvent dans la
plupart de nos cellules, y compris les neurones de notre cerveau).

Penrose et son collègue Hameroff ont soutenu que les vibrations des
microtubules pouvaient se positionner dans un état de superposition
quantique (ne vous rappelle-t-il pas la vibration des cordes?).

Malgré les tentatives pour amener la théorie à un nouveau niveau par des
expérimentations scientifiques, à ce jour aucune tentative ne semble avoir
été menée dans ce sens (il semblerait même qu’il y ait un complot derrière).
Dans tous les cas, le physicien Max Tegmark (celui de la théorie de l’omni-
verso, vous vous en souvenez?) a calculé que les superpositions quantiques
des molécules impliquées dans la survenue des processus entre neurones ne
pourraient survivre même une fraction du temps nécessaire pour envoyer un
signal détectable. Des recherches démontreraient toutefois la présence
d’effets quantiques dans les êtres vivants et auraient relevé que des
phénomènes tels que le chevauchement sont difficilement détectables, car
extrêmement éphémères, en raison d’un processus par lequel, dans les
interactions d’un objet quantique avec l’environnement environnant, une
partie des effets du chevauchement serait dispersée.

Ce sont des théories hautement hypothétiques, non démontrées et pour la


plupart non vérifiables. Bien sûr, elles sont fascinantes, elles laissent
entrevoir un scénario de haute capacité intellectuelle de la part des humains,
et elles s’alignent sur l’idée que nous serions en mesure, pour le moment,
d’utiliser seulement 3% des capacités réellement propres de notre cerveau.
Chapitre 12
UN NOUVEAU RELATIVISME
QUANTIQUE?

Le monde est un jeu de perspective, comme des miroirs


qui n’existent que dans le reflet de l’un dans l’autre. Il y a
quelque chose de déconcertant dans tout cela. La solidité
de la réalité semble fondre entre nos doigts dans une
régression infinie de références.
C. Rovelli

R écemment, Carlo Rovelli a publié un livre très intéressant (Helgoland)


dans lequel l’auteur retrace l’histoire de la physique d’Anassimandro
jusqu’à nos jours. Le but est d’offrir une nouvelle interprétation relativiste
de la mécanique quantique. Rovelli tente d’indiquer la voie pour une
nouvelle théorie du tout, en reconnaissant les propriétés des systèmes
quantiques exister indépendamment de l’observateur. Il ne s’agit pas
d’admettre le hasard et le désordre, et encore moins de le réduire à une
interprétation objectiviste. Cela signifie, au contraire, regarder la réalité non
pas comme un ensemble d’objets, mais comme un réseau de relations entre
les différents objets. Les quantiques, en somme, devraient être considérées
comme des nœuds dans un réseau d’interactions. Reprenant des concepts
déjà exprimés par Newton et Kant, Rovelli reconnaît le lien indissoluble
entre philosophie et physique. En substance, nous pouvons considérer cette
théorie comme un approfondissement des thèses de Bohr et Heisenberg
(comme nous le savons, les concepteurs de l’interprétation de Copenhague)
mais avec une suggestion de simplification. Rovelli, en effet, admet qu’il
pourrait être possible d’éliminer une certaine dose de formalisme
idéologique pour pouvoir se concentrer sur ce qui est vraiment essentiel du
point de vue de la réalité. En somme, nous assistons à Helgoland à une
tentative d’attirer l’attention des acteurs du monde scientifique sur le plan
primaire, celui de la réalité pure. Elle rappelle un peu la perspective de
Feynman, génie incontesté de la physique (en fait, magicien, comme il est
communément défini par la communauté scientifique) et grand esprit anti-
conventionnel. Dans ses travaux, Feynman pose des questions intéressantes
sur la façon dont on devrait se rapporter au monde scientifique en général et
à la physique en particulier. Les relations entre l’éthique et la science, par
exemple, sont abordées par Feynman avec une extraordinaire franchise (ce
qui dépend probablement de sa participation au projet Manhattan). Dans
“Le plaisir de découvrir”, il met en lumière les aspects qui pourraient
affecter la biologie et la mécanique quantique au cas où, un jour, nous
découvririons comment produire de l’énergie sans coût. Sans entrer dans les
détails sur les implications évidentes que cela impliquerait (nourrir le
monde entier en produisant de la nourriture directement à partir d’atomes et
de molécules, par exemple), Feynman nous donne une vision de ce qui se
passerait si, en même temps, en biologie on arrivait à la conclusion que
l’événement “mort” est quelque chose qu’on peut éviter (et d’ailleurs, dit-il,
il n’y a pas de preuves du contraire). Les applications scientifiques seraient
alors l’objet de débats féroces et passionnés sur le bien et le mal. Ce n’est
pas difficile à imaginer. Mais l’interprétation du “juste” et du “mauvais” est
une question d’éthique personnelle, pas de science, pas même de physique.
C’est quelque chose qui concerne l’observateur, qui élaborera les nouvelles
découvertes selon une perspective subjectiviste lorsqu’il sera confronté à
certains événements. C’est également relativiste, nous jugeons une situation
sur la base du rapport et de l’interaction que nous nous retrouvons à
expérimenter. Nous agissons selon les lois de la physique, même si nous ne
savons absolument rien de ce monde. C’est un comportement inné, naturel,
instinctif, auquel nous sommes probablement génétiquement et
biologiquement programmés. Les animaux font la même chose. Toutes les
formes de vie connues se comportent de la même manière. Que tout soit
connecté et interconnecté, il devrait être clair maintenant que notre voyage
dans le monde de la physique quantique est terminé. Des phénomènes tels
que l’entanglement quantique (qui, comme nous l’avons vu, a été
scientifiquement prouvé) nous suggèrent que nous sommes tous liés les uns
aux autres, qu’il existe des corrélations certes subtiles, mais réelles. De la
même manière, nous pouvons présumer qu’il y a des liens entre nous et les
événements qui se produisent dans nos vies, et les études sur la conscience
quantique nous suggèrent, même, qu’avec nos pensées nous pouvons attirer
un certain type d’événement plutôt qu’un autre, que nous choisissons ce qui
se passe. Nous n’avons pas encore la preuve irréfutable que toutes ces
possibilités sont effectivement réalisables, mais la mécanique quantique
nous donne les indices pour pouvoir raisonner dans cette direction.
NOTE DE L'AUTEUR

Ce livre a un but de vulgarisation et ne se propose pas comme manuel pour


l’étude approfondie de la physique. La nécessité de simplifier certains
concepts particulièrement articulés et complexes, de nature mathématique et
physique, entraîne inévitablement une renonciation en termes de détail et de
précision quant aux formulations et théories qui sous-tendent ces
formulations et théories. Un haut niveau d’approfondissement de la matière
suppose une compétence scientifique de type académique qui s’imagine
manquer au lecteur auquel ce livre est adressé, qui souhaite se rapprocher
du monde quantique sans se faire décourager par les difficultés naturelles
intrinsèquement liées à une approche de type spécialisé.

En outre,

Si vous avez aimé ce livre, dites-moi ce que vous en pensez en laissant un


bref commentaire sur Amazon.

Merci et à bientôt.
GLOSSAIRE

Annihilation: le mot vient du latin “nihil” qui signifie “rien”. En physique,


il désigne le processus qui se produit entre les particules et les antiparticules
au moment de l’interaction, à partir duquel la matière ou l’antimatière
peuvent se produire.

Antimatière: substance composée de particules subatomiques ayant une


masse, une charge électrique et un moment magnétique des électrons,
protons et neutrons de la matière ordinaire, mais pour lesquels la charge
électrique et le moment magnétique sont de signe opposé.

Atome: la plus petite unité dans laquelle la matière peut être divisée sans
libération de particules chargées électriquement. C’est aussi la plus petite
unité de matière qui possède les propriétés caractéristiques d’un élément
chimique. En tant que tel, l’atome est l’élément fondamental de la chimie.

Bosons: particules subatomiques à spin intégral régies par la loi statistique


de Bose-Einstein. Avec les fermions, ils constituent les deux grands groupes
dans lesquels les particules peuvent se diviser. Contrairement aux fermiers,
ils n’obéissent pas à la loi d’exclusion de Pauli.

Chaleur: forme d’énergie qui est transférée entre deux corps en présence
d’un porte-à-faux thermique (différence de température).
Électrons: particule subatomique stable plus légère connue. Il porte une
charge négative.

Énergie: mesure qui exprime la capacité d’un corps ou d’un système à


effectuer un travail, que le travail soit effectivement effectué ou non. Il peut
exister sous des formes potentielles, cinétiques, thermiques, électriques,
chimiques, nucléaires ou autres.

Énergie cinétique: forme d’énergie générée par le mouvement d’un corps.

Énergie potentielle: énergie des corps soumis à l’action de forces


conservatrices, étroitement liée à l’échange de travail.

Entanglement: phénomène propre à la physique quantique dans lequel


deux ou plusieurs systèmes représentent des sous-systèmes d’un système
plus large. L’état quantique du système plus grand ne peut être défini sans la
définition des sous-systèmes. Principe d’influence entre particules.

Fermions: tout membre d’un groupe de particules subatomiques à moment


cinétique semi-intégral (donc non entier) impair (spin 1/2, 3/2). Ils sont
nommés d’après les statistiques de Fermi-Dirac qui décrivent le
comportement de Pauli en vertu de la loi d’exclusion.

Travail: mesure du transfert d’énergie qui se produit lorsqu’un objet est


déplacé sur une distance par une force extérieure au moins partiellement
appliquée dans la direction du déplacement. Si la force est constante, le
travail peut être calculé en multipliant la longueur du parcours par la
composante de la force agissant le long du parcours.

Matière: substance matérielle qui constitue l’univers observable et, avec


l’énergie, constitue la base de tous les phénomènes objectifs.
Modèle Standard: théorie de la physique quantique qui étudie les trois
principales interactions de la matière (électromagnétique, faible et forte) et
les particules concernées.

Molécules: un groupe de deux ou plusieurs atomes formant la plus petite


unité identifiable dans laquelle une substance pure peut être divisée et
conservant encore la composition et les propriétés chimiques de cette
substance.

Protons: particule subatomique stable ayant une charge positive égale en


taille à une unité de charge électronique.

Quanta: unité naturelle discrète, ou paquet, avec des propriétés spécifiques


d’énergie, de charge, de moment angulaire ou d’autres propriétés physiques.

Quark: c’est une particule élémentaire qui est fondamentale pour la


matière.

Réfraction: phénomène qui se produit, avec la réflexion, lorsqu’un faisceau


de rayonnements électromagnétiques, notamment lumineux, affecte la
surface de séparation entre deux milieux transparents (par exemple air et
eau), et qu’une partie de celui-ci (rayonnement ou onde réfractée) la
traverse et est transmise dans le second milieu où elle forme avec la surface
normale un angle différent de celui d’incidence et se propage le long d’une
direction différente.

Chevauchement quantique: phénomène propre à la physique quantique


dans lequel deux ou plusieurs états quantiques peuvent être additionnés
(superposés) donnant un autre état quantique avec un résultat valide.

Température: mesure utilisée pour décrire la chaleur et le froid, exprimée


en termes de n’importe quelle échelle arbitraire conventionnellement
utilisée.
BIBLIOGRAPHIE

L’évolution de la physique, Albert Einstein et Léopold Infeld, 1938;

Le monde des quanta, Kenneth W. Ford, 2004;

Helgoland, Carlo Rovelli, 2020;

Le Plaisir de découvrir, Richard Feynman, 1999;

Notions fondamentales de chimie, Paolo Silvestroni, 1996;

Mécanique statique, Kerson Huang, 1997;

La physique de Feynman, Richard Feynman, 1964;

Le boson d'Higgs - le triomphe du modèle standard ou l'aube d'une


nouvelle physique?, Lamberti, 2013;

L'énigme de l'infini - à la recherche du véritable univers, Frank Close,


2013;

Subtil est le Seigneur - La science et la vie d'Albert Einstein, Abraham


Pais,1982;

Fondements mathématiques de la mécanique quantique, J. von


Neumann,1955;
Physique et Philosophie, W. Heisenberg, 1958.
AUTEUR

Pierpaolo Amadeo, né en 1979, est un écrivain né et élevé à Bologne.

Il consacre une grande partie de sa vie à l'écriture, d'abord comme


journaliste et éditeur, puis comme vulgarisateur scientifique après
l'achèvement de ses études.

Depuis son enfance, il a toujours été curieux de tout ce qui se passait sous
ses yeux, même pour les choses les plus banales.

Sa passion pour comprendre la nature de ce qui l'entourait ne s'estompe pas


pendant l'enfance, mais il continue toute sa vie, jusqu’à ce qu'il décide
d'entreprendre un parcours universitaire en s'inscrivant au Cours de Licence
en Physique de l'Université de Rome La Sapienza.

Maintenant que toutes ses questions ont finalement trouvé réponse, il sentait
que son but était de donner à tous les curieux comme lui les réponses qu'ils
cherchaient, sans toutefois avoir besoin d'entreprendre un parcours
universitaire, mais en rendant compréhensible une matière passionnante et
fascinante comme la physique à tous ceux qui ne peuvent pas s'empêcher de
se demander "le pourquoi" des choses.

Vous aimerez peut-être aussi