Vous êtes sur la page 1sur 402

L'EAU ET

LA PHYSIQUE
QUANTIQUE
Vers une révolution
de la médecine
L'eau
et la physique
quantique
Vers une réuolution de la médecine
pr Marc Henry

L'eau
et la physique
quantique
Vers une réuolution de la médecine

Un ouurage paru sous La direction de


Cécile Carru

fkma~s
EDITIONSJ ~
Tous droits de reproduction, de traduction, et d'adaptation réservés pour tout pays.
Toute reproduction, même partielle, de cet ouvrage est interdite.
Une copie ou toute reproduction par quelque moyen que ce soit constitue
une contrefaçon passible des peines prévues par la loi du 11 mars 1957
et la loi du 3 juillet 1985 sur la protection des droits d'auteur.

© 2016 Éditions Dangles


Une marque du groupe éditorial Piktos,
Z.I. de Bogues, rue Gutenberg - 31750 Escalquens

www.piktos.fr
EAN: 978-2-7033-1147-8
•A' propos de l'auteur
Marc Henry, 58 ans, est ingénieur chimiste (1980), docteur ès sciences
(1988), habilité à diriger les recherches (1993) et professeur des universités
depuis 1993 avec un enseignement portant sur la chimie, la science des
matériaux, la physique quantique et la symétrie moléculaire et cristalline.

Il cherche à comprendre l'eau sous tous ses aspects : physique, chimique,


biologique, en relation avec les phénomènes électromagnétiques, mais
il s'intéresse aussi à l'histore des sciences et l'épistémologie ; il aborde
également la philosophie en explorant l'émergence du phénomène de
conscience en relation avec la physique quantique.

Marc Henry est un conférencier apprécié du public pour sa pédagogie


et sa capacité à présenter des choses complexes dans un langage clair et
compréhensible par tous.

Il est président de l'association Natur'Eau Quant qui milite pour une


approche quantique de la nature, utilisant l'eau comme vecteur d'information
(http://natureauquant.blogspot.fr/).

7
• Introduction

L•eau est une substance disposant d'un statut tout à fait unique dans la
pensée humaine. Pendant des siècles, elle fut ainsi considérée comme un
élément, c'est-à-dire comme une substance indécomposable par les moyens
de l'analyse, et que l'on retrouve en quantité plus ou moins variable dans tous
les corps matériels. Dans ces conditions, parler de l'origine de l'eau n'avait
aucun sens. L'eau devait déjà être là depuis la nuit des temps et serait toujours
là jusqu'à la fin des temps. Quant au nombre d'éléments accompagnant l'eau,
il semble régner une certaine confusion chez les auteurs de livres sur l'eau,
certains se limitant à quatre éléments, d'autres parlant de cinq éléments. En
fait, il devrait être clair pour tout le monde qu'il y a toujours eu cinq éléments,
aussi bien chez les Occidentaux que chez les Orientaux. La seule différence,
c'est que le cinquième élément en Occident est soit caché, sa connaissance
étant réservée à une élite après des rites d'initiation sophistiqués, soit mis
hors de portée de la nature humaine, pour que l'existence d'un dieu puisse
être rendue plus tangible aux adeptes d'une religion donnée. Le ciel et le
cosmos sont en effet suffisamment vastes pour qu'y cohabitent toutes sortes
de dieux, censés s'intéresser aux drames de la vie terrestre. Les Orientaux
sont beaucoup plus pragmatiques et parlent du cinquième élément comme
des quatre autres, sans faire autant de chichis. La science ne se concevant pas,
pour ce qui me concerne, sans une bonne dose de philosophie, voici une brève
piqûre de rappel avant de rentrer dans le vif du sujet.

9
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

~ Platon d'Athènes

œ
Siddhartha Gautama

Chora

0
(623-544 AEC)

-
Sen•;ble+=;;;,
@
(""1i~) ~E~
'-1--\-o-- (Illusion)
Q

R
I
E Sensible
N Ousia N
T Aristote de Stagire

Lao-Tseu T

(31l4-322AEC)

Forme ~------> Matière


(acte) Intelligible (puissance)

Figure 1 : L'eau se trouve être un élément fondamental dans toutes les traditions
orientales ou occidentales. Pour le reste, il y a bien cinq éléments, aussi bien en
Orient qu 'en Occident.

La civilisation occidentale est le pur produit d'un mode de pensée qui


trouve son origine dans la Grèce antique, où l'empirisme des Milésiens ou
des atomistes se confrontait rudement avec l'idéalisme des Éléates et où la
verve oratoire des sophistes, capables de défendre n'importe quel point de
vue, côtoyait le scepticisme d'un Pyrrhon d'Élis (360-275 AEC) ou l'ironie
d'un Socrate d' Alopèce (470-399 AEC). Comme on le sait, cette pluralité de
points de vue contradictoires, où chacun prétendait détenir la vérité absolue en
pointant du doigt l'erreur des autres, allait se réduire in fine à un affrontement
sans fin entre une position dualiste popularisée par Platon d'Athènes (427-
339 AEC), pour qui les choses sensibles ne sont que les images de formes
intelligibles projetées sur une étendue matérielle (xropa, chora) et une position
plus moniste préconisée par Aristote de Stagire (384-322 AEC), où matière
(ÜÀ.TJ, hylê) et forme (µopqn'J, morphê) ne sont que des concepts abstraits qui
coexistent dans la substance (oucria, ousia). Ce qui caractérise vraiment un
esprit occidental, c'est donc cette tendance atavique à opposer sur une ligne
droite matière et esprit selon un schéma qui peut être cruciforme (Platon) ou
triangulaire (Aristote).

Comme le montre la figure 1, le mode de pensée en croix platonicien


s'adapte très bien à la vision empiriste d'Empédocle d' Akragas (490-
430 AEC) stipulant une réalité quadruple (feu, air, eau et terre), éléments
qui se trouvent être « racines de toutes choses ». Le cinquième élément

10
INTRODUCTION

ayurvédique, l'éther, symbolisé par le centre de la croix, est ici placé sur un
autre plan, au-dessus des quatre racines, générant la pyramide à base carrée
égyptienne chez Platon et la sphère céleste circulaire chez Aristote. Pour ce
qui concerne les quatre éléments, Aristote reprend l'idée d'Anaximandre de
Milet (610-546 AEC) qui voit dans tout mouvement une monade chaleur
qui tend à séparer les choses et une monade humidité qui tend au contraire
à les rassembler. Ainsi, en faisant agir la dyade indifférenciée platonicienne
(plus/moins) sur la monade centrifuge, on génère le chaud et le froid, tandis
que l'action de cette même dyade sur la monade centripète génère le sec et
l'humide. Tout élément matériel stable apparaît ainsi comme l'association
intime d'un pôle séparant et d'un pôle condensant :feu à la jonction du chaud
et du sec, air à la jonction du chaud et de l'humide, eau à la jonction du froid
et de l'humide et terre à la jonction du froid et du sec (figure 2). De ce point
de vue, la vision aristotélicienne du monde apparaît donc très proche des
visions orientales qui posent également, à la base de toute chose matérielle,
un principe yang centrifuge (chaleur chez Aristote) et un autre yin centripète
(humidité) avec des degrés variables (dyade indifférenciée platonicienne) de
yang et de yin.

En plus des quatre éléments d'Empédocle qui forment la région située


au-dessous de la sphère de la Lune soumise au changement permanent et
aux mouvements linéaires, Aristote évoque aussi l'existence d'un cinquième
élément, l'éther (m0tpaç, aitheras) ou le ciel. Ce dernier élément, qui est
supérieur à tous les autres, a quant à lui un mouvement circulaire. En effet, le
déplacement par translation 1 devait être le premier de tous les mouvements
car c'était le seul qui avait la propriété d'être continu, l'évolution et
l'altération nécessitant un arrêt, un repos permettant de passer d'une chose
à son contraire. L'infini n'existant qu'en puissance et non en acte et toute
forme générant un objet fini, il fallait aussi s'arrêter pour parcourir une droite
physique de longueur finie. Ne restait que le mouvement circulaire uniforme
qui pouvait être infini, continu et éternel.

Par contraste, ce qui caractérise les civilisations orientales est un mode


de pensée basé sur le cercle et non sur la ligne droite (figure l ). Ainsi, si
je dis qu'un point du cercle représente la matière, l'esprit ou les idées se
trouvent sur le même cercle au point diamétralement opposé à celui qui a
été privilégié. Ce qui est intéressant ici, c'est que tous les points du cercle
sont équivalents par principe, ce qui rend la distinction entre esprit et matière
totalement vaine, l'un pouvant se substituer sans problème à l'autre. Cette
non-dualité intrinsèque est nommée« vacuité» et se trouve atteinte lorsqu'on
se place au centre, seul lieu d'où l'on peut saisir le cercle dans son ensemble.

1. Les termes soulignés renvoient à l'annexe technique en fin d'ouvrage.

li
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Centrifuge L'air monte Fluide

Le feu monte.,6.

/
.
/ /":
-; .
• ,..~ i

~: '~:~2,ir·\
Rigide Centripète
La terre tombe

Figure 2 Synthèse aristotélicienne basée sur une dyade indifférenciée


pythagoricienne plus/moins agissant sur une autre dyade énergie/eau afin de générer
les quatre éléments sensibles d'Empédocle.

Dès que l'on choisit de se placer en périphérie, le cercle nous apparaît


comme une ligne droite avec un côté qui s'oppose de manière irréductible
à l'autre, et le centre du cercle ne peut alors qu'être imaginé comme le
sommet d'un triangle à partir duquel l'esprit contemple la dualité d'une base
matérielle. Comme on l'a vu plus haut, il est parfaitement ridicule de vouloir
opposer le mode de pensée occidental, insistant sur quatre éléments matériels
et un cinquième élément céleste masqué à la connaissance pour des raisons
politiques ou religieuses, et celui oriental où le cinquième élément coexiste
avec les quatre autres, soit sous forme d'éther en philosophie ayurvédique,
soit sous forme de métal en philosophie taoïste.

En effet, les météorites, objets célestes par excellence, ne sont-elles pas


principalement constituées de métaux, et le bois ne se fabrique-t-il pas à partir
d'air? Qu'est-ce que l'éther si ce n'est cet état créé par la foudre tombant
du ciel ou encore ce magnétisme émanant des aimants ? On voit bien que
toutes les traditions humaines sont d'accord pour affirmer l'existence de cinq
éléments, chacune amenant sa touche personnelle pour se différencier des
autres. Toutes les traditions sont également d'accord pour mettre en avant
trois éléments sur les cinq : terre, eau et feu. En philosophie ayurvédique, on
aura ainsi les trois rajas (tamas, sattva et raja), en philosophie taoïste : yin,

12
INTRODUCTION

tao et yang, et en alchimie occidentale: sel, mercure et soufre. Ainsi, s'il faut
cinq éléments pour parler des structures (matière ou chose en puissance chez
Aristote), trois suffisent pour parler des fonctions (forme ou chose en acte
chez Aristote). De même, il est clair que l'Occident est fasciné par la structure,
alors que l'Orient est fasciné par la fonction. D'où l'impression d'un dialogue
de sourds entre les deux modes de pensée, que certains exploitent sciemment
pour s'assurer un pouvoir matériel et/ou spirituel. L'idéal est bien sûr d'être
souple et d'avoir un mode de pensée fonctionnel dès qu'il s'agit de bouger
et un mode de pensée structural dès qu'il s'agit de contempler. Chercher
une structure dans un monde qui bouge ne peut en effet que générer de la
nausée. De même, vouloir faire bouger une structure dont la raison d'être est
de s'opposer à tout mouvement est une tâche vouée à l'échec qui ne pourra
que conduire à la frustration et au désespoir. Face à une structure qui devient
obsolète, la seule solution n'est pas de la faire bouger par morceaux, mais de
la détruire en totalité pour que le mouvement en crée spontanément une autre,
mieux adaptée aux nouvelles circonstances.

L'eau est-elle uiuante?


Quel livre sur l'eau n'aborde pas ce point crucial ? Ici aussi règne une
certaine confusion entre ceux qui voient ce concept comme une évidence
et d'autres qui conçoivent mal comment ce truc à l'odeur nauséabonde qui
sort de nos robinets pourrait avoir un quelconque rapport avec la vie. En fait,
sous le même concept de « vie », on peut rassembler trois interprétations
foncièrement différentes. Tout d'abord, il y a l'idée que les organismes
vivants se distinguent des objets inertes ou des organismes morts par leur
capacité à croître au moyen d'un métabolisme, à se reproduire et à avoir
une régulation interne en réponse à l'environnement. Dans ce cadre, la vie
se caractérise comme un état d'organisation distinct de celui de la matière
inerte. En second lieu, la vie est aussi la période d'existence où un individu
s'avère avoir un mouvement autonome, ce qui donne un aspect dynamique
à la question posée. Enfin, la vie peut également être un principe d'existence
conçu comme une appartenance à une âme immatérielle, ce qui pose le
problème de la conscience.

Il est important de réaliser que tout au long d'une grande partie de l'histoire
de l'humanité, la question de savoir ce qu'était la vie ne se posait même
pas. Avant l'avènement de la science, tout l'univers était vivant: les étoiles,
le ciel, les rivières, les montagnes, etc. Comme il n'y avait pas de « non-
vie », la définition exacte de la vie n'avait que très peu d'importance. Ce
n'est que lorsque la mécanique déterministe des corps en mouvement est
devenue une science que la question s'est alors posée. Si toute matière suit
des lois physiques simples et si nous rejetons les explications vitalistes du

13
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

comportement du monde, quelle est la différence entre la vie et la non-vie,


c'est-à-dire entre la biologie et la physique ? La science prenant comme
principe que tout est mesurable, on a bien vite éliminé le vitalisme comme
explication scientifique valable de la vie. Ceci a conduit la science à étudier
les systèmes vivants via une approche réductionniste produisant une vision
purement biochimique du fonctionnement des organismes vivants. Dans ce
cas, la vie est considérée comme n'étant qu'une physique très compliquée.
Cependant, la question reste posée : parmi tous les systèmes dynamiques
possibles et imaginables, lesquels peuvent être classifiés comme vivants ?
Quel type de complexité recherche la science ? Personne ne conteste que
la vie soit une sorte d'arrangement matériel très complexe, mais à partir de
quel niveau de complexité est-il possible d'affirmer que la matière devient
vivante? Cette transition se fait-elle de manière abrupte ou, au contraire, la
vie est-elle un concept flou? Pour répondre à cette question, est-il nécessaire
de fabriquer des organisations qui ont le même niveau de complexité que les
êtres vivants, ou bien suffit-il de simuler leur comportement animé ?

Traditionnellement, la vie a été identifiée à des organisations matérielles


qui présentent certaines propriétés comme : le métabolisme, l'adaptabilité,
l'autonomie, l'auto-réparation, la croissance, la réplication, l'irritabilité,
l'évolution, etc. La plupart des organismes vivants obéissent à cette liste ;
toutefois, il existe aussi d'autres systèmes matériels qui n'obéissent qu'à un
sous-ensemble de ces règles comme les virus, le feu, l'air, l'eau, la terre et
certains robots. Tout ceci fait que la vie apparaît souvent comme un concept
extrêmement flou. Cependant, que ce soit de manière objective ou subjective,
nous sommes tout à fait capables de reconnaître certaines organisations
matérielles comme étant vivantes. C'est peut-être cette capacité à reconnaître
et catégoriser les événements qui se produisent autour de nous qui nous
permet de différencier clairement entre systèmes vivants et non vivants. La
vie nécessite en effet de pouvoir contrôler les événements et les hiérarchiser
afin d'assurer notre survie. C'est une caractéristique commune à toutes les
formes de vie, à laquelle s'ajoute la capacité à stocker et transmettre des
informations concernant les événements du passé.

14
INTRODUCTION

C'est ici que se situe le fossé entre la physique et biologie. Les lois de la
physique sont par définition indépendantes de tout type d'organisme. Elles
sont universelles et inexorables, et ne peuvent en aucun cas être changées par
quelque organisme que ce soit. Pour la physique dite classique, ces lois existent
même au-delà de l'observation. Par opposition, les systèmes biologiques sont
arrivés à un degré de contrôle matériel tel qu'ils sont capables de catégoriser
et de manipuler de manière sélective certains aspects de leur environnement
matériel. C'est cette sélectivité qui différencie les actions d'un être vivant
d'avec les simples actions-réactions de nature purement physique. Autrement
dit, quand un être organisé devient capable de reconnaître et d'agir sur certains
aspects de son environnement qui lui semblent importants pour sa propre
survie, on dit que le mécanisme par lequel l'organisme reconnaît et agit devient
fonctionnel par référence à l'organisation elle-même (auto-référence). La
physique ne se préoccupe pas de fonctions. Par exemple, la molécule d' ADN
peut être décrite à un niveau réductionniste purement physique qui ne nous
apprendra rien du tout sur la fonction de certaines molécules d' ADN, comme
un gène en relation avec une organisation matérielle particulière. Ce n'est que
lorsque l'on fait référence à cette organisation matérielle plus étendue qu'un
brin d' ADN apparaît avoir une fonction en tant que gène pour un certain type
de contrôle précédemment catégorisé, par exemple codant pour une enzyme
qui pourra avoir un effet sur son environnement.

Toutes ces considérations peuvent être reformulées au moyen de la notion


d'émergence (figure 3). Quel que soit le type d'organisation qui existe après
franchissement du seuil de complexité, que ce soit de manière discrète
ou bien progressive, on dit qu'il y a eu « émergence » à un certain niveau
physique dès que les attributs de ce niveau ne peuvent pas être entièrement
expliqués au moyen des attributs du niveau précédent. En particulier, les
fonctions, le contrôle, la catégorisation ne peuvent pas être expliqués par la
physique uniquement. Remarquons toutefois que cela n'implique en aucune
façon de faire intervenir le vitalisme ou le dualisme. Lorsqu'on affirme
que certaines caractéristiques ne peuvent pas être expliquées uniquement
par la physique, en raison de l'existence de propriétés émergentes pour
certains arrangements physiques, cela signifie qu'il est nécessaire d'utiliser
des modèles différents à chaque niveau et aussi, ce qui est très important,
qu'il faut des modèles permettant de connecter les différents niveaux entre
eux. Autrement dit, bien que les fonctions, le contrôle ou la catégorisation
ne puissent pas être expliqués par la seule physique, ils doivent néanmoins
suivre les lois physiques. En particulier, le problème de l'origine de la vie
doit être vu comme une émergence de la capacité à catégoriser et contrôler
un milieu physique.

15
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Synthèse
Chimie

t
Structures
atomes

quarks
t
Physique

Figure 3 : Le chemin qui mène de l'atome à la cellule est interrompu par un


gouffre béant au niveau des protéines, premiers objets possédant une structure
mais assurant aussi une fonction. Entre la protéine « structure » du biochimiste et
la protéine «fonction », il y a eu émergence. Comme l'avait très bien compris le
biologiste hongrois Albert Imre Szent-Gyorgyi, Prix Nobel de médecine 1937 pour sa
découverte de la vitamine C, c'est l'eau qui est responsable de cette émergence (voir
Szent-Gyorgyi 1972).

Vu sous cet angle, l'eau présente bien toutes les caractéristiques d'un système
vivant, car lorsque l'hydrogène et l'oxygène ont réagi pour donner de l'eau, il
est impossible d'expliquer les propriétés du nouveau gaz H20 obtenu au moyen
des propriétés de l'hydrogène ou de l'oxygène pris séparément. En particulier,
la manière dont la vapeur d'eau arrive à contrôler le climat de toute une planète
comme la Terre est sans commune mesure avec ce même contrôle par le
dioxygène ou le dihydrogène pris séparément. Il y a donc bien eu émergence.
De même, lors du déluge universel, la vapeur d'eau a subi une transition
de phase depuis l'état gazeux vers l'état liquide. Ici aussi, il est de nouveau
totalement impossible de comprendre les propriétés du liquide au moyen des
modèles utilisés pour décrire la vapeur, et le contrôle exercé par l'eau liquide
sur les paysages terrestres n'a rien de commun avec le contrôle exercé par la
vapeur d'eau. Il y a encore bien eu émergence. Lorsque le liquide se solidifie en
glace, il faut mettre au point de nouveaux modèles spécifiques de l'état solide
pour comprendre les nouvelles propriétés de cette matière gelée qui façonne à
sa manière les paysages terrestres. Enfin, lorsque l'eau se structure en couches
sur toute surface organique ou minérale, on ne retrouve aucune des propriétés
de la vapeur, du liquide ou de la glace en raison de l'émergence d'un nouvel

16
INTRODUCTION

état, l'eau morphogénique, qui lui aussi façonne la planète. Placer le débat sur
la notion d'émergence présente donc l'énorme avantage de s'affranchir d'un
anthropomorphisme trop centré sur l'ego et ramène la science vers la position
défendue par le chamanisme, à savoir que la vie se trouve à toutes les échelles
et que tout niveau de conscience est relié à tous les autres niveaux par-delà les
apparences que prennent les formes matérielles.

Auto-organisation et autopoïèse
Parmi toutes les possibilités d'émergence et de maintenance d'un ordre dans
la nature, le concept d'auto-organisation joue bien évidemment un rôle central.
Ainsi la croissance, la reproduction, l'adaptation, la réactivité, l'évolution et
le métabolisme sont-ils des exemples d'auto-organisation. De manière très
générale, il vaut mieux éviter de définir l'auto-organisation par référence à la
notion d'énergie. On a coutume de dire que des systèmes auto-organisés doivent
être des systèmes thermodynamiques ouverts maintenant leur apparence grâce
à un flux continu de matière ou d'énergie, grâce auquel on peut même créer de
nouvelles formes de vie. Le problème de cette manière de penser est qu'elle met
trop l'accent sur l'énergie, qui n'est qu'un moyen matériel, et minimise le rôle de
l'information qui peut exister, même en dehors de tout support matériel. Parmi
toutes les définitions possibles de la vie comme auto-organisation spécifique de
la matière, le concept d'autopoïèse, c'est-à-dire d'auto-création dans un espace
physique, introduit dans les années 1980 apparaît particulièrement pertinent
(Maturana & Varela 1980). Cette référence à l'espace physique ne signifie pas
simplement que toute chose vivante doit posséder une base matérielle, mais
plutôt que le métabolisme est une propriété essentielle de la vie (Boden 2000).
L'autopoïèse n'est pas un concept biologique en soi, mais plutôt une description
abstraite des systèmes auto-organisés. Par contre, l'autopoièse au sein d'un
espace physique signifiant auto-organisation via un métabolisme semble être
l'essence même de la vie biologique.
Les systèmes autopoïétiques sont définis en général par leur organisation
topologique et non par leurs composants ni par les propriétés de ces composants.
Ce qui importe, c'est d'abord les processus et les relations qu'entretiennent
les composants matériels du système autopoïétique. De manière critique,
l'autopoïèse requiert l'auto-création d'un système physique fonctionnant
comme une unité par apparition spontanée d'une frontière physique qui doit
être constamment entretenue par un métabolisme biologique. Il s'agit donc
d'une homéostasie très particulière où ce qui doit être préservé n'est pas un
flux de matière, ni un flux d'énergie, mais bel et bien l'organisation entière du
système perçu comme un tout indissociable. Ainsi, le corps humain est une
unité autopoïétique d'un espace physique au même titre qu'un arbre ou une
simple bactérie. Peu importe donc que le système ait des bras, des jambes,
des branches ou des cils, ce qui compte en dernière analyse est la génération

17
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

d'une membrane cellulaire qui distingue la cellule de son environnement


en la désignant comme une entité vivante et autonome. Expliquer comment
cela a pu se produire sur une Terre primitive est le problème central de la
science moderne, aussi bien du point de vue scientifique que du point de vue
philosophique.
On entend souvent dire que les océans ont été le berceau de la vie sur la
base du fait que le plasma sanguin possède une composition chimique très
voisine de celle de l'eau de mer. Cette vision romantique est probablement
fausse, car les biologistes qui s'intéressent au problème de l'apparition de
la vie sur Terre ont une formation en chimie extrêmement rustique, voire
inexistante pour certains. La biologie présente en effet cette caractéristique
de raisonner en termes de fonctions et non en termes de structures comme le
font le chimistes ou les physiciens. Ayant la chance d'être chimiste, je vais
essayer de vous présenter un scénario possible d'émergence, sachant que ce
scénario ne doit pas être considéré comme acquis et démontré, mais plutôt
comme suffisamment plausible pour pouvoir être exposé.

Une soupe primitiue


Tout le monde s'accorde pour dire qu'avant la première cellule, il y a eu
une ère chimique. Sur la figure 4, j'ai résumé tous les ingrédients chimiques
qu'il a fallu réunir pour faire naître la vie sur cette planète sans invoquer un
être suprême doté de pouvoirs surnaturels. Comme il ne peut y avoir de vie
sans reproduction, la toute première étape a probablement été l'émergence de
molécules auto-réplicantes.
Or, avec les cellules modernes, la réplication des acides nucléiques est
sous la dépendance d'enzymes protéiques, ces mêmes enzymes dépendant de
l'existence des acides nucléiques en question. C'est le problème inextricable
de la poule et de l' œuf. Toutefois, les polynucléotides, en raison du mécanisme
d'appariement des bases, sont capables de diriger la synthèse de leurs brins
complémentaires à partir de mononucléotides ou de petits oligonucléotides.
L'idée a donc germé en 1986 d'un organisme autonome fait uniquement
d'ARN (Gilbert 1986) et capable d'assurer grâce à cette seule molécule
toutes les fonctions vitales comme la catalyse, l'hérédité, la recombinaison
et l'évolution, suite à la découverte de molécules d 'ARN catalytique, les
ribozymes, capables de réaliser des réactions enzymatiques (Cech 1986).
Cette découverte importante a marqué le début d'un monde biologique
complètement dépourvu de protéines. Les ribozymes sont en effet capables de
catalyser des réactions chimiques très diverses. L'acceptation de l'existence
d'un tel monde simplifie grandement le problème de l'origine de la vie sur
Terre, car elle évite d'avoir à se poser la question de l'origine de tous les
autres composants moléculaires qu'on trouve dans une cellule comme l 'ADN
ou les protéines qui ne deviennent qu'une conséquence d'un processus de
sélection naturelle dans une soupe pré-biotique remplie de ribozymes.

18
INTRODUCTION

Terre f<>rm69

---
/. e,. """""""

u
M•IT'ITllffiH
Dlno1aur8'

'·'
j

Hadlteo 1
"' 1
2
Agtt en mRUuda d'ann6ea
1.5

0 '5î' 2 Phan~ique
3,85 2.5 Prot~rœoique

0 .5 ~---------------------~

.-........
MO,.
..., __
. ...... -,.
-- - .....
........
.......

~ffP .. 1,6)
{V•0,63111111, A •0,31 11m'.0• 1,041tfll)

fOl'~(W • o,75)
f\f•l,18111ft',A•0,651U11',D"ll.43 'll•)

·-·-- V~(li:l < FF <~)


:îiiil lllliiiiiiiiîl
Bicouche plane(~ < PF < 1)

Fisher-Tropsc.h: (2n+m/2) H 1 + n CO, - C. H., + 20 H1 0


Serpentinisation (crôute terrestre)
(Mg,Fe)1 Si04 + n H 10 + x C - M &aSi1 0 5 (0H) 4 + Mg(OH) 1 + Fe,0 4 + CH,.+ C1 -C5

HC-C-C-N: - cytosine, uracile


Phosphate H..C.N: - ad'=nine. guanine

Apatite
ca,(PO,),(F,Cl,OH)

+ H.0~

Acide aminé
•• NH
··o·· KCN NH2 H30 ° )._ 2,.°·
R)l_H NH.CI
~ - R- T o:
R N H,O : OH

H R ~ ··'il.. Ribozyme H, ,R ~ "'if"


H, N_.'c'. . c ;o~H + H'!'! ',c,'c~o.:H H ,~ ... c --~ _.. ~ . . ,c~"'c~0::H +
1 Il
H .,O,. R H H .,0,. R H

Figure 4: La base matérielle qui a permis /'émergence de la vie sur Terre.

19
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Reste à trouver les ingrédients de base pour fabriquer des ARN. On sait que
l'adénine et la guanine peuvent être obtenues en refluant une solution aqueuse
de cyanure d'ammonium (Oro & Kimball 1960). Lors de ces réactions, il
est clair que la glace et la lumière solaire ont joué un rôle crucial via la
formation à basse température d'un eutectique eau-acide cyanhydrique. On
sait également que la pyrimidine peut se former à partir de cyano-acétylène
ou de son produit d'hydrolyse le cyano-acétaldéhyde. Enfin, les sucres ne
sont après tout que des polymères du formaldéhyde et les ions phosphates
se trouvent en abondance dans la croûte terrestre. On peut donc imaginer
qu'avec beaucoup de temps, et surtout grâce à la glace, une soupe primitive
probablement faite de ribozymes auto-réplicants a vu le jour, bien enfouie
au cœur de feuillets argileux, afin de ne pas être détruite par le rayonnement
solaire très intense à cette époque.

Montmorillonite
Glace hexagonale Ribozyme

Figure S : Trois ingrédients clés impliqués dans /'apparition de la vie sur Terre, la
glace pour concentrer les réactifs organiques dans des eutectiques, les ribozymes,
issus des réactions de condensation et l'argile (ici une montmorillonite) pour assurer
la protection des polymères hautement sensibles aux rayons UV du soleil.

Comme le montre la figure 5, la glace possède en effet de longs canaux


à symétrie hexagonale extrêmement étroits dans lesquels vont se retrouver
après congélation toutes les espèces initialement en solution. C'est là, dans
ce véritable creuset alchimique unidimensionnel, que vont pouvoir avoir lieu,
en milieu confiné, des réactions de polycondensation qui ont toutes comme
caractéristique d'avoir un déchet : l'eau. Impossible de faire cela dans un
océan, où les réactifs sont tellement dilués et l'eau tellement abondante
que ces réactions de condensation avec élimination d'eau n'ont absolument
aucune chance de se produire. De plus, vu la forme parfaitement rectiligne des
canaux de glace, on comprend immédiatement pourquoi tous les polymères
biologiques sont à la base en forme de fils. C'est donc dans le froid glacial et
l'obscurité totale des feuillets argileux que la vie est probablement apparue,
et non dans un océan chaud en pleine lumière.

20
INTRODUCTION

Si la vie est vraiment née dans l'argile, elle a dû très vite se trouver à
l'étroit. Mais comment sortir du feuillet maternel afin d'aller conquérir le
monde environnant sans se faire bombarder d'UV solaires ? La deuxième
invention, après les ribozymes, fut donc sans doute celle de la membrane
plasmique. Il fallait ainsi trouver un milieu fluide capable de générer
spontanément une force obligeant certaines molécules à se rassembler en un
volume spatial délimitant un intérieur et par voie de conséquence un extérieur
et une frontière. L'idée était donc de sélectionner un milieu liquide fortement
cohésif dans lequel on allait tenter d'insérer des molécules suffisamment
grosses créant une forte tension sur le liquide. Ce dernier, plutôt que de voir
tous ces intrus dispersés en son sein l'empêcher de se structurer, va chercher
à les regrouper en amas, appelés «micelles». Ce liquide est bien sûr l'eau,
car sa molécule constitutive conjugue une masse molaire ridiculement faible
avec une cohésion abominablement haute, rivalisant avec celle du mercure
liquide.

Il fallait donc avant tout de longues chaînes apolaires, c'est-à-dire du gras,


pour pouvoir créer du volume. Donc, dès le tout début, la vie a été avant tout
un mélange d'eau et de graisses. Ce qui tombait bien, vu que la croûte terrestre
sait transformer du carbone minéral en graisses saturées via la réaction de
serpentinisation. Mais où trouver l'hydrogène nécessaire pour réduire le
carbone en graisse ? La réponse était aussi très simple : l'eau amènerait les
atomes tandis que l'ion ferreux des olivines amènerait les électrons, avec pour
résultat de l'huile, quelques déchets solides (serpentine, magnétite et brucite)
ou gazeux (méthane). Une fois la graisse formée, les volcans se chargeaient
d'oxyder l'un des deux bouts de la chaîne hydrocarbonée (Wachterhaüser
2006) pour produire une molécule dite « amphiphile » avec une longue queue
apolaire décorée à une extrémité par une fonction polaire de type carboxylate,
par exemple. Ce qu'il y a de magique, avec ces molécules amphiphiles, c'est
que la topologie (sphère, cylindre, vésicule ou bicouche) se trouve codée dans
un simple facteur de forme égal au volume total des chaînes apolaires, divisé
par la longueur maximale que peuvent prendre ces chaînes et de nouveau
divisé par l'aire qu'occupe l'extrémité polaire (Israelachvili & al. 1980).
Ainsi, pour faire des bicouches planes et donc des membranes, il suffit de
s'assurer que ce facteur de forme soit compris entre% et 1. L'astuce consiste
à prendre une chaîne pas trop longue et d'en mettre deux au lieu d'une seule,
ce qui assure un gros volume et une longueur maximale pas trop pénalisante.
Comme il fallait aussi accrocher une tête polaire, la nature sélectionna la
molécule de glycérol, qui possède trois fonctions alcool consécutives,
pouvant être estérifiée par deux acides gras et par un ion phosphate lié à
une molécule fortement polaire. Le phospholipide, matière de base de toute
membrane et même de toute cellule, venait d'être inventé. L'étape suivante
fut l'invention d'un mécanisme pour se nourrir. Ici on prend deux molécules,
l'une qui, avec son facteur de forme supérieur % peut faire des bicouches

21
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

planes et l'autre qui possède un facteur de forme compris entre Yi et 7'3, qui
forme donc des vésicules. En mélangeant les deux, on peut si le facteur de
forme moyen est inférieur à 7'3 invaginer la membrane pour faire bourgeonner
une vésicule qui va apporter des nutriments depuis l'extérieur (endocytose).
Si, par contre, le facteur de forme moyen est supérieur à 7'3, on peut fusionner
une vésicule pleine de déchets avec une bicouche plane, libérant ainsi vers
l'extérieur le contenu indésirable (exocytose). Ce mécanisme permet aussi de
lutter contre d'éventuels intrus. On fabrique un amphiphile ayant un facteur
de forme le plus bas possible et on l'insère dans les bicouches adverses pour
les faire éclater sans espoir de retour à la topologie plane. C'est ce mécanisme
que l'on exploite de nos jours dans tous les savons et détergents pour tuer des
agents bactériens ou viraux. Enfin, on peut aussi fabriquer une molécule avec
un facteur de forme très élevé et le mélanger avec des molécules ayant un
facteur de forme moyen pour stabiliser la topologie plane. La nature a ainsi
inventé les stérols, comme le cholestérol chez les animaux, l'ergostérol chez
les champignons et le ~-silostérol chez les plantes. Par exemple, le cholestérol
de volume 0,4 nm3, long de 1 nm avec une tête polaire d'aire 0,38 nm2 se
caractérise par un facteur de forme de 1,6. On peut donc l'insérer dans les
bicouches pour stabiliser autour de la valeur 1 tout auto-assemblage un peu trop
fluide, comme ceux impliquant des acides gras polyinsaturés qui s'empilent
mal entre eux en raison de leurs doubles liaisons de conformation cis.

Un monde bactérien
On peut donc dire que la chimie a régné sur la planète Terre jusqu'à
il y a environ 3,9 milliards d'années, soit environ 600 millions d'années après la
formation de la Terre, moment où la biologie a commencé à prendre le dessus
très probablement sous la forme d'un monde à ARN. L'ancêtre commun ultime
de toute chose vivante est donc sans aucun doute un organisme unicellulaire,
sous la forme d'un rassemblement d'acides nucléiques et de cofacteurs
empaquetés dans une membrane lipidique imperméable. Les plus anciennes
traces de micro-fossiles témoignant d'une activité vivante sur la planète Terre
sous la forme de bactéries photosynthétiques datent d'environ 3,5 milliards
d'années, signifiant qu'il a fallu environ 1 milliard d'années pour que la vie
colonise la planète.
L'oxygène libéré ne va pas dans l'atmosphère mais oxyde plutôt le fer(II)
de l'océan en fer(III) qui précipite soit sous forme de magnétite Fep4, soit
sous forme d'hématite a-Fepr Les stérols qui permettent de rigidifier
les membranes cellulaires afin d'avoir une membrane localement flexible
autorisant la phagocytose ont été inventés durant l'Archéen il y a environ
2,8 milliards d'années. Vers 2,4 milliards d'années, après l'épuisement du fer
ferreux marin, le dioxygène se répand dans la mer et l'atmosphère, déclenchant
une crise écologique, en raison de sa toxicité pour les organismes anaérobies

22
INTRODUCTION

de l'époque. La concentration en oxygène de l'air augmente rapidement en


200 millions d'années, pour atteindre un maximum il y a 2,1 milliards d'années,
période qui voit l'émergence de la vie multicellulaire aérobie (figure 4). Cette
période entre 2,4 et 2,1 milliards d'années coïncide avec la grande glaciation
huronienne, probablement l'épisode le plus long de la Terre« boule de neige».
La concentration en oxygène chute brutalement au cours du paléoprotérozoïque,
s'étendant de 2,5 à 1,6 milliards d'années pour atteindre un taux de 0,5-1 %
(Frei & al. 2009). Puis l'oxygène remonte à son niveau initial avec l'apparition
des eucaryotes qui inventent le noyau cellulaire il y a 1,8 milliard d'années. Les
glycolipides et le peptidoglycane ont été inventés à peu près à la même époque.

La question la plus fondamentale aujourd'hui est de savoir si, à la racine de


l'arbre de la vie, on trouve une cellule ancestrale avec deux membranes comme
chez les bactéries gram-négatives actuelles, ou avec une seule membrane
comme chez les archées et les bactéries gram-positives, comme on le voit
dans la plupart des arbres publiés. D'un point de vue purement chimique, c'est
l'hypothèse d'une apparition d'un être unicellulaire avec deux membranes
qui semble tenir la route. En effet, les vésicules, lorsqu'elles se forment, ont
tendance à adopter des structures en oignon, avec une vésicule plus large
encapsulant une vésicule plus petite. Les analyses moléculaires montrent aussi
que les chlorobactéries, qui sont gram-négatives, sont très différentes de toutes
les autres bactéries qui possèdent des systèmes très sophistiqués d'insertion de
protéines en forme de tonneaux servant de portes d'entrée et de sortie entre le
milieu intracellulaire et le milieu extérieur. En fait, il se trouve que les protéines
en forme de tonneaux-~ sont auto-insérantes dans une bicouche lipidique au-
dessus de 30 °C et que les chlorobactéries soit sont thermophiles, soit ont une
croissance extrêmement lente, ce qui leur permettrait de pouvoir insérer les
tonneaux-~ sans avoir à utiliser des catalyseurs d'insertion (Cavalier-Smith
2006). Suite à une complexification croissante, cette deuxième membrane
externe a fini par devenir trop lourde à gérer, et seraient alors apparues les
premières bactéries gram-positives ayant une seule membrane, et non plus
deux, qui allaient évoluer pour devenir, il y a environ 1,6 milliard d'années, des
archées capables de vivre dans des milieux très hostiles ou des eucaryotes dans
des milieux moins agressifs.
Les eucaryotes incluent tous les animaux, toutes les plantes, tous les
champignons ainsi que de nombreux autres micro-organismes. La tubuline qui
permet de fabriquer le cytosquelette a été inventée il y a 1,8-1,5 milliard d'années.
Le sexe nécessitant une membrane cellulaire flexible et un cytosquelette interne
est donc probablement apparu à la même époque. L'invention de la membrane
nucléaire et par voie de conséquence du sexe par les eucaryotes a été une étape
très importante dans l'évolution des êtres vivants. Toutes les cellules complexes
et quasiment tous les organismes multicellulaires possèdent en effet un noyau
pour empaqueter leur ADN.

23
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

......
... ._
·-·---
APPAJUTlOM DE LA VIE

--

-
Figure 6: Évolution de la vie sur Terre avec ses cataclysmes ayant permis d'aboutir
à l'être humain, qui rassemble en lui toutes les inventions faites par des êtres moins
sophistiqués, mais néanmoins très performants et inventifs.

L'invention du sexe a été immédiatement suivie par l'invention des flagelles.


Les flagellés eucaryotes se sont ensuite séparés en deux groupes : d'une part
les unikontes qui ne possèdent qu'un seul flagelle et d'autre part les bikontes
qui en possèdent deux. La plupart des spermatozoïdes ainsi que les spores des
champignons se propulsent au moyen d'un seul flagelle postérieur, ce qui fait
que, malgré des apparences trompeuses, les champignons sont nos cousins,
puisque nous partageons le même ancêtre commun unikonte. En revanche,
les cellules flagellées dans les autres groupes eucaryotes qui se déplacent
avec un ou plusieurs flagelles antérieurs descendent des bikontes. De manière
plus générale, les animaux descendent des unikontes et les plantes descendent
des bikontes.

24
INTRODUCTION

Les premiers eucaryotes multicellulaires présentant une différenciation


cellulaire complexe sont apparus avec les algues rouges, il y a 1,2 milliard
d' années. Puis, il y a 850 millions d'années, apparaissent les champignons
qui inventent le mycélium, chaînes de cellules qui digèrent la nourriture
de manière externe en sécrétant des acides et des enzymes pour ensuite
absorber les nutriments libérés. Les premiers micro-organismes prédateurs
se manifestent entre 780 et 750 millions d'années, démontrant l'existence
de réseaux complexes de nourritures. Les diatomées inventent pour leur part
la biominéralisation de la silice il y a 750 millions d'années tandis que les
plantes colonisent la terre ferme avec l'aide préeieuse du système digestif
des champignons qui leur amène les minéraux dont elles ont besoin. Mais
la grande extinction pré-cambrienne se prépare qui va voir disparaître 70 %
de la flore et de la faune en raison d'une ère glaciaire très puissante il y a
650 millions d'années.

Après cette première catastrophe, les tissus parenchymateux apparaissent


il y a 600 millions d'années, ce qui permet les premières embryogenèses.
Il y a 57 5 millions d'années se produit l'explosion d'Avalon qui voit apparaître
une faune constituée d'organismes multicellulaires énigmatiques en forme de
feuille ou de tube. Cette faune disparaît à son tour il y a 545 millions d'années
pour laisser place à l'explosion cambrienne qui va voir le règne animal
s'emparer de la planète, avec là aussi plusieurs épisodes catastrophiques
(figure 6).

.s:!D ~ M-;r;~ue î -
~~.!!!]~ ~;opium/!"
• Eucaryotes W ADN
~
y -

~ .. _. ..... ..........., S)'I~ de filamen ts e

..._ •-=-=--=--
c====
Métazoaires -
~---i...dloot
°""""" ......................
Vertébrés
---
====. T.._..Q,_. • ......,
.=_..,

-- ---
--
Mammifères =::::= - = = RE • liticulum endoplumique
,........... ............. .,.......
Primates - ---
............................
......_...._. .... B
c-.tllllllM..,.... __ .. ..., u

Hominidés - ··~

:.::. l[\li1
1

Figure 7 : Place de l'être humain dans l'arbre phylogénétique de la vie.

25
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Mythologie
La science nous apprend donc que la vie est probablement apparue sur
Terre au sein de feuillets argileux. Que de chemin parcouru en 4,5 milliards
d'années, ayant abouti à Homo sapiens (figure 7) ! Avant de présenter le plan
de ce livre, voyons ce que la tradition a retenu de ce long cheminement. Cette
association entre vie et argile se retrouve par exemple dans la tradition orale
du peuple Yoruba vivant au Niger, au Togo et au Bénin en Afrique de l'Ouest.
Ainsi, il n'y avait au commencement que le ciel au-dessus, et en dessous l'eau
qui formait un vaste marécage. Le dieu suprême du ciel et créateur de l'univers
s'appelle ici O/urun ou Olodumare et il délègue à l'orisha hermaphrodite
Obatala ou Orishina/a, dieu des nuages, la tâche de créer l'être humain à
partir d'argile ou de boue (Anderson-Sankofa 1991):

Au commencement, il n'y avait que l'eau et le chaos. L'Être Suprême fit


descendre Obatala du ciel pour créer de la terre sèche à partir du chaos ...
Orishinala créa les hommes à partir de la terre et demanda à Olurun de leur
insuftler la vie...

Dans un territoire très rude et aride qui s'étend du Mali au Nigeria en Afrique de
l'Ouest, on trouve le mythe de création fascinant du peuple Dogon (Griaule 1975):

Avant que toute chose soit, Amma, le dieu unique... roulant des galettes
d'argile entre ses paumes et les envoyant bien loin dans l'obscurité de
l'espace, créa les étoiles, le soleil, la lune et la terre ...

Que faitAmma, le démiurge créateur? Eh bien, il roule des galettes d'argile


entre ses paumes, comme le ferait un shaman africain pour fabriquer ses
figurines en terre cuite.
En Chine, on trouve que les êtres humains furent créés par une déesse
appelée Nü Wa (mais aussi Nu Kwa, Ku Gua, Neu Kwa, Cang Jing ou Ny
Wa) ayant la particularité d'avoir un buste et une tête de femme tandis qu'en
dessous de la taille elle ressemble à un serpent, un dragon ou un poisson. La
scène se déroule 18 000 ans après que P' an Ku (ou Pan Gu, Pan Ku, Pan Guo)
ait réussi à briser l' œuf cosmique du chaos permettant aux principes yin et
yang de s'exprimer. Pendant cette durée, P'an Ku est devenu suffisamment
grand pour contenir en lui toute la terre et le ciel et permettre ainsi par sa mort
de créer le monde à partir de ses restes (Walls 1984):

Plusieurs siècles plus tard, il y avait une déesse nommée Nü Wa qui


vagabondait dans ce monde sauvage que Pan Gu avait laissé derrière lui et qui
se trouvait sans compagnons dans sa solitude. S'arrêtant au bord d'une mare
pour se reposer, elle observa son reflet dans l'eau et réalisa qu'il n'y avait rien
de semblable à elle-même dans le monde. Elle décida donc de faire quelque

26
INTRODUCTION

chose à son image pour avoir de la compagnie. Elle prit sur le bord de la mare
un peu de boue et la façonna pour lui donner la forme d'un être humain. Au
début, sa création était sans vie, et elle la posa par terre. Toutefois, au moment
même où )a créature toucha le sol, elle prit vie et bientôt l'homme put se
mettre à danser afin de célébrer sa nouvelle vie... Mais Nü Wa n'était toujours
pas satisfàite, car elle jugea que son travail était incomplet, car si sa créature
venait à mourir, elle devrait en refaire d'autres encore et encore. Elle résolut
le problème en divisant les êtres humains entre hommes et femmes afin qu'ils
puissent se reproduire par eux-mêmes, évitant ainsi d'avoir à fabriquer sans
cesse de nouveaux humains pour briser sa solitude.

Chez les Amérindiens Winnebago du Wisconsin, on trouve ce mythe très


touchant et original probablement basé sur le goût salé des larmes :

Un créateur, nommé Fabricant de Terre, devint d'abord conscient en


bougeant ses bras et ses jambes, puis il commença à pleurer toutes les larmes
de son corps en pensant à tout ce qu'il y allait avoir à faire, créant avec ses
larmes Ja mer (Radin 1923).

Si l'on se déplace vers la côte Est, on rencontre les Amérindiens natifs de


la Géorgie du Nord et de l'Alabama, de la Caroline du Nord occidentale, du
centre et de l'est du Tennessee et du Kentucky qui forment la nation Cherokee.
Dans cette tribu, on raconte autour du feu que :

La terre commença comme une chose vide mis à part l'eau et l'obscurité,
tous les animaux étant localisées en Galun'lati au-dessus du dôme de pierre
qui tenait lieu de ciel. Cherchant à avoir plus de place, le scarabée d'eau
plongea sous l'eau et finit par revenir avec un peu de boue d'en dessous,
qui après avoir grossi forma une île que l'un des animaux s'empressa de
suspendre à ses quatre coins par des cordes qui pendaient du ciel. Comme
)a terre restait humide, on fit venir de Galun'lati le grand busard pour la
préparer. Lorsqu'il arriva sur la terre ferme, les ailes du grand busard étaient
tellement affaiblies qu'il heurta le sol, créant les montagnes et les vallées.
Comme il faisait trop sombre, les animaux créèrent le soleil... (Mooney
1900).

Dans la tribu Wichita, au sud de l'Oklahoma et à l'est du Texas, on raconte que:

Au commencement, il n'y avait ni soleil, ni étoiles mais juste Homme


inconnu sur Terre créateur de la terre et de l'eau sous la forme d'une seule
entité obscure. Dans cette obscurité fut aussi créé Homme avec le Pouvoir
de Transporter Ja Lumière et Femme Éclatante de Rayonnement. Pour
avoir tout ce dont ils avaient besoin il leur suffisait de rêver et les choses se
1rouvaient là à leur réveil... (Dorsey 1904).

27
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Mythe original qui souligne que nos pensées peuvent créer le monde qui
nous entoure et qui rejoint donc la thèse moderne de l'épigénéticien Bruce
Lipton (Lipton 2006).
Comme on a pu le vérifier grâce à une datation via les anneaux des arbres,
les Amérindiens Hopi, signifiant peuple pacifique, vivent en Arizona du Nord
depuis au moins 1150 AEC. Dans leur mythe de création, le monde à l'origine
était un espace sans limites et sans forme qui n'existait que dans l'esprit de
Taiowa. La création du monde fut confiée au neveu plus limité de Taiowa,
Sotuknang, qui devait pour cela rassembler ensemble la matière, les eaux, l'air
à partir de l'espace sans limites afin de fabriquer les neuf mondes solides avec
leurs vents légers. Alors, obéissant à la volonté de Taiowa, Sotuknang créa la
Femme-Araignée et lui donna le pouvoir de donner la vie à deux créatures,
Poqanghoya et Palongawhoya, qui furent fabriqués avec un mélange de terre
et de salive en leur fredonnant le Chant de la Création (Railsback 2000).

Les peuples aborigènes australiens croient quant à eux que l'univers a deux
aspects - le monde physique dans lequel nous vivons et un autre monde qui
lui est connecté et qui lui a donné naissance, que l'on appelle le Dreamtime,
c'est-à-dire « le temps du rêve ». Ici, le mot « temps » signifie quelque
chose comme « le temps d'avant le temps » ou bien encore « le temps de la
création de toute chose», tandis que le terme« rêve» se réfère à l'ensemble
des croyances spirituelles d'un individu ou d'un groupe de personnes. Bien
évidemment, comme l'on pouvait s'y attendre, l'eau joue ici aussi un rôle
essentiel et les Aborigènes Dalabon prétendent que la terre était à l'origine
une vaste étendue d'eau, colorée comme l'arc-en-ciel, et que toutes les choses
vivantes étaient contenues dans un Serpent Arc-en-Ciel féminin, dont le
symbole était l'arc soudant la terre au ciel (Taçon 1989):

C'était au temps du Lalai, le tout commencement, le temps du rêve, que


Wandjina vagabondait sur la terre informe. Le Très vénéré Wandjina est le
SelpentArc-en-Ciel, créateur des cours d'eau, des montagnes, et des vallées
sur la terre, et qui par les contorsions de son corps donna naissance à de
multiples fonnes de vie. Les oiseaux dans le ciel, les poissons dans la mer,
les mammifères sur la terre, tous les reptiles et aussi les humains, tous sont
des descendants du Serpent-Arc-en-Ciel...

On retrouve le serpent arc-en-ciel en Amérique centrale, où il prend la forme


du serpent à plumes qui habite dans l'eau comme nous l'enseigne le manuscrit
hiéroglyphique Popol Vuh qui fut rédigé avant tout contact entre l'Europe et
l'Amérique et qui constitue un recueil des canons de la civilisation maya pour
tout ce qui concerne les mythes de création et les exodes des peuples concernés :

Voici l'histoire; ici est la chose. Maintenant elle ondule toujours, maintenant
elle murmure tout le temps, et ondule, elle respire aussi sans s'arrêter, elle

28
INTRODUCTION

bourdonne sans cesse, et elle est vide sous le ciel. Ici vinrent les premiers
mots, la première éloquence : il n'existe pas encore une seule personne,
pas un seul animal, oiseau, poisson, arbre, caillou, vallée, canyon, prairies,
forets. Juste le ciel tout seul se trouve là et la surface de la terre n'est pas
éclairée. Seule une mer solitaire à perte de vue sous l'étendue céleste ; il n'y a
rien qui puisse être rassemblé de manière permanente. Elle est au repos ;
pas une seule chose ne frissonne. Elle est retenue en arrière, maintenue au
repos sous le ciel. Quelle que soit la chose qui puisse être, elle ne se trouve
simplement pas ici ; seule la mer condensée, seule la mer calme ; seule la
chose solitaire et condensée. Quelle que soit la chose qui puisse être, elle ne
se trouve simplement pas ici ; seulement des murmures, des ondoiements,
dans l'obscurité, dans la nuit. Seul Créateur, modeleur solitaire, Souverain
Serpent à Plumes, ceux qui supportent, ceux qui engendrent sont ici dans
l'eau, une lumière étincelante. Ils sont ici, ils sont recouverts de plumes de
quetDl, de couleur bleu-vert, d'où le nom Serpent à Plumes. Ce sont de
grands érudits, de grands penseurs au plus profond de leur être (Tedlock
1985).

Si j'ai pris la peine de rappeler toutes ces mythologies, c'est pour souligner
que l'argile, substance symbiotique unissant l'eau à la terre, le serpent, qui
par ses ondulations rappelle l'eau qui coule, sont des archétypes puissants en
relation avec l'eau. Certains mythes vont d'ailleurs droit au but sans faire de
fioritures, comme cela est expliqué dans le dix-septième chapitre du Livre des
morts en Égypte :

Je suis le grand Dieu qui s'est créé lui-même. Mais qui est-il donc ? Le
grand Dieu qui s'est créé lui-même est l'eau-c'est l'abysse, le père de tous
les Dieux... (Budge, 1895).

On ne saurait être plus clair. On trouve aussi dans la section Sukla du Yajur-
Veda (Satapatha-Brahmana XI.i.6) un œuf auto-référencé impliqué dans
l'apparition de la vie:

En toute vérité, au tout début, cet univers n'était que de l'eau, rien d'autre
qu'une vaste mer d'eau. Ces eaux firent un vœu : « Pouvons-nous nous
reproduire?» Aussi elles travaillèrent très dur avec beaucoup de dévotion, et
lorsqu'elles furent bien chaudes, elles produisirent un œuf doré ... (Eggeling
1900).

On voit donc que le mythe chrétien de création de l'être humain à partir


d'argile avec un serpent tentateur n'a rien de bien original, et emprunte
largement à des traditions beaucoup plus anciennes. Comme toujours en
religion, on recycle les bonnes idées en changeant les noms et en masquant
certaines choses trop gênantes pour l'argumentaire destiné aux adeptes.

29
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

À la découverte de l'eau
Comme nous venons de le voir, l'eau a toujours joué un rôle crucial dans
l'émergence de toute forme de vie. Je vous propose donc maintenant de la
découvrir, sous des aspects souvent négligés et peu traités dans les nombreux
ouvrages consacrés à cette substance. Ainsi, je commencerai dans le chapitre
suivant par présenter l'eau comme une substance avec ses propriétés
mystérieuses et souvent très surprenantes si l'on veut bien prendre le temps
d'y réfléchir. On y verra que l'eau se révèle être rebelle à toute description
en termes d'atomes constituants, et, comme la plupart des autres substances
acceptent de se plier au joug atomique, va naître l'idée que l'eau est une
substance « anormale », l'exception qui confirme la règle. On peut ainsi
recenser jusqu'à 74 anomalies liées à l'eau, comme l'illustre l'excellent site
internet de Martin Chaplin, spécialiste de ce genre d'exercice.

Le deuxième chapitre sera consacré à l'eau morphogénique, une forme


d'eau omniprésente autour de nous, même dans des objets qui peuvent
paraître complètement secs. La raison d'un tel état de fait tient à l'épaisseur
nanométrique des couches d'hydratation. Pour ceux qui seraient surpris,
j'emploie le terme « eau morphogénique » de préférence aux termes « eau
interfaciale » ou « eau vicinale » que l'on trouve dans d'autres ouvrages
traitant de l'eau. La raison de ce choix est explicitée dans un autre ouvrage
écrit en collaboration avec le vidéaste Rodolphe Forget qui complétera
avec bonheur ce livre (Forget & Henry 2015). L'idée est de bien ancrer
le concept de quatrième état de l'eau, en plus des états solide, liquide et
gazeux, et d'éviter le terme « interfacial » qui ne rend pas compte du fait
que c'est bien l'eau qui permet aux polymères biologiques d'avoir la forme
qu'on leur connaît, à savoir une double hélice pour l' ADN ou l' ARN et des
hélices alpha ou des feuillets béta, pour des protéines.

Dans le troisième chapitre, nous verrons qu'assimiler l'eau à une


molécule répondant à la formule Hp nous amène tout droit dans une
impasse intellectuelle, que l'on appelle la« liaison hydrogène ». En effet,
ce terme est devenu de nos jours en chimie un véritable fourre-tout puisque
la définition officielle de la liaison hydrogène nécessite pas moins de cinq
pages au format A4. Quand on en arrive à une telle extrémité, c'est que le
concept même est usé jusqu'à la corde et qu'il devient urgent de s'interroger
sur sa pertinence. Ce chapitre est probablement le plus technique du livre
et peut être sauté sans inconvénient lors d'une première lecture. On pourra
y revenir par la suite en fonction de l'intérêt que l'on porte à la chimie de
l'eau.

L'enchaînement de circonstances ayant abouti à l'impasse Hp ayant


été bien compris, je présenterai, sans fioritures mathématiques, les deux

30
INTRODUCTION

piliers modernes de la pensée scientifique moderne que sont la théorie de la


relativité et la mécanique quantique. En effet, bien que cela soit généralement
passé sous silence, la mécanique quantique est bien la fille d'un mode de
pensée relativiste, même si, comme dans toute relation entre mère et fille,
il peut sembler y avoir parfois opposition nette et franche. L'idée est ici
de prendre bien conscience de l'absolue nécessité d'avoir une pensée
relativiste et quantique pour décrire la nature macroscopique. L'erreur fatale
dans laquelle nous nous débattons depuis 1930 est en effet de croire qu'il
existerait un monde quantique microscopique foncièrement indéterministe
qui s'opposerait à un monde macroscopique déterministe régi par les lois
de la physique classique. Dans ce chapitre, j'exposerai essentiellement les
principes quantiques dans le cadre de ce que l'on appelle la « première
quantification». C'est le niveau usuel de présentation qui est généralement
adopté dans les écoles d'ingénieurs, mais aussi dans toutes les formes de
vulgarisation, soit sous forme de livres ou de revues, soit sous forme de
vidéos, qui pullulent sur internet. Or, comme son nom l'indique, cette
première quantification n'est que le premier pas, car elle néglige totalement
la structure du vide et traite des interactions rayonnement-matière dans un
cadre purement classique.

D'où la présentation dans le cinquième chapitre de la seconde


quantification, où matière, vide et rayonnement sont traités sur un pied
d'égalité. C'est bien évidemment à ce niveau que l'étude de l'eau devient
fascinante, et nous verrons que les propriétés de l'eau n'ont en fait rien
d'anormal. En fait, ce qui est anormal, c'est d'avoir pour l'eau un mode de
pensée en termes d'atomes constituants. Autrement dit, peut-on penser l'eau
autrement qu'en termes d'atomes, mais sans revenir à la notion visiblement
erronée de substance élémentaire ? La réponse est bien évidemment positive,
puisqu'on sait depuis 1930 que ce que l'on croit être un corpuscule doué
d'une masse et d'une quantité de mouvement peut aussi être vu comme
l'excitation énergétique d'un champ quantique possédant un certain spin.
Le problème est évidemment que si je dis « corpuscule », tout le monde
voit à peu près de quoi je parle, alors que si je dis « champ quantique »,
des regards gênés commencent à être échangés, vu le flou conceptuel
entretenu autour de cette notion dans l'éducation du citoyen lambda. En
effet, il se trouve que pour la plupart des autres substances, l'approximation
atomique marche très bien, ce qui évite d'avoir à faire l'effort de penser
en termes de champs quantiques. Dans le cas de l'eau, il est impossible
d'utiliser la baguette magique atomique pour comprendre ses propriétés.
D'où la nécessité de prendre bien conscience de la nature profondément
quantique de la nature et de l'importance d'être familier avec ce nouveau
mode de pensée. Si l'on refuse de prendre conscience de cela, l'eau est
précisément là pour nous rappeler que tôt ou tard nous devrons passer par
la case « quantique » pour ce qui la concerne.

31
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Enfin, l'eau, de par son omniprésence, a toujours donné lieu tout au long
de l'histoire humaine à de vives controverses, la dernière en date étant
par exemple celle afférente à la mémoire de l'eau. Il y a d'un côté ceux
qui y croient et d'un autre côté ceux qui n'y croient pas. En fait, cela a
toujours été ainsi depuis à peu près 400 ans. Jetez sur la table une opinion
à propos des propriétés de l'eau et automatiquement, le débat s'anime où
deux camps antagonistes se dessinent que l'on pourrait nommer, de manière
très générale, les anciens et les modernes. Les anciens s'accrochent à leurs
certitudes obsolètes tandis que les modernes présentent des arguments
souvent maladroits car n'ayant pas encore été soumis à la patine du temps.
Pour ce qui concerne l'eau, tout s'est joué vers la fin du xvm• siècle, aussi
bien sur le plan physique avec la polémique sur le maximum de densité à
4 °C que sur le plan chimique avec la découverte des gaz dihydrogène et
dioxygène, démontrant que - contrairement à 2 500 ans de croyance - l'eau
n'était pas un élément indécomposable.

Le sixième chapitre est donc important pour tous ceux qui pensent que
la mémoire de l'eau est une vaste fumisterie. J'y présenterai l'expérience
cruciale de Luc Montagnier concernant la mémorisation et la transmission
d'informations électromagnétiques par l'eau. Il est en effet temps que
les émotions laissent la place au raisonnement, puisqu'il se trouve que le
formalisme de seconde quantification permet de proposer des explications
rationnelles à ce qui a été observé. Dans ce domaine aussi l'histoire peut
nous permettre d'apaiser le débat, puisque même des très grands chercheurs
comme Robert Hooke ou John Dalton ont usé de toute leur autorité pour
s'opposer à des idées nouvelles qu'ils avaient du mal à comprendre. Tous
les deux ont nié des faits expérimentaux qui sont acceptés comme des
évidences de nos jours, afin de sauver leurs conceptions théoriques qui
s'accordaient mal avec les faits. La leçon à tirer de tout cela, c'est qu'il a
fallu 150 ans à la science pour accepter le simple fait que c'était bien l'eau
et non le froid qui faisait éclater les canalisations. Quand un scientifique
ne veut pas accepter une idée nouvelle, il la dénigre par tous les moyens
à sa disposition en la combattant souvent jusqu'à sa mort. C'est à cette
aune qu'il faut considérer la polémique autour de la mémoire de l'eau née
vers la fin du xx• siècle et qui ne trouvera probablement pas de conclusion
définitive avant la fin du xx1• siècle.

32
Bibliographie
Anderson-Sankofa, D. A. (1991), «The Origin ofLife on Earth: AnAfrican Creation Myth »,
Mt. Airy Sights Productions, Maryland, p. 1-31.
Boden, M. A. (2000), « Autopoesis and life », Cognitive Sei. Quater/y, 1 : 117-145.
Budge, E. A. W. (1895), The papyrus ofAni, British Museum, Londres, p. XCIII-CL
Cavalier-Smith, T. (2006), « Rooting the tree of life by transition analyses », Biology Direct,
1 : 19.
Cavalier-Smith, T. (2006), « Cell evolution and Earth history : stasis and revolution », Phil.
Trans. R. Soc. B, 361 : 969-1006.
Cech, T. R. ( 1986), «A mode! for the RNA-catalyzed replication of RNA », Proc. Nat/ Acad
Sei. USA, 83 : 4360-4363.
Chaplin, M., http://wwwl.lsbu.ac.uk/water/index.html
Dorsey, G. A. (1904), «The Mythology of the Wichita», Carnegie Institution, Washington,
p. 1-351.
Eggeling, J. (1900), «The Satapatha-Brahrnana according to the text of the Mâdhyandina
school »,in Sacred Books ofthe East, vol. 44, M. Müller éd., Clarendon Press, Oxford, p. 12.
Forget, R.; Henry, M. (2015), «L'eau qui nous relie: 12 dossiers», format Kindle, disponible
surAmazon.
Frei, R. ; Gaucher, C. ; Poulton, S. W. ; Canfield, D. E. (2009), « Fluctuations in Precambrian
atmospheric oxygenation recorded by chromium isotopes», Nature, 461 : 250-253.
Gilbert, W. (1986), « Origin oflife: The RNA world »,Nature, 319: 618.
Griaule, M. (1975), Conversations with Ogotommeli, Oxford University Press, Oxford.
Israelachvili, J. N. ; Marcelja, S. ; Hom, R. G. (1980), « Physical principles of membrane
organization »,Quart. Rev. Biophys., 13: 121-200.
Lipton, B. (2006), Biologie des croyances, Éditions Ariane, Paris.
Maturana, H. R. ; Varela, F. J. ( 1980), Autopoiesis and cognition : The rea/isation ofthe living,
Reidel, Londres.
Mooney, J. (1900), « Myths of the Cherokee », 9thAnnual Report 1897-1898, Part 1, Bureau
of American Ethnology, Washington D.C., p. 1-576.
Oro, J. ; Kimball, A. (1960), « Synthesis of adenine from ammonium cyanide », Biochem.
Biophys. Res. Commun., 2: 407-412.
Radin, P. (1923), « The Winnebago Indians », 37th Annual Report, Bureau of American
Ethnology, Washington D.C., p. 212-13.
Railsback, L. R. (2000), Creation Staries from around the World, 41h Ed., University of Georgia,
Department ofGeology, p. 1-3.
Szent-Gyôrgyi, A. (1972), The living state with observations on cancer, Academic Press,
New York, p. 9. http://wwwl.lsbu.ac.uk/water/water_anomalies.html
Taçon, P. S. C. (1989), « From the "Dreamtime" to the Present : The Changing Role of
Aboriginal Rock Paintings in Western Arnhem Land, Australia », Canad J. Native Studies,
9: 317-339.
Tedlock, D. ( 1985), Popol Vuh : The Definitive Edition ofthe Mayan book ofthe Dawn ofLife
and the G/ories ofGods and Kings, Simon and Schuster, New York, p. 72.
Wiichtershaüser, G. (2006), « From volcanic origins of chemoautotrophic life to Bacteria,
Archea and Eucarya », Phil. Trans. R. Soc. B, 1787-1808.
Walls, J., Walls, Y. (1984), Classical Chinese Myths, Joint Publishing Company, Hong Kong,
p. 135.
L'eau, la substance
• La planète bleue

Î oute la biosphère repose sur la disponibilité d'eau liquide afin de pouvoir


survivre. La figure 8 montre que l'eau terrestre est essentiellement salée
(océans) ou gelée (calottes polaires et glaciers) et donc peu disponible
pour l'être humain. La grande sphère bleue posée sur l'Amérique du Nord
(diamètre 1 384 km) représente la somme de tous les volumes indiqués
dans le tableau à gauche. La sphère bleue de taille moyenne posée sur l'État
du Kentucky (diamètre 273 km) représente la quantité totale d'eau douce
(aquifères, lacs, marais et rivières). Enfin, le petit point bleu posé au-dessus
de la ville d'Atlanta en Géorgie représente l'eau de surface (lacs et rivières)
dans laquelle tout être vivant doit puiser pour vivre. Ainsi, le besoin normal
en eau pour tout être humain a été estimé à 50 litres par jour (Gleick 1996). En
cas de stress hydrique important, on peut ramener cette valeur à 17 litres par
jour si l'on sacrifie le sanitaire, qui peut devenir 7 litres par jour à condition
de ne pas nettoyer ou cuisiner. En dessous de ce seuil critique, la personne
perd toute dignité, car elle ne peut plus se laver, et en dessous de 2 litres, c'est
le besoin vital qui n'est plus assuré.

__-
......OIMN,.....,..,.
a.a.. .............. ........
11'11000000

IOllCIOOO -....... ........·-


.....,,

---...
,,._ lll?OOOO

......
""'
.....
......... .. 0.0011
....,,
....
....
--- .....
........
, . . . . 110
........
....
100
·-·-........
.._

~
Utm d 'Nu par jour par penonne
Eauà boire 2-5
~
5

-
Sanitaire
. - . 1 Toilette
Ir: .JI Cuisine
, --------------
Total
20
15
10
0-75
5-70
10-50

~
50 17-1100
Soul/ de d nit<! • l..• •Cl 1

Figure 8: Ressources volumétriques en eau de la planète Terre (Shiklomanov 1993);


proportion volumique relative entre l'eau et les roches (Perlman USGS) et exigences
en eau de base pour les activités humaines (Gleick 1996).

35
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ce que l'on appelle le cycle de l'eau, à savoir les échanges d'eau entre
l'atmosphère, la lithosphère et l'hydrosphère, s'est installé sur notre planète
il y a environ 3,9 milliards d'années depuis que le bombardement météoritique
intense de notre planète a cessé (Pinti 2005). L'hypothèse la plus probable est
que 90 % ou plus de l'eau que l'on trouve sur Terre a été apportée par de
petits astéroïdes troyens en provenance de la ceinture de Kuiper ayant une
composition chondritique (figure 9 à droite). Comme le révèle la figure 9, les
comètes n'ont pas le bon rapport isotopique D/H pour être à l'origine de l'eau
des océans.
Pour qu'apparaisse une masse océanique stable grâce à ces eaux juvéniles
et primordiales, il a fallu en fait attendre que la Lune se forme suite à une
collision dantesque avec un planétoïde ayant une taille comparable à celle
de la planète Mars et qui se plaça en orbite autour de la Terre. Après cette
collision, la température de surface a atteint 2 300 K, soit environ 2 000 °C,
causant une fusion de la surface de la Terre. S'il existait déjà de l'eau liquide
à cette époque, elle a donc été vaporisée en même temps que les silicates.
L'âge de 4,50-4,45 milliards d'années peut donc être pris comme temps zéro
pour la formation des océans. La Terre a ensuite connu une pluie de silicates
fondus qui ont formé la croûte terrestre lorsque la température est descendue
en dessous de 1 300 K. La formation d'une croûte solide isola alors une
atmosphère, à plus de 400 bars de pression formée principalement d'eau et
de dioxyde de carbone, de l'intérieur plus chaud. Lorsque la température en
surface est descendue en dessous de 600 K, s'est produit un véritable déluge
qui allait former les océans. Ce déluge qui a duré plus de 1 000 ans avait un
taux de précipitation avoisinant 7 000 mm par an, ce qui correspond à environ
10 fois le taux de précipitation actuel aux latitudes tropicales et laissait une
pression d'environ 210 bars de dioxyde de carbone.

Nriode /O. Bau ~: H ~ ~~: ~~ TtmpfratuN de


4,6 Pbraatiolidu.,._......._(4.56~ twfaoe/Jârin
_,,,. ~-~(4$o.,)
... - Ponudoe .... t.u.(4.5100
_ Pl••r~de111THnCoMSC.>

4.4 ,~drll;tt:.::=1~H 00
_....,.._,_.....,_,..,.(_Go)

:l·.
4 .! A.p Halte lq6riwr del ârœ. ..tnlims (4.ft o..> 500 'Oil

4,0
d - d'-Cuodo(4.03Gol
"'-"" ~?
...,_,eo
s8o--51o
î
1
3.9 l'lllft~~{S.90o.,)
- Ap96dlmnb--.d'Akiti,°"'611Pd Cs.l?G.) h-1---...........JI~

s.S - · - .tupQtt.n... .. GrohkMI (S.76c.)


,,....,_ tncll ck . . . . . . . . •pillit• t
a.ire~d ..oeblcbla.,.._plaqlMlll

s.•
M - ===-'-!:_~~

Figure 9 : Le premier milliard d'années sur Terre qui a vu apparaître le cycle de


l'eau (gauche) et les principales roches qui ont probablement apporté l'eau pour
former les océans.

36
CHAPITRE l- L'EAU, LA SUBSTANCE

Il reviendra à la proto-croûte océanique le rôle de recycler 205 bars de


dioxyde de carbone dans le manteau terrestre sous forme de calcaire CaC03 •
Comme l'océan primitif était en équilibre avec une atmosphère composée
principalement de C02 , le pH des océans se trouvait contrôlé par la dissolution
et la précipitation du carbonate de calcium CaC03 et par la fugacité du dioxyde
de carbone C02 de l'atmosphère. Pour des températures initiales voisines
de 200-230 °C et des pressions de co2 voisines de 10 bars, on obtient une
gamme de pH comprise entre 4,8 et 6,5 confortant l'idée d'océans acides
durant l'Hadéen (figure 10). L'océan n'est donc devenu basique avec un pH
de 8,2 que depuis 2 milliards d'années.

L'hypothèse d'un océan archéen acide est supportée par l'existence de


larges dépôts, au début de l'ère protérozoïque, de roches constituées de
chailles, de sidérite (FeSi03) et d'hématite (a-Fep 3) avec une quantité de
fer comprise entre 30 et 45 %. La précipitation de telles roches au début
du Protérozoïque peut être expliquée par l'accumulation progressive de fer
sous sa forme réduite, fer(II), dans les océans hadéens et durant l 'Archéen.
L'ion ferreux Fe2ED est soluble dans l'eau dans des conditions anoxiques
(absence d'oxygène), réductrices et pour un pH compris entre 0 et 6. Dans
un océan alcalin et oxygéné comme aujourd'hui, l'ion est oxydé en Fe3Ell
insoluble qui précipite sous forme d'hydroxyde Fe(OH)3• Ces dépôts durant
l'ère protérozoïque constituent donc un indice clair d'un changement majeur
de pH et d'état rédox de l'eau de mer, et en particulier l'évolution depuis
un état anoxique et acide vers un état oxygéné et basique. La salinité de
l'océan provient de deux sources distinctes : altération de la croûte océanique
et hydrothermalisme océanique. De nos jours, l'altération est la source
dominante de salinité, mais durant l'Hadéen ou l' Archéen, il semblerait que
ce soit plutôt l 'hydrothermalisme qui ait été dominant.

37
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

12
1000
Température océan à partir des chai~
16
100

~
'\
20 10
.....
lA '!:
c5
J
1 b
0 ,1
28
0 ,01
f
32 0 ,001 oPment
e M:Men
36
Cl• Br4t SO •• t• Na" K• Ma" Ca" Sr"
.._.....__.._....__.__.......... ' Ions dissous
IO'"'·t.=.;, ·IW r +IH ' ~ - ( I O""ln.o. +10-" } IW 1- IO""'·/ro, •O
_...._,__~~

4.0 3.5 3.0 2.5 2.0 l.l 1.0 0.5 0.0


Age en mllll1rd1 d'1nn6e1
10 ----~----~-~ 9 :• 1 ~

·'
j
........ 10· 1

~
Il::'

110''
"' 10" 5 ...·•...
"'
s = - - !a, - - - - '1-~---1.04
io .. "--_.,:::= =:i;: 1:::::::;:::=::;::::::::::;{.._-l=Î
Age / milliards d'annha Milllarda d'ann6111

Figure 10 : Évolution du pH, de l'état rédox et de la salinité des océans au cours des
âges. Les chailles sont des roches dures composées de grains de silice extrêmement
fins (silex, jaspe, onyx, etc.). Les rapports ô180 de l'eau et des chailles décroissent au
fur et à mesure que la température des océans augmente, en raison du fractionnement
isotopique lié à la précipitation de la silice contenue dans l'océan. D'après Pinti
(2005).

Cycle de l'eau
Savez-vous que nous buvons la même eau que les dinosaures? C'est un fait
qu'en raison de sa grande stabilité chimique, et contrairement au pétrole, l'eau
se recycle et que ce cycle a commencé à tourner il y a environ 3,9 milliards
d'années. L'eau est une substance très mobile qui circule entre deux types
de réservoirs : ceux qui font office de conducteurs comme les cours d'eau
et l'atmosphère et ceux qui jouent un rôle d'accumulateurs comme les
glaciers, les nappes et les océans. Chaque type de réservoir possède sa propre
dynamique avec, en particulier, une échelle de temps de remplissage et de
renouvellement qualitatif et quantitatif spécifique à chacun. Les temps de
séjour de l'eau dans les différents réservoirs de l'hydrosphère sont estimés en
comparant les flux échangés entre les différents réservoirs et les volumes de
chacun d'eux. Les glaciers et les calottes polaires sont les endroits où l'eau
séjourne le plus longtemps : entre 1 600 et 9 700 ans selon le lieu (Marsily

38
CHAPITRE J- L'EAU, LA SUBSTANCE

1995). Puis, en seconde position viennent les océans avec des temps de séjour
de l'ordre de 2 500 ans, tandis que l'eau souterraine se renouvelle tous les
1 400 ans en moyenne. Il faut environ 17 ans pour régénérer les lacs d'eau
douce et 1 an pour l'eau des sols humides. Les taux de renouvellement des
cours d'eau et de l'atmosphère se chiffrent en jours: 16 jours pour l'eau des
fleuves et rivières et 8 jours pour l'eau des nuages ou au sein des organismes.
Enfin, les taux de renouvellement dans une cellule vivante sont à peine de
quelques heures.

Le Soleil, par l'énergie que la Terre en reçoit, est le moteur principal du


cycle de l'eau. Une partie de l'énergie solaire (principalement contenue dans
la partie visible du spectre électromagnétique) est directement renvoyée
vers l'espace par les nuages (figure 11) et la surface terrestre (albédo) ;
l'autre partie est absorbée par le sol et les océans. En situation d'équilibre,
ces derniers rayonnent toute cette énergie dans l'infrarouge en direction de
l'espace. Mais l'atmosphère, à son tour, absorbe une partie de ce rayonnement
terrestre et le réémet à la fois vers l'espace et vers le sol. La surface de la
Terre est donc plus chaude qu'elle ne le serait sans atmosphère : c'est ce qui
est connu sous le nom d' « effet de serre ». Les molécules responsables de
cet effet sont la vapeur d'eau, le gaz carbonique et d'autres gaz comme le
méthane et le protoxyde d'azote. Quand les conditions changent - que ce
soit par l'énergie reçue du Soleil ou par le contenu en gaz à effet de serre - le
système climatique évolue vers un nouvel état d'équilibre.


-


-
.......

Figure 11 : Les nuages, qui sont de l'eau liquide avec des gouttes d'eau ou des
flocons submillimétriques, jouent un rôle essentiel dans le cycle de l'eau. La forme
des nuages et leur taille dépendent de la température, de la pression atmosphérique
et de /'altitude où se produit la condensation.

39
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

C'est ce que les climatologues désignent sous le vocable de« réponse à un


forçage ». Dans cette évolution, le changement d'un paramètre entraîne des
modifications d'autres paramètres : par exemple, l'élévation de température
augmente le contenu en vapeur d'eau et en gaz carbonique de l'atmosphère,
modifie la couverture nuageuse, diminue le volume des glaces continentales,
etc. L'augmentation de température de l'océan risque de diminuer l'efficacité
de celui-ci pour absorber une partie du carbone anthropique. Ces rétroactions
peuvent être positives, renforçant l'effet du forçage initial, ou négatives
quand elles le réduisent. Selon les paramètres qui entrent en jeu, ces effets,
qui peuvent être quantitativement importants, se manifestent sur des périodes
courtes, de quelques jours pour l'évolution de l'atmosphère ou, au contraire,
très longues pour l'océan.
Les effets potentiels de l'activité du cycle solaire sur le climat sont l'objet de
controverses mais donnent lieu à des recherches actives. Certains mécanismes
invoqués concernent l'effet du rayonnement cosmique galactique, fortement
modulé par le vent solaire qui pourrait affecter la formation des nuages ; des
couplages supplémentaires entre la stratosphère et la troposphère associés
à des courants électriques sont également évoqués. Ces effets, secondaires
par rapport à l'effet des conditions atmosphériques telles que la teneur
en vapeur d'eau, la stabilité et la circulation générale de l'atmosphère,
etc., dépendent d'une physique sous-jacente qui fait actuellement l'objet
d'études expérimentales au CERN. D'autres mécanismes, qui mettent en
jeu l'évolution importante de la composante UV au cours du cycle et qui
modifient la distribution d'ozone stratosphérique, sont actuellement à l'étude.
llun

Neige Grésil Pluie verglaçante Pluie

D
.....••. .....•••
a
,
1•
•••
D
! !

...-:......
Figure 12 : Mécanisme de formation de la neige, du grésil et de la pluie verglaçante.

Sous l'effet du soleil, l'eau s'évapore et monte vers l'atmosphère. On estime


à 1 000 km3 l'eau des océans qui, chaque jour, s'évapore. L'eau emmagasine
de la chaleur dans les basses couches atmosphériques, ce qui l'oblige à
monter. Peu à peu, elle se refroidit tout en étant redistribuée par les courants

40
CHAPITRE 1- L'EAU, LA SUBSTANCE

atmosphériques. L'action du froid condense cette eau qui retombe sous forme
de précipitations (neige ou pluie) avec 1 à 100 kg par mètre carré; 61 % de
cette eau s'évapore (1 kg m· 2), 16 % ruisselle (0,01 kg m·2) pour rejoindre les
cours d'eau tandis que 23 % (50 kg m·2) s'infiltre pour alimenter les nappes et
rivières souterraines (Newsom 1994). Toute la planète recycle en permanence
son eau, via la formation de nuages pouvant générer aussi bien de la pluie
que de la neige selon la température extérieure. Contrairement à une idée très
répandue, les gouttes d'eau de pluie n'ont pas du tout la même forme que les
gouttes qui pendent d'un robinet fuyard en raison de la longueur capillaire
de l'eau. Aucune goutte d'eau de pluie terrestre ne peut dépasser la taille de
6 mm, fixée par le nombre de Weber, car au-delà de cette taille critique, il y a
fragmentation en gouttes plus petites (Kostinsli & Shaw 2009). Un grêlon est
une goutte de pluie qui tourne en rond dans un cumulonimbus jusqu'à ce que
sa taille l'oblige à tomber sous forme de glace (figure 11). La neige se forme
quand la température est inférieure à 0 °C dans l'atmosphère et au sol. S'il y
a une inversion de température entre l'air et le sol, il peut y avoir formation
de grésil ou de pluies verglaçantes (figure 12).

Il existe tout un folklore autour des flocons de neige et des cristaux de


glace. Dans le magazine New Scientist du 30 décembre 2013, Helen Pilcher
nous explique que Wilson Bentley, le premier homme à avoir photographié
des flocons de neige, trafiquait ses photos pour mieux révéler la structure
hexagonale des cristaux de glace. Les photos de Ken Libbrecht (figure 13
à gauche) quant à elles ne sont pas trafiquées, mais correspondent à des
conditions de laboratoire non naturelles obtenues en contrôlant soigneusement
le taux d'humidité et la température (Libbrecht 2005). La figure 13 (à droite)
montre à quoi ressemble en fait de vrais flocons de neige photographiés
par Tim Garrett (University of Utah) et ses collègues avec une vitesse
d'obturation de 1/40,000 de seconde- suffisamment rapide pour capturer les
flocons dans l'air (Garrett 2012). On est loin des photos trafiquées de Bentley
ou de celles de Masaru Emoto qui prétend que l'eau sait faire la différence
entre Hitler et Mère Teresa. La glace est un milieu hostile à la vie et son
apparition est généralement synonyme de mort. La plupart des flocons de
neige n'ont aucune forme précise et ce n'est que lorsque l'homme intervient
par maquillage (Bentley) ou par force (Libbrecht, Emoto) que les cristaux
prennent des formes géométriques bien définies.

41
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Tabulaire Prismatique Tabulaire Tabulalre & prismatique

0,3

0
0 -5 -10 -15 -20 -25 -30 -35
Température I °C

Figure 13 : Forme des cristaux de glace lors d'expériences en laboratoire avec


contrôle de /'hydrométrie et de la température (Libbrecht 2005) et forme réelle des
flocons de neige dans/ 'air photographiés à/ 'aide de caméras spéciales (Ga"ett & al.
2012).

42
CHAPITRE 1 - L'EAU, LA SUBSTANCE

Le cas Masaru Emoto


Il est extrêmement fréquent lorsqu'on parle de cristaux de glace de citer
le nom de Masaru Emoto (1943-2014), homme d'affaires japonais passé
maître dans l'art de photographier des cristaux de glace au microscope
optique. Lors d'un séjour aux États-Unis en 1989, Masaru Emoto découvre
les photos obtenues lorsque l'on observe au microscope électronique
cryogénique de l'eau ordinaire, naturelle ou microclustérisée selon le procédé
de Lee H. Lorenzen censé produire une forme d'eau faite d'un anneau à
six molécules d'eau. Lors de ce même séjour, Lorenzen lui fait rencontrer
Ronald J. Weinstock, chercheur intéressé par les applications thérapeutiques
de l'énergie électromagnétique en relation avec les phénomènes de résonance
magnétique ou acoustique. Weinstock est l'inventeur d'une machine à
biorésonance cellulaire qu'Emoto rebaptisera MRA (Magnetic Resonance
Analyzer) afin de pouvoir la commercialiser lors de son retour au Japon.
L'idée d'Emoto est que chaque substance ou phénomène physique possède
son propre champ de résonance d'origine magnétique lié aux mouvements des
électrons autour des noyaux atomiques qu'il appelle« Hado »(mot signifiant
à la fois onde et mouvement et probablement équivalent au chi chinois) et qui
peut être converti en un nombre de quatre à cinq chiffres, La technique MRA
peut donc servir à tester non seulement le bon fonctionnement des cellules,
mais aussi la qualité de l'eau.

Ainsi, quand les codes sont introduits dans l'appareil MRA, celui-ci produit
un champ de résonance magnétique correspondant au code du phénomène à
tester et qui peut être aussitôt appliqué au sujet au moyen de deux cathéters.
Ceci permet de vérifier le bon fonctionnement des tissus et des organes et
détecter la présence éventuelle de bactéries, de champignons ou de toxines
(mercure, plomb, aluminium, etc.). De même, en posant un échantillon
d'eau sur l'appareil et en introduisant le code de la substance à rechercher,
l'appareil peut indiquer si ce produit se trouve dans l'eau testée et, si oui, en
quelle quantité il se trouve présent. On peut aussi tester la qualité des aliments
ainsi que le degré de résonance entre différentes substances dans le cas de
mélanges. L'appareil demande environ trois mois d'apprentissage avant de
pouvoir faire des diagnostics fiables. De 1989 à 1994, Emoto va donc soigner
avec son appareil plusieurs milliers de personnes et, compte tenu des succès
obtenus, va obtenir en 1992 un diplôme de docteur en médecines alternatives
auprès d'une université internationale libre située quelque part entre l'Inde et
le Sri Lanka.

En 1994, suite à la lecture d'un livre lui expliquant qu'il était impossible
de trouver deux flocons de neige identiques, Emoto va faire le lien entre sa
pratique du Hado et les images de microscopie électronique cryogénique
obtenues par Lee H. Lorenzen aux États-Unis. Après 60 jours d'essais

43
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

acharnés il va réussir à obtenir sa première photo d'un cristal de glace


présentant une parfaite symétrie hexagonale. Beaucoup d'autres photos
suivront jusqu'à la parution en 1999 du livre Messages cachés de l'eau,
ouvrage autopublié qui va connaître un succès immense, car via sa technique
de cristallisation, Emoto montre que l'eau est non seulement sensible à la
musique mais également à de simples mots écrits sur des bouts de papier et
surtout à des pensées conscientes. Le fait que la musique puisse avoir une
action sur l'eau découle directement d'une idée de Ronald Weinstock qui
pensait que si des combinaisons de résonances magnétiques pouvaient avoir
un effet thérapeutique, alors des combinaisons équivalentes de résonances
acoustiques pourraient avoir le même effet.

En revanche, le fait que les mots puissent avoir une influence sur l'eau
découle de ses observations sur l'eau Hado qu'Emoto pouvait informer en
l'absence de toute présence physique de ses patients au moyen de leurs photos.
Si la photo d'un patient était suffisante pour informer l'eau, alors il devait en
être de même de son nom. De là l'idée qu'un mot pouvait retenir une certaine
information vibratoire, et un premier essai avec le mot « arigato » signifiant
« merci » en japonais qui s'avéra concluant. Puis vint l'idée de remplacer
les mots écrits par la simple pensée, ce qui valut à Emoto de figurer en 2004
en bonne place dans le film de vulgarisation de la mécanique quantique très
controversé What the Bleep Do We Know ?.

Comme les expériences d'Emoto sont souvent citées comme des preuves
scientifiques de la possibilité d'agir sur la matière au moyen de la seule
pensée, positive ou négative, il est important de bien comprendre le mode
opératoire. L'eau à analyser est recueillie dans un flacon en polyéthylène
et conservée dans un emballage opaque réfléchissant les ondes lumineuses
et électromagnétiques. Arrivé au laboratoire, le flacon est frappé plusieurs
fois sur le genou afin d'activer l'eau. Puis on prélève 50 fois (les premières
années Emoto faisait 100 prélèvements) 1 ml d'eau que l'on place dans des
boîtes de Petri qui sont placées dans un congélateur à -25 °C pendant trois
heures. Suite à cette congélation, les gouttes d'eau se transforment en une
masse de glace dénuée de tout cristal ayant une épaisseur d'un millimètre
environ. Les cristaux apparaissent à une température de -5 °C sous l'effet
de la chaleur produite par l'éclairage du microscope et croissent pendant
environ 12 secondes, temps au bout duquel ils retournent à l'état liquide.
Évidemment, le résultat ne donne jamais cinquante cristaux semblables et,
parfois, on n'observe aucune formation de cristaux lors de l'observation
au microscope. Pour chacune des cinquante boîtes, Emoto fait un tableau
indiquant le nombre de cristaux catalogués comme beaux, hexagonaux, et
ainsi de suite. Ensuite il choisit de publier la photo d'un seul cristal, celui qui
représente le mieux les caractéristiques de l'échantillon analysé.

44
CHAPITRE 1- L'EAU, LA SUBSTANCE

Quelle conclusion tirer de tout ceci? Tout d'abord, comme le dit Emoto
lui-même, sa formation initiale est celle d'une personne sensible aux sciences
culturelles plutôt que naturelles. Emoto est donc clairement plus un esthète
et un artiste qu'un scientifique. Il l'avoue d'ailleurs bien volontiers en disant
que pour les cristaux de glace, il ne se préoccupe pas de faire ses tests en
aveugle car c'est le caractère et le sens esthétique du chercheur qui sont la
chose la plus importante pour obtenir une belle photo. Il est bon aussi de
savoir que son titre de docteur a été obtenu par correspondance, moyennant
finance, en une année seulement dans une université internationale libre
assez obscure. Pour ce qui concerne la formation aux médecines alternatives,
le programme semble dispenser des cours d'histoire, de philosophie et de
principes généraux. Vu le flou savant entretenu par Emoto autour de son titre
de docteur, ce dernier ne doit donc pas impressionner et le faire passer pour
un scientifique, ce qu'il n'est pas.

Ceci explique la légèreté de son protocole expérimental, où l'on voit


l'expérimentateur ne prendre aucune précaution particulière pour que sa
respiration n'atteigne pas le cristal en train de croître. En effet, comme
l'ont montré des expériences en laboratoire extrêmement bien contrôlées, la
moindre variation de température ou du degré d'humidité autour du cristal
change sa forme de manière radicale (Libbrecht 2005). Donc, conclure sur la
vue d'une seule photo judicieusement choisie et obtenue dans des conditions
non contrôlées qu'une pensée peut être saisie et figée dans la forme cristalline
en croissance est pour le moins osé. Il est important aussi de réaliser que
ce n'est pas l'eau liquide qui donne naissance aux cristaux hexagonaux,
mais plutôt la glace qui sous l'effet de la chaleur de la lampe qui l'éclaire se
sublime (passage direct par l'état vapeur sans fusion) pour venir recristalliser
sur une aspérité du bloc de glace congelé. S'il y avait donc eu une quelconque
information mémorisée dans l'eau liquide, la congélation serait une première
cause de la perte de cette information. Si l'information est malgré cela
conservée dans la glace, le passage par l'état vapeur lors de la sublimation où
les molécules deviennent complètement isolées les unes des autres serait une
seconde cause d'effacement irréversible de toute information contenue dans
le liquide.

Il convient donc de rester extrêmement prudent sur le lien que fait Emoto
entre la forme d'un cristal et l'état physico-chimique d'une eau liquide ayant
été soumise à des mots ou à des pensées diverses. Un autre point qui doit
inciter à la prudence est le fait d'associer sans aucun esprit critique beauté
cristalline et vitalité. En effet, ce qui caractérise les phénomènes vitaux, c'est
précisément l'absence totale de symétrie (chiralité de la matière vivante) ou
bien alors la présence d'axes de symétrie incompatibles avec la formation
d'un cristal. La symétrie cristalline parfaite traduit justement l'absence totale

45
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de vie, ce qui est évidemment très gênant pour l'argumentation de base de


M. Emoto. Bref, M. Emoto est un personnage extrêmement controversé,
honni par les uns et porté aux nues par les autres. À chacun de se faire son
opinion. Une chose est cependant sûre, c'est que même si M. Emoto n'utilise
pas des méthodes scientifiques, il arrive néanmoins avec ses images bien
choisies à faire parler de l'eau en relation avec la conscience. Pour cela, il
doit évidemment être remercié, mais il doit rester à sa place, à savoir celle
d'un esthète aux idées originales ayant un excellent sens du commerce.

Mystères de l'eau
Selon la thermodynamique, les trois états de l'eau, vapeur, liquide et solide
sont toujours en équilibre via la notion de pression de vapeur. Comme on
le voit en figure 14, les molécules d'eau à l'état vapeur, c'est-à-dire à haute
température, peuvent s'agiter dans tous les sens selon trois types de mouvement :
translation, rotation et vibration. Ceci explique que la vapeur soit toujours l'état
de plus faible densité pet d'entropie S la plus élevée avec un fort coefficient
de diffusion D. Les molécules pouvant se déplacer dans l'espace, elles ont
tendance à occuper tout le volume disponible et possèdent une vitesse v, un
libre parcours moyen entre deux chocs Â. ainsi qu'une fréquence de collision Z
que l'on peut évaluer avec la théorie cinétique des gaz.

-
~
Solide Uqulde Gu

;:.:
i.....
..:, 1
.
g,

i l'llllon

Tempüature / K ~
Figure 14: Équilibre entre eau liquide et eau vapeur et variations d'entropie entre
les trois états: solide, liquide et gaz. L'entropie est une fonction qui augmente avec
le volume disponible. Plus les possibilités de mouvement sont variées et nombreuses,
plus l'entropie est haute. Nous reviendrons sur la notion d'entropie au chapitre 4.

Lorsque la température baisse, l'eau devient liquide et les molécules, ne


pouvant plus avoir de mouvement de translation, viennent s'agglutiner les
unes contre les autres. On parle alors de condensation qui s'accompagne
d'une forte augmentation de la densité et d'une forte chute d'entropie. Le
coefficient de diffusion D chute également car seules les rotations permettent
aux molécules de changer de position, ce qui se traduit par une viscosité ri
plus élevée que dans la vapeur.

46
CHAPITRE 1- L'EAU, LA SUBSTANCE

Puis, si la température continue à baisser, les molécules se trouvent bloquées


dans leur mouvement de rotation et la substance s'arrête de couler. Cette
perte des mouvements de rotation entraîne une nouvelle chute de l'entropie,
tandis que la viscosité T) devient infinie et se trouve remplacée par le module
d'élasticité E et le coefficient de Poisson v. Pour la plupart des substances,
la densité du solide se trouve être supérieure à celle du liquide, mais dans
le cas de l'eau c'est l'inverse qui se produit, ce qui explique que la glace
flotte sur l'eau liquide. Ceci est le premier grand mystère de l'eau liquide.
Lorsqu'elle se trouve sous forme de glace, les molécules d'eau sont capables
de générer selon la température et la pression une quinzaine de réseaux
cristallins distincts ainsi qu'au moins trois types d'empilements amorphes
que l'on étudiera plus en détail au chapitre 3. En présence de gaz dissous,
d'autres arrangements sont possibles, appelés « clathrates » en fonction de
la nature du gaz encapsulé dans des cages d'eau. Cette grande polymorphie
cristalline ou vitreuse conjuguée à de nombreux clathrates est un autre des
grands mystères associés à l'eau.
On entend souvent dire que l'eau congèle à 0 °C et bout à 1OO °C à
pression atmosphérique. C'est ce qui est montré par les lignes bleues dans le
diagramme d'état de l'eau« pure» (figure 15). Mais ce diagramme montre
aussi la présence de lignes vertes pour une eau complètement dégazée et
ultra-pure, définissant le domaine de l'eau surfondue ou de l'eau surchauffée.
Comme on le voit, l'eau peut en fait rester liquide entre -42 °C et +280 °C,
c'est-à-dire bien en dessous de son point de congélation et bien au-dessus de
son point d'ébullition. Nous avons là un autre grand mystère de l'eau liquide.

-Ol.AŒ

""""

=···r·
1 ·Î-·
' - --- i--·-.l. LWAUT
1
-.i.. ..

1 i i
!
;;----

Figure 15: Diagramme d'état de l'eau avec les limites de métastabilité.

Dans tout diagramme de phase, il y a deux points importants qui caractérisent


une substance donnée. Tout d'abord, le point triple qui correspond à la
température et à la pression à laquelle les trois états (solide, liquide et gazeux)
peuvent coexister et au point de jonction des trois lignes bleues. Ensuite, le

47
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MtDECINE

point critique qui est le point où il n'est plus possible de faire la distinction
entre état liquide et état gazeux. L'eau révèle ici des propriétés vraiment
extraordinaires, car au point critique, elle présente un volume molaire
extraordinairement bas de 56 cm3 mol· 1• Seules deux substances arrivent ici
à battre l'eau, le néon avec un volume molaire de 42 cm3 mol- 1 et le mercure
avec un volume molaire de 35 cm3 mol- 1• Toutefois, avec une température
critique de seulement 45 K, le néon fait bien pâle figure par rapport au 647 K
de l'eau. Seul le mercure avec une température critique de 1 751 K arrive à
battre l'eau sur les deux tableaux, mais au prix d'une masse molaire 10 fois
plus grande que celle de l'eau (figure 16).
Cette cohésion interne de l'eau très élevée se reflète sur les courbes montrant
comment varie le point d'ébullition de substances similaires en fonction de la
position dans le tableau périodique des éléments de Mendeleïev.

Pour comprendre les interactions entre molécules, on fait généralement


appel à la notion de moment dipolaire permanent qui est la distance séparant
le barycentre des charges positives et celui des charges négatives multipliée
par la valeur de la charge électrique caractérisant un tel dipôle : positive à une
extrémité et négative à l'autre extrémité. Si les deux barycentres coïncident,
on dit que la molécule est apolaire, tandis que plus ils sont éloignés, plus le
moment dipolaire est fort et plus les molécules s'attirent entre elles. C'est bien
ce que montre la figure 16 avec deux graphes, l'un concernant des molécules
polaires et l'autre des molécules apolaires.

48
CHAPITRE 1- L'EAU, LA SUBSTANCE

CBrc
200 T""' / °C
Iode
100 Molécules
254g·mol·1
apolaires

Rn
· 100

·200 ~ RtUIM
1 2 3 4 s 6
Nu.trAta ~: 86
Rangée du tableau périodique
M~~:222

100

so Molécules polaires

·SO

·100

·ISO
Po = 1.855D

2 3 4
Rangée du tableau périodique Points critiques

Ha() 18,01528 273,18 0,61 173 647,1 22,06 56 374 22,1

Figure 16: L'eau est un liquide dont la cohésion interne est extrêmementforte, compte tenu
de sa masse molaire ridiculement basse. On la voit par exemple concurrencer le mercure,
autre substance liquide à température ambiante extrêmement cohésive mais de masse
molaire dix fois plus élevée. Ceci se traduit par un point d'ébullition tout àfait anonnal par
rapport à des substances similaires.

On remarque ainsi une autre loi très générale de la chimie, d'origine


quantique, appelée « interaction de van der Waals », qui stipule que le point
d'ébullition d'une substance doit être d'autant plus élevé que la masse molaire
est plus grande. On voit que la loi est très bien suivie par les molécules
apolaires. Elle s'applique aussi visiblement pour les molécules polaires sauf
pour ce qui concerne trois molécules extrêmement polaires qui sont dans
l'ordre : l'eau, le fluorure d'hydrogène et l'ammoniac. Il y a là un nouveau
mystère qui n'est en rien lié à la masse molaire ni à la polarité, puisque HF
possède un moment dipolaire de 1,91 D légèrement supérieur à celui de l'eau
ainsi qu'une masse molaire légèrement plus élevée. Or, l'eau bat HF à plate
couture ...

49
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Coefficient de Gaz parfait PV = nR0 => J3r = l/P (Pa-1)


compressibilité isotherme KT 12 ~~~~~~~~~~~~

liquide gu
i<,<ai-. 0-C) • 0, 1178 GPa·1
i<,(25.C) • 0,45119 GP1r'
.r
Eo.8
j 0.8 Minimum

1
e•48,5·c
-__,~-- Eau liquide
0.4

0.2
Glace

~ ~ o ~ 40 ~ ~ ~ m 140
Ten""'9turerc
Liquides non associés:
8V Î si 0 Î => KT Î quand 0 Î

Kr=-..!_(àV)
V àp T
oc((ôV)2)
Liquides : KT < io-3 atm-1
=> variation de volume négligeable avec P

Figure 17 : La compressibilité isotherme mesure le taux de variation du volume


/orsqu 'on change la pression à température constante. Pour de l'eau liquide, on
observe un minimum vers T = 46,5 °C.

L'eau présente en fait toute une gamme de propriétés thermodynamiques


qui varient de manière non linéaire avec la température. Par exemple,
comme le montre la figure 17, l'eau liquide augmente son coefficient de
compressibilité isotherme lors du refroidissement (Grassi 1851 ). Or, ce
coefficient thermodynamique est proportionnel aux fluctuations quadratiques
moyennes du volume. Pour un liquide non associé, on s'attend donc à ce que
ces fluctuations et le coefficient de compressibilité augmentent de manière
monotone avec la température. Ici, on voit que c'est le cas au-dessus d'une
température de 46,5 °C. La remontée du coefficient lorsque la température
devient inférieure à 46,5 °C montre que de fortes fluctuations de volume sont
également possibles à basse température, ce qui est a priori assez surprenant.
Il existe aussi un autre type de compressibilité qui mesure le taux de
variation du volume avec la pression à entropie constante, c'est-à-dire sans
échanges de chaleur. Cet autre coefficient thermodynamique est inversement
proportionnel aux fluctuations quadratiques moyennes de la pression et
gouverne donc la vitesse du son ou des ultra-sons. Dans les gaz et les liquides,
il n'y a qu'une seule vitesse possible qui correspond à la propagation d'ondes
longitudinales de pression, où l'on alterne des zones où les molécules
sont compressées et des zones où elles sont dilatées, dans la direction de
propagation de l'énergie (figure 18).

On comprend donc qu'avoir une vitesse du son élevée signifie être en


présence d'un réseau d'autant plus rigide que cette vitesse est plus grande.

50
CHAPITRE 1- L'EAU, LA SUBSTANCE

C'est donc dans la vapeur d'eau où il n'y a aucune tenue mécanique que
le son se propage le plus lentement. La vitesse de propagation du son dans
l'eau liquide est étonnamment grande compte tenu de sa très faible viscosité
quand on sait que l'on dépasse rarement 1 000 m s- 1 avec les huiles les plus
visqueuses. Ici aussi, l'eau fait jeu égal avec le mercure où le son se propage
avec une vitesse de 1450 m s- 1•

V<20Hz 20Hz<v<20kHz 20kHz<v< 1 MHz 1MHz<v<100MHz v> 100 MHz

Compressibilité isentropique
K __
s-
1_fôV) _lf~)
vlap s -P'lap
__
s-
l
p·v2_
Compressibilité K =_!f OV)
isotherme T V\ op 9
m. ......... ... . . . c

--
1(
r=:::..t...=.:.r.
-
: : : • •• •• •• • •• • •• • •....d..•
•••••••••
::::: Cv 1Cs

Formule de Newton-Laplace (gaz) K


T
=.!..~r
p
=-1-~v- =~f'iCs
s r·p
1 = Çi.~rR9
'J'p M
Eau vapeur: M =18 g.moI-1, y= 1,324, 9 =300K ~ Vson = 428 m·s· 1

Eau liquide: p = 1000 kg·m-3, KT= 1CS =0,485 GPa- ~ Vson =1436 m·s-
1 1

Glace: p = 916,7 kg·m-3


E =9 GPa, v =1/3 ~ VJ> =3838 m·s-1 et vs = 1919 m·s·1

Figure 18 : La compressibilité adiabatique mesure le taux de variation du volume


lorsqu'on change la pression à entropie constante.

Mais c'est bien évidemment dans les solides qui se caractérisent par un
module d'Young mesurant le taux d'étirement ou de compression sous
une pression axiale et un coefficient de Poisson qui mesure la déformation
latérale dans les mêmes conditions que la vitesse du son est la plus grande.
Ces deux modules élastiques fusionnent en une seule valeur, la viscosité,
dans les liquides. Comme le montre la figure 19, il y a donc dans les solides
deux vitesses de propagation différentes, l'une pour les ondes longitudinales
(ondes « P » pour primaire) et l'autre pour les ondes transversales (ondes
« S » pour secondaire) qui correspondent à des forces de cisaillement et non
d'élongation. Ces notations Pet S viennent de l'étude des ondes sismiques.

51
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ondes de surface

Densité p
Contrainte a
Déformation e

10 15 20 25 30 35 40
Temps/ a

Module d'Young Coefficient de Compressibilité isotherme


E = a/e = 3K(1 - 2v) Poisson
Module de G = __ E_ de,rruu
cisaillement 2(1 + v)
V=---
dEax1a1

Figure 19 : Dans un solide, le son se propage avec deux vitesses différentes selon que
l'on considère des ondes de compression longitudinales comme dans les gaz ou les
liquides et des ondes d'oscillations transversales qui n'existent que dans les solides
qui possèdent un module de cisaillement G non nul.

On voit donc que le son va deux fois plus vite dans la glace que dans l'eau
liquide. Par comparaison, dans le cas de l'acier qui est beaucoup plus dense
et rigide, on trouve des vitesses du son extrêmement rapides : cP = 6 000 m s· 1
et c5 = 3 200 m s· 1•

L'eau est aussi une des rares substances qui présente un coefficient de
dilatation isobare qui s'annule au voisinage d'une température de 4 °C,
température où elle atteint également son point de densité maximale
(figure 20). Le rôle de ce coefficient est de traduire les fluctuations croisées de
volume et d'entropie. Pour un liquide non associé, les fluctuations en volume
augmentent avec la température, ainsi que les fluctuations d'entropie, puisque
l'entropie augmente aussi lorsque le volume augmente. Ceci signifie que
l'expansivité est une quantité positive qui s'annule à très basse température.
Ce n'est pas le cas de l'eau, car ce coefficient s'annule au voisinage de 4 °C
et devient négatif en dessous de cette température. Il s'ensuit que lorsque l'on
chauffe une eau de température inférieure à 4 °C, le liquide se contracte au
lieu de se dilater, ce qui est tellement contre-intuitif qu'il faudra comme on va
le voir près de 150 ans pour admettre qu'il s'agit bien d'une réalité.

52
CHAPITRE 1- L'EAU, LA SUBSTANCE

Coefficient de dilatation isobare ap

v-v. = 0 •272
v0
{e-e
e ).n 0
0

V0 • 1.00003 cms.g- 1
e• • 3,984°c

a,(H,0) • 0,000253
K·•àe - as•c
Glace ce •
-20°C):
ap • 0,000053 K·•

Gaz parfait PV • nR9 ~ ŒP • 1/9 (K·•)

Pt =*8V .J, et8S .J, ===* ap.!si Pt


Tt =*8Vt et8S t =*UpÎ si TÎ

Figure 20 : L'eau est un liquide unique par le fait qu'elle possède une expansivité
négative en dessous d'une température de 4 °C.

Anomalie de densité
L'extraordinaire augmentation de volume observée lors de la congélation
de l'eau, entraînant que la glace flotte sur l'eau liquide, est un mystère
évoqué depuis près de 400 ans. Rappelons brièvement les faits en remontant
à l'époque de Galilée au tout début du xvn• siècle où la force motrice de
la recherche académique avait pour origine l'émerveillement de quelques
nobles fortunés devant des curiosités naturelles pouvant donner lieu à des
débats excitants ou à des controverses entre érudits. Suite à une forte canicule
qui sévissait à cette époque en Toscane, Galilée (1564-1642) fut amené à
séjourner en juin 1611 dans la villa de son riche ami Filippo Salviati, près
de Florence (De La Souchère 2011 ). La chaleur aidant, Galilée entama un
débat avec deux professeurs de l'université de Pise, Vincenzo di Grazia
et Giorgio Coresio, au sujet de la notion de froid. Les aristotéliciens de
l'époque prenaient comme point de départ le fait que la glace apparaissait
clairement plus froide que l'eau liquide et en concluaient qu'elle était donc
nécessairement de l'eau moins une certaine quantité de chaleur, et ce manque
de chaleur devait logiquement conduire à une condensation. Puis, les deux
professeurs de Pise expliquèrent à un Galilée très sceptique que la nature de
l'air et du feu était de s'élever alors que celle de l'eau et de la terre était de
tomber, et que si la glace flottait à la surface de l'eau liquide c'était en raison
de sa forme plate et étendue incapable de pénétrer dans l'eau ...

53
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Galilée exprima immédiatement son désaccord en expliquant qu'il ne fallait


pas partir du fait que la glace était plus froide que l'eau, mais plutôt du fait
qu'elle flottait sur l'eau. Si cela était accepté, il s'ensuivait que la glace était
nécessairement moins dense que l'eau liquide et que dans ce cas particulier,
le froid avait la propriété de raréfier plutôt que de condenser... Donc, pour
Galilée, la glace était bien de l'eau avec quelque chose en plus (du vide)
et non quelque chose en moins (de la chaleur). La chose aurait pu en rester
là si la joute verbale n'était pas arrivée aux oreilles du poète et philosophe
Lodovico delle Colombe, ennemi juré de Galilée, qui pour le ridiculiser
publiquement fabriqua un jeu de sphères d'ébène et tailla diverses lamelles
de ce bois connu pour être plus dense que l'eau. Et le philosophe d'aller de
place en place à Florence pour montrer à un maximum de personnes que,
posées sur l'eau, les sphères coulaient systématiquement alors que les lames,
plus étendues, surnageaient, à volume égal. La densité étant la même dans
tous les cas, c'était donc bien la forme d'un corps qui déterminait son aptitude
à flotter et non sa densité.

Piqué au vif, Galilée rédigea dès septembre 1611 un ouvrage d'une


quinzaine de pages adressé au grand duc de Toscane Côme II de Médicis qui
venait de le nommer comme premier mathématicien et philosophe de sa cour
afin de redorer son blason qui avait été terni par les chicaneries de Colombe.
Doutant quelque peu de la compétence de son premier mathématicien,
Côme II organisa le même mois un dîner officiel pour discuter du problème
des corps flottants mettant en scène Galilée, le cardinal Ferdinando Gonzaga
(sixième duc de Mantoue et quatrième duc de Montferrat), le cardinal Maffeo
Barberini (futur pape Urbain VIII) et le philosophe aristotélicien Flaminio
Papazzoni, fraîchement nommé comme professeur à l'université de Pise,
invité à la demande de Galilée pour représenter le point de vue aristotélicien
dans le débat. Au final, il se trouva que Gonzaga et Papazzoni se rangèrent
du côté d'Aristote au nom de la fidélité aux préceptes de l'Église, mais que
Barberini, impressionné par les arguments présentés par Galilée, prit parti en
sa faveur. Sachant que Barberini avait de fortes chances d'être élu pape dans
le futur, Galilée sauva sa réputation auprès de Côme II et résuma sa théorie de
la flottabilité dans un ouvrage qui peut être considéré à juste titre comme le
tout premier livre écrit sur ce phénomène surprenant (Galileo 1612).

Le livre fut un franc succès, mais durant l'été 1612, un ouvrage anonyme
critiqua le pamphlet de Galilée, ce qui permit à ce dernier de faire une réédition
quelques mois plus tard, agrémentée d'une série de notes complémentaires
pour enfoncer le clou. L'idée sur le rôle de l'air dans la flottaison des lames
fut bien évidemment ridiculisée par delle Colombe à la fin de la même année
(delle Colombe 1612), tandis que Vincenzo di Grazia, autre membre de la
« ligue du Pigeon », publia également un ouvrage en 1613 qui attaquait

54
CHAPITRE 1- L'EAU, LA SUBSTANCE

Galilée sur la base des préceptes d'Aristote, insistant sur l'infaillibilité de ce


dernier (Grazia 1613).
Mais Galilée préféra ne pas répondre directement à ces attaques et confia
ses notes à l'un de ses précédents élèves, Benedetto Castelli, qui publia en
1615 un ouvrage où il mettait en pièces les arguments de Colombe et Grazia
et soulignait la mauvaise foi de Colombe dans cette affaire (Castelli 1615).
Devant le sérieux des réfutations de Galilée, ses adversaires décidèrent de
concentrer leurs attaques sur la remise en cause du géocentrisme, autre cheval
de bataille de Galilée, et sujet de nature beaucoup plus théologique que celui
de la flottaison de la glace sur l'eau liquide.

Aux yeux de ses contemporains, Galilée sortait donc vainqueur du conflit


initié par Colombe. Cependant, les expériences qu'il décrivait ne pouvaient
pas être interprétées correctement à la lumière des connaissances de l'époque.
En effet, s'il avait vu juste en ce qui concernait le rôle de la densité dans la
flottaison des corps, son explication de la poche d'air soutenant les lamelles
d'or et d'ébène était erronée et complètement tirée par les cheveux. La réalité
était plus subtile et impliquait des connaissances précises de la structure de la
matière à l'échelle microscopique.

Dès 1612, on savait donc qu'il existait dans l'eau une mystérieuse force
responsable de la moindre densité de la glace par rapport à l'eau liquide et
conférant à l'eau liquide une forte tension superficielle permettant aux plaques
d'ébène de delle Colombe de pouvoir flotter à la surface de l'eau sans couler
à pic comme les sphères.

Le saut à la congélation
Afin de développer et de diffuser la méthode expérimentale initiée par
Galilée et de redorer son image ternie par la condamnation de l'Église en
1633 de la doctrine copernicienne qu'il soutenait, le grand duc de Toscane
Ferdinando II de Médicis fonda en 16571 'Accademia del Cimento (Académie
de l'Expérience). Il s'agissait de la première société scientifique en Europe,
précédant de quelques années la Société Royale de Londres (fondée en 1660)
ou l'Académie des sciences de Paris (fondée en 1666). Les académiciens
florentins s'engageaient à vérifier de manière systématique par l'expérience
tous les phénomènes naturels qui étaient jusque-là du ressort de l'autorité
d'Aristote. L'Académie n'avait pas de règles précises puisque tout reposait
en dernier ressort sur l'autorité du prince Leopoldo de Médicis, co-fondateur
et patron de l'institution.

Les expériences se concentrèrent sur l'utilisation du baromètre et du


thermomètre, nouveaux domaines de recherches stimulés par la découverte
au printemps 1644 par Evangelista Torricelli de la pression atmosphérique

55
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE MVOLUT/ON DE LA MÉDECINE

et de l'existence possible du vide (Henry 2015). Les activités de l'Académie


prirent fin en 1667 avec la publication des Exemples d'expériences naturelles
rédigés par le secrétaire Lorenzo Magalotti (Magalotti 1667). Les noms des
contributions individuelles à cet ouvrage furent volontairement omis afin de
souligner l'aspect de travail en équipe et d'harmonie liée à la main de fer
du prince Leopold. Le livre, somptueusement illustré, eut un franc succès,
mais ne contenait qu'une infime partie des expériences réalisées afin de ne
pas s'attirer les foudres des autorités ecclésiastiques, car beaucoup de ces
expériences remettaient directement en cause les doctrines aristotéliciennes.
Magalotti présenta également sa publication à la Société Royale de Londres
qui publia une traduction en anglais en 1684.

On trouve à la page 156 de l'édition italienne de 1667 de cet ouvrage


la première expérience à caractère scientifique datant d'octobre 1657,
démontrant l'existence d'un maximum de densité de l'eau liquide à une
température légèrement supérieure (4 °C) au point de congélation, ainsi que
d'une dilatation brutale de l'eau lors de sa congélation. Pour réaliser cette
expérience, les académiciens utilisèrent un tube de verre gradué long de
116 cm muni d'un bulbe à sa base afin de suivre le mouvement de l'eau
durant le processus de congélation. Le temps était mesuré à l'aide d'un
pendule calibré pour effectuer 65 oscillations par minute (figure 21).

L'expérience consistait à verser de l'eau liquide dans le tube et à noter dans


une table le niveau atteint par l'eau sur le verre gradué. On obtenait ainsi
un état qualifié de « naturel ». Lorsqu'on plongeait le tube dans la glace,
on observait une élévation du niveau d'eau dans le tube que l'on savait due
à une contraction du verre suite au refroidissement et non à une dilatation
de l'eau. Afin de conserver une température suffisamment basse, on ajoutait
de l'alcool et du sel sur la glace entourant le tube. Après ce « saut après
immersion », une troisième phase surnommée « la chute » était observée,
correspondant à la descente lente de l'eau dans le tube refroidi. L'étape
suivante connue sous l'appellation du « point de repos » correspondait au
moment où les académiciens n'observaient plus aucun changement du
volume de l'eau. Une fois franchie cette étape, la phase « d'élévation »
survenait au cours de laquelle on voyait l'eau remonter lentement dans le
tube. Puis, brusquement, de manière très surprenante, il y avait le « saut à la
congélation » marqué par un changement très rapide du volume de l'eau et
qui provoquait immanquablement l'éclatement du tube en verre. Ce résultat
était tellement surprenant qu'il ne fut pas immédiatement accepté puisqu'en
1671 le chimiste britannique Robert Boyle (1627-1691) fut incapable de le
reproduire (Brovchenko & al. 2008).

56
CHAPITRE J- L'EAU, LA SUBSTANCE

Commenlaire
._...... .........
Graduation Vlbralions du pendule
àat naturel 142 0
Sautoprtsimmeniion 143 \i 23

Choie 120 255


Polnl de repoo 120 330
è&vation 130 462
Sau1 à la congélation 166 471
Galileo Galilei
(1564-1642)
170
Octobre 1657
160
Ëtat naturel
ë
.9! 150
a.
~ 140
"'
"CJ
fil
c 130
~
Ill

"'
"CJ
!!!
120
(!)
110

100
0 100 200 300 400 500
Vibrations du pendule

Figure 21 : L'anomalie de densité del 'eau telle qu'elle fut mesurée pour la première
fois à Florence en 1657.

Il faudra attendre près de 148 ans ( 1657-1805) pour que 1'existence


d'un maximum de densité de l'eau liquide à une température légèrement
supérieure (4 °C) au point de congélation, associé à une dilatation brutale de
l'eau lors de sa congélation, soit acceptée comme un fait expérimental sûr,
suite à une expérience cruciale du chercheur écossais Thomas Charles Hope
(1766-1844). La raison de cet état de fait tient évidemment à la répugnance
qu'avaient les scientifiques de l'époque à répudier la vision aristotélicienne
du monde.

Tout ceci s'applique bien sûr à l'eau pure et l'on notera la grande dispersion
de valeurs tout au long du x1x• siècle (Rossetti 1867). L'effet des solutés sur
le maximum de densité de l'eau liquide fut étudié par le chimiste belge
César Despretz ( 1791-1863) qui montra que l'abaissement de la température
de densité maximale était directement proportionnel à la concentration du
soluté (Despretz 1839, 1840). Des mesures plus précises ont confirmé cette
loi de Despretz (Rossetti 1869) qui ne semble toutefois s'appliquer que pour
les solutions aqueuses d'électrolytes pour lesquelles l'effet des différents
anions ou cations est additif (De Coppet 1871, Wright 1919). Dans la seconde
moitié du x1x• siècle, Amagat étudia les effets de la pression, jusqu'à 3 kbar,

57
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

sur les propriétés de l'eau liquide (Amagat 1867,1893). La température du


maximum de densité décroît ainsi lorsqu'on accroît la pression depuis 3 °C
pour 0, 1 kbar à 1 °C pour une pression de 0,2 kbar et passe en dessous de 0 °C
pour une pression supérieure à 0,3 kbar.
Enfin, si l'on tient compte de l'existence des isotopes, on trouve, pour
l'isotopomère Hp 16, un maximum de densité p = 999,972 kg m-3 observé
pour une température E> = 3,984 °C tandis que pour l'isotopomère Hp 18 on
a p = 1 112,49 kg m- 3 à E> = 4,211 °C (Franks 2000). Pour Dp 16 (abondance
naturelle 0,0000026%) on trouve p = 1 105,3 kg m- 3 à E> = 11,185 °C tandis
que pour l'isotopomère Dp 18 on a p = 1 216,88 kg m- 3 à E> = 11,438 °C.
La température est encore plus élevée pour avec p = 1 215,01 kg m-3 à Tp
E> = 13,403 °C.

••0•11t1 1
OIAL1eu
1rtc1.-.,... (•)· ... _(>).
POUN au.t.TIJ'I
d• polJe .. .........
......... t•s-
.11..... ,.,.......

Pierre Loula Dulong


(1785-1838)
Binnalh, 0,0088
Plomb , o,osgS
O., o,o.ga
Platine •, o,o31i
.
13,3o

..~3
11,16
o,3830
o,3~
o,37
0,3740
Euin, 0,051
~35 o,37~
~·· o,ogs1
1'!~
0,0557 0,37
Zino 1 o,37
Ttll•re, o,og 1s ,o3 o,ilûi5
Culn•, ··~f 3~7 o,3i 5
Alexia Thérese Petit
(1791-1820 )
l"ickel·, 0,1 '
Fer,
Coboh ,
Soa&e,
0,1100
o,rÛ:
0,1
....
'1i'
..011
0 13

::~A
o,3780
19

-
(o)Lo_op4el................. ,..,n1...
(•) i.. ,.W. .. ..._......,.. .. ..,,... .......

z p' p' p' 1


H =-'- +.!:L+ ....... +- (k, ·x' + k; y' + k.·z' )+ p·V
2111 2111 lm 2 •
Vibration
Fort c, Faible c,
X y
H =U + p.Y => C, =(: ),

Figure 22: En mesurant la chaleur spécifique par rapport à l'eau de 13 éléments


dont les poids relatifs par rapport à l'oxygène allait de 2 à 13, Dulong et Petit ont
pu montrer que le produit de la masse molaire par la chaleur spécifique est à peu
près constant autour d'une valeur moyenne de 0,38. Le théorème d'équipartition
de l'énergie qui associe à chaque degré de liberté l'énergie moyenne 1hR·B où R
est la constante des gaz parfaits et e
la température absolue permet de prévoir
les capacités à volume constant. Le calcul présenté ici montre que chaque atome
d'un solide doit contribuer d'une quantité 3R. Pour la glace formée de 3 atomes,
on s'attend donc à avoir une capacité Cv = 3 x 3R = 9R, soit C/R = 9. Pour l'eau
vapeur, si l'on ne considère que la translation du centre de masse et la rotation
autour du centre de masse, on a 6 degrés de liberté d'où Cv = 6 x (1hR) = 3R ou
C/R = 3. Mais si la molécule d'eau peut aussi vibrer selon ses trois modes distincts:
étirement symétrique et asymétrique des liaisons 0-H ainsi que pliage de l'angle
H-0-H, on aurait Cv = (6+6) x (1hR) = 6R, soit C/R = 6.

58
CHAPITRE 1- L'EAU, LA SUBSTANCE

Capacités caloriliques
Le fait que le coefficient d'expansion thermique isobare s'annule à 4 °C
entraîne automatiquement l'égalité à cette même température entre les
capacités calorifiques à pression et volume constants. La figure 22 montre
que pour une même quantité de chaleur ajoutée, une substance à forte
capacité calorifique ne changera sa température de que manière très modeste,
alors que pour une substance de faible capacité calorifique, il y aura de fortes
variations de température. D'un point de vue technique, la capacité à volume
constant mesure le taux de variation de l'énergie interne par changement
de température, alors que celle à pression constante concerne plutôt le taux
de variation de l'enthalpie, H, obtenue en ajoutant le travail mécanique à
l'énergie interne U.

Dès 1819, les chercheurs avaient remarqué un phénomène intéressant,


à savoir que le produit de la masse molaire par la chaleur spécifique est à
peu près constant, ce qui signifie que les atomes de tous les corps simples
ont exactement la même capacité pour la chaleur (Dulong et Petit 1819).
Le chimiste italien Stanislao Cannizzaro (1826-1910) utilisera cette loi de
manière intensive afin d'établir un ensemble de poids atomiques cohérents
entre eux (Cannizzaro 1858). La mécanique statistique permettra de justifier
cette loi pour les hautes températures, tandis que pour expliquer son échec
à basse température, il faudra employer les lois de la mécanique quantique.
Vers le milieu des années 1980, on suspecta que certaines données n'avaient
pas été réellement mesurées par Dulong et Petit, en particulier celles du cobalt
et du tellure (Giunta 2002). Malgré cela, la loi reste très utile car elle permet
de juger jusqu'à quel point on doit considérer que la physique classique est
applicable à une substance donnée.
Ainsi, pour la glace hexagonale, on prévoit une capacité rapportée à la
constante des gaz parfaits de 9, alors que l'expérience donne à peine 4,4.
Ceci montre que beaucoup de modes de vibrations du réseau de la glace
hexagonale ne sont tout simplement pas excités à 0 = 0 °C. Pourquoi ? Tout
simplement parce que l'énergie est quantifiée et que certains niveaux de
vibrations sont beaucoup trop hauts en énergie pour pouvoir être peuplés à
cette température. En revanche, on trouve un rapport proche de 9 pour l'eau
liquide, ce qui signifie que cette dernière se comporte bien comme un solide
pour ce qui est des vibrations alors qu'il s'agit d'un fluide pour les propriétés
mécaniques. Pour l'eau vapeur, l'expérience donne un rapport de 3,4. La
valeur légèrement supérieure à 3 montre donc qu'un seul mode de vibration
(pliage) se trouve partiellement activé à 100 °C.
La capacité calorifique de l'eau est très différente de celle des autres fluides.
En 1879, Rowland montre que la capacité calorifique à pression constante
Cp de l'eau liquide augmente lors de son refroidissement et passe par un
minimum vers 30°C (Rowland 1879). En 1902, Barnes étudie la dépendance

59
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MtDECINE

en température à plus haute température ainsi qu'en dessous de 0 °C (eau


surfondue) (Barnes 1902a, 1902b). La figure 23 montre comment les deux
capacités varient en fonction de la température.
D'un point de vue microscopique, la capacité calorifique à pression
constante mesure les fluctuations quadratiques d'entropie tandis que celle
à volume constant varie en sens inverse des fluctuations quadratiques de
température (figure 23). Ce point est crucial pour ce qui concerne la vie, car
grâce à sa grande capacité calorifique à volume constant, les fluctuations de
température au sein des cellules qui sont gorgées d'eau ne peuvent être très
importantes, ce qui assure au métabolisme cellulaire une excellente stabilité
qu'il n'aurait pas avec un liquide de capacité plus basse. Bien évidemment,
ces fortes valeurs de capacité calorifique témoignent de l'existence au sein de
l'eau liquide d'une structure extrêmement souple non périodique qui empêche
la quantification du mouvement oscillatoire des molécules sur ce réseau.
C'est cette non-quantification qui permet d'atteindre la valeur théorique,
alors que dans la glace la moitié des niveaux énergétiques vibrationnels sont
hors d'atteinte à température ambiante en raison d'une bonne quantification
assurée par la périodicité et la rigidité d'un réseau rigide de molécules.
Dans le cas de l'eau vapeur, où ce réseau n'existe pas, on retrouve de fait
une très basse capacité calorifique, ce qui démontre bien le comportement
extraordinaire de l'eau liquide, puisque l'on ne gagne que 6 J mol·' K' en
passant de la vapeur sans réseau à la glace hexagonale, où le réseau est là,
mais parfaitement périodique.

Capacité calorifique de l'eau


c;, = Cv à 0 = 4°C Oiquides normaux: c;, = i,2·Cv)
25°C: Cp = 75,327 J.mol-1 K- 1, Cv =74,539 J.mol-1 K-1
ap(0 =4°C) = o => Cp =Cv
C, =(:) oc((ôs)
p
2
)

Glace (T = -20°C)
Cp = 35,35 J.moI-1K-1
Vapeur (100°C)
50 100
Tempirature / 'C
150 200 Cv = 28,03 J.mol-1K-1

Figure 23 : Les capacités calorifiques de l'eau liquide à volume Cvet à pression


constante Cp sont égales aux environs de 4 °C alors que pour un liquide normal on
a en général CP;::: 1,2 c~v~~~~~~~~~~~~

60
CHAPITRE l- L'EAU, LA SUBSTANCE

Si la capacité calorifique à volume constant diminue de manière monotone


avec la température, il n'en va pas de même de la capacité à pression
constante qui présente elle un minimum au voisinage de T = 36 °C. Comme
CP mesure la capacité d'un système à faire fluctuer son entropie, et que
l'entropie augmente avec la température, il est normal de s'attendre à ce que
Cp augmente de manière monotone avec la température. Ce n'est visiblement
pas le cas de l'eau liquide où en dessous de 36 °C, les fluctuations d'entropie
diminuent lorsque la température augmente. Pour la biologie, cet état de fait
est de la plus haute importance, car avoir une entropie qui fluctue fortement
et donc un large Cp signifie être incapable de focaliser l'énergie sur des
niveaux quantiques bien définis, et donc être moins efficace par exemple
lors de l'activité enzymatique. Ce n'est donc peut-être pas un hasard si la
température de fonctionnement normal du corps humain, T = 3 7 °C, est très
proche de la valeur où C prend sa valeur minimale, garantissant par là même
des fluctuations minimafes au niveau de l'entropie.

Mais je ne résiste pas au plaisir maintenant de vous présenter un personnage


haut en couleur et truculent qui a joué un rôle de tout premier plan, non
seulement dans la reconnaissance de l'anomalie de densité de l'eau, mais
aussi dans le rejet de la théorie du calorique initiée par Lavoisier, ouvrant la
voie à la formulation du premier principe de la thermodynamique.

Benjamin Thompson, comte Rumford


Au début du x1xe siècle, les propriétés surprenantes de l'eau en fonction de la
température firent l'objet d'un débat assez vif entre John Dalton, résurrecteur
de la théorie atomique, et un chercheur américain, Benjamin Thompson,
comte Rumford. Il faut bien avouer que le comte Rumford était un drôle de
personnage, ayant épousé à l'âge de 17 ans une riche veuve deux fois plus
âgée que lui pour l'abandonner sans remords après la guerre d'indépendance,
trahissant sa patrie d'origine, les États-Unis, pour se réfugier en Angleterre,
où il se mit au service de tous les gouvernements moyennant rétribution
financière pour les trahir aussitôt en vendant au plus offrant les secrets
auxquels il avait accès. Personnage trouble donc, mais aussi expérimentateur
génial, n'hésitant pas à contredire Dalton ou Lavoisier sur leurs théories
respectives concernant la nature de la chaleur.

Durant le printemps 1797, Rumford va réaliser des expériences simples mais


cruciales qui vont le convaincre que les fluides sont de mauvais conducteurs
de la chaleur (Rumford 1797). Il arrivera ainsi à la conclusion que, quoique
les particules d'un fluide puissent recevoir de la chaleur des autres corps ou
la leur communiquer individuellement, toute communication ou échange
réciproque de chaleur entre ces particules est absolument impossible.

61
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Son point de départ est d'arriver à comprendre pour quelle raison il se brûle
la langue lorsqu'il déguste des pâtés aux pommes. Il procède ainsi à l'analyse
chimique des pommes et constate avec stupeur qu'elles sont constituées à
98 % en masse d'eau. Lors d'une visite des eaux thermales de la baie de
Naples, il est aussi très surpris de se brûler la main lorsqu'il la plonge dans
le sable, alors que l'eau en contact avec ce même sable brûlant reste froide.

Puis, un jour, il observe le refroidissement d'un thermomètre géant rempli


d'esprit de vin qui vient d'être exposé à une intense chaleur. Il constate alors
grâce à la poussière contenue dans la liqueur la présence de courants ascendants
rapides le long de l'axe du thermomètre, associés à des courants descendants
contre les parois. Il disperse alors des particules d'ambre jaune dans une
eau de densité convenable pour qu'elles flottent sans couler et constate que
lorsque de l'eau froide dans un tube est entourée d'eau bouillante, il apparaît
un courant d'eau ascendant contre les parois associé à une autre colonne
d'eau descendante au centre du tube. Dès qu'il sort le tube de l'eau chaude,
il constate que les courants s'inversent, le courant ascendant se trouvant
maintenant au centre du tube. Ces courants s'affaiblissent lorsque l'écart de
température diminue tandis qu'il est possible de prolonger considérablement
leur existence en protégeant le tube par de la fourrure. Il remarque qu'une très
faible variation de température suffit à faire apparaître les courants. Si l'on
applique un corps chaud sur les parois du tube, la partie du liquide en contact
se met à monter tandis qu'elle descend si l'on applique un corps froid.
Pour valider ses idées, il envisage alors une crucis experimentum. Pour
cela, il constate tout d'abord que de la glace plongée dans de l'eau bouillante
fond en moins de trois minutes. Puis, au lieu de mettre la glace dans l'eau, il
fait d'abord geler de l'eau au fond d'un récipient puis place un tissu dessus.
Sur la glace ainsi protégée, il verse alors très précautionneusement de l'eau
bouillante et une fois l'eau ajoutée, il retire très lentement le tissu protecteur
pour que la glace soit en contact direct avec l'eau bouillante. Il constate
alors que la glace fond 80 fois plus lentement si on la place en dessous de
l'eau bouillante et non au-dessus. Pour expliquer ces résultats, Rumford va
faire référence aux travaux du naturaliste suisse Jean-André Deluc (1727-
1817) ayant montré l'existence d'un maximum de densité de l'eau liquide
vers 40 °P, soit 8 °P au-dessus du point de congélation de l'eau (32 °P ou
0 °Re) (Deluc 1772). Comme l'eau est en contact avec la glace fondante,
sa température est nécessairement de 32 °P, ce qui signifie qu'elle doit être
moins dense que l'eau plus chaude dans la gamme 32-40 °F. Selon la loi
d'Archimède, l'eau glacée doit donc monter, tandis que l'eau chaude doit
descendre, d'où l'apparition de courants d'eau chaude qui descendront dans
l'eau glacée. Si l'on protège une partie de la glace par un disque percé d'un
trou, on constate de fait que le trou se creuse uniquement dans la direction
verticale et ne s'élargit jamais en raison du courant descendant d'eau chaude
qui pèse sur lui.

62
CHAPITRE 1 - L'EAU, LA SUBSTANCE

Cela lui suggère de procéder à une deuxième crucis experimentum consistant


à montrer qu'à quantité égale, l'eau bouillante fondra moins de glace qu'une
eau glacée ayant une température de l'ordre de 35-36 °P. Les expériences
furent réalisées entre le 16 mars et le 19 mars 1797 et furent couronnées
de succès, l'eau glacée arrivant à fondre effectivement plus de glace que
l'eau bouillante. En effet, ce sont les courants descendants d'eau froide dans
l'eau chaude qui empêchent, lors de leur rencontre avec les courants froids
ascendants qui s'élèvent de la surface de la glace, l'eau chaude de fondre
plus de glace que l'eau glacée, où ces courants opposés sont quasiment
inexistants. Il constate avec satisfaction que s'il retarde le refroidissement
de l'eau bouillante en enveloppant sa jarre dans une garniture, la fusion de la
glace se trouve accélérée car les courants d'eau se trouvent ralentis. Rumford
vient donc de prouver que les liquides n'abandonnent leur feu que sous
l'effet de mouvements internes qui, plus ils sont rapides, plus ils facilitent la
communication de la chaleur. Ces mouvements sont dus aux changements de
densité liés aux variations de température et sont d'autant plus rapides que
l'influence de la température sur la densité du liquide est plus grande. Comme
les variations de densité s'annulent au voisinage de 40 °P, les transferts de
chaleur sont très nécessairement très faibles dans de l'eau glacée.

Rumford examine alors les conséquences de ce maximum de densité en


considérant un lac d'eau douce à la température de 55 °P sur lequel repose
une masse d'air très froid. Les particules d'eau en surface donnant leur
chaleur à l'air froid deviennent plus denses et descendent vers le bas, étant
remplacées par des particules plus chaudes qui descendront à leur tour. Un
tel mouvement se produira aussi longtemps que le refroidissement pourra
avoir lieu. Car une fois atteinte la température de 40 °P, ce mouvement
interne doit cesser. Les particules en surface y resteront et donneront peu
à peu le reste de leur chaleur spécifique, puis pour finir leur chaleur latente
lorsque l'eau atteindra la température de 32 °P. Une fine couche de glace se
formera alors à la surface du lac qui, étant moins dense que l'eau liquide, y
demeurera. La glace étant un mauvais conducteur de la chaleur, cela ralentit
considérablement les échanges de chaleur entre le liquide et l'atmosphère,
tout en évitant que les vents n'agitent la masse liquide. De plus, l'eau sous
la couche de glace est toujours à une température voisine de 32 °P car les
particules d'eau glacée sont moins denses que les particules d'eau légèrement
plus chaudes qui ont tendance à redescendre vu leur plus grande densité, d'où
un ralentissement d'autant plus important de la communication de la chaleur
entre l'eau et la glace.

La neige qui finit par se déposer sur la glace isole encore plus l'eau liquide,
ce qui fait que cette dernière conservera toute sa chaleur accumulée pendant
l'été, même si l'atmosphère est extrêmement froide. Au retour du printemps,
toute la chaleur fournie par le sol sous l'action des rayons solaires est

63
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

employée à fondre la glace par le dessous, ce qui explique la fonte de la glace,


même lorsqu'elle se trouve à l'ombre avec un air ayant une température en
dessous du point de congélation de l'eau. La neige qui couvre les lacs d'eau
douce dans les pays froids non seulement les met à l'abri de l'influence
atmosphérique, mais accélère aussi le dégel au printemps, car les rayons
solaires qui pénètrent la neige subissent de multiples réflexions et réfractions
provoquant un dépôt de chaleur à l'abri du contact froid avec l'atmosphère.
Le contraire arrive avec une glace lisse non recouverte de neige, car à peine
une particule y a-t-elle été liquéfiée par l'action des rayons solaires que le
contact avec l'air ambiant la gèle à nouveau.

On remarque que si ce maximum de densité n'existait pas, comme c'est le


cas dans la plupart des autres liquides, rien ne s'opposerait au mouvement
interne de l'eau, entraînant que toute la masse liquide pourrait atteindre la
température de 32 °P ùne fois que toute la chaleur accumulée pendant l'été
aura été dissipée. Une fois atteinte cette température, la couche de glace
deviendrait de plus en plus épaisse au cours de l'hiver, à une profondeur
telle que toute la chaleur de l'été suivant ne pourrait pas la fondre. Au fil des
hivers, ce serait alors toute l'eau liquide de la terre qui se transformerait en
glace jusqu'à la fin des temps.

Heureusement pour la vie terrestre, l'eau présente une telle « anomalie » qui
explique également pourquoi la température prend la même valeur de 4 °C
au fond de tous les lacs des latitudes moyennes, car c'est à cette température
que l'eau liquide atteint son maximum de densité. Pour la même raison, les
masses d'eau salée océaniques permettent de produire de la chaleur afin de
contrebalancer l'influence des vents polaires dans les climats septentrionaux
où les rayons solaires n'amènent pas assez de chaleur. L'eau salée étant plus
dense que l'eau douce et aussi plus difficile à congeler, elle descend aussitôt
après avoir donné une partie de sa chaleur en surface, obligeant l'eau plus
chaude à monter en surface pour y donner sa chaleur. L'eau salée chauffe
donc l'air bien plus que l'eau douce, ce qui fait que les océans doivent être
considérés comme les régulateurs de la température atmosphérique. Grâce à
ce mécanisme, Rumford en déduit qu'il doit donc exister au fond des océans
des courants d'eau froide circulant depuis les pôles vers l'équateur associés à
des courants d'eau chaude en surface se déplaçant dans la direction opposée.
Rumford cite à l'appui de son hypothèse l'existence du Gulf Stream, ainsi
qu'une différence de température entre la surface de l'océan (84 °P) et à 1 km
profondeur (53 °P) sous les tropiques où l'air est très chaud.

En 1799, Dalton explique la raison pour laquelle on doit utiliser le mercure


et non l'eau comme substance se dilatant en proportion de la chaleur reçue afin
de construire un thermomètre avec des traits régulièrement espacés (Dalton
1802). Bien que son mémoire vise à contrer Rumford sur le fait que l'eau

64
CHAPITRE 1- L'EAU, LA SUBSTANCE

liquide est incapable de conduire la chaleur, il commence par des remarques


sur le comportement de l'eau vis-à-vis de la chaleur. Ainsi, l'utilisant dans
un mélange de neige et d'eau où le thermomètre à mercure affiche 32 °F,
un thermomètre à eau affiche pour sa part une température de 53 °F, tout
comme s'il était plongé dans une eau liquide chauffée à 53 °F. Impossible
de différencier les deux états, pourtant très différents, avec le thermomètre à
eau. Il montre de plus que si l'on se place au voisinage de 42,5 °F, l'eau ne
se dilate quasiment plus lorsqu'on amène de la chaleur ou du froid. Intrigué
par ce phénomène, Dalton plonge son thermomètre à eau dans un mélange
de glace et de sel où le thermomètre à mercure descend jusqu'à 5-6 °F et
voit avec stupeur le niveau de l'eau atteindre la graduation de 128°F. En fait,
Dalton redécouvre en 1799 la courbe de la figure 22 établie par l'Académie
de Florence dès 1657, et semble totalement ignorer les travaux de ses
prédécesseurs en ce domaine (Du Crest 1758, De Mairan 1749 ou Deluc
1772).

Le 15 décembre 1803, le comte Rumford rapporte que, lors d'une excursion


dans la mer de Glace avec Mm• Lavoisier et le professeur Pictet de Genève,
on trouve qu'à la surface d'une masse solide de glace, on peut observer de
profonds creux parfaitement cylindriques et remplis d'eau liquide (Rumford
1804). On lui explique que ces trous se forment en été et acquièrent de la
profondeur au fur et à mesure que la chaleur de la saison continue, et qu'ils
disparaissent au retour del 'hiver. Comme cette eau se trouve à une température
de 0 °C puisqu'elle est environnée de glace de tous côtés, Rumford se pose la
question de savoir d'où vient la chaleur qui fond la glace de manière continue
au fond de la cavité (Rumford 1804). Il comprend alors que les particules
d'eau chauffées légèrement par le soleil en surface, étant plus denses que
l'eau à 0 °C, descendent lentement jusqu'au fond du puits, où, en arrivant au
contact de la glace, elles lui communiquent leurs excès de chaleur, provoquant
une liquéfaction dans un sens vertical. Il rapproche ce fait de la température
constante au fond de tous les lacs profonds, été comme hiver, et cite aussi
son expérience favorite consistant à verser de l'eau bouillante sur de la glace,
cette dernière restant intacte même avec 3 heures de contact en raison de la
présence d'une fine couche d'eau froide qui protège la glace de la chaleur du
dessus. Il déplore également que certains physiciens remettent en doute ses
expériences visant à rendre visibles les courants d'eau chaude au-dessus de
l'eau glaciale au moyen de morceaux d'ambre jaune et validant sa théorie sur
la propagation de la chaleur dans les fluides.

65
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Figure 24 : Milieu : appareil inventé en 1805 par le comte Rumford pour démontrer
/'existence d'un maximum de densité de l'eau liquide. Droite : un autre appareil
inventé par T. C. Hope pour vérifier les dires du comte.

Comme certains esprits savants doutent encore du fait que l'eau présente un
maximum de densité vers 4 °C, Rumford met au point un nouvel instrument
de mesure (figure 24) qui lui permet de confirmer que le maximum de
densité se trouve légèrement en dessous de 40 °F (Rumford 1805). L'idée est
d'approcher dans une eau liquide (A) à 32 °F (0 °C) car entourée de glace (E)
une tige métallique en étain (F) légèrement plus chaude. Sous l'effet de cette
légère chaleur, Rumford s'attend à ce que l'eau chauffée au contact du métal
devienne plus dense que l'eau glacée et descende pour être recueillie dans
un récipient en liège (C) muni d'un thermomètre coudé (D). Si l'eau chaude
est effectivement plus dense que l'eau glacée, on doit voir la température
monter dans le thermomètre, alors que si c'est le contraire, le thermomètre
doit rester à la température du bain (32 °F). Lorsqu'il fit l'expérience avec
une tige de métal portée à 42 °F, il constata au bout de 20 secondes une
montée de la température jusqu'à une valeur de 36 °F (2,2 °C) en moins de
5 minutes. Intrigué par cette expérience étonnante, le journaliste scientifique
Marc-Auguste Pictet (1752-1825) décida de construire un appareil similaire
à celui utilisé par Rumford et confirma l'existence d'un maximum de densité
de l'eau à une température élevée de 3 à 4 ° au-dessus du terme de la glace
(Pictet 1805). Mais la communauté scientifique reste une nouvelle fois
sceptique.

C'était en particulier le cas de John Dalton, qui avait refroidi de l'eau dans
différents récipients et trouvait une température de densité maximale qui était
de 36-38 °F (2,2-3,3 °C) dans des récipients en terre cuite, de 40 °F (4,4 °C)
dans de la porcelaine, de 41,5 °F (5,3 °C) dans du verre, de 42,5 °F (5,8 °C)
dans du fer, de 45,5 °F (7,5 °C) dans du cuivre, de 46 °F (7,8 °C) dans du
laiton ou de l'étain et de 49,5 °F (9,7 °C) dans des récipients en plomb
(Dalton 1805a). Dalton avait pour sa part échafaudé une théorie expliquant

66
CHAPITRE 1- L'EAU, LA SUBSTANCE

que l'eau devait présenter une densité maximale à son point de congélation de
32 °F (0 °C) et non à 40 °F comme l'avaient montré Rumford et l'Académie
de Florence (Dalton l 805b). Il fallut donc imaginer une nouvelle crucis
experimentum, qui cette fois-ci devait être sans appel.

L'expérience fut aussi réalisée en 1805 par Thomas Charles Hope, consistant
à mesurer la flottabilité de« l'eau dans l'eau» et qui s'affranchissait ainsi de
la nécessité de prendre en compte l'expansion thermique du container ou
des corps solides plongés dans l'eau (Hope 1805). Hope se propose ainsi de
chauffer de l'eau dans un haut vase cylindrique muni de deux thermomètres,
l'un placé au sommet et l'autre au fond du vase. Si l'eau monte en surface après
avoir été chauffée, c'est qu'elle se dilate comme toutes les autres substances.
De même, si l'on refroidit de l'eau chaude jusqu'au point de congélation
et si l'eau froide descend au fond du vase, on arrive à la même conclusion.
Dans les autres cas, force est de conclure à l'existence réelle d'une anomalie
de densité. Hope prit donc de l'eau glacée à 32 °F et exposa son dispositif à
un air ambiant de température 60-62 °F. Il constata alors que la partie la plus
chaude de l'eau descendait, venant se placer au fond du vase, démontrant
que l'eau glacée devient plus dense et se contracte donc bien lorsqu'on la
chauffe. Toutefois, vers 38 °F, le mouvement de descente se ralentit pour
stopper complètement vers 40 °F. Puis, lorsqu'on dépasse cette température,
le fluide chaud se met à monter jusqu'au sommet du vase au lieu de descendre
au fond comme auparavant, signifiant que cette fois-çi l'eau se dilate sous
l'effet de la chaleur. Puis Hope fait l'expérience inverse en partant d'une eau
à 53 °F qu'il refroidit jusqu'à sa congélation. Jusqu'à 40 °F, c'est l'eau la plus
froide qui vient se placer au fond du vase, et en dessous de cette température,
il voit que l'eau froide remonte vers la surface.

Pour conclure ce chapitre, notons que notre cher comte Rumford fut aussi
le premier à comprendre que tout liquide devait posséder une énergie de
surface ou tension superficielle (Rumford 1807a, 1807b). Il expliqua ainsi
plusieurs phénomènes naturels comme la flottaison de corps denses de petites
tailles à la surface de l'eau liquide, la forme concave prise par la surface de
l'eau quand on la confine dans de petits récipients, le changement de cette
forme concave en forme convexe, quand, le récipient ayant été rempli à ras
bord, on ajoute encore du liquide, la suspension des liquides dans des tubes
capillaires, etc. Rumford fut aussi l'un des premiers à observer les propriétés
tensioactives de la bile et à constater que les fluides biologiques comme le lait
ou l'urine présentaient des forces de cohésion plus faibles que l'eau pure. On
pourra juger de la puissance visionnaire que pouvait avoir un tel personnage
lorsqu'il écrit :

67
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Mais il est facile de voir que plus la force de cohésion entre les particules
d'un liquide est grande, plus celui-ci est capable de maintenir en suspension
des corps étrangers de toutes sortes. L'eau m'apparaît posséder cette qualité
à un degré remarquable ; et il est certain que si le besoin se faisait sentir
d'un véhicule pour l'alimentation des plantes et des animaux, un liquide
capable de maintenir en suspension et de transporter d'un endroit à l'autre
toutes sortes de substances, très différentes en poids et en taille, et sans
les affecter chimiquement, il n'aurait pas été possible de trouver un liquide
plus adapté à ce but que l'eau ( ... ) Comme il serait intéressant de connaître
la force d'adhésion des particules entre elles dans les sucs gastriques, le
jus pancréatique, dans la lymphe, et dans le sang, pour des individus en
bonne santé et pour ceux présentant différentes maladies ! Grande serait
l'importance d'une connaissance de ces faits pour le physiologiste et le
médecin ! Comme cela serait utile pour tous ceux qui étudient la physiologie
végétale de connaître la force d'adhésion des particules de la sève lorsqu'elle
monte ou qu'elle descend et ceci au cours des différentes saisons ! Combien
de lumière serait jetée sur toutes les opérations chimiques se déroulant en
milieu humide, si nous pouvions estimer exactement la force d'adhésion
existant entre les particules des différents agents liquides que nous utilisons !

Tension superlicielle
Ces remarques du comte Rumford m'amènent naturellement à parler du
phénomène de tension superficielle qui joue un rôle crucial dans tout ce qui a
trait aux gouttes et aux bulles. La figure 25 montre quel' origine du phénomène
tient dans le déséquilibre de forces régnant à la surface de l'eau. En effet,
d'un côté les molécules sont attirées vers le volume par la puissante énergie
cohésive de l'eau liquide, alors que de l'autre, il n'y a que des molécules
d'air totalement apolaires. Conséquence, les molécules à l'interface sont
violemment attirées vers le liquide, donnant naissance à une tension par unité
de longueur, ou, ce qui revient au même, à une énergie par unité de surface.

68
CHAPITRE 1 - L'EAU, LA SUBSTANCE

Tension superficielle y (J.m-2 ) ~ Pas d'anomalie y= f(T)


Surface d'un liquide <=> membrane
élastique tendue

V=l

•@• •
S = 7,2 S=6 S=S,7


S=S,4 S=5,l

yÎ avec forces intermoléculaires


S = 4,8

y(C6H 14) = 20 mJ.m-2 (VdW)


y(H 2 0) = 72 mJ.m·2 (Liaison H)
y(Hg) = 480 mJ.m-2 (Liaison métallique)

Figure 25: Origine et variation de la tension superficielle de l'eau en fonction de la


température.

La tension superficielle joue par exemple un rôle essentiel dans le bruit


que fait la pluie en tombant dans l'eau ou sur le sol, ou bien encore dans le
bruit de l'eau qui coule. Les premières personnes intéressées par les sons
produits par la pluie furent des militaires impliqués dans des recherches
sur l'origine des sons sous-marins durant la Seconde Guerre mondiale. Ces
militaires constatèrent en effet que la pluie tombant sur l'océan produisait
sous l'eau un véritable vacarme avec une puissance sonore maximale dans la
gamme 14-16 kHz (Prosperetti & Oguz 1993). L'origine de cette fréquence
caractéristique de la pluie tombant sur l'eau fut trouvée en enregistrant de
manière simultanée à la fois l'événement physique et le son émis grâce à
un oscilloscope piloté par un hydrophone placé près du point d'impact des
gouttes. On s'aperçut alors que l'impact produisait un signal acoustique noyé
dans le bruit de fond électronique tandis que lorsqu'il se formait une bulle
d'air, on obtenait un signal acoustique clair et intense.

L'astronome belge Marcel Minnaert (1893-1970) fut le premier à


comprendre qu'une bulle d'air dans l'eau se comportait comme un oscillateur
harmonique, la bulle emmagasinant de l'énergie élastique sous la forme d'air
compressé ou sous la forme d'énergie mécanique de vibration du fluide
environnant. Ainsi, pour des bulles d'air évoluant dans l'eau à pression
atmosphérique, on prévoit que le produit de la fréquence émise par le rayon
de la bulle est égal à 3,3 kHz mm. La gamme des sons audibles par l'oreille
humaine s'étendant de 20 Hz à 20 kHz, les bulles « musicales » sont celles
dont le rayon est supérieur à 0, l mm et inférieur à 17 cm (en eau profonde).
On notera aussi que les fréquences sont fonction de la distance L qui sépare

69
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

la bulle de la surface. Pour une même taille, le son entendu est d'autant plus
aigu que la bulle se trouve proche de la surface.

10 20 30 5 '0 15 20
Fréquence I kHz Fréquence I kHz

Figure 26 : Spectres de puissance acoustique de la pluie. À gauche : pluies


présentant des tailles de gouttes variables comprises entre 0,2 mm (pluie fine) et
5 mm (pluie forte). Les décibels se rapportent à un niveau sonore de référence de
1 µPel Hr 1, excepté celui de la pluie fine (référence arbitraire). À droite (référence
des décibels arbitraire) : pluie tombant sur de l'eau propre (cercles pleins) ou sur
de l'eau à laquelle a été rajouté un détergent sulfonique (cercles clairs). (D'après
Pumphrey & al. 1989.)

Toujours au moyen de cette relation, il est facile de voir que le maximum


observé vers 15 kHz concernant le bruit de la pluie tombant sur l'océan
implique une taille de bulle voisine de 0,2 mm (figure 26). Le fait que ce
maximum disparaisse lorsque l'on ajoute un détergent à l'eau montre bien
que ce sont des bulles d'air emprisonnées dans l'eau qui sont responsables de
l'émission sonore correspondante. Des expériences plus poussées ont ainsi pu
montrer que le maximum vers 15 kHz ne pouvait plus être observé en dessous
d'une tension superficielle de 48 mJ m-2 (Pumphrey & al 1989). Toutefois, il
reste à comprendre pour quelle raison l'on obtient toujours un maximum vers
15 kHz quel que soit le type de pluie où le diamètre des gouttes varie dans une
large gamme s'étendant de 0,2 mm à 5 mm. La réponse à cette question est
donnée par des mesures faites en laboratoire où il est possible de faire varier
indépendamment le diamètre des gouttes et leur vitesse d'impact, montrant
que toutes les bulles ne donnent pas naissance à un son audible (Elmore & al.
2001). On constate alors qu'il existe deux types de sons, l'un toujours présent

70
CHAPITRE 1- L'EAU, LA SUBSTANCE

juste après impact, l'autre nettement plus intense qui peut être soit présent
soit complètement absent.

Figure 27 : On remarquera que les comtes de France possèdent une couronne qui
rappelle étrangement la couronne d'eau qui se forme sous certaines conditions. En
bas à gauche, le jet de Rayleigh si souvent représenté dans de nombreux contextes.

Le premier son correspond à une onde de compression supersonique, qui,


pour une goutte de rayon 3 mm arrivant avec une vitesse de 5 m s- 1, dure
environ 3,3 ns, radiant une énergie de 9,8 pJ pour une pression de 42 MPa. On
comprend donc aisément la raison pour laquelle un cratère s'ouvre dans l'eau
puisque l'impact génère une pression équivalente à 420 atmosphères. On
voit aussi que l'énergie irradiée par le son produit est tout à fait négligeable
par rapport aux énergies mises en jeu lors du creusement du cratère et de la
formation de la couronne. De telles pressions démontrent aussi que la pluie est
un puissant agent d'érosion des sols et des roches. Pour de tels solides, il n'y a
en effet pas formation de cratère comme dans liquide, mais plutôt fissuration
et éclatement de la roche ou labourage du sol. Cette phase supersonique est
trop brève pour expliquer la durée de la première émission sonore. Le reste
du son est produit lorsque la cavité se creuse et correspond au phénomène de
résonance de Helmholtz qui est celui que l'on observe couramment lorsque
l'on souffle dans une bouteille vide.

Toute goutte qui tombe creuse dans l'eau une cavité de rayon égal à environ
5 fois son diamètre (figure 27). Ceci est déjà un exploit en soi, mais ce qui est
encore plus remarquable, c'est le temps mis pour générer le cratère qui est de
l'ordre de 30 ms. La vitesse d'expansion de la cavité à t = 0,1 ms est trouvée
égale à 123 m.s- 1, soit environ 444 km.h- 1• Il est donc tout à fait remarquable
qu'une goutte arrivant à seulement 6 km h- 1 de vitesse soit capable de

71
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

créer un cratère qui se creuse à la vitesse d'un TGV !!! Si l'on regarde
la vitesse d'expansion à t = 0,2 ms, on trouve une vitesse de 3 m.s- 1, soit
environ 11 km.h- 1• La décélération déduite de ces données est phénoménale
puisqu'elle vaut 1,2 · 106 m ·s-2, soit environ 120 000 fois l'accélération de la
pesanteur terrestre!!! Si l'on convertit ces chiffres en pression subie par l'eau,
on trouve une pression de 23 MPa, ce qui correspond à 230 fois la pression
atmosphérique. Par rapport à la phase supersonique, on a donc seulement
perdu un facteur 2 en pression. Puis, à partir de ce moment, la pression chute
très rapidement en une dizaine de millisecondes pour s'annuler lorsque le
cratère atteint sa taille maximale. Ces vitesses et ces pressions phénoménales
permettent aussi d'expliquer le phénomène du jet de Rayleigh qui est observé
après l'effondrement de la cavité et de la couronne.

Le second signal sonore, généralement plus intense, est émis après


effondrement de la cavité et juste avant le jet de Rayleigh (figure 27). On
notera que le laps de temps qui s'écoule entre les deux émissions sonores
est très variable pour des gouttes présentant exactement le même diamètre et
tombant de la même hauteur. Des études menées avec des caméras à haute
vitesse ont montré que de tels événements correspondaient aux cas où la
couronne d'eau se referme sur elle-même, conduisant à la formation d'un
dôme de liquide. On observe dans ces conditions la formation d'une bulle
d'air flottant à la surface du liquide. Au moment de la fermeture du dôme,
le mouvement de l'eau s'arrête brutalement, ce qui donne naissance à deux
jets symétriques, l'un orienté vers le haut et l'autre vers le bas, en direction
du cratère. C'est ce second jet, résultat d'une instabilité, qui, lorsqu'il vient
frapper la surface du liquide, entraîne dans ce dernier de manière erratique et
non reproductible des bulles d'air de taille variable et qui donnent naissance
à la signature spectrale de la pluie en dessous de 10 kHz.

Tout ceci permet de mieux comprendre ce que veut exactement dire le


philosophe quand il prétend que « goutte à goutte, l'eau creuse la pierre ».
On comprend aussi la folie qu'il y a à prendre des bains alors qu'une simple
douche vous procure, avec ses modestes gouttes d'eau, ions négatifs ET
massage au niveau de la cellule sous une pression de plusieurs centaines
d'atmosphères ... Ainsi, comme se plaisait à le souligner le chevalier de
Boufflers : « Le bonheur ressemble à un diamant, et le plaisir à une goutte
d'eau. » Mais la force de la goutte d'eau peut aussi être orientée vers la douleur
avec le supplice chinois de la goutte d'eau, où une personne est complètement
immobilisée, tête comprise, et voit une goutte d'eau tomber à un intervalle
déterminé et régulier toujours au même endroit sur le front ou le haut de la
tête. Dans un autre registre, le simple son d'une goutte qui tombe dans l'eau
peut être aussi bien un véritable bonheur qu'une véritable torture pouvant
rendre fou l'esprit le plus équilibré. Pour ceux qui s'intéressent aux sons de
l'eau, il faut savoir que ce n'est que très récemment que l'on est parvenu à

72
CHAPITRE 1 - L'EAU, LA SUBSTANCE

simuler de manière informatique le bruit de l'eau qui coule (Zheng & James
2009). Avec une simple goutte d'eau, on peut donc aussi bien briser une
montagne ou une personnalité que procurer un plaisir extrême.

P-e0 ·x' ·Ë

Figure 28: La constante diélectrique relative e d'un milieu matériel mesure /a facilité
avec laquelle il est possible de séparer le barycentre des charges positives (noyaux) et
le barycentre des charges négatives (électrons). La présence du champ électrique E
fait en effet que chaque molécule constituant/ 'objet macroscopique devient un dipôle
électrique qui a tendance à s'aligner dans la direction de ce champ. À /'intérieur de
la matière, il y a compensation exacte des dipôles, tandis qu'à /'extérieur un côté
de l'objet possède une charge de surface positive avec du côté opposé une charge
électrique négative, créant une polarisation totale P qui réduit la valeur du champ
électrique à /'intérieur du milieu à une valeur Er

Propriétés électriques et magnétiques


Un autre mystère de l'eau concerne sa très forte constante diélectrique
relative e, La constante diélectrique est reliée à l'aptitude que possède une
matière à aligner ses dipôles électriques sous l'action d'un champ électrique
(figure 28). Pour l'eau vapeur, on trouve une constante diélectrique très
voisine de celle du vide, ce qui signifie qu'il est très difficile de polariser
électriquement cette vapeur, car le mouvement des molécules dans le gaz
détruit l'alignement entre les dipôles. Lorsque ce mouvement cesse, comme
dans le cas de la glace, on voit que la constante diélectrique est multipliée par
100, ce qui est le signe qu'il existe des électrons très polarisables et donc peu
liés aux noyaux. Ceci a été confirmé par la diffusion Compton, expérience où
l'on envoie un faisceau de photons possédant une certaine longueur d'onde/..,
sur une matière contenant des électrons contraints dans leur mouvement par
l'existence de liaisons chimiques entre les atomes. En analysant les photons
diffusés ayant changé de longueur d'onde, il est possible d'avoir une idée de
la taille caractéristique du volume dans lequel évoluent les électrons et, par

73
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

transformée de Fourier du profil de diffusion, de la position de ces électrons


par rapport aux noyaux. Ainsi, sur la glace hexagonale, on a pu observer
trois signaux à 89 pm, 172 pm et 285 pm, celui à 89 pm correspondant à
des électrons qui reculent très peu sous l'impact avec le photon X (liaison
covalente 0-H), les deux autres caractéristiques d'électrons subissant au
contraire un très fort recul, et qui sont donc responsables de la très forte
constante diélectrique de la glace (lsaacs & al. 1999, Martin & al. 1999).
Il est bien connu que l'eau est très sensible aux champs électriques en
raison de son fort moment dipolaire p0 = 1,85498 D mesuré à l'état gazeux.
Toutefois, selon les équations de Maxwell dans le cadre de la théorie de
Langevin, ce moment dipolaire prévoit compte tenu de la masse molaire et de
la densité du liquide une constante diélectrique relative Er voisine de 13, très
éloignée de la valeur expérimentale Er::::: 80 (figure 29). On voit donc que l'eau
liquide possède les mêmes électrons très polarisables que la glace, mais sans
le réseau périodique. Toujours et encore des mystères.

Paul Langevin
(1872-1946) e,(300K) = 13 Exp: e,(300K) = Bo

Figure 29 : L'eau possède une constante diélectrique qui ne peut pas être expliquée
par la théorie de Langevin quis 'applique sans problème aux autres liquides.

Selon la physique classique, l'eau devrait être une molécule diamagnétique


ne présentant qu'une sensibilité faible, voire nulle, aux champs magnétiques
(figure 30). L'eau devrait donc se comporter comme du vide vis-à-vis des
champs magnétiques et, là encore, on constate que ce n'est pas le cas. L'eau et
de manière générale tous les êtres vivants qui sont constitués d'eau sont très
sensibles aux champs magnétiques. Il s'agit encore là d'un grand mystère qui
se doit d'être élucidé.

74
CHAPITRE 1- L'EAU, LA SUBSTANCE

Diamagnétisme del' eau ...

Densité flux magnétique B / Tesla

Champ magnétique H / A·m·•


Perméabilité du vide:[µ.,] = M·L·Q-• = 4't·l0-7 H·m·•

(i) 1 A·m-1 =1,26 µT


L'eau devrait se comporter comme le vide sur un plan magnétique
L'expérience montre que tel n 'est pas le cas ...

Figure 30 : L'eau devrait être une substance parfaitement diamagnétique.

L'eau et Lo lumière
Si l'on applique un champ électrique alternatif de fréquence variable sur
une substance, la polarisation P va se mettre aussi à osciller au rythme du
champ à condition que ce champ ne varie pas trop lentement. En effet, s'il
varie trop vite, les dipôles électriques n'auront pas le temps matériel de se
retourner, ce qui entraînera la disparition de la polarisation comme dans le cas
du gaz. On s'attend donc à avoir un effondrement de la constante diélectrique
vers une valeur limite e"' au-delà d'une certaine fréquence critique qui traduit
maintenant l'effet de polarisation dû aux seuls dipôles induits. La lumière
étant une onde électromagnétique présentant un champ électrique oscillant
très rapidement, on comprend donc l'existence d'une relation directe entre la
constante E"' et l'indice de réfraction n (figure 29). Pour la glace, on a e"' = 3, 16
pour des champs de type microonde, ce qui conduit à un indice n = 1,78. Ceci
signifie que par rapport au vide, il existe encore une polarisation due ici à
la déformation des nuages électroniques des deux liaisons covalentes 0-H.
Pour s'affranchir de cette polarisation, il faut monter encore plus haut en
fréquence vers la lumière infrarouge ou visible. Compte tenu de la valeur
n° = 1,3091 de l'indice de réfraction de la glace pour la lumière visible, on a
donc e"' = 1,71, ce qui montre bien que la polarisation induite sur les liaisons
chimiques covalentes n'arrive plus à suivre le champ. Il ne reste donc plus
que la polarisation en provenance des deux doublets non liants de l'atome
d'oxygène pour expliquer cette différence par rapport à la valeur du vide.

75
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

0.01 0.1 1 10 100 1 10 100 1 1 10 1


- - - - ~ ~ ~ - ~ ~ m
Longueur d'onde

10'

~ ""
f
" 10'

10'

~ 10'
;, 100

ë 10

~1
~ 0,1

0,~~fm tnm tµm tan tOOm 10001cm


Longueur d'onde

Figure 31 : Transparence de l'eau en fonction de la longueur d'onde de la lumière.


Le coefficient d'absorption correspond à la partie imaginaire del 'indice de réfraction
complexe.

La figure 31 montre que l'eau absorbe fortement la lumière sur quasiment


toutes les longueurs d'onde à l'exception notable d'une toute petite fenêtre
centrée sur la lumière visible du soleil. Pour des longueurs d'onde très
courtes, c'est la radiolyse qui est responsable de la forte absorption de l'eau.
C'est la raison pour laquelle on utilise des piscines d'eau dans les centrales
nucléaires pour stocker les combustibles ou les déchets. Dans l'ultraviolet,
ce sont les excitations électroniques qui absorbent fortement les ondes
électromagnétiques jusqu'au « miracle » de la fenêtre 400-700 nm où l'eau
absorbe très peu, sauf sur de très grandes épaisseurs. Puis, dès que l'on passe
à l'infrarouge, la lumière excite les vibrations des liaisons 0-H (étirement
et pliage). Comme il existe des harmoniques de ces vibrations 0-H dans
la partie rouge du spectre, cette longueur d'onde se trouve partiellement
absorbée, ce qui confère à l'eau sa très belle couleur bleue si caractéristique.
Arrivée dans le domaine des microondes, la lumière excite les rotations des
molécules d'eau autour de leur centre de masse, phénomène exploité dans
les fours à microondes. Enfin, pour les ondes radio, c'est l'interaction avec le
moment dipolaire des molécules qui provoque l'absorption. Dans l'eau pure,
cette absorption chute de manière continue au fur et à mesure que la longueur
d'onde augmente, mais dans l'eau de mer (et donc dans le sang aussi),
cette chute est considérablement ralentie par la présence des ions dissous.

76
CHAPITRE 1- L'EAU, LA SUBSTANCE

L'eau minérale sera donc beaucoup plus sensible à la pollution par les ondes
électromagnétiques qu'une eau contenant peu d'ions dissous, d'où l'intérêt
de boire une eau la moins minéralisée possible.

Q ..... Propriétés de transport


_, • J = d'Q =-C!!!l.. Flux J , d'une qualité Q • quantité de Q

1• I
..
11e
J

DiNedm t
• dAdt ~ traversant une surafe unité
par unité de temps dans un direction z

Quallt6Q

M-m

tne.p.E
G...ii.ntG

llemtt'.
"""""'c
Coellld<nt de dlffuolon D (VI'')

Conductfvlti thermique X
Théorie
cinétique
1
3
1 -
D=-Â:(v)oc-·
C'(j M
J!
Tempfntun:T IML'I"K..tl des gaz
..
...
~'f[ML·l"f" 1 ]etY(VT" 1 J

lmpuloôoop

Qwpq Poteo.tielV ConducttvM 8ectrique o en ·•L· 1


1

• u .......~---~""
i 1; ,......__~
- " ~--
1:~ ~~
l .. i:..---~
::., ~;;;~~=~~=::::==;~1
- - / -MPa ~ - - -
- - * ~
m•-s·• à e = 25•c
D(H 2 0) = 22,72·10·•0
Pu d'anomalie pour le coefficient
d'autodiffusion de l'eau

Figure 32 : Deux propriétés de transport del 'eau, la viscosité montrant une anomalie
à basse température tandis que le coefficient de diffusion reste normal.

Propriétés de transport
Les anomalies dans la dynamique de l'eau liquide ont été reconnues pour la
première fois par Rôntgen (1884) et par Warburg et Sachs (1884). On trouva
ainsi que la viscosité du liquide diminue lorsqu'on augmente la pression,
ce qui est assez inhabituel. En 1925, Bridgman démontre la variation non
monotone de la viscosité de l'eau avec la pression. Lorsqu'on augmente
la température, l'anomalie disparaît. Il découle de tout ceci que lorsque
l'eau liquide se trouve au-dessus de 60 °C et au-dessus de 3 kbar, l'eau se
comporte comme les autres liquides. La figure 32 définit quelques propriétés
de transport et montre la variation du coefficient de diffusion et de la viscosité
en fonction de la température. On ne constate apparemment aucune anomalie
sur le coefficient de diffusion, même à basse température.

Selon les lois de la théorie cinétique des gaz, on peut accéder au diamètre
de collision à partir de la viscosité de la vapeur d'eau qui vaut 12,3 µPas, à
une température de 100 °C pour une pression de 101,325 kPa. On en déduit
un coefficient de diffusion D = 2,06 10-5 m2 s- 1 pour un libre parcours moyen

77
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

/.. = 93 nm, soit un diamètre de collision d = 0,35 nm. La molécule apparaît donc
légèrement plus grande que la valeur obtenue à partir de la taille géométrique
(d = 0,33 nm) que l'on peut déduire de la densité macroscopique.

La figure 33 montre que la conductivité thermique présente pour sa part une


anomalie très marquée. Comme pour la viscosité, on peut aussi accéder au
diamètre de collision à partir de la conductivité thermique de la vapeur d'eau
qui vaut 0,025 W m- 1 K-1, à une température de 100 °C pour une pression de
101,325 kPa. On en déduit un coefficient de diffusion D = 2,69 10-5 m2 s- 1
pour un libre parcours moyen /.. = 122 nm, soit un diamètre de collision
d = 0,3 nm. Ceci indique que la molécule apparaît légèrement plus petite lors
d'un transfert de chaleur (conductivité thermique) que lors d'un transfert de
quantité de mouvement (viscosité) qui se trouve être de 0,35 nm. En faisant
la moyenne des deux valeurs, on trouve un résultat assez proche de la taille
géométrique (0,33 nm) que l'on peut déduire de la densité.

P, P, Conductivité thermique (non turbulente)


Flux d'énergie cinétique Liquides normaux:
entre deux couches de fluide x .J.. quande î
A

gaz X = c-D-Cv oc -Cv ~


-
a M

Substance X (W.m·1.K-1)
Eau 0,585
Air 0,023
e 1
e 2
>E> 1 Huile 0,145
-----z Bois 0,21 0
50 100 150 200 :zso '°° 350 «lO
T<111pfto&ture / 'C
Ag = 420, Cu = 390, Au = 297,
Fe = 46, Verre = 1,4, Sol = 0,52

X CH 2 0) = 0 ,610 W·m·•·K·• à 9 = 25°C


Glace à 0 = -20°C X= 2,4 W·m- 1• K-1

Figure 33 : L'eau présente un maximum de conductivité thermique vers 110 °C.

Vortex et turbulence
La viscosité joue un rôle crucial dans les phénomènes de turbulence qui se
manifestent à nous sous la fonne de vortex (figure 34). Les vortex ont en effet
toujours fasciné l'être humain puisque l'on en retrouve gravés sur certains
mégalithes, dans la plupart des lieux de culte et sur les toiles de certains
artistes aussi bien occidentaux qu'orientaux. Sur le plan scientifique, les
vortex sont des structures universelles dites « dissipatives » qui apparaissent
dans la matière dès que la charge en énergie devient trop forte. Le tourbillon
devient alors le canal par lequel cette énergie en excès se trouve complètement

78
CHAPITRE 1- L'EAU, LA SUBSTANCE

transformée en énergie cinétique, seule forme d'énergie apte à être dissipée


par friction moléculaire. La séquence universelle d'événements conduisant à
l'apparition d'un comportement dit« turbulent», sous forme de tourbillons,
est bien illustrée par une fumée de cigarette s'élevant dans l'air ou par un filet
d'eau coulant à partir d'un robinet.

Figure 34: Les différents régimes d'écoulement d'un.fluide. En haut à gauche, le


mouvement que l'on peut observer au moyen de la famée de cigarette ou en réglant le
débit d'un robinet. En bas à gauche, les méandres d'une rivière traduisant l'existence
d'une pression gravitationnelle beaucoup trop forte pour que l'eau puisse supporter
un écoulement laminaire en ligne droite. Au milieu à gauche, la trajectoire suivie
par la matière lorsqu'elle se trouve prise dans un vortex (en haut) avec en bas, un
vortex monopolaire à la surface de l'océan. Au milieu à droite, représentation d'un
vortex tripolaire sur une borne liminaire du tumulus de New Grange en Irlande (en
haut) avec en bas,représentation d'un vortex quadripolaire sur la pierre de Gotland
en Suède. À droite, structure spiralée d'un vortex monopolaire et représentation d'un
vortex monopolaire à Naruto par le peintre japonais Hiroshige.

Dans le cas de la fumée de cigarettes, c'est l'accumulation progressive


d'énergie potentielle de gravitation au fur et à mesure que la fumée s'élève
qui est responsable de la formation de volutes au-delà d'une certaine distance
par rapport au point d'émission. Proche du bout incandescent, l'énergie
potentielle est trop faible pour perturber l'écoulement de la fumée qui suit
alors une ligne droite correspondant au chemin le plus court pour aller d'un
point à un autre dans l'espace (régime dit « laminaire »). Au-delà d'une
certaine hauteur critique, la fumée a acquis suffisamment d'énergie potentielle
de gravitation qu'elle va chercher à évacuer en cherchant à redescendre. Si
la hauteur n'est pas trop élevée, la fumée va ainsi se mettre à onduler à la
manière d'un serpent avec une longueur d'onde spatiale caractéristique.

Ces ondulations macroscopiques sont la visualisation qu'au sein de la


matière deux logiques de même ordre de grandeur énergétique s'affrontent.
L'une cinétique, qui tend à conserver le mouvement ascensionnel associé

79
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

à la différence de densité, et l'autre gravitationnelle, qui cherche au


contraire à rester le plus bas possible. Dans ce régime dit « d'instabilité »
car présentant une longueur d'onde perturbatrice caractéristique, il n'y a
pas comme dans le régime laminaire précédent de vainqueur (inertie) ni de
vaincu (gravitation). Les deux énergies antagonistes s'expriment juste avec
des intensités comparables, aboutissant à une situation où chaque énergie
occupe alternativement une position dominante ou au contraire dominée. Il
est bien évident que cette situation équilibrée et régulière ne peut s'observer
que sur une longueur assez courte car, plus la fumée s'élève, plus la pression
gravitationnelle prend de l'ampleur.

Au-delà d'une certaine hauteur critique, d'autres longueurs d'onde plus


courtes peuvent apparaître aboutissant à un régime à bifurcations multiples
qualifié de« transition». Enfin, au-delà d'un dernier seuil critique, on passe
en régime turbulent. L'énergie gravitationnelle en excès est ici engloutie
dans des tourbillons, provoquant un arrêt du mouvement ascensionnel et
aboutissant à un étalement irréversible de la fumée dans tout le volume
disponible. À ce niveau, il est important de noter que cette tendance à former
des sinusoïdes est une caractéristique universelle associée à l'état de fluidité
et ne dépend en aucune façon de la nature chimique du fluide. Ainsi, tous les
fluides présentent la même séquence d'événements lorsque l'on se rapproche
de la turbulence. Il est donc tout à fait erroné de prétendre que l'eau a une
tendance « innée » à s'écouler selon une trajectoire sinueuse et donc non
rectiligne. En particulier, si une rivière s'écoule d'une manière sinueuse et
non en ligne droite, ce n'est ni à cause de la nature du terrain, ni à cause d'une
affinité particulière pour les courbes, mais bien à cause de la gravitation qui
exerce une influence trop forte sur l'eau de la rivière, perturbant ainsi son
écoulement.

Il est bon de noter à ce niveau que l'apparition de la turbulence a toujours


un effet protecteur sur la matière. Un calcul relativement simple permet de
comprendre aisément le problème auquel se trouve confrontée une rivière
lorsqu'elle s'écoule d'amont en aval entre sa source située à une hauteur
forcément plus haute que son delta. Afin de fixer les idées, prenons une rivière
de profondeur moyenne p = 1m et devant s'écouler à partir de sa source
située à h = 725 m d'altitude. Ceci n'a évidemment rien de particulièrement
remarquable et peut correspondre à beaucoup de rivières sur notre planète.
Si la rivière s'écoulait en ligne droite, elle atteindrait 325 km en aval de
la source la vitesse extraordinaire de 1 000 m.s· 1 correspondant environ à
40 000 km.h· 1 ! ! !

Cet exemple montre très bien que notre très modeste rivière n'a pas beaucoup
le choix. Si elle ne veut pas littéralement exploser en surface sous l'effet de la
pression gravitationnelle, elle doit trouver un mécanisme autre que la friction

80
CHAPITRE 1- L'EAU, LA SUBSTANCE

avec les parois, pour réduire d'elle-même sa vitesse. C'est bien évidemment
la turbulence qui lui procure ce précieux mécanisme et la manière dont cette
dernière agit est extraordinairement efficace. Un simple bilan énergétique
montre alors que dans la même situation la vitesse turbulente sera de l'ordre
de 30 cm.s- 1 soit environ 1 km.h- 1, une valeur beaucoup plus raisonnable que
la vitesse rectiligne précédemment calculée avec les mêmes paramètres.

La turbulence est donc un moyen extraordinairement efficace inventé par


la nature pour se protéger contre tout excès d'énergie cinétique ou potentielle
qui pourrait remettre en cause l'intégrité d'une structure matérielle. Cet
excès d'énergie est dissipé au sein de la structure même, c'est-à-dire au
niveau moléculaire par excitation des molécules vers des états d'énergie
de translation, de rotation ou de vibration plus élevés, et non dans le milieu
extérieur.

Le cas Viktor Schauberger


Il existe un engouement que l'on observe chez les fabricants pour les
systèmes de traitement d'eau par vortex. Si l'on rajoute en plus une pointe
de mysticisme en faisant référence aux idées du naturaliste autrichien Viktor
Schauberger ( 1885-1958), on obtient un cocktail mystico-scientifique
particulièrement pénétrant en termes de propagande commerciale. Pour
essayer de clarifier un peu les choses en ce domaine, il est possible d'affirmer
que Viktor Schauberger avait une perception extrêmement intuitive mais
néanmoins, si l'on en juge par les résultats extrêmement intéressants obtenus,
parfaitement correcte de la mécanique des fluides. Sa philosophie qui place
les vortex et, de manière plus générale, la turbulence au centre des processus
vitaux a été développée à partir de l'observation de phénomènes naturels et
ne peut donc en aucun cas être critiquée. Deux raisons doivent inciter les
scientifiques à la prudence quand on aborde l' œuvre de Schauberger.

Tout d'abord, aucun modèle scientifique quantitatif de la turbulence n'existe


à ce jour. Si l'on sait faire des simulations numériques sophistiquées, on
prend toujours comme point de départ les équations phénoménologiques de
Navier-Stokes qui traitent la matière comme un milieu continu et homogène.
Depuis l'avènement de la mécanique quantique, on sait pertinemment qu'en
dessous d'une certaine échelle, cette approximation n'est plus valable et
que la matière se comporte comme un milieu discontinu, non homogène,
et de manière tout à fait imprédictible. L'intuition transcendant toujours les
équations mathématiques, il est donc fort possible que Schauberger ait eu
des éclairs de génie le conduisant à mettre en œuvre sur le plan pratique des
concepts qui ne seront scientifiquement compris que dans un futur plus ou
moins proche.

81
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

La détestable arrogance d'un Lord Kelvin peut ici être citée en exemple
pour tous ceux qui ont une foi irréductible dans la méthode scientifique.
Par exemple, en 1862, Kelvin (à l'époque William Thomson) s'attaqua
au problème de l'évaluation de l'âge de la Terre au moyen des lois de la
thermodynamique. Ignorant du phénomène de radioactivité responsable du
maintien du noyau en état de fusion, il défendit bec et ongles sa prédiction
d'âge de la Terre, entre 20 et 40 millions d'années, contre son compatriote
Charles Darwin qui, exhibant des fossiles considérablement plus vieux que
cette durée, avait le tort de penser qu'il devait bien y avoir une erreur de
calcul quelque part ... En 1895, il décréta en appliquant les lois de la physique
que la fabrication d'un engin volant plus lourd que l'air était impossible et
ridiculisait ceux qui tentaient avec patience et acharnement de faire voler
leurs « drôles de machines ». Il avait tout simplement oublié de tenir compte
de l'effet Venturi, pourtant bien connu à l'époque. Mais son plus grand coup
d'éclat, il l'avait réservé pour l'avènement du xx• siècle en déclarant en
1900 devant tout le gratin scientifique de l'époque réuni pour célébrer cet
événement que :

Il n'y a plus rien à découvrir en physique à notre époque. Tout ce qui reste
à fàire c'est de réaliser des mesures de plus en plus précises ... La beauté et
la clarté de la théorie restent toutefois voilées par deux vilains petits nuages
noirs qui ne tarderont pas à être dissipés ...

Il faisait ainsi référence à l'expérience négative de Michelson et Morley


(point de départ de la théorie de la relativité) et à l'existence d'une catastrophe
ultra-violette dans le spectre du corps noir (point de départ de la mécanique
quantique). Ceci illustre bien le danger qu'il y a à vouloir tout comprendre
et analyser à la lumière des connaissances disponibles à son époque, car les
vérités d'aujourd'hui peuvent très bien devenir les erreurs de demain. En
matière de science, humilité et travail devraient être la règle, car la méthode
scientifique, loin d'être une fin en soi, n'est que le minimum syndical pour
avoir une chance d'appréhender au mieux la complexité de la Nature, et il
faut bien avoir à l'esprit que le théorème de Gôdel peut à tout moment réduire
à néant n'importe quel édifice mathématique, aussi brillant soit-il.

Une autre raison pour ne pas essayer de juger le travail de Schauberger trop
à la légère est que, contrairement à Lord Kelvin, la plupart de ses prédictions
se concrétisent de nos jours. C'est ainsi lui qui avait mis le premier en garde
contre les dangers liés à la rectification des cours d'eau, source de dégâts
considérables en cas de débordement lié aux aléas climatiques. Il avait
aussi prédit l'accroissement de la désertification et de la salinité des sols en
cas de déforestation massive. Il pensait qu'au xx1• siècle l'eau non polluée
deviendrait une denrée rare et chère, source de conflits politiques majeurs.
L'une de ses idées phares était qu'une technologie froide fondée sur le

82
CHAPITRE 1- L'EAU, LA SUBSTANCE

principe d'implosion associé à des forces de natures centripètes remplacerait


avantageusement dans le futur le moteur à explosion basé sur des forces
de natures centrifuges. Il est vrai que cette dernière prédiction ne s'est pas
encore réalisée, mais il était le premier à souligner qu'en raison des profits
conséquents dégagés par l'industrie basée sur l'exploitation des dérivés du
pétrole, la transition risquait de prendre un temps considérable ... Tout cela
explique que Schauberger soit devenu de nos jours une figure incontournable
de la mouvance écologiste, maudit par certains et glorifié par les autres.

Cascade de Richardson-Kolmogorou
L'idée maîtresse pour comprendre la turbulence est d'analyser le problème
sur une échelle temporelle plutôt que sur une échelle spatiale. Par exemple,
dans le cas de l'écoulement de la rivière traité précédemment, il existe une
longueur caractéristique qui correspond au dénivelé existant entre la source
et le niveau de la mer (725 m) à laquelle correspond une vitesse laminaire
(1 000 m.s- 1). Si maintenant je considère un cyclone se développant dans
l'atmosphère terrestre, il existe une longueur correspondant à la hauteur de
la perturbation cyclonique dans l'atmosphère (environ 500 m) associée à une
vitesse maximale qui est à la vitesse du son dans l'air (300 m.s- 1). Ainsi apparaît
notre fil d'Ariane, indispensable pour définir les conditions macroscopiques
conduisant à l'apparition de vortex sous la forme d'un nombre sans dimension
aisément calculable, appelé nombre de Reynolds (Re). Ce nombre s'obtient
en multipliant longueur et vitesse caractéristiques et en divisant le tout par la
valeur de la viscosité cinématique du fluide (rapport de la viscosité dynamique
à la densité du fluide).

Pour l'eau qui possède une viscosité cinématique de 10-2 cm2 .s- 1, on voit
que le problème de la rivière avec dénivelé de 725 m représente un nombre
de Reynolds de l'ordre de 10 12 • Pour notre ouragan de 500 m de haut, ce
même nombre est proche de 10 10 • Rivière et ouragan se retrouvent donc face
au même problème de dissipation de l'énergie et vont faire tous deux appel
à la turbulence, seul mécanisme capable d'engloutir sans danger un tel excès
d'énergie. Afin de pénétrer le cœur même du mécanisme de la turbulence,
il faut considérer le devenir de deux molécules séparées d'une distance R
au temps t = O. Si le fluide n'est pas en mouvement, les deux molécules
vont s'éloigner irréversiblement par diffusion l'une de l'autre et la loi du
mouvement brownien impose que leur distance moyenne de séparation
croîtra comme la racine carrée du temps écoulé. Dans ces conditions, leur
vitesse relative doit varier comme le rapport entre le coefficient de diffusion
et la distance, c'est-à-dire que les molécules s'éloignent d'autant plus vite
qu'elles sont initialement proches l'une de l'autre.

83
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Si maintenant le fluide est en mouvement avec un écoulement laminaire, la


même loi s'applique à condition de remplacer le coefficient de diffusion par
la viscosité cinématique. Il en découle que le temps d'éloignement, rapport
entre la distance et la vitesse relative, correspond dans ce cas au temps
caractéristique de dissipation de l'énergie cinétique par friction visqueuse
(figure 35). Dans le cas d'un écoulement turbulent, le météorologiste Lewis
Fry Richardson remarqua en 1921 que la loi d'éloignement de deux points du
fluide était considérablement accélérée par rapport au cas laminaire. Il trouva
ainsi que le carré de cette distance n'était plus directement proportionnel au
temps écoulé mais croissait plutôt comme le cube de ce dernier. Compte tenu
de cette observation, il était clair que le facteur de proportionnalité ne pouvait
plus être la viscosité cinématique mais devait correspondre plutôt au taux de
dissipation de l'énergie cinétique par unité de masse, donné par le cube de la
vitesse divisé par la longueur caractéristique associée. Dans ces conditions
turbulentes, la vitesse relative de deux points situés de part et d'autre d'un
tourbillon dépend non seulement de la taille R du tourbillon mais aussi du
taux de dissipation de l'énergie cinétique.

Cette observation conduisit Richardson à soupçonner qu'une véritable


cascade d'énergie devait exister à toutes les échelles R à au sein d'un tourbillon.
Ainsi, il en déduisit qu'à une échelle donnée R, la vitesse des gros tourbillons
pouvait alimenter celle de tourbillons plus petits, ces derniers nourrissant à leur
tour d'autres tourbillons encore plus petits, et ainsi de suite jusqu'à une échelle
moléculaire où la viscosité pouvait enfin jouer son rôle de dissipatrice d'énergie,
mettant ainsi fin à la cascade. Partant de cette idée de cascade d'énergie, le
mathématicien russe Andrey Nikolaevich Kolmogorov remarqua en 1941 que
pour une grande valeur du nombre de Reynolds, il existait un grand écart entre
l'échelle d'injection de l'énergie et l'échelle de dissipation visqueuse à laquelle
le nombre de Reynolds correspondant devenait suffisamment faible pour
autoriser la transformation de l'énergie cinétique en chaleur. Il remarqua aussi
que tant que l'on injectait de l'énergie à l'échelle macroscopique, le tourbillon
persistait, signifiant que le caractère statistique de l'écoulement turbulent
correspondait à un état stationnaire, c'est-à-dire indépendant du temps.

Cela impliquait que le taux d'injection de l'énergie à l'échelle de taille la


plus large était donc exactement compensé par le taux de dissipation à l'échelle
la plus basse, et donc que le flux d'énergie devait être le même entre toutes
les échelles R intermédiaires allant de la molécule jusqu'à notre monde
macroscopique. Dans ce domaine intermédiaire, le seul paramètre pertinent
pour décrire la turbulence devait donc être l'énergie injectée, la connaissance
des tailles limites ne jouant aucun rôle dans la description du phénomène à
l'échelle intermédiaire. La cascade de Richardson-Kolmogorov à structure
fractale (c'est-à-dire self-similaire) obéissant à des règles bien précises prenait
ainsi corps.

84
CHAPITRE 1- L'EAU, LA SUBSTANCE

Taux de dissipation de l'énergie cinétique par unité de masse: e = u'/L


2 J ' ~(
)2 dR(t) 2 dR(t) .., c-: ,,-::--;;
R (t)oce·t ~e·toc<,J\E·RJ ~R(t)~-oce·t ~--=uuRocve·toc'Ve ·R
dt dt
Distance R(t) V1Scosité cinématique v [L•·T"']
Vitesse relative: 8u.. = v/R(t)

U-L
Nombre de Reynolds Rc = -
v

Temps d'éloignement 'Ca


R(t) R2 (t)
'fR=--=--='fv
ÔUR V

Temps de dissipation
visqueuse 'Cy

Nombre cellules
dissipatives: contenant
N = [ReJ91• 1'6nergle

tchelle de Kolmogorov
! InterYllle Inertiel
totale

'1 = L-[ReJ-31• LogR


A.N. Kolmogorov (1903-1987)

Figure 35: La cascade d'énergie de Richardson-Kolmogorov où deux points opposés


sur un tourbillon de taille R s'éloignent l'un de l'autre avec une vitesse relative
ôuR = (e·R)w, entraînant en direction des basses échelles un.flux d'énergie cinétique
par unité de masse ER ~=~(.~ô~uJ~
2 ~=~(i~e-·R~~~
2'3~.~~~~~~~

La figure 35 illustre le rôle fondamental joué par le nombre de Reynolds


fixé à l'échelle macroscopique qui fixe la valeur de l'échelle de Kolmogorov
à laquelle l'énergie cinétique peut enfin être communiquée aux molécules
constituant le fluide via une multitude de cellules tourbillonnaires dont
le nombre varie comme la racine quatrième de la puissance neuvième du
nombre de Reynolds.

À titre d'exemple, considérons le cas d'une masse d'air comme celle à


droite de la figure 35 de viscosité v = 0,15 cm2 s- 1 s'étalant dans l'atmosphère
sur une hauteur de 500 m et pilotée par des vents présentant une vitesse de
300 m.s- 1 avoisinant la vitesse du son. Pour un tel ouragan, le taux d'injection

85
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de l'énergie à grande échelle donné par le cube de la vitesse que divise la


hauteur vaut 54 kW.kg- 1 correspondant à un nombre de Reynolds voisin
de 10 milliards. Les relations précédentes nous apprennent donc que pour
dissiper cette énergie colossale il ne faut pas moins de 109014 ~ 3 1022 cellules
ayant une taille de l'ordre de 16 µm. On voit donc ici que la cascade d'énergie
porte sur sept ordres de grandeur et que ce sont essentiellement les structures
de tailles inférieures à 16 µm qui ont la tâche ingrate de dissiper en chaleur
l'énergie injectée tout en haut de la cascade. Toutes les structures gazeuses
ou liquides de taille intermédiaire entre 16 µm et 500 m se bornent juste à
transmettre une fraction de l'énergie cinétique depuis le tourbillon de taille
immédiatement supérieure vers un autre tourbillon de taille immédiatement
inférieure. En revanche, s'il se trouve par hasard de la matière solide dans
cette gamme de taille, elle tourbillonnera aussi mais ne participera pas à la
chaîne de transmission solidaire. Si sa structure interne est suffisamment
résistante, elle sera simplement déplacée ou éjectée au loin, ou alors, en cas
de faible résistance, impitoyablement broyée, détournant ainsi une fraction
infime de l'énergie cinétique de sa destination moléculaire finale.

Vortex d'eau
Cette notion de cascade de Richardson-Kolmogorov est absolument
fondamentale pour comprendre ce qui se passe dans un vortex. Sans elle, une
application naïve des lois de la mécanique aboutirait à la conclusion qu'il
serait possible d'atteindre, au centre du vortex, des échelles moléculaires, voire
atomiques ou subatomiques avec des énergies cinétiques qui iraient toujours en
croissant. La question qui se pose maintenant est de savoir si l'on peut atteindre
les molécules d'eau dans un vortex via une cascade énergétique de Richardson-
Kolmogorov compte tenu de sa viscosité cinématique v = 0,01 cm2.s- 1•

Pour ma part, j'ai l'habitude de vortexer mon eau de boisson dans un


Wasserwirbler manuel de hauteur L = 30 cm, avec lequel il semble difficile
d'aller au-delà d'une vitesse de 1 m.s- 1 par rotation manuelle. Dans ces
conditions, le nombre de Reynolds maximal qui peut être atteint dans ce
genre d'appareil est de 200 000, correspondant à un taux d'injection d'énergie
par unité de masse de 5 W.kg- 1• Par cascade de Richardson-Kolmogorov, on
peut donc espérer fractionner cette énergie jusqu'à une taille limite de 21 µm
correspondant à 850 milliards de cellules dissipatives. L'appareil ayant une
capacité d'environ 1 litre, il contient environ 3,3 1025 molécules d'eau, et
chaque cellule dissipative agit donc en moyenne sur 3,9 10 13 molécules d'eau
en dissipant une énergie cinétique de 1,3 pJ. On peut donc affirmer que via le
Wasserwirbler, on ne peut guère espérer atteindre l'échelle moléculaire, mais
que l'on arrive quand même à fractionner l'eau à environ mille milliards de
cellules à l'écoute de l'univers ...

86
CHAPITRE 1- L'EAU, LA SUBSTANCE

Pour ce qui concerne les machines commerciales mécaniques, la machine


la plus performante peut traiter 20 litres d'eau en créant un double vortex
sur une hauteur L : : : 0,5 m, avec des vitesses proches de la vitesse du son
u : : : 330 m.s- 1• Ceci signifie que le taux d'injection de l'énergie à l'échelle
de tout l'appareil est de 72 MW.kg-1, c'est-à-dire que cet appareil génère à
l'échelle de votre table de cuisine l'équivalent de 1 000 ouragans réunis ...
C'est bien évidemment une valeur considérable qui justifie en partie le coût
assez onéreux de l'appareil et qui pourrait faire penser que l'eau soumise
à un tel traitement va voir sa structure interne exploser. Mais plutôt que
d'appliquer notre expérience du comportement de la matière à une échelle
macroscopique, raisonnons en cascade d'énergie de Richardson-Kolmogorov.
Dans le cas présent, le nombre de Reynolds vaut 165 000 000 et on peut
donc espérer fractionner cette énergie jusqu'à une taille limite de 343 nm
correspondant à 3, 1 10 18 cellules dissipatives. Avec un tel appareil, on voit
que chaque cellule dissipe une énergie cinétique de 28 fJ. Il est donc tout à
fait remarquable que l'on puisse disposer d'appareils commerciaux capables
de générer une cascade énergétique sur près de six ordres de grandeur pour
arriver au niveau de la centaine de nanomètres.

87
Bibliographie
AMAGAT, E.-H. (1867), «Dilatation et compressibilité de l'eau et déplacement du maximum de
densité par la pression», C. R. Acad. Sei. Paris, 104: 1159-1161.
AMAGAT, E.-H. (1893), «Dilatation et compressibilité de l'eau», C. R. Acad. Sei. Paris, 116:
41-44.
BARNES, H. T. ; CooKE, L. H. ( l 902a), « On the specific heat of supercooled water », Phys.
Rev., 15: 65-72.
BARNES, H. T. ( l 902b), « On the capacity for heat between the freezing and boiling-points,
together with a determination of the mechanical equivalent ofheat in terms of the international
electrical units »,Phil. Trans. Roy. Soc. London A, 199: 149-263.
BRIDGMAN, P. W. (1925), «The viscosity ofliquids under pressure», Proc. Nat/. Acad. Sei.,
11 : 603-606.
BROVCHENKO, 1. ; ÜLEINIKOVA, A. (2008), «Multiple Phases ofLiquid Water», Chemphyschem,
9 : 2660-2675.
CANNIZZARO, S. (1858), « Lettera del Prof. Stanislao Cannizzaro al Prof. S. de Luca ; sunto
di un corso di filosofia chimica, fatto nella R. Universita' di Genova», JI nuovo cimenta, 7 :
321-366.
CASTELLI, B. ( 1615), Risposta aile Opposizioni del S. Lodovico delle Colombe, e del S. Vincenzo
di Grazia, contro al Trattato di Sig Gali/eo Galilei, delle cose che stanno sù ! 'Acqua, à che in
quel/a si muovono, Cosimo Giunti, Firenze.
DALTON, J. ( 1802), « Experiments and observations on the power offluids to conduct heat; with
reference to Count Rumford's seventh essay on the same subjects »,in Memoirs ofthe Literary
Philosophical Society of Manchester, vol. 5, part Il, Cadell et Davies, Londres, p. 373-397.
DALTON, J. (1805a), « Facts tending to decide the question, at what point oftemperature water
possesses the greatest density », J. Nat. Phil. Chem. Arts, 10: 93-95.
DALTON, J. (1805b), « Remarks on Count Rumford's experience relating to the maximum
density of water», J. Nat. Phil. Chem. Arts, 12: 28-30.
DE COPPET, L.-C. (1871), « Recherches sur la température de congélation des dissolutions
salines », Ann. Chim. Phys., 23 : 366-81.
DE LA SoucHÈRE, M.-C. (2011), « La bataille des corps flottants »,La Recherche, n° 457,
novembre, p. 106.
DELLE COLOMBE, L. (1612), Discorso apologetico di Lodovico delle Colombe, d'intorno al
discorso di Galileo Ga/ilei, circa le cose che stanno sù l'acqua, o che in quel/a si muovono,
Zanobi Pignoni, Firenze.
DELUC, J.-A. (1772), Recherches sur les modifications de l'atmosphère, t. !, Genève, p. 224-
226.
DE MAIRAN, M. D. (1749), Dissertation sur la glace, Imprimerie Royale, Paris, p. 122-124.
DESPRETZ, C. (1839), «Recherches sur le maximum de densité des dissolutions aqueuses »,
Ann. Chim. Phys., 70: 49-81.
DESPRETZ, C. (1840), «Le maximum de densité des liquides »,Ann. Chim. Phys., 73: 296-310.
Du CREST, J.-B. M. (1758), «Mémoire instructif sur les thermomètres de Mr. de Réaumur»,
Acta Helvetica vol. Ill, Job. Rudolfi Im-HofEd., Bâle, p. 65-92.
ELMORE, P. A. ; CHAHINE, G. L. ; Oouz, H. N. (2001), « Cavity and flow measurements of
reproducible bubble entrainment following drops impact », Experiments in Fluids, 31 : 664-
673.

88
CHAPITRE 1 - BIBLIOGRAPHIE

FRANK.S, F. (2000), Water: 2nd Edition A matrix oflife, Royal Society ofChemistry, Cambridge,
p. 20.
ÜALILEO, G. (1612), Discorso intorno aile cose che stanno in su /'acqua et che in quel/a si
muovono, Cosimo Giunti, Firenze.
GARREIT, T. J., FALLGAITER, C.; SHKURKO, K.; HowLEIT, D. (2012), « Fa11 speed measurement
and high-resolution multi-angle photography of hydrometeors in free fa11 », Almos. Meas.
Tech., 5 : 2625-2633.
GIUNTA, C. J. (2002), « Dulong and Petit : a case of data fabrication? »,Bull. Hist. Chem., 27 :
62-71.
ÜLEICK, P. H. (1996), « Basic Water Requirements for Hurnan Activities : Meeting Basic
Needs », Water International, 21 : 83-92.
GRASSI, M. ( 1851 ), « Recherches sur la compressibilité des liquides », Ann. Chim. Phys., 31 :
437-478.
ÜRAZIA, V. di (1613), Considerazioni di M Vincenzio di Grazia sopra'/ Discorso di Gali/eo
Galilei. Intorno aile cose che stanno in sù / 'acqua, e che inquel/a si muovono, Zanobi Pignoni,
Firenze.
HENRY, M. (2015), Le vide : Néant, Être, Vacuité, Éther, Matière et Mouvement, Éditions
Natur'Eau Quant, Strasbourg.
HOPE, T. C. ( 1805), « Experiments and Observations upon the contraction of water by heat
at low temperature », J. Nat. Phil. Chem. Arts, 12 : 339-363. Trans. R. Soc. Edinburgh, 5 :
379-405. Phil. Mag., 23: 153-173 (1806).
ISAACS, E. D.; SHUKLA, A.; PLATZMAN, P. M.; HAMANN, D. R.; BARBIELLINI, B.; ÎULK, c. A.
(1999), « Covalency of the Hydrogen Bond in lce: A Direct X-Ray Measurement », Phys. Rev.
Lett., 82 : 600-603.
KosTINSKY, A. B. ; SHAW, R. A. (2009), « Raindrops large and sma11 »,Nature Phys., 5 : 624-
625.
LIBBRECHT, K. (2005), «The physics of snow crystals », Rep. Prog. Phys., 68 : 255-895.
MAGALOITI, L. (1667), Saggi di Naturali Esperienze Jatte ne// 'Accademia del Cimento sotto la
protezione del Serenissimo Principe Leopoldo di Toscana e descritte da/ segretario Lorenzo
Magalotti, Giuseppe Cocchini, Firenze.
MARSILY, G. de ( 1995), L 'Eau, Dominos/Flammarion, Paris.
MARTIN, T. W. ; DEREWENDA, Z. S. (1999), «The narne is bond - H-bond »,Nature Struct. Bio/.,
6: 403-406.
NEwsoN, M. (1994), Hydrology and the river environment, Clarendon Univ. Press, Oxford.
PERLMAN, H., U.S. Geological Survey :
http ://water.usgs.gov/edu/ga11ery/global-water-volume.htrnl
PETIT, A.T., DULONG, P. L. (1819), «Recherches sur quelques points importants de la théorie
de la chaleur», Ann. Chim. Phys., 10: 395-413.
PICTET, M. A. (1805), «Expérience tendant à décider la question si l'eau a un maximum de
densité à une température au-dessus du terme de congélation de la glace fondante », J. Nat.
Phil. Chem. Arts, 12: 113-120.
PINTJ, D. L. (2005), « The Origin and Evolution of the Oceans », in M. Gargaud, B. Barbier,
H. Martin & J. Reisse (éd.), Lectures in Astrobiology, vol. 1, Springer-Verlag, New York,
Berlin, p. 83-112.
PROSPEREITI, A. ; Oouz, H. N. (1993), « The impact of drops on liquid surfaces and the
underwater noise of rain », Ann. Rev. Fluid Mech., 25 : 577-602.

89
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

PuMPHREY, H. C. ; CRUM, L. A. ; BmRN0, L. ( 1989), « Undeiwater sound produced by individual


drop impacts and rainfall », J Acoust. Soc. Am., 85: 1518-1526.
RôNTGEN, W.C. (1884), « Ueber dens Einfluss des Druckes auf die Viscositiit des Flüssigkeiten,
speciell Wassers », Ann. Phys., 258 : 510-518.
RossEm, M.F. (1867), «Sur le maximum de densité et la dilatation de l'eau distillée», Ann.
Chim. Phys., 10: 461-473.
RossEm, M.F. (1869), «Sur le maximum de densité et la dilatation de l'eau distillée, de l'eau
de l'Adriatique et de quelques solutions salines», Ann. Chim. Phys., 17: 370-384.
ROWLAND, H. A. (1879), «On the mechanical equivalent ofheat, with subsidiary researches on
the variation of the mercurial from the air thermometer, and on the variation of the specific heat
of water», Proc. Am. Acad Sei. Arts, 15: 75-190.
RUMFORD, B. Count of (1798), «An Inquiry conceming the Source of the Heat Which is
Excited by Friction », Phil. Trans. R. Soc. London, 88 : 80-102.
RUMFORD, B. Count of ( 1797), « Sur la manière dont la chaleur se propage dans les fluides ; sur
une loi remarquable qui s'observe dans la condensation de l'eau par le froid lorsqu'on approche
du terme de la congélation et sur les effets surprenants qui sont produits, en conséquence de
cette loi dans l'économie de la nature», Bibl. Brit. Sei. Arts, 5 : 97-200.
RUMFORD, B. Count of(l804), «Description d'un phénomène curieux observé sur les glaciers
de Chamouny et quelques observations auxquelles il a donné lieu, sur la propagation de la
chaleur dans les fluides», Bibl. Brit. Sei. Arts, 26 : 3-13.
RUMFORD, B. Count of ( 1805), « An account of some new experiments which prove that the
temperature at which the density of water is maximum, is several degrees of the thermometer
above the freezing point», J Nat. Phil. Chem. Arts, 11 : 225-235.
RUMFORD, B. Count of (1807a), « Continuation des expériences et des observations sur
l'adhésion des molécules d'eau entr'elles »,Bibl. Brit. Sei. Arts, 34: 301-313.
RUMFORD, B. Count of (1807b), « Continuation des expériences et des observations sur
l'adhésion des molécules d'eau entr'elles »,Bibl. Brit. Sei. Arts, 35: 3-16.
SHIKLOMANOV, 1. A. (1993), in P. H. Gleick (éd.), Water in Crisis, Oxford University Press,
New York (1993), chap. 2, p. 13-24.
WARBURG, E. ; SACHS, J. (1884), « Ueber des Einfluss der Dichtigkeit auf die Viscositiit
tropfbarer Flüssigkeiten », Ann. Phys., 258 : 518-522.
WRIGHT, R. (1919), «The effect of some simple electrolytes on the temperature of maximum
density ofwatern, J Chem. Soc., 115 :119-126.
ZHENG, C.; JAMES, D. L. (2009), «Harmonie Fluids »,A CM Transaction on Graphies (Siggraph
2009), 28(3), août.

90
L'eau
morphogénique
•Préambule
L'eau morphogénique est un terme genenque permettant de désigner
toutes les formes d'eau que l'on peut rencontrer sur la planète Terre. L'idée
derrière le terme « morphogénique » vient d'une expérience simple que
l'on peut réaliser au moyen de « sable magique ». Ce dernier peut être
acheté ou encore fabriqué en aspergeant copieusement du sable avec un
spray <l'imperméabilisant à chaussures de manière à le rendre fortement
hydrophobe. Si l'on prend le sable et que l'on rajoute simplement de l'eau, ce
dernier prendra la consistance d'une pâte à laquelle il est possible de donner
des formes variées. Ces formes n'existent que dans l'eau, car dès que l'on
retire le sable de l'eau, il redevient parfaitement sec et totalement inapte à
conserver une forme quelconque. Le même phénomène se produit lorsque
l'eau entre en contact avec les résidus hydrophobes des protéines, de l' ADN
ou avec les chaînes lipidiques des membranes cellulaires qui peuvent alors
prendre des formes variées : cavités enzymatiques pour les protéines, double
hélice pour l 'ADN et bicouches ou vésicules pour les lipides.

Sur un plan minéral, l'eau morphogénique se manifeste sous la forme de


ce que l'on appelle la terre arable. En effet, en raison de sa forte affinité
pour toute matière minérale ou organique, l'eau liquide peut s'infiltrer
au cœur des roches les plus dures afin de les fendre sans pitié lorsque la
température s'abaisse en dessous de 0 °C. Ceci tient au fait extraordinaire
que la glace, forme solide de l'eau, occupe plus de volume que l'eau liquide.
Une fois la roche pulvérisée, chaque grain minéral se trouve enrobé dans
un cocon hydrique d'eau morphogénique qui percole tout le milieu minéral,
donnant naissance à une terre souple et cultivable. Dans le ciel terrestre, l'eau
morpho génique prend la forme de nuages et enrobe d'un cocon hydrique les
particules minérales en suspension dans l'air et responsables des magnifiques
levers et couchers de soleil, afin de laver l'atmosphère.

Lorsque l'eau s'infiltre au sein de la matière organique contenue dans le


sol, elle prend le nom de champignon ou de graine. Qu'elle soit champignon
ou graine, l'eau morphogénique manifeste sa toute-puissance en permettant
aux champignons de soulever des roches et aux graines de donner naissance à
des plantes perçant le sol pour se redresser fièrement au mépris de la force de

91
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

gravitation. Il peut donc y avoir une grande puissance osmotique dans l'eau
morphogénique, selon son activité notée liw Sous sa forme appelée « bois »,
l'eau morphogénique a ainsi permis l'érection des édifices mégalithiques en
permettant la taille de blocs de pierre géants parfaitement jointifs car fendus
par de modestes bouts de bois imbibés d'eau.
Ainsi, pour l'eau de mer (ltw = 0,98), on trouve une pression osmotique
II::::: 2,8 MPa::::: 28 atm, cette pression pouvant monter jusqu'à 400 atm pour
une eau saturée en chlorure de sodium (ltw = 0,75). Pour une monocouche de.
molécule d'eau adsorbée à la surface d'un colloïde hydrophile, on peut avoir
0,2 :S llw :S 0,4 correspondant à des pressions dans la gamme 1000-2000 atm,
capable de fendre n'importe quelle roche aussi dure soit-elle. Sous sa forme
appelée « gel », l'eau morphogénique a rendu possible le mouvement des
cellules, tout d'abord sous forme bactérienne, puis plus tard par coopération
sous forme d'organelles et d'organes. Sous sa forme appelée« plume», elle
a permis aux oiseaux de conquérir le ciel et les airs, tandis que sous sa forme
«poil», elle a permis aux mammifères de se protéger du froid. Enfin, sous
sa forme appelée «méduse», l'eau morphogénique nous révèle sa capacité
à donner la vie. En effet, lorsqu'on laisse sécher une méduse sur le sable, on
ne récupère que O,~ % de toute la masse de cet être vivant formé à 99,8 %
en masse d'eau, masse qui était capable de se déplacer, de se nourrir et de se
reproduire.

En fait, c'est bien parce que l'eau est capable de mouiller toute substance
aussi bien organique que minérale que l'on finit par oublier sa présence.
Avant de lire ce chapitre, on pourra méditer sur le petit poème suivant que
j'ai traduit de l'anglais et qui s'intitule «Ajouter juste de l'eau » (Ford 1965) :

Les mots sur les étiquettes te le disent,


Les recettes, dans les publicités reçues par e-mail aussi,
Et il y a beaucoup à parier, qu'au travail ou pour s 'amuser,
'IUpuisses voir ces fameux mots dès aujourd'hui:
Ajouterjuste de l'eau

'1U serais surpris de voir combien de choses


Sont sèches et inutiles tant qu'on ne leur a pas apporté
Ce liquide magique connu de tous ;
Que tu utilises pour répondre à cet appel :
Ajouterjuste de l'eau

Pour illustrer et prouver ma pensée,


Rappelle-toi que sur toute la nourriture que tu viens d'acheter
On trouve écrit en clair et sans ambiguïté
Les instructions qui rendront ta cuisine légère :
Ajouterjuste de l'eau

92
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

7U peux maintenant acheter


Deafruits séchés, des soupes, des gâteaux délicieux;
Du lait en poudre et des jus lyophilisés,
 toua ces produits aux multiples usages, tu dois :
Ajouterjuste de l'eau

Imagine rm instant, s'il te plaît,


Une tene aride et déserte, dépourvue de tout arbre ;
Elle pourrait devenir une terre fertile, riche et bonne
Ettoutàfaitproductive, si tu pouvais:
Ajouterjuste de l'eau

Qu 'est-ce qui change le ciment en béton ?


Qu'est-ce qui change la graine en blé doré?
Aucun des mots du langage humain
Ne peut répondre, mais ces simples mots, eux, le peuvent :
Ajouterjuste de l'eau ...

La cellule
La théorie cellulaire débute avec l'observation au microscope de fines coupes
de liège par R. Hook (figure 36). Le microscope sera ensuite perfectionné
par A. van Leeuwenhoek qui pourra ainsi observer des protozoaires, des
spermatozoïdes, lui donnant l'occasion d'affirmer l'existence des bactéries.
Le botaniste L. Trevinarius découvrira l'espace intracellulaire chez les
plantes. Le premier à émettre l'idée que tous les êtres vivants sont constitués
de cellules est H. Dutrochet, dont l'idée sera reprise par M. Schleiden qui
suggéra que toute plante était constituée de cellules selon un processus de
cristallisation. En 1839, Theodor Schwann fit la même supposition pour les
animaux. On supposa donc que tous les organismes vivants étaient formés de
une ou plusieurs cellules et que la cellule formait l'unité de base de la vie.
En 1850, Robert Remak et Rudolf Virchow remettent en cause la théorie de
la cristallisation de Schleiden, et précisent que toute cellule se forme à partir
d'une autre cellule pré-existante (Omnis ce/lu/a e ce/lu/a).

Ce fut Moritz Traube qui avança le premier l'idée d'une barrière cellulaire
semi-perméable autorisant le transport des ions, mais il fut incapable
de préciser la nature chimique de cette barrière. La nature lipidique de la
membrane cellulaire fut devinée par Georg Quincke, qui remarqua qu'une
cellule adoptait généralement une forme sphérique dans l'eau. Il remarqua
aussi que lorsqu'on coupait une cellule en deux, on obtenait deux sphères
plus petites. La seule substance connue pour se comporter de la sorte était
l'huile et il se trouvait qu'un film d'huile se comportait effectivement comme
une membrane semi-perméable. Ernest Overton constata pour sa part que les

93
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

produits chimiques se comportant comme des anesthésiques généraux étaient


solubles à la fois dans l'eau et dans l'huile.

Notre corps compte quelque 100 000 milliards de cellules. Si on les mettait
toutes bout à bout, on aurait un joli ruban de quelque 1OO000 km de longueur.
Il y a environ 250 types cellulaires différents, cellules du sang ou de la peau,
cellules musculaires ou cardiaques, neurones et fibroblastes, etc. Vingt
milliards de ces cellules meurent chaque jour. Elles sont bien évidemment
remplacées. Près de 20 millions de cellules se divisent en deux cellules filles
chaque seconde. Le terme« diviser» est d'ailleurs assez mal choisi puisqu'en
biologie, « diviser » veut en fait dire « multiplier ». Quand on dit qu'une
cellule se divise, ce n'est pas une réduction puisqu'en fait, on obtient deux
cellules au lieu d'une seule.

LudolfTrevinarius (1826)
(1779-1864) La cellule est
l'unité de base
(1811) du vivant ...
Les plantes sont
constituées de
cellules Henri Dutrochet
(1776-1847)

(1838) (1855)
« Tous les organismes «Toute cellu1e provient
sont faits de petites d'une autre cellule•
unités: les cellules • Dogme de la
Dogme du vivant Rudolf Virchow
division cellulaire
(1821-1902)
• exclusion des virus Mathias Schleiden Robert Remalt
(1804-1881) (1815-1865)

(1864) (1890)
Existence d'une membrane plasmique Membrane lipidique
Membranes semi-perméables artificielles Mélange Huile/Eau
(colle+ acide stannique) Anesthésiques
Dogme de l'individualité œ:llu1aire
Georg Quincke
(1834-1924)
(1925) Ernest Overtoo
~paisseur membrane (1865-1933) (1928)
cellulaire • 3,3 nm Toute cellule renferme de l'ADN
(capacitance érythrocytes) Dogme de la reproduction

Figure 36 : Pères fondateurs de la théorie cellulaire pour la matière vivante.

Les cellules ont des durées de vie variables. Une cellule de peau a ainsi une
durée de vie de 3 à 4 semaines avant d'être renouvelée. Un globule rouge
vit lui quelque 120 jours. Une cellule de la rétine ne dépasse pas la dizaine
de jours. Une cellule de foie ou de poumon vit de 400 à 500 jours tandis que
les cellules tapissant la surface de l'intestin ne « tiennent» que 5 jours. La
plupart des cellules d'un corps humain ont moins de 10 ans.

L'eau intracellulaire
On me demande souvent la raison pour laquelle j'affirme qu'une cellule
est composée à 99 % d'eau et non à 70 % comme on le voit écrit dans de
nombreux livres de biologie ou articles consacrés à la composition chimique

94
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

de la cellule. Le problème est ici que les pourcentages sont des chiffres
ambigus qui n'ont de signification que si l'on précise quelle unité a été
employée pour exprimer la quantité de matière relative. Par exemple, lorsque
l'on affirme que le vin possède un titre alcoolique de 13 %, il est fondamental
de savoir quel' on raisonne ici en volume, c'est-à-dire que dans l litre de vin, je
trouve 130 ml d'alcool. De même, lorsque l'on affirme qu'une cellule comme
E. coli contient 70 % d'eau, il est tout aussi fondamental de savoir que l'on
raisonne maintenant en masse, c'est-à-dire que pour 1OO g de bactéries E. coli,
il y a 70 g d'eau. Enfin, quand j'affirme que E. coli est composée à 99 % d'eau,
je raisonne en moles, c'est-à-dire que pour 100 moles de bactéries E. coli,
il y a 99 moles d'eau. Donc donner un pourcentage sans indiquer le rapport
d'unité est considéré comme une erreur majeure, d'une personne qui n'a pas
été formée aux méthodes de la science. Un scientifique, qui normalement sait
toujours de quoi il parle, écrira donc que le vin contient 13 vol% d'alcool,
qu'une bactérie E. coli contient 70 pds % d'eau ou 99 mol% d'eau afin que
tout le monde sache de quoi l'on parle.

Cela étant réglé, il faut également savoir quelle unité de quantité de


matière est la mieux adaptée pour exprimer l'information que l'on souhaite
transmettre. Pour ce qui est du calcul lui-même, il est élémentaire une fois que
l'on connaît la masse de chaque molécule ou biopolymère et la masse molaire
moyenne correspondante. La figure 37 détaille le calcul pour la bactérie
E. coli. Les poids moléculaires (P.M.) de ce tableau sont évidemment des
valeurs moyennes afin d'avoir un ordre de grandeur. Par exemple, la valeur
de 47 Da pour les ions de la cellule a été obtenue en considérant que les ions
Ca2œ Kœ Naœ Mg2œ Fe2•5œ Cl8 HCO 8 et [HPO ]28 étaient présents en
' ' ' ' ' ' 3 4
concentrations égales, ce qui n'est bien sûr pas vrai. Une valeur plus précise
aurait donc pu être obtenue en tenant compte des pourcentages relatifs de
chaque ion, mais le résultat final de 3,92 moles n'aurait été que peu affecté. On
notera aussi qu'en toute rigueur ces chiffres ne concernent que E. coli. Il est
toutefois clair qu'en termes de masse, toutes les cellules vivantes présentent
des valeurs très similaires et que le calcul est donc général.

Selon ce tableau, on a donc dans une cellule vivante typique 3,89 moles
d'eau sur un total de 3,92 moles, soit un pourcentage de 389/3,92 = 99 ,2 mol%
que l'on peut arrondir par le bas à 99 mol % pour tenir compte des erreurs
liées à l'utilisation de poids moléculaires moyens et à la variabilité cellulaire
entre différents types de cellules. Comme la vie est avant tout une affaire de
mouvements et de chocs entre molécules de tailles nanométriques ou sub-
nanométriques, il est clair que la seule unité pertinente est bien la mole et non
la masse et qu'il vaut donc mieux retenir le chiffre de 99 mol % plutôt que
celui de 70 pds % pour la quantité d'eau contenue dans une cellule. C'est ainsi
que toute molécule qui évolue dans le milieu intracellulaire a 99 chances sur
100 de rencontrer lors de sa diffusion une molécule d'eau, d'où l'importance

95
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

cruciale que joue cette molécule dans tous les processus cellulaires quels qu'ils
soient. Raisonner sur le milieu intracellulaire en ignorant ce fait fondamental
qu'une cellule est avant tout chose de l'eau ne peut donc que conduire à des
erreurs d'interprétation des observations expérimentales.

Escherichia coli ~ 70 pds% füO, masse= 7x 10-13 g. L ~ 1µm,R ~ 0,5 µm

Matière P.M. (Da) Masse (g) mol Nombre


Eau 18 70 3,88889 22 240 561 910
Ions 47 1 0,0212766 121680875
Acides aminés 110 0,8 0,007273 41594287
Lipides 600 2 0,003333 19061427
Nucléotides 414 0,8 0,00193237 11 051 224
Protéines 40000 15 0,000375 2 144 625
ARN 33 500 6 0,0001791 1024273
Polysaccharides 1000000 3 0,000003 17 157
ADN 2840000000 1 0,0000000035 1
Divers - 0,4 - -
Total 3159 782 100 3,92 22437135IT9

::::) %H O = 22240561910 X lOO = 99 l %


2 22437135779 '
Figure 37: La cellule en masse et en moles. Source pour les pourcentages en masse:
Watson, J. D. (1972), Molecular Bio/ogy of the Gene, 2• éd, Philadelphie, PA :
Saunders.

La figure 38 donne une idée assez exacte et à l'échelle de ce que verrait un


être nanométrique lors d'un voyage dans le milieu intracellulaire depuis la
membrane plasmique jusqu'au noyau d'une cellule eucaryote.

Figure 38 : Voyage à /'intérieur d'une cellule eucaryote d'après J. S. Goodsell.


En bas à droite, le trajet suivi depuis la membrane cellulaire jusqu'au noyau.

96
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

On voit que les organites de la cellule s'empilent de manière


extraordinairement compacte, ne laissant aucun espace vide de taille
nanométrique. Ce qui est surprenant, c'est que malgré cet encombrement
important tout ce qui est représenté ici ne montre que 1 % du nombre total
d'objets présents dans la cellule, le reste étant de l'eau à 99 % !! ! Il n'y a donc
pas beaucoup de place pour bouger et il est impossible de représenter l'eau,
car même avec une teneur moyenne de 70 pds % chaque protéine se recouvre
d'au plus 4 couches d'eau polarisée, correspondant à 0,3 x 4 = 1,2 nm de
distance entre deux protéines comme le détaille le calcul élémentaire
représenté en figure 39.

%H,O(n couches)= lOOx v. - 50 _ lOOx(V. -50)


50xl,35+(V.-50) 17,5+V.

+1 couche H20 = 2,6 nm ~ V1=74 nm 3 ~ 26%

+2 couches= 2,9 nm ~ V2 = 102 nm 3 ~ 44%

+3 couches= 3,2 nm ~ VJ = 137 nm 3 ~ 56%

=
Masse moyenne 40 kDa
+4 couches= 3,5 nm ~ v. = 180 nm 3 ~ 66%
=
Densité moyenne 1,35 g:.cm:.3
Volume moyen = 50 nm 3 Acide nucléique Collagène
Rayon moyen = 2,3 nm P.M. "' 7000 MDa pM 300 kD
Épaisseur mQDQçgUcb!I H20 = 0,3 nm · · "' a
M.L. .Quillio & al., Acta .Cm1.t. D, B . 791 (2000)

Macromolécule M(1' couche H•O) (g/g) Taux hydratation

Protéine globulaire 0,4 0,4/1 ,4 .. 29%

Acide nucléique 0,5 0,5/1 ,5 .. 33%

Collagène 0,6 0,6/1 ,6 .. 38%


Hyaluronate
P.M. • 8000 kDa Hyaluronate 0,7 0,7/1 ,7 •41%

Figure 39: Démonstration que l'eau intracellulaire ne peut pas être liquide dans une
cellule, mais existe plutôt sous la forme de couches d'hydratation dont le nombre est
au plus égal à 4.

Ce calcul certes élémentaire a cependant le mérite de mettre en évidence


que la cellule ne sait que compter jusqu'à 4 pour ce qui concerne l'eau
intracellulaire. La conséquence, c'est qu'avec une épaisseur d'eau de l'ordre
du nanomètre entre chaque organite cellulaire, il est hors de question d'utiliser
un formalisme utilisant les lois de la mécanique classique pour comprendre
le fonctionnement d'une cellule. On peut faire le même calcul pour des
biofilms générés par des bactéries qui sont des structures gélifiées faites de
polymères extracellulaires ayant une masse molaire moyenne de 180 kDa
(Ras & al. 2011) pour une densité de 1,3 g cm-3 contenant environ 80 pds %
d'eau (Melo 2005). Si l'on considère ces polymères comme des bâtonnets de

97
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

rayon R et de longueur L, il vient L = 73 nm pour R = 1 nm pour un volume


total V= 230 nm3• Si l'on ajoute N couches d'eau de 0,3 nm d'épaisseur, on
obtient un volume hydraté de 1 433 nm3 pour N = 5 couches correspondant
à 79 pds % d'eau (figure 40). Ceci montre que dans les biofilms où l'eau
extracellulaire se trouve structurée par des polymères linéaires on trouve à
peu près le même nombre moyen de couches que pour l'eau intracellulaire
structurée par des polymères globulaires.

M"' 180 kDa, p"' 1,3 g·cm-:i, 80 pds% H 20, V= 230 nm3, R = 1 nm et L = 73 nm

Figure 40 : Même calcul que pour la.figure 9, mais dans le cas d'un biofilm bactérien.

Ceci pose le problème de savoir dans quelle mesure cette structuration en


couches est validée par l'expérience. La figure 41 montre que ces couches
d'eau successives peuvent être mises en évidence au moyen de la machine
d'Israelachvili qui consiste à compresser un fluide entre deux plaques de mica
parfaitement planes jusqu'à une échelle moléculaire (lsraelachvili 1988). On
trouve bien entre 4 et 5 oscillations de la force en fonction de la distance
pour tout liquide mis au contact d'une surface. On notera aussi que l'eau
se distingue par sa capacité à réagir différemment selon que la surface sur
laquelle elle s'adsorbe est hydrophile (polaire) ou hydrophobe (apolaire).

Eau, protéines et ADN


La figure 42 montre également des simulations numériques d'eau autour de
protéines et d' ADN, où la structure en couches est nettement moins visible
que sur des surfaces planes. Il est donc clair qu'il ne faut pas considérer l'eau

98
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

adsorbée en couches de manière statique mais plutôt de manière dynamique.


Parmi tous les polymères biologiques hydratés de la cellule, l 'ADN est
sûrement celui qui retient le plus d'eau (environ 95 pds % sous sa forme B).
La vision de cette belle double hélice support de l'information génétique
complètement anhydre sans sa gaine d'eau hante les livres de biologie et
donne l'illusion que l'eau ne joue que le rôle de bouche-trou. La réalité est
tout autre, car pour lier les nucléosides entre eux, l 'ADN utilise des ions
phosphate négativement chargés. Chaque nouveau nucléotide amenant une
charge négative, la molécule d'ADN aurait bien peu de chances de s'auto-
assembler s'il n'existait pas un mécanisme de neutralisation de cette charge.

Eau morphogénique
\

Su~
\
\
( )

• Dio
4
ADN

Figure 41 : Validation expérimentale de la structure en couches des liquides au


voisinage de toute surface et simulations numériques du comportement de l'eau au
voisinage de protéines ou d'ADN.

Or, combien de biologistes savent que la durée de vie d'une double hélice
toute nue sans eau ni compensateur de charges est d'à peine 50 ps dans le
vide (Gerstein & Levitt 1998)? Ceci permet de réaliser que la structure en
double hélice de l 'ADN n'est en rien liée à l'appareillement complémentaire
de paires de nucléotides mais bien à la solvatation par l'eau et les ions
magnésium. Cela change évidemment complètement la donne, car cela
signifie qu'une mutation génétique est avant tout un problème d'hydratation
et/ou de compensation de charges électriques et non une interaction directe
avec la double hélice. Dans ce cas, le problème du cancer serait un problème
intimement lié à la gestion de l'eau morphogénique, comme l'avait pressenti
le Prix Nobel de médecine et de physiologie 1937 hongrois Albert Szent-
Gyôrgyi ( 1893-1986) (Szent-Gyôrgyi 1972).

99
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

En fait, ce n'est pas une couche qu'il faut pour stabiliser la double hélice
d' ADN mais au moins deux couches successives coopérant intimement avec
des ions Mg2Ell pour arriver à neutraliser efficacement l'effroyable densité
de charge négative associée à l'énorme poids moléculaire de cette molécule
(figure 42). En effet, il est possible aujourd'hui de cristalliser non seulement
les protéines mais également l'ADN, et les méthodes de diffraction des RX
sur ces cristaux ont été tellement perfectionnées qu'il est possible de voir
ces fameuses couches d'hydratation qui présentent une activité de l'eau
très différente de celle de l'eau liquide ou des solutions aqueuses diluées.
Pour l'ADN par exemple, on trouve que l'eau s'insinue partout où elle peut
dans la double hélice avec des zones sans aucun ordre particulier et des
zones présentant des arrangements polygonaux avec une prédominance de
pentagones (Soler-Lopez & al. 2000).

\ '"
: : . -.. :...•.-.., ;~$ii ...·
·:..:..~ :~ :_.::. ~. ~ .: ~· -~::~:.
. '

0 50 100 150 200


Transfert d'mergie /meV~

Figure 42 : L 'ADN est une molécule très fortement hydratée de charge négative,
ce qui explique /'abondance du magnésium qui vient compenser la charge. Des
expériences de diffusion inélastique des neutrons (à gauche) réalisées sur des
membranes cellulaires ou de /'ADN montrent que l'eau morphogénique hydratant
ces biomolécu/es n'a pas du tout la même structure, ni la même dynamique que la
glace hexagonale. Les études à haute résolution montrent que l'eau s'insinue partout
où elle peut dans la double hélice avec des zones sans aucun ordre particulier et
des zones présentant des arrangements polygonaux avec une prédominance de
pentagones (à droite).

Grâce à l'excellente résolution, on a pu ainsi établir qu'autour d'un duplex


nanométrique d(GCGAATTCG) de 433 atomes, on trouvait 187 molécules
d'eau dont 151 bien ordonnées, 7 ions magnésium et 1 ion chlorure, soit un taux
d'hydratation de 39 pds %. Il est toutefois important de signaler qu'in vivo ou
en solution, l'ADN n'est en aucun cas dans un environnement cristallin et que
toutes ces structures vues par diffraction des rayons X ne préjugent en rien de
la structure réelle de l' ADN intracellulaire. Des mesures d'activité de l'eau
au contact de l' ADN ont ainsi montré qu'il était impossible de descendre en
dessous de llw = 0,02 correspondant à une enthalpie d'hydratation de l'ordre de

100
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

-25 kJ mol- 1 et que cette enthalpie reste négative jusqu'à llw = 0,92 (Leal & al.
2004). Il est donc impossible de déshydrater complètement l'ADN, il restera
toujours au moins 4 molécules d'eau par paire de base (20 pds %) tandis qu'à
l'autre extrémité l' ADN peut se gorger d'eau sans limites (Clark & al. 2000).

Pour une activité de l'eau llw = 0,62, on trouve 10 molécules par paire de
base (23 pds % ), la transition ADN-A~ ADN-B est observée pour llw = 0,80,
soit 20 molécules d'eau par paire de base (37 pds %) et au-delà de llw = 0,92,
soit 35 molécules par paire de base (51 pds %), le temps d'équilibrage devient
extrêmement long. Sur le plan dynamique, le temps moyen de résidence de la
molécule d'eau autour de l'ADN est de 18 ps pour un taux d'hydratation de
24 pds % et tombe à 10 ps pour un taux d'hydratation de 71 pds % (Beta & al.
2003). Ces valeurs sont d'un ordre de grandeur supérieur au temps de
résidence diffusionnel mesuré dans l'eau pure qui est de 1,25 ps à T = 20 °C
et correspondrait plutôt à celui mesuré dans une eau surfondue en dessous de
-17 °C (Teixeira & al. 1985).

Ceci amène bien évidemment à se poser la question de savoir dans quelle


mesure cette eau fortement liée à l' ADN se comporterait en fait comme de la
glace. Des expériences de diffusion inélastique ont clairement montré que tel
n'était pas le cas (Ruffie & al. 2002). Pour l'eau entourant l' ADN à T < 30 K,
on constate qu'en dessous d'une teneur en eau de 33 pds % tous les pics
caractéristiques de la glace sont absents et l'on n'observe qu'un seul signal
large. Au-delà de 33 pds %, les pics caractéristiques de la glace apparaissent,
montrant que l'eau est fortement perturbée sur au moins deux couches autour
de l 'ADN. Par conséquent, lorsqu'on se pose la question de savoir sous quelle
forme se trouve l'eau intracellulaire, on constate qu'elle n'est ni gazeuse,
ni liquide, ni solide. D'où l'idée d'un quatrième état de l'eau qui est l'eau
morphogénique.

En conclusion, nous pouvons retenir que, sur un plan topologique et


non métrique, un être vivant est donc fait à plus de 99 % d'eau qui existe
sous un état, appelé « eau morphogénique », ayant ses caractéristiques
thermodynamiques propres formant une gaine d'eau autour de toute matière
biologique ayant une épaisseur d'au plus 5 couches d'eau. Ce dernier type
d'eau n'est hélas généralement jamais cité dans les livres de biologie, qui
considèrent que l'eau dans la cellule se comporte essentiellement comme de
l'eau liquide. Il s'ensuit que la médecine ne peut espérer progresser que si
elle se décide enfin à prendre en compte ce fait fondamental de la vie, car
toute forme biologique trouve son origine et son essence même lors d'une
interaction intime entre de la matière organique et de l'eau. Ceci explique en
partie pourquoi le constituant majoritaire du corps humain est l'eau à plus de
99 % en nombre d'entités.

101
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Masse maigre
1 Masse grasse
~E-a_
u_c_ __rc_ll_e~
orpo to-
tal
_ e_
(E _ _~~
_CI)

Carbone

'limasse corporelle: 20 40
%ECT: 30-40 60-70

Figure 43: Répartition de l'eau dans un être humain.

On notera que si une bactérie comme E. coli ne contient que de l'eau


intracellulaire, un être humain contient en plus un milieu extracellulaire lui
aussi fortement hydraté (figure 43). Mais il est fort probable que la matrice
extracellulaire ait une structure très voisine de celle d'un biofilm bactérien.
En fait, la seule forme d'eau liquide dans un corps humain se trouve dans le
plasma sanguin et la lymphe.

Les ions dans la cellule


Une autre information que l'on peut tirer de la figure 37, c'est que les types
d'espèces que l'on rencontre le plus fréquemment après l'eau sont d'abord
les ions inorganiques, suivis des acides aminés, des lipides et des nucléotides.
Il en découle que la vie est avant tout une affaire de chimie dans l'eau et que
les grandes stars des livres de biologie (protéines, ARN, polysaccharides et
ADN) sont loin de régner en maîtres sur le milieu intracellulaire, se contentant
d'être ballottées et chahutées par des hordes de petites molécules qui font
réellement la loi. Ceci ne veut bien sûr pas dire que ces biopolymères soient
sans importance, mais simplement qu'il est extraordinairement dangereux et
faux de croire qu'ils interagissent directement entre eux, les petites molécules
se contentant de boucher les trous générés par ces énormes mastodontes.
Tout biopolymère interagit donc avec un autre exclusivement via ses couches
d'eau adsorbées et via ses doubles couches électriques, et à aucun moment il
n'y a d'interaction directe. Pour ce qui concerne les ions, on peut raisonner
en volume, car les données expérimentales sont exprimées en concentration.

102
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

Sachant qu'une bactérie E. co/i a la forme d'un bâtonnet possédant un rayon


de 0,5 µm pour une longueur de 1 µm, le volume d'une cellule de E. coli est
de 785,4 tL, ce qui correspond à un volume molaire de 472 811 L·mmol- 1•

Ion
Polasslum (K")
Magné9ium (Mg'")
Sodium (Na.)
CNonn (Ct)
Concentration (mM)
140
20
15
15
-
66193540
9 456 220
7092165
7092165
- ( H C O , -) 12 5673 732
Fer (Fe'") 1418433
~ (Ca") 2 945622
Di-. (13 Ions) 3.9 23808968
Prolon(H") 0,000063 30
Total 121680875
a- o.- r OO:- Na+ K+ Mc'+ Ca" g,'+

Eau de mer archéenne / mM


m 2.~ O.o37 2.3 71111 18.9 5().9 232 4.52
Eau de mer moderne / mM
556 O.IWJ 0.0005 28.7 477 10. 1 114.2 10.5 D.09

Figure 44 : Concentrations en ions dans une cellule E. coli et correspondance en


nombres tenant compte du volume (gauche). Antagonisme et interférences entre les
minéraux dans l'intestin selon H. Dewyne Ashmead (droite). Comparaison entre eau
de mer moderne et eau de mer archéenne.

La figure 44 donne la concentration en milieu intracellulaire des principaux


ions de la cellule (20 au total). Une cellule, c'est donc d'abord de l'eau,
puis des ions (fonctions) avant d'être une structure (protéines, ADN). On
voit ainsi que le potassium joue un rôle crucial pour la vie de la cellule.
Perdre son potassium signifie donc la mort. On trouve ensuite un groupe
de 4 ions où se détache le magnésium, contre-cation de tous les nucléotides
(concentration de seulement 0,5 mM dans le cytosol), suivi du chlorure de
sodium, qui gouverne les entrées et les sorties d'eau dans la cellule, et des
ions bicarbonates qui contrôlent le nH. du sang. Dans le dernier groupe, on
trouve le fer, autorisant la cellule à mener des réactions d'oxydo-réduction et
l'ion calcium, messager universel contenu essentiellement dans des vésicules
puisque sa concentration dans le cytosol n'est que de 0,1 µM. La raison pour
laquelle on trouve aussi peu de calcium en milieu intracellulaire est que cet
ion, contrairement au magnésium, forme des complexes extrêmement stables
et insolubles avec les ions phosphates (apatite que l'on retrouve dans les os
ou dans les dents). La libération massive des ions calcium contenus dans les
vésicules dans le cytosol est le mécanisme par lequel une cellule se suicide
(apoptose). En effet, une fois libéré, le calcium va chasser le magnésium
associé aux nucléotides, ce qui prive la cellule de molécules cruciales comme
l'ATP, l'ADP ou le cAMP. Ces trois molécules contiennent en effet des
groupements phosphate extrêmement vulnérables à l'attaque par le calcium.
On notera enfin qu'il n'existe qu'une trentaine de protons libres dans une
cellule, ce qui signifie que la notion de pH n'a évidemment aucun sens pour
un nombre d'espèce aussi bas.

103
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Oser faire de la physique statistique dans de telles conditions tient de la


gageure et seule une approche quantique qui s'accommode très bien de
nombres de l'ordre de quelques unités permettra de tirer des conclusions
sûres. Tout ceci montre que, lorsqu'on pénètre dans une cellule, il faut laisser
au vestiaire tous les concepts dérivés de la mécanique classique et de la
physique statistique pour ne garder que les concepts de nature quantique.

On remarquera aussi qu'il existe 13 ions qui n'ont pas été listés en figure 44
car il s'agit d'oligo-éléments présents en très faibles concentrations. Il ne
faudrait pas croire que ces minéraux jouent un rôle négligeable dans la
cellule. La partie droite de la figure 44 montre la nature chimique de ces
minéraux et surtout les antagonismes et les interférences qu'ils peuvent avoir
entre eux lors de l'absorption intestinale. Ce diagramme nous apprend tout
le danger des compléments alimentaires destinés à compenser une carence
en un minéral donné. L'antagonisme Cu-Zn est par exemple bien connu. Si
je suis carencé en cuivre et que j'en absorbe pour compenser, je vais bien
sûr résoudre ma carence en cuivre, mais surtout inhiber également toutes les
enzymes fonctionnant au zinc et réciproquement. Bref, dans ce cas le remède
peut s'avérer pire que le mal, car l'enfer est pavé de bonnes intentions. En fait,
l'origine de tous ces antagonismes et interférences n'est pas bien connue, mais
la forme même circulaire du diagramme et les multiples liens entre chaque
pôle font bien évidemment penser à une intrication quantique. La règle d'or
qui découle de cette intrication minérale est de toujours amener les minéraux
ensemble et non de manière séparée afin que l'organisme gère lui-même ses
carences éventuelles. C'est la raison pour laquelle boire de l'eau de mer ayant
été traitée par le plancton marin ou de la sève de bouleau ayant été traitée par
un arbre est à coup sûr une très bonne chose, parfaitement en adéquation avec
une pensée quantique concernant le mode de fonctionnement d'une cellule.

1()•

---

lO'lob-~~~~~,~~,~~~~r-­
~da eori-/ s
--
Figure 45 : Flux hydriques en fonction de la masse corporelle pour les animaux
(gauche) et schéma simplifié d'un être vivant sil 'on se place du point de vue del 'eau
et des ions.

104
CHAPITRE IJ - L'EAU MORPHOGÉNIQUE

L'eau fonctionnelle
La figure 45 montre que tout être vivant peut donc être vu comme un tube
polaire de matière organique (droite) traversé par un flux unidirectionnel
d'eau et d'ions d'autant plus important que l'organisme est plus complexe
(gauche). On voit ici très clairement que plus l'être vivant possède une masse
corporelle élevée, plus il a besoin que de l'eau le traverse afin d'arriver à se
maintenir en vie. Les sels minéraux apparaissent tout aussi vitaux, il s'ensuit
que la vie est plus une affaire de chimie inorganique que de chimie organique.
Augmenter sa masse signifie donc augmenter le flux d'eau qui nous traverse.
Dès que ce flux se trouve perturbé, c'est la maladie, voire la mort si le flux
devient nul.

S'il est clair que c'est l'eau qui génère toute structure dans la cellule, il est
impératif de comprendre qu'elle contrôle également toute fonction, car ceci
présuppose une protéine repliée correctement. Comme le montre la figure 46,
ce repliement est directement piloté par l'eau qui place les résidus apolaires
au centre de la protéine et les résidus polaires vers l'extérieur. Mais l'eau
peut aussi jouer un rôle crucial dans la fonction elle-même. Par exemple,
il ne pourrait y avoir de synthèse d' ATP et de respiration cellulaire via
l'enzyme cytochrome c oxydase en l'absence d'eau puisque cette synthèse
nécessite un transfert de protons depuis le milieu intracellulaire vers le milieu
extracellulaire, qui serait impossible sans la présence d'une file indienne de
molécules d'eau autorisant la conduction protonique.

Protéine Protéine
anhydre hydrat6e

Figure 46 : Sans l'eau, les protéines et les enzymes n 'arriveraient pas à se replier
correctement. Comme on peut le voir ici, la surface potentielle en l'absence d 'eau
est toute hérissée de minimums secondaires empêchant la protéine de trouver sa
conformation idéale, tandis que la forme hydratée présente une surface lisse avec un
seul minimum primaire bien profond. L'interaction dite« hydrophobe» qui est tenue
pour responsable de la conformation de la plupart des protéines ne pourrait en fait
se manifester en l'absence d'eau.

105
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Il n'est donc pas exagéré de dire que sans l'eau, il serait impossible de
respirer. D'autant plus qu'une étude radio-cristallographique haute résolution
sur un dimère d'hémoglobine (Hbl) du mollusque bivalve Scapharca
inaequivalvis a pu montrer que les changements allostériques dans cette
protéine se produisant lors de la fixation du monoxyde de carbone ou du
dioxygène étaient liés à la rupture d'un cluster de molécules d'eau perdant
8 molécules d'eau (Royer & al. 1996). Il s'ensuit que ces molécules d'eau
autour de l'hémoglobine jouent un rôle clé dans la communication entre les
sous-unités de cette protéine. Pour ce qui concerne l'hémoglobine humaine,
les changements allostériques quaternaires dans la protéine sont beaucoup
plus forts et impliquent qu'après absorption du dioxygène, 65 à 80 molécules
d'eau additionnelles se lient au tétramère d'hémoglobine. L'eau intervient
aussi directement dans le fonctionnement de la bactériorhodopsine, une
protéine impliquée dans la conversion de l'énergie lumineuse en énergie
électrochimique dans les membranes halobactériennes (Lanyi 2000).

Mais l'eau possède aussi une capacité à générer une pression osmotique
dans tous les processus physiologiques et non plus seulement moléculaires.
C'est ici que la notion d'activité de l'eau llw doit être considérée comme
mesure du rapport entre la pression de vapeur d'eau Pv dans toute substance
contenant de l'eau et la pression de vapeur saturante de l'eau pure Ps à la même
température : 0 :'.S llw = pjps :'.S 1. En conséquence, ce paramètre possède non
seulement un sens physique clair et non ambigu mais il est de plus aisément
mesurable au moyen d'appareils appelés« hygromètres» (Wiederhold 1997).

OSaw= P:;(mélange) f(T)Sl TI · V.,=-RT · lnaw


P:; (eau pure)
NPD z Nountture Potentiellement Dangereuse NS =Nountture Saine
~NS N~

,,,
,,
,
,,

Figure 47 : Diagramme montrant /'évolution du taux d'humidité en fonction de


/'activité de l'eau et démontrant l'utilité pratique de ce concept pour divers procédés
industriels mettant en jeu ou non de la matière biologique. D'après Rock/and & al.
(1987).

106
CHAPITRE II - L'EAU MORPHOGtNIQUE

La figure 47 montre ainsi qu'aucune vie n'est possible lorsque llw :::: 0,6
(Rockland & al. 1987). À partir de cette valeur, seule la croissance de
champignons est autorisée lorsque 0,6 :::: llw :::: 0,8, les levures ayant besoin
d'une activité d'eau au moins égale à 0,8. La croissance bactérienne démarre
quant à elle dès que llw > 0,9, zone où l'activité enzymatique s'accroît de
manière exponentielle. La conséquence pratique de ce diagramme est qu'une
nourriture sans conservateurs restera saine tant que llw:::: 0,88. Ce diagramme
montre aussi que les réactions de Maillard responsables du goût, de la couleur
et de la texture des aliments cuits se produisent avec une vitesse optimale
lorsque llw : : : 0,6. L'oxydation lipidique se trouve pour sa part nettement
défavorisée lorsque 0,3 :::: llw :::: 0,5. Dans cette même zone, les matériaux
pulvérulents comme le sel auront tendance à motter, d'où l'emploi de grains
de riz pour éviter la zone critique. C'est aussi dans cette zone qu'une croûte
initialement croustillante deviendra molle et flasque et qu'un tas de poudre
ne s'effondrera plus sous l'action de la pesanteur, aboutissant à la formation
d'un cake.

Un exemple simple nous permettra de comprendre que connaître l'activité


de l'eau dans une substance est bien plus important que de connaître le taux
d'hydratation de cette même substance. Un marchand de soupe en poudre a
voulu ajouter du poivre moulu à sa soupe afin de la rendre plus épicée. Avant
de faire le mélange, il veilla à choisir un poivre dont le taux d'hydratation
3 pds % correspondait exactement à celui de la soupe. Pensant qu'il n'y avait
aucun risque, il fit le mélange des deux poudres sèches et obtint dans son
mélangeur une masse compacte impossible à manipuler. Il fut ainsi obligé
non seulement de jeter tout le lot de soupe, mais aussi de passer un temps
précieux à nettoyer sa machine afin de pouvoir l'utiliser à nouveau. Soucieux
de comprendre l'origine de son erreur, on lui conseilla de mesurer l'activité
de la soupe et du poivre. Il trouva ainsi que pour un même taux global
d'hydratation (3 pds %) l'activité de l'eau dans la soupe en poudre était de
0,28 tandis que celle du poivre sec était de 0,69. Il était donc logique qu'après
mélange intime des deux poudres, l'eau migre spontanément du poivre vers
la soupe, entraînant un mottage de cette dernière (!lw > 0,3) puisque l'activité
de l'eau dans le poivre était bien supérieure à l'activité de l'eau dans la
soupe. C'est précisément tout l'intérêt de cette notion d'activité que de savoir
dans quel sens auront lieu les échanges de matière après mélange de deux
substances ayant des activités différentes.

Cet exemple montre bien que connaître le taux d'hydratation ne renseigne


en rien sur la disponibilité de l'eau. Seule l'activité de l'eau permet de
savoir si l'eau sera facilement mobilisable (haute activité) ou au contraire
difficilement mobilisable (faible activité). Comme le montre la figure 47,
s'il est vrai que l'activité de l'eau augmente avec le taux d'humidité, cette
variation est hautement non linéaire, l'activité de l'eau pouvant varier dans

107
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

une grande gamme (0,1 à 0,6) pour un taux d'humidité constant. Il est ainsi
maintenant accepté que l'activité de l'eau est plus intimement liée aux
propriétés physiques, chimiques et biologiques des aliments et autres produits
naturels que le taux d'hydratation. Des changements spécifiques de couleur,
d'arômes, de goût, de texture, de stabilité et d'acceptabilité d'aliments crus
ou cuisinés sont associés à des domaines assez étroits d'activité de l'eau
(Rockland & al. 1980).

Aquaporines
L'eau représente au mm1mum 60 % de notre poids corporel, ce qui
correspond à 421 pour une personne de 70 kg. Sur cette quantité totale d'eau,
65 % se trouve à l'intérieur de cellules tandis que le reste, 35 %, constitue
l'eau extracellulaire. L'eau intracellulaire est séparée de l'eau extracellulaire
par des membranes perméables sélectives qui font office de barrière. Ces
deux compartiments diffèrent par la composition et la concentration en
ions, solutés et protéines mais présentent néanmoins la même osmolalité.
L'équilibre osmotique des fluides corporels est finement régulé, se trouvant
confiné à une gamme très étroite allant de 280 à 296 mOsm kg- 1 Hp via des
mécanismes homéostasiques complexes comme : l'absorption et le rejet d'eau,
le mouvement de l'eau à travers les compartiments de fluides extracellulaires
(plasma ou interstitiels). Ces mécanismes sont sous le contrôle de régulateurs
hormonaux ou neuronaux.

Le mouvement de l'eau dans un système physiologique est gouverné


par l'action de forces osmotiques générées par des flux ioniques. Il existe
deux voies principales autorisant le mouvement de l'eau entre les couches
cellulaires sous l'action des forces osmotiques (figure 48). Les mouvements
de fluides paracellulaires autorisent le passage de l'eau entre les cellules
alors que dans les trajets transcellulaires, l'eau traverse les cellules. Dans le
mouvement d'eau transcellulaire, le mouvement de l'eau est sous contrôle
osmotique depuis le lumen vers l'interstitium. Il peut avoir lieu soit entre les
cellules via une voie paracellulaire (haut), soit pour les tissus présentant des
jonctions étanches empêchant le passage paracellulaire, à travers les cellules
via une voie transcellulaire. Ce dernier type de mouvement implique le
passage de l'eau à travers les membranes apicales et basales des cellules. Dans
ces conditions, on s'est posé la question de savoir comment une molécule
polaire et hydrophile comme l'eau était capable de traverser le cœur lipidique
hydrophobe qui se trouve au centre de la membrane cellulaire.

108
CHAPITRE II - L'EAU MORPHOGÉNIQUE

Figure 48 : Différents mécanismes de transport de l'eau dans la cellule.

En fait, il existe essentiellement trois trajets transmembranaires majeurs


pour le transport de l'eau. La diffusion simple de l'eau autorise le passage
à travers la membrane cellulaire. Comme les membranes cellulaires ne
sont pas très perméables à l'eau, il existe une barrière énergétique à la
diffusion relativement élevée. Le passage de l'eau par simple diffusion est
donc un processus lent, non régulé, qui dépend de la température et qui ne
correspond par conséquent pas à un moyen rapide, efficace, direct et régulé
de flux d'eau. Le passage transcellulaire de l'eau requiert pour sa part une
route transmembranaire pour le mouvement de l'eau. L'eau peut traverser
une membrane cellulaire par simple diffusion ou osmose. Elle peut aussi
participer au transport co-actif d'autres solutés comme les ions sodium ou
les molécules de glucose (Glc), ce qui se produit par exemple dans le cas
de la protéine SGLTI. Elle peut enfin transiter via des aquaporines qui sont
des canaux d'eau autorisant un transport transmembranaire rapide, régulé et
sélectif.

En plus de la diffusion simple, l'eau peut dans certaines cellules se trouver


transportée passivement en association avec le co-transport actif d'autres ions
ou solutés. Ce mécanisme de co-transport passif, où l'eau suit simplement
le trajet des autres solutés, fournit un chemin pour le transport de masse
de l'eau, même parfois à l'encontre d'un gradient osmotique. Ce mode de
transport de l'eau n'est cependant pas régulé de manière suffisante pour
assurer un contrôle de l'homéostasie de l'eau corporelle. De plus, la diffusion
simple ou le transport co-actif ne peuvent pas rendre compte du mouvement
transmembranaire rapide, régulé et sélectif de l'eau que l'on observe au cours
de processus physiologiques normaux dans plusieurs tissus, comme dans les
tubules rénaux, les cellules de sécrétion des glandes et les globules rouges.
Alors que certains de ces processus sont pilotés par des gradients osmotiques,

109
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

d'autres se produisent dans des conditions d'équilibre osmotique quasi


parfaites. Par conséquent, il doit exister des canaux dans les membranes des
cellules impliquées dans des processus d'absorption ou de sécrétion par un
trajet spécial, rapide, régulé et sélectif de l'eau.

Il existe une abondance de résultats expérimentaux qui suggèrent que de


telles cellules présentent une très haute perméabilité à l'eau avec une barrière
d'énergie au transfert si basse que la vitesse de diffusion des molécules à
travers les membranes est quasiment aussi rapide qu'en solution. Sur le plan
historique, ces observations ont conduit à émettre l'hypothèse de protéines
spécialisées perméables à l'eau présentant des « canaux d'eau ». Toutefois,
ce n'est que durant les années 90 qu'une preuve moléculaire de l'existence de
ces canaux a pu être apportée. Suite à un heureux concours de circonstances,
la première protéine à canal d'eau fut isolée à partir de la membrane cellulaire
de globules rouges. Cette protéine fut baptisée CHIP28, acronyme signifiant
protéine membranaire intégrale avec Canal d'eau de masse 28 kDa, et
ouvrit la voie à la recherche des canaux d'eau dans tous les domaines de la
biologie et de la médecine. CHIP28 fut bien vite renommée AQP 1, signifiant
aquaporine-1, suite à la découverte de nombreuses autres protéines similaires
présentant une homologie commune au niveau de leurs acides aminés
constituants. De manière générique, chez les cellules animales, on distingue
entre les aquaporines (AQP) et les facilitateurs du glycérol (GLP). Chez les
plantes, on distingue les protéines membranaires plasmatiques intrinsèques
(PIP) et les protéines intrinsèques ionoplastes.

Chez les mammifères, les aquaporines sont largement distribuées dans


les cellules des tissus qui sont engagés dans des processus d'absorption ou
de sécrétion, et dans les cellules qui ont besoin d'un mouvement rapide et
contrôlé d'eau en réponse à un gradient osmotique. La figure 49 récapitule
les tissus complexes, qui expriment de manière cellulaire et sub-cellulaire
les onze aquaporines connues actuellement chez les mammifères. Comme
on peut le constater, certains organes et tissus, comme les reins, les glandes
salivaires, les poumons et les yeux présentent un schéma d'expression de
plusieurs aquaporines extrêmement complexe qui correspond à la complexité
de leur fonctionnement et de leur régulation via des facteurs neuronaux et/ou
hormonaux. On suspecte que les membres de la famille GLP qui facilitent la
diffusion du glycérol jouent un rôle dans la régulation du métabolisme via la
régulation du transport du glycérol.

Sur le plan fonctionnel, les canaux d'eau peuvent être divisés en deux
sous-groupes, les aquaporines qui ne laissent passer que l'eau (AQP) et les
aquaglycéroporines (GLP) qui sont perméables à l'eau, au glycérol, à l'urée et
autres petits solutés. L'origine de la sélectivité vis-à-vis de la molécule d'eau
dans les AQP et la perméabilité au glycérol et à l'urée dans les GLP a été

110
CHAPITRE Il - L'EAU MORPHOGÉNIQUE

examinée par analyse structurale et comparaison des AQPl sélectives à l'eau


de mammifères aux protéines glpF facilitant le passage du glycérol chez les
procaryotes. Au vu de ces analyses, il a été suggéré que la sélectivité à l'eau
par opposition à la perméabilité au glycérol et à l'urée est due à l'interaction
de certains acides aminés spécifiques qui résident dans le pore et forment un
filtre pour les ions et les solutés dans les AQPl sélectives à l'eau.

Les aquaporines
dans le corps humain

Existence d'autres aquaporines non répertoriées

Figure 49 : Les différentes aquaporines identifiées à ce jour.

L'analyse conformationnelle de la séquence d'acides aminés de la famille


des aquaporines suggère pour chaque molécule AQP une topologie où
la membrane se trouve franchie à six reprises, avec les terminus amino et
carboxyle orientés vers le cytosol, trois boucles extracellulaires A, C et E
et deux boucles B et D intracellulaires (figure 50). L'analyse de la séquence
primaire d'acides aminés montre une grande similitude entre les deux moitiés
de la protéine, ce qui indique très probablement une duplication intergénétique
au cours de l'évolution ayant donné lieu à la structure du gène actuel. Un motif
de trois acides aminés, NPA pour Asparagine-Proline-Alanine, se trouve très
bien conservé dans les boucles B et E de pratiquement toutes les aquaporines.

L'analyse structurale tridimensionnelle a permis de révéler que les


motifs NPA, bien que localisés dans les hélices ne traversant pas la membrane,
sont cependant insérés dans la membrane. La boucle intracellulaire B et la
boucle extracellulaire E sont repliées dans la membrane et interagissent l'une
avec l'autre, formant ce que l'on appelle le« modèle en sablier» caractérisé
par un canal avec de larges ouvertures externes présentant une constriction
centrale où agit le motif NPA et qui constitue le pore d'eau fonctionnel. La
sensibilité au mercure provient d'un résidu cystéine (C189) localisé dans la
boucle extracellulaire E et qui se trouve à proximité du pore. Bien que chaque

111
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MtDECINE

PetHea molécules

Unité-t Extracellulaire Unité-2

Intracellulaire

Figure 50 : Structure générale de la famille des aquaporines transmembranaires.

AQP individuelle soit un pore d'eau fonctionnel, il y a assemblage de quatre


protéines identiques (tétramères) au sein de la membrane. Le mouvement
de l'eau à travers chaque pore peut être bidirectionnel, la direction étant
donnée dans un système physiologique par les gradients osmotiques ou par
l'adsorption de solutés.

Afin que seule la molécule d'eau passe, les aquaporines disposent toutes
d'un site de constriction ar/R (figure 51) formé d'un résidu aromatique
faisant face à un résidu arginine (R) qui pour AQPl, principale aquaporine du
cerveau, possède un diamètre de seulement 2,8 A. Sachant que la molécule
d'eau a un diamètre légèrement supérieur de 3 A, on pourrait s'attendre à ce
que le passage de l'eau soit un processus long et pénible pour la molécule
d'eau. En fait, il n'en est rien, et les mesures montrent qu'environ 2 milliards
de molécules d'eau passent chaque seconde dans le canal, ce qui fait que l'eau
diffuse plus vite dans le canal de l'aquaporine, avec un coefficient de diffusion
Dw = 18 10- 10 m2 s- 1, que dans de l'eau liquide à 5 °C où Dw = 13 10- 10 m2 s- 1•
En fait, chaque aquaporine possède son canal très spécifique. La figure 52
montre quelques topologies pour les aquaporines les mieux connues et les
mieux caractérisées à ce jour.

112
CHAPITRE II - L'EAU MORPHOGtNIQUE

ar/R

NPA

Figure 51 : Gauche : le modèle du sablier pour toutes les aqua(glycéro)porines


conduit à la formation d'une file d'eau dans la partie la plus étroite de la protéine,
appelée pour cette raison « filtre sélectif» et présentant un diamètre typiquement
compris entre 2 et 5 Â. Milieu : vue détaillée du pore de l'aquaporine bAQPJ
montrant la présence de deux dipoles associés à deux demi-hélices orientées vers
l'intérieur du pore avec en rouge les résidus hydrophiles et en jaune les résidus
hydrophobes. Les deux régions les plus conservées dans toute aquaporine sont le
site de constriction ar/R qui rejette toute molécule qui n'est pas del 'eau et les filtres
sélectifs NPA qui impliquent deux résidus asparagines qui forcent les molécules
d'eau à changer d'orientation lors de son passage au milieu du canal bloquant ainsi
tout passage de protons via la file d'eau. Droite: vue intérieure de la surface du pore
montant l'asymétrie de ce dernier avec un côté complètement hydrophile (rouge) et
l'autre complètement hydrophobe.

0(.u/R) • a 04Ji. 0(.u/R) • o,&oli.


0(.u/R) • o,oli.

V•l 52

HsAQP4 HsAQP5 BIAQP1 OaAQPO EcAQPZ EcGlpF

Figure 52 : Topologie du canal aqueux de quelques aquaporines.

113
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Propriétés de l'eau morphogénique


Le tableau 1 compare les propriétés physiques de l'eau liquide, de
l'eau morphogénique et de la glace. Il apparaît ainsi clairement que l'eau
morphogénique n'est ni liquide, ni solide et qu'il vaut mieux parler d'état
(( gélifié ».
Eau
Propriétés Eau liquide Ci lace
morphogénique

Densité (g.cm- 3 ) 1.00 0,97 0,92

CD (J.~g-1) 4,184 5,23 2,05

exp (K-1) 0,25.10 3 0,3-0,7.10 3 0,159810- 3

~ (GPa-1) 0,45 0,6-1,0 0,1142

exexcè/f (cm-1.S2) 1.10-17 "'35.10-17 197·10-16

x........ (w.m-1.K-1) 0,61 =4-21 2,22

Viscosité (mPa.s) 0,89 20-100 -

E0 cond. ion. (~J.mol"1) =17 21-34 55-62


--
Relax. diélec. (H~) 1910 9 210 9 :::210 4

Tableau 1 : Propriétés comparées de l'eau liquide, de l'eau morphogénique et de la


glace hexagonale.

On constate ainsi que la densité, le coefficient d'atténuation du son en excès


ex
=•è /fl, l'énergie d'activation pour la conduction ionique Ea et la fréquence
de relaxation diélectrique ont des valeurs intermédiaires entre les valeurs du
liquide et celles de la glace. Pour les autres propriétés comme la capacité
calorifique à pression constante Cp qui mesure les fluctuations quadratiques
d'entropie, le coefficient de dilatation thermique isobare ocP qui mesure les
fluctuations croisées de volume et d'entropie, le module de compressibilité
adiabatique ks qui mesure les fluctuations quadratiques de la pression et la
conductivité thermique xth•rm' on constate que l'eau morphogénique surpasse
la glace et surtout l'eau liquide qui est déjà un liquide exceptionnel. Cela
pourrait signifier que l'eau morphogénique est encore plus exceptionnelle
que l'eau liquide ...

114
Bibliographie
AsHMEAD, D. H. (1993), The rote of aminoacid chelates in animal nutrition, Noyes Pub!. :
Westwood, New Jersey, p. 21.
BETA, 1. A. ; MICHALARIAS, 1. ; FoRD, R. C. ; Li, J. C. ; BELLISSENT-FUNEL, M.-C. (2003), « Quasi-
elastic neutron scattering study ofhydrated DNA », Chem. Phys., 292: 451-454.
CLARK, G. R. ; SQUIRE, C. J. ; BAKER, L. J. ; MARTI, R.F. ; WHITE, J. (2000), « Intermolecular
interactions and water structure in a condensed phase B-DNA crystal »,Nue!. Acids Res., 28:
1259-1265.
FoRD, D. J. (1965), «Just Add Water», Carteret Press, n° XLII, 11 févr., Carteret, New Jersey.
GERSTEIN, M. ; LEVITT, M. (1998), « Simulating water and the molecules of life », Sei. Amer.,
nov. 1998, p. 101-105.
GooDSELL, D. S. (2009), The Machinery ofLife, 2• éd., Springer, New York.
lsRAELACHVILI, J. N. ; Mc ÜUIGGAN, P. M. (1988), « Forces between surfaces in liquids »,
Science, 241 : 795-800.
LANYI, J. K. (2000), « Molecular Mechanism oflon Transport in Bacteriorhodopsin : Insights
from Crystallographic, Spectroscopie, Kinetic, and Mutational Studies », J. Phys. Chem. B,
104: 11441-11448.
LEAL, C. ; WADSô, L. ; ÜLOFSSON, G. ; MIGUEL, M. ; WENNERSTRôM, H. (2004), «The hydration
of DNA-amphiphile complex », J. Phys. Chem. B, 108 : 3044-3050.
MELO, L. F. (2005), « Biofilm physical structure, internai diffusivity and tortuosity », Wat. Sei.
Technol., 52 : 77-84.
RAs, M.; LEFEBVRE, D.; DERLON, N.; PAUL, E.; ÜIRBAL-NEUHAUSER E. (2011), « Extracellular
polymeric substances diversity ofbiofilms grown under contrasted environmental conditions»,
Water Research, 45: 1529-1538.
RocKLAND, L. B.; NISHI, S. (1980), «Influence of water activity on food products quality and
stability »,Food Technology, 34 : 42-51.
RocKLAND, L. B. ; BEUCHAT, L. R. (1987), «Introduction», in Water activity: theory and
application to food, Marcel Dekker, New York.
ROYER Jr., W. E. ; PARDANANI, A. ; GiesoN, Q. H. ; PETERSON, E. S. FRIEDMAN, J. M. (1996),
« Ordered water molecules as key allosteric mediators in a cooperative dimeric hemoglobin »,
Proc. Nat!. Acad. Sei. USA, 93: 14526-14531.
RuFFLE, S. V. ; M1cHALARIAS., 1. ; LI, J.-C. ; FoRD, R. C. (2002), « Inelastic neutron scattering
studies of water interacting with biological membranes», J. Am. Chem. Soc., 124: 565-569.
SOLER-LOPEZ, M. ; MALININA, M. ; SueINARA, J. A. (2000), « Solvent organisation in an
oligonucleotide crystal », J. Biot. Chem., 276 : 23034-23044.
SzENT-GYôRGYI A. (1972), The living state with observations on cancer, Academic Press,
New York.
TEIXEIRA, J.; BELLISSENT-FUNEL, M.-C.; CHEN, D. H.; DIANOUX, A. J. (1985), « Experimental
determination of the nature of diffusion motions of water molecules at low temperatures »,
Phys.Rev.A,31: 1913-1917.
WALZ, T. ; SMITH, B. L. ; ZEIDEL, M. L. ; ENGEL A. ; AGRE, P. ( 1994), « Biologically active two-
dimensional crystals ofaquaporin CHIP », J. Bio!. Chem., 269: 1583-1586.
WIEDERHOLD, P. R. ( 1997), Water vapor measurements : methods and instrumentation, Marcel
Dekker, New York.

115
Une impasse
nommeeH 20
•Préambule
La formule de l'eau est probablement la seule formule chimique connue
de tout le monde. Toutefois, il est bon de savoir qu'elle découle d'une vision
atomique de la matière qui n'a été validée que depuis à peine 1OO ans. Durant
cette période, tout a été tenté pour comprendre les propriétés de l'eau à partir de
cette formule très simple. Etc' est précisément parce que l'eau est une substance
très complexe qu'une formule aussi simple ne pourra jamais rendre compte de
toutes les propriétés. Je présente dans ce chapitre ce que l'on peut comprendre
sur l'eau à l'aide d'une telle formule et en particulier la notion de liaison
hydrogène que l'on utilise pour occulter notre ignorance des phénomènes
quantiques. Je commencerai par rappeler comment cette formule a fini par
s'imposer vers le début du xx" siècle après un siècle d'incertitude complète.

La révolution newtonienne a fait que les phénomènes d'altération chimique


et d'évolution biologique sont sortis du cadre de la physique au xvn• siècle.
Pour la chimie, c'est le courant empiriste représenté par le sensualisme
d'Étienne Bonnot de Condillac qui va permettre de faire les premiers pas vers
des sciences d'essence non mécanique. C'est aussi l'époque où Kant préconise
un idéalisme transcendantal soutenant que nous ne voyons pas le monde tel
qu'il se présente à nous, mais selon la configuration de nos sens et de notre
disposition intérieure. Mais la brusque augmentation du nombre des substances
nouvelles associée à une multiplication des ateliers et des manufactures vers
le milieu du xvm• siècle va faire que ce siècle des Lumières sera dominé par
l'empirisme (Dagognet 2002). Comme on le sait, c'est l'époque où la science
anglaise annexe le ciel, tandis que la science suédoise s'attaque aux ténèbres
de la Terre. Il faut que tout devienne combinaison, d'où un regain d'intérêt
pour la balance (solides), le pèse-liqueur (liquides) et l'eudiomètre (gaz). En
effet, si les sociétés résistent mal à la pression démographique, la science
résiste mal à une invasion de faits nouveaux. La pression devient telle que
le chimiste français Louis-Bernard Guyton-Morveau (1737-1816) se désole
du désordre sémantique issu du développement de l'alchimie et souhaite une
réforme du vocabulaire chimique. C'est ce qui va amener Lavoisier à poser les
bases d'une chimie radicalement nouvelle avec un concept de composition-
recombinaison où le monde des substances est vu comme un commerce de
soustractions et d'additions avec bilans chimiques à l'appui.

117
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Lavoisier n'a découvert en fait que très peu de choses, il a simplement


écrit les premières équations chimiques et délimité le champ où s'opèrent
les transformations matérielles selon l'apophtegme « Rien ne se perd, rien
ne se crée » (Lavoisier 1789) déjà énoncé par Anaxagore. De plus, sa théorie
voco-structurale est vivement attaquée car Lavoisier fait entrer de force le
grec au détriment du latin, langue des jésuites. Entre 1785 et 1790, Kant va
découvrir les travaux de Lavoisier et accordera à cette science le statut d'être
propre au sens faible du terme, car il comprend alors que les mathématiques
sont parfaitement incapables de rendre compte de l'incroyable diversité des
substances chimiques (van Brakel 2006). En disciple de Condillac, Lavoisier
sait bien que le simple ne l'est que relativement aux instruments utilisés, car
rien ne lui prouve que ce que l'on prend pour un élément simple et homogène
ne soit pas en réalité un composé de principes hétérogènes (Condillac 1803).
De plus, la révolution chimique opérée par Lavoisier laissait intact le concept
d'affinité chimique, exposé pour la première fois en 1718 devant l'Académie
royale des sciences de Paris par Étienne-François Geoffroy. Geoffroy
représente les affinités en tableau, classant ainsi les substances en ordre
décroissant selon le degré d'affinité qu'elles entretiennent avec les corps de la
prem,ière ligne du tableau, qui commandent ainsi l'ordre de chaque colonne.

Or, la théorie chimique des affinités constituait l'un des piliers des théories
chimiques du xvm• siècle, étant la manifestation de la puissance de la doctrine
newtonienne hors du champ de la mécanique où était née l'idée d'attraction
universelle. Ce qualificatif d'universel faisait penser qu'elle était susceptible
de s'appliquer aux opérations électriques, magnétiques, chimiques, et
pourquoi pas psychologiques. Vers la fin de sa vie, Kant découvre qu'en
parallèle d'un monde corpusculaire où les objets physiques étaient supposés
constitués de minuscules parties discrètes séparées par du vide, il existait
aussi tout un monde de substances dotées de propriétés variées qui restait
complètement étranger à toute explication de nature mécanique.

Malheureusement, toutes les tentatives de mathématisation des affinités se


soldèrent par un échec, ce qui conduira les chimistes du début du x1x• siècle
à abandonner la théorie des affinités au profit de recherches sur les forces
thermodynamiques dans lesquelles les tableaux d'affinités ne jouent plus
aucun rôle. Vers la fin du x1x• siècle, l'outil de base du chimiste devient
en effet le tableau périodique des éléments, qui avec très peu de signes et
quelques colonnes est capable de rassembler non seulement le réel dans
toute son étendue et avec ses variétés, mais encore l'inexistant et l'inconnu
(Dagognet 2002). Ce regroupement est l'œuvre du chimiste russe Dimitri
Mendeleïev (1834-1907) qui eut l'idée de ranger les éléments à la queue
leu leu et de passer à la ligne, chaque fois qu'on atteint le chiffre 8. La
construction topologique de Mendeleïev a traversé les âges, car elle se base
sur la masse, propriété physique la moins incertaine. Le tableau périodique

118
CHAPITRE III - UNE IMPASSE NOMMÉE 820

est ainsi né de l'antagonisme entre la réactivité chimique et le pondéral, l'un


corrigeant l'autre. Mendeleïev se permet de rectifier les poids atomiques car
il est parfaitement conscient que cette masse ne correspond pas à un « fait »,
mais plutôt à un point de vue. En effet, les masses atomiques ne sont définies
qu'à un nombre entier près, ce qui autorise à multiplier ou diviser la masse
expérimentale par un entier convenable.

Un tel exploit est rendu possible par la nature foncièrement duale de la


notion d'élément. D'une part, l'élément est le terme de final du processus
d'analyse, c'est-à-dire une matière pouvant être isolée et ne pouvant plus
être décomposée selon la conception de Lavoisier. Mais l'élément est aussi
une notion abstraite dépourvue de toute propriété et représentant la forme
que prend l'élément lorsqu'il entre dans une combinaison chimique. On
notera ainsi la très forte proximité qui existe entre la notion d'élément chez
Mendeleïev et les principes métaphysiques élémentaires d'Aristote ou des
alchimistes. La seule propriété qui semble conservée par l'élément abstrait
est en effet le poids atomique, ce qui fait que la classification périodique des
éléments concerne principalement les éléments abstraits et non les substances
simples. C'est d'ailleurs cette conception non matérialiste qui a permis à
Mendeleïev de remettre en cause les poids atomiques publiés pour certains
éléments de manière à ce qu'ils trouvent une place naturelle dans son tableau
(Scerri 2008). Mais on oublie bien vite que sur un total de 18 nouveaux
éléments prévus par Mendeleïev, seuls 9 furent isolés par la suite. Quelle
indulgence pour un résultat qui ne fait pas mieux que le simple hasard ...

La théorie atomique de Rutherford et de Bohr permettra de comprendre la


persistance d'un élément dans ses composés, sous la forme de la présence
inchangée de tous les noyaux atomiques de la substance simple. La substance
simple avec ses propriétés optiques, chimiques, a disparu car les couches
électroniques de ses atomes se sont réarrangées, ne laissant comme mémoire
que le poids atomique et le caractère radioactif, propriétés du noyau. La
substance simple peut cependant toujours être récupérée avec toutes ses
propriétés en retirant tous les noyaux étrangers de manière à remettre les
électrons dans leur état original (Scerri 2006).

Un monde atomique
L'établissement de la formule chimique de l'eau fournit un excellent
exemple du danger que l'on court en raisonnant au moyen de masses. Tout
démarre en 1776 lorsque le chimiste français Pierre-Joseph Macquer ( 1718-
1784) et le physicien français Joseph-Aignan Sigaud de Lafond (1730-1810)
rapportèrent un fait anodin qui allait invalider de manière définitive l'aspect
indestructible de l'eau (figure 53). De fait, en interposant une soucoupe de

119
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE REVOLUTION DE LA MÉ:DECINE

porcelaine blanche dans la flamme du gaz inflammable, brûlant tranquillement


à l'orifice d'une bouteille, ils observent qu'apparaissent des gouttelettes d'eau
pure à l'endroit de la soucoupe qui léchait la flamme (Macquer 1777).

Pierre Joseph Macquer


(1718-1784) Sigaud de La Fond
L'1111M9 préeédeote (t770) .Uacqueret Sigaud de Lafond avaient oon1taté que ( 1730-1810)
par la combuaUon do l'bydrogènell ae forme de l'eau :
• Je me His uauri 11uel, dit Macquer, en interpoaant uno 110ueoupe de por-
celaine blnoche dans la Damme du gu inDarumable bn\lant traoq11illement à.
l'oritlce d'une bouteille, que cette Damme n'Mt nccompaglié d'aucune fuméer11-
ligineuM; car l'endroit de la IOOOOUpe que léchai& la Damme, est resté parfaile-
ment blanc : Il 1'eAt trouy6 seulement mouillé de aoutt.elettee • - .eo1lblaa
d'uno liqueur blanche comme de l'eau, et qnl noua a parn en efTet n'étre que de
l'c111 pure, • Macquer ne tira aucune conséquence de cette expérience, et coati·
ouaà enaeigner que l'oeu était un corpe1lmplo.

Figure 53 : 1776 : l'eau n'est déjà plus un élément, mais il faudra attendre 1781
pour que cette bastille de 2 500 ans vacille et.finisse pars 'effondrer.

L'eau perdit son statut d'élément indécomposable entre 1781 et 1785


en raison des efforts conjugués de James Watt sur le plan théorique et des
chimistes Joseph Priestley, Henry Cavendish, Antoine Laurent de Lavoisier
et Gaspard Monge sur le plan expérimental. On découvre ainsi que lors de
sa décomposition, l'eau génère deux gaz nommés oxygène et hydrogène.
Lavoisier forgera le nom « oxygène » à partir des deux racines grecques
« ol;uç » (oxus i--+ pointe i--+ qui pique i--+ acide) et « yf:voç » (genos i--+
naissance, race i--+ qui engendre) au lieu de l'horrible expression « air
déphlogistiqué » utilisée par les partisans de la théorie du phlogistique
comme Henry Cavendish, Joseph Priestley ou James Watt. De même, pour
l' « hydrogène », Lavoisier partira de deux racines grecques « uôcop » (hudôr
i--+ eau i--+ hydro) et « yf:voç » afin de remplacer l'expression trop vague

d'« air inflammable »proposée par Henry Cavendish. Pour comprendre le


traumatisme subi à l'époque, rappelons simplement la phrase de François
Guyton de Morveau, compagnon de route de Lavoisier, qui s'exclame en
1789 : « L'eau est un composé ! Il est difficile de se défendre d'une impression
de surprise la première fois qu'on entend une proposition aussi contraire à la
tradition de tous les siècles ... » (Laugier & Dumon 200 l ).

Une fois le traumatisme encaissé, il fallut savoir dans quelles proportions


se combinaient l'hydrogène et l'oxygène pour former ce corps simple
fascinant qui en France tire son nom du vieux françois « euwe », déformation
linguistique du prénom « Ève », mère de tous les hommes selon la tradition

120
CHAPITRE III - UNE IMPASSE NOMMtE H 20

judéo-chrétienne (Henry 2005). Durant la Révolution française, le chimiste


français Joseph Louis Proust (1754-1826) remarque qu'un métal comme
le fer s'unit avec l'oxygène uniquement selon deux proportions massiques
constantes d'oxygène (Proust 1794). Ainsi, selon Proust, 27 pds % correspond
à l'oxyde Feü et 48 pds % correspond à l'oxyde Fep3 et il n'existe aucun
intermédiaire entre ces deux compositions. Il remarque aussi qu' il n'existe
que deux sulfates de fer, l'un de couleur verte FeS04 et l'autre de couleur
rouge Fe2(S0 4)r D'autres métaux, comme l'étain, le mercure, le plomb et le
cuivre, ou non-métaux comme le carbone se comportant de manière similaire,
Proust suggère que toute combinaison chimique est assujettie par « une loi de
la nature » à une composition élémentaire constante et invariable, et énonce
sa« loi des proportions définies» (figure 54) : dans tout corps composé, les
proportions en masse des constituants sont identiques quelle que soit la façon
de l 'obtenir. Cet énoncé l'entraînera dans une controverse avec Claude Louis
Berthollet qui pense au contraire, d'après ses propres expériences sur les
verres, les alliages et les liquides, que les combinaisons se font toujours dans
des proportions très variables, à moins qu'elles ne soient déterminées par des
causes particulières, telles que la cristallisation, l'insolubilité, ou l'élasticité.

Joseph Louis Proust (1754-1826)

(1794)
Loi des proportions définies

Hydrogène (m8 ) + Oxygène (me) -+ Eau (m. )

Pourtoutm 2

Figure 54 : La loi des proportions définies a été le tout premier pas vers la réalité des
atomes et le développement de la théorie quantique.

Le chimiste et physicien britannique John Dalton ( 1766-1834) explique en


1803 la loi des proportions définies de Proust en supposant que la matière est
constituée d'atomes minuscules et inaltérables. Il propose ainsi qu'à chaque
élément chimique différent correspond un type différent d'atomes et que tous
les atomes d'un même élément (hydrogène, oxygène ... ) soient identiques.
Cette hypothèse permettait d'expliquer la loi de Proust puisque les atomes
s'assemblaient toujours dans les mêmes proportions. Un atome de carbone

121
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

par exemple pouvait s'unir avec 1 ou 2 atomes d'oxygène mais jamais avec 3
ou 4, et surtout pas avec des nombres fractionnaires comme 1,3 ou 1,5. Seules
les combinaisons de nombres entiers semblaient autorisées par la nature,
ce que Dalton exprima par une « loi des proportions multiples » : si deux
corps peuvent former plusieurs composés, les rapports de masse entre les
composantes sont toujours des rapports de nombres entiers. S'appuyant sur
les mesures de Lavoisier et de Proust, Dalton fut ainsi en mesure de calculer
pour la première fois les masses (relatives) des atomes (Dalton 1803). Ainsi,
dans le cas de l'eau, Dalton proposa la formule HO (figure 55) afin de traduire
le fait que 1 g d'hydrogène (H) réagit avec 7 g d'oxygène (0) pour former 8 g
d'eau (valeurs de 1808 tirées du livre de Dalton, le rapport moderne est 8 : l)
(Dalton 1808). Cette manière de raisonner allait perdurer pendant près d'un
siècle sous l'appellation de« théorie des équivalents».

{1803)
0• Hydro5rn. 10. Stnmtian
w.
.fi"

Matière (J) A 0 Baiy<t


e c.. b...
t ott
Atomes insécables
masse invariable © I ron
tlément = 1 seul type d'atome
Q Oxy~rn J @ Z inc · JI
John Dalton Composé = au moins 2 éléments
@ Phospl.orus..9 @ Ç ~ppcr .;/
1

{1766-1844) rapports entiers simples E9 Sulpl1ur JI @ .Lead ;, '


(1) M 1511..ia ~ @ Silver !Jff-
e. Lime ,.. 0 Gold IJ'
([D Soda !I © Platina tf
1 g hydrog&le H 7 g oxyg&le 0 8geauOH @ Potash .l i 0 Mercury /Ô/

Figure 55: Pour Dalton, l'eau se formule OH en raison d'un bilan de masse.

Un monde moléculaire
Un problème surgit toutefois très rapidement lorsque le physicien Louis
Joseph Gay-Lussac (1778-1850) montra en 1808 que les rapports entre les
volumes de gaz qui entrent en réaction sont également des rapports constants
de nombres entiers (Gay-Lussac 1809). Ainsi, un volume d'oxygène se
combine à température et pression constantes à deux volumes d'hydrogène
pour donner deux volumes de vapeur d'eau (figure 56). Gay-Lussac comprend
alors que ceci est un trait caractéristique de l'état gazeux, puisque de tels
rapports entiers de volume ou de masse ne sont généralement pas observés
avec les liquides et les solides. Cette observation de Gay-Lussac portant sur
les volumes ne collait pas du tout avec l'hypothèse atomique de Dalton : H
(1vol)+0 (1 vol)--+ HO (1 vol) et non deux comme le révèle l'expérience.

122
CHAPITRE III - UNE IMPASSE NOMMÉE H 20

Pour concilier le point de vue en volume avec celui en masse, le chimiste


italien Amedeo Avogadro (1776-1856) va introduire la notion de molécules et
faire l'hypothèse hardie que mesurer un volume revient à compter le nombre
de molécules qui s'y trouvent (Avogadro 1811 ). Constatant que le rapport des
densités du gaz oxygène et du gaz hydrogène était de 15 : 1, il s'ensuivait que
la molécule d'oxygène avait une masse 15 fois plus grande que la molécule
d'hydrogène (valeurs de 1808 tirées du papier de Gay-Lussac. Le rapport
moderne est 16 :1). Pour l'eau, le rapport de densité entre la vapeur d'eau et
l'hydrogène était de 9 :1, signifiant que la masse de la molécule d'eau était
9 fois plus élevée que la masse de la molécule d'hydrogène. Dalton ayant
montré que H = 1 et 0 = 7, il s'ensuit que la molécule d'eau devait s'écrire
Hp (1+1+7=9) et non OH. De plus, comme le rapport des volumes de
l'hydrogène à l'oxygène dans la formation de l'eau était de 2 à 1 et que l'on
récupérait deux volumes d'eau, l'union de deux molécules d'hydrogène avec
une molécule d'oxygène devait générer deux molécules d'eau.

(1808)

11·12vohunes

1
1volume

Il 2voluma
Non conservation
Louis Joseph Gay-Lussac (1778-1850) du volume
Eudiomètre

Pour qu'il y ait cohérence en masse et en volume, Avogadro constate


qu'il fallait que les molécules d'oxygène et d'hydrogène soient constituées
chacune de deux atomes identiques unis chimiquement, ce qui oblige à
réviser les valeurs de masse données par Dalton (figure 57). En effet, en
notation moderne : On (1 vol)+ 2 Hn (2 vol)~ 2 Hp (2 vol), obligeant à
poser n = 2 pour conserver le nombre d'atomes à droite et à gauche. Comme
on sait d'après les densités que m(0 2) = 15 x m(H 2), il en découle que si on
posait mH = 1 par convention, alors on devait avoir m0 = 15 et non m0 = 7
comme le supposait Dalton.

123
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

OO

Dalton: 2 H + 0 .... OH + H
2N molécules N molécules 2N molécules

Amedeo Avogadro
(1776-1856)

Figure 57 : Pour Avogadro, mesurer les volumes signifi.e compter les atomes ou les
molécules.

Toutefois, il faudra attendre une cinquantaine d'années pour que l'hypothèse


d' Avogadro soit considérée sérieusement, car Avogadro mourra en 1856 dans
l'indifférence générale. Dalton par exemple considérait que les mesures de
Gay-Lussac étaient un heureux hasard et n'avaient rien de général. Le grand
chimiste suédois Jôns Jacob Berzélius ( 1779-1848), fondateur de la chimie
minérale, rejeta aussi l'hypothèse d' Avogadro. Ainsi, alors que Lavoisier
raisonnait. en termes de combustible/comburant, Berzélius grâce à la pile
galvanique du chimiste britannique Humphry Davy ( 1778-1829), mentor du
physicien britannique Michael Faraday (1791-1867), opposait pour sa part
les métaux électropositifs aux métalloïdes électronégatifs (Berzélius 1819).
L'ancien élément feu rebaptisé « calorique » par Lavoisier devient avec
Berzéli us le fluide électrique et l'oxygène, élément le plus électronégatif,
est perçu comme une sorte d'absolu électrique, par rapport auquel les autres
éléments se disposent. Chez Berzélius, toute combinaison chimique dépend
uniquement de deux forces opposées, l'électricité positive et la négative ...
De cette vision dualiste découle que tout corps composé, quel que soit le
nombre de ses principes constituants, peut être divisé en deux parties, dont
l'une est positivement et l'autre négativement électrique. Avec Berzélius, on
doit commencer par épeler en premier lieu la partie électronégative et finir
par l'élément positif. On comprendra donc aisément que la notion même
de molécule homopolaire était pour lui une ineptie. Toutefois, le plus grand
obstacle à l'idée d' Avogadro était le fait qu'il était impossible de compter le
nombre de molécules dans un volume donné. La seule chose que l'on pouvait
affirmer à l'époque, c'était que certaines substances gardent toutes leurs
propriétés lorsqu'elles sont réduites à une épaisseur de dix millionièmes de
pouces soit 2,54 nm (Young 1807, p. 459). Il découlait de cela que la distance

124
CHAPITRE III- UNE IMPASSE NOMMtE H20

entre deux atomes ne pouvait pas excéder 1OO millionièmes de pouces


(0,25 nm), ce qui signifiait qu'il était totalement hors de question de compter
les atomes un par un comme on le faisait avec les objets macroscopiques.
Il faudra donc attendre le développement de la thermodynamique et de la
théorie cinétique des gaz pour qu'un tel dénombrement devienne possible.

Réalité atomique
Le développement de la mécanique statistique vers la fin du x1x• siècle va
permettre de résoudre la querelle entre atomistes pour qui l'eau doit s'écrire
Hp et équivalentistes pour lesquels l'eau doits' écrire OH. En fait, la querelle
va beaucoup plus loin, car dans leur opposition farouche contre une théorie
atomique de plus en plus confortée par la mécanique statistique, certains
scientifiques vont aller jusqu'à nier l'existence même de la matière en posant
que tout est énergie. C'est le cas du chimiste germano-balte Wilhelm Ostwald
(1853-1931 ), Prix Nobel de chimie 1909 pour ses travaux sur la catalyse
chimique et ses recherches sur les principes fondamentaux qui gouvernent
l'équilibre chimique et la cinétique des réactions. Dans un petit pamphlet qui
fit beaucoup de bruit à l'époque, il pose que toutes nos sensations proviennent
d'une différence d'énergie entre les organes des sens et le milieu qui les
entoure (Ostwald 1895). Il explique ainsi que si je reçois un coup de bâton,
ce n'est pas le bâton qui en est la cause, mais son mouvement (et donc son
énergie cinétique) qui est dirigé vers moi. En effet, si je me déplace avec la
même vitesse et dans la même direction que le bâton, ce dernier ne me fera
aucun mal et de fait, il n'existera pas pour ce qui me concerne. Autrement dit,
la matière est une invention forgée pour représenter ce qu'il y a d'invariant
autour de nous, tandis que toute réalité tient dans la seule notion d'énergie.

Or, c'est précisément la position inverse de la mécanique statistique qui


met la réalité dans les atomes et utilise l'énergie comme une notion abstraite.
Une autre critique importante d'Ostwald concerne la réversibilité totale des
équations mécaniques qui s'oppose à l'irréversibilité du second principe.
Enfin, pour Ostwald, il était ridicule de prétendre que l'eau était formée
d'hydrogène et d'oxygène, puisqu'on ne retrouve aucune des propriétés
sensibles de ces deux gaz dans l'eau vapeur. Comment une même chose
pouvait-elle à la fois disparaître en tant que substance et persister en tant
qu'atomes? Mais, comme on va le voir, Ostwald sera obligé vers la fin de sa
vie d'accepter l'atomisme.

125
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Constante d'Avogadro NA= 6,02214129(27)x10 23 mol·1


Nombre d'étoiles visibles dans l'univers"' 1024

VI1cosit6 des gaz (liquationdnan der Waals) 62


Mouwmentbrownlen:
Reyartition des grains
Déplaoemenl4
Rotationo
Diffusion
Réputltlon lrftgulièra deo molécules:
Opaleoœnœ critique 75
Bleu du ciel 60(?)
Spectre du corpo noir 64
Charge de spb&ules (dans un gaz) 68
Amedeo Avogadro ~:
(1']76-1856) Charges projetm
HBium .....,.W Jean Perrin

"1 - v2
Radium disporu (1870-1942)
tn..gie rayooMe

Mesurer un volume V revient


N2 à compter le nombre de particules N
Potentiel chimique: µ = µ 0 (n=N) + R·9·ln (n/N)

Figure 58 : De 1811 à 1913, un siècle de recherches pour admettre la réalité du


monde atomique et moléculaire.

En effet, entre 1870 et 1913, différents moyens d'estimation de la constante


d' Avogadro vont voir le jour et l'on va s'apercevoir qu'elle gouverne toute
fluidité, toute couleur, toute luminosité, toute agitation, toute chute, toute
électricité, toute radioactivité, toute cristallinité ou toute détergence ... Elle
est la preuve qu'atomes et molécules sont bien réels. Dans une mole de
matière, on trouve donc toujours 602 214 milliards de milliards d'atomes
ou de molécules. Pour réaliser l'énormité de ce chiffre, on pourra retenir que
dans une mole d'eau, soit 18 g, il y a autant de molécules d'eau que d'étoiles
dans tout l'univers. C'est cette valeur astronomique du nombre d'Avogadro
qui nous empêche de percevoir l'étrangeté du monde quantique. C'est bien
évidemment cette concordance entre 13 mesures indépendantes (Perrin 1913)
qui fait que de nos jours on croit « dur comme fer » à l'existence des atomes
des molécules, comme l'a si bien expliqué le physicien français Jean Perrin
(1870-1942) (figure 58).

Lo liaison hydrogène
Une fois la théorie atomique acceptée via l'universalité de la constante
d' Avogadro, les choses s'accélèrent considérablement, et il devient de plus en
plus évident qu'il se passe quelque chose de bizarre lorsque l'hydrogène entre
en combinaison chimique non seulement avec l'oxygène mais aussi avec le
fluor ou l'azote. Ainsi, on constate que le point de fusion, de congélation, la
chaleur de vaporisation et la chaleur de fusion du fluorure d'hydrogène sont
supérieurs à ceux de l'acide chlorhydrique au lieu d'être inférieurs (figure 16).
On trouve ainsi la même« anomalie» pour HF vis-à-vis de la série HCl-HBr-

126
CHAPITRE III - UNE IMPASSE NOMMÉE H20

Hl, que pour Hp vis-à-vis de la série H2S-H2Se-H2Te ou NH3 vis-à-vis de la


série PH3-AsH3-SbH3 (Simmons 1931).
Il y a également beaucoup d'anomalies dans les points de congélation
(Beckmann 1890) et les courbes de densité de vapeur de plusieurs mélanges
liquides (Nernst 1891). On a aussi du mal à rationaliser les constantes de
basicité de l'ammoniac et des amines substituées (Moore et Winmill 1912).
Enfin, suite à la découverte de la diffraction des rayons X par la matière
cristalline, on découvre la structure tétraédrique de la glace (Bragg 1922)
avec ses larges canaux hexagonaux capables de piéger des gaz et qui
permettent aux paléoclimatologues de se faire une idée de la composition de
l'atmosphère terrestre de -500 000 ans à nos jours. On découvre aussi avec
surprise l'existence de l'ion [HF2l (Bozorth 1923) ainsi que le changement
de la fréquence d'étirement de la liaison -0-H (Collins 1925).

Maurice L. Huggins
(l8 97_19 8l) «pont hydrogène » Gilbert N. Lewis
(1875-1946)
H H
H:o:H:o: H:~:H:Q:H
H H

Lewis (1923):
«Liaison hydrogène•
Wendell M. Latimer Worth H. Rodebush
(1893-1953) (1887-1959)
«hydrogène bigame»

Henry E. Armstrong (1923) OH 2 = «hydrone•


(1848-1937)

Figure 59 : Ce fut l'étudiant de master M L. Huggins qui eut l'idée saugrenue de


placer un atome d'hydrogène en pont entre deux atomes d'oxygène comme une
théories 'appliquant à certains composés organiques. Ses encadrants W. H. Rodebush
et W. M Latimer trouvèrent l'idée intéressante et la publièrent sous leur nom en
remerciant juste Huggins dans une note en bas de page (Latimer & Rodebush 1920).
Le directeur du département G. N. Lewis trouva aussi l'idée complètement idiote
mais la reprit quand même dans son livre sous l'appellation « liaison hydrogène »
(Lewis 1923). Le spécialiste de l'eau de l'époque fut lui carrément horrifié et protesta
de manière véhémente contre de telles pratiques (Armstrong 1926). Voir Quane
(1990) pour les détails croustillants.

127
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ces anomalies provoquèrent trois types de réactions parmi les chimistes.


Certains essayèrent de déterminer le plus précisément possible les propriétés
physiques ou les paramètres structuraux des substances incriminées sans
chercher à comprendre ou rationaliser les observations expérimentales.
D'autres associèrent ces anomalies à la notion« d'association» sans chercher
à spéculer sur la nature des forces mises en jeu lors de cette association.
Enfin, certains cherchèrent à élaborer des théories sur la nature de ces forces
associatives. La figure 59 montre les principaux acteurs impliqués dans
l'affaire de l'hydrogène « bigame » selon l'expression de H. E. Armstrong
qui préférait expliquer l'association des molécules d'eau entre elles par des
liaisons oxygène-oxygène. Ceci explique que, malgré une publication où l'on
utilise abondamment le terme « hydrogène coordiné » (Sidgwick 1927), on
n'évoque qu'avec répugnance l'existence de la liaison hydrogène durant la
période 1920-1930.

,.._._._., v-.. 14- • Calculat.ed and observed values of lhehydrogen-halogcndistances in


dlehydrogcnhalidesare in agreementonly for HF, Crom which ilcan
THE SHARED-ELECTRIJN be concludcd lhat HF is a polar compound fonned from H' and F- md
CHBJIICAL BOND that, as London had p-eviously stat.ed, HCJ, HBr, and Ill are probably
non-polar. The conclusion regarding HF is f~ '"!l'l'°rt.ed by the
existence of the hydrogen bond. The 11rUC11.1rc l:?.:H:}::l for the acid
fluoride ion and a similar one for H,F, are rulcd out by Pauli's
principlc. if theshared pairs are of London's type. The ionic sbUcllll'e
:F:·H·:fi:·, in which the procon holds the two fluoride ions logether by
~!-~tic forces (including polarization) is, of course, allowcd.
This conception of the hydrogen bond explains the observation that
only aloms of high cleclron affiniry (fluorine, oxygen, and nitrogen)
form such bonds.

Linus Carl Pauling


(1901-1994)

Figure 60: La biologies 'empare de la liaison hydrogène dès 1936, d'abord pour les
protéines, puis pour /'ADN.

Mais, en 1928, entre en scène Linus Carl Pauling (figure 60) qui va imposer
pour les générations futures l'utilisation du terme « liaison hydrogène »
introduit dans le livre de Lewis de 1923 (Pauling 1928). Contrairement à
ses prédécesseurs, Pauling maîtrise parfaitement la cristallographie et est
fasciné par la toute nouvelle mécanique quantique qui vient d'être enfin
parachevée après plus de 30 années de désillusions et de désarroi complet
des physiciens s'accrochant de manière désespérée aux théories de Newton

128
CHAPITRE III- UNE IMPASSE NOMMÉE H 20

et Maxwell. La théorie quantique de la liaison chimique (Heitler & London


1927) montre aussi très clairement que si la liaison hydrogène existe bel
et bien, elle ne peut être que de nature purement ionique. Ceci n'est pas
pour déplaire à Pauling, puisqu'il se trouve qu'il vient de mettre sur pied
sa théorie de l'électronégativité et que les atomes d'azote, d'oxygène et de
fluor sont précisément les trois éléments les plus avides d'électrons de la
classification périodique. Mais Pauling dans son enthousiasme ne fera aucune
référence aux travaux de ses prédécesseurs. Il rectifiera donc le tir en 1931 en
prenant bien soin d'insister sur le caractère purement ionique de cette liaison
hydrogène (Pauling 1931). Ceci oblige à écrire pour l'eau des formules du
type HEB ... eoe ... EBH ... eoe ... EBH, en accord avec la suggestion de W. H. Bragg
de considérer la glace pour un empilement d'ions oxyde 0 2e et de protons
(Bragg 1922).

En 1933, on propose que les propriétés de l'eau ne dérivent pas uniquement


de la polarité intrinsèque de la molécule mais aussi de l'existence d'une
structure tétracoordinée irrégulière des molécules (Bernai & Fowler 1933).
Dans ce papier, le terme « liaison hydrogène » n'est utilisé qu'une seule
fois en tout et pour tout et seul le travail de G. N. Lewis se trouve cité. En
1934, Pauling commence à douter de l'aspect purement ionique de la liaison
hydrogène et suggère une résonance possible entre des formes ioniques et
covalentes dans les groupements carboxyliques (Pauling & Brockway 1934).
La même année, on montre que la substitution de l'hydrogène par le deutérium
renforce considérablement la liaison hydrogène (Lewis & Schutz 1934). En
1935, Pauling publie son papier sur la structure et l'entropie résiduelle de
la glace liée à l'asymétrie de la liaison hydrogène et n'écrit que des formes
moléculaires neutres pour les molécules d'eau, suggérant qu'il a abandonné
son modèle purement ionique (Pauling 1935).

Ceci suggère pour la première fois que la liaison hydrogène serait


une attraction d'origine dipolaire et non ionique. Dès 1936, le terme
« liaison hydrogène » commença à être largement employé, aussi bien en
cristallographie qu'en spectroscopie infrarouge ou en thermochimie. Mais le
fait décisif qui allait sortir ce concept du cadre de la chimie fut, toujours en
1936, la proposition que les protéines forment des configurations bien définies
en établissant des liaisons hydrogène intramoléculaires (Mirsky & Pauling
1936) (figure 61). La reconnaissance officielle de la liaison hydrogène est
validée lors du congrès de la Faraday Society sur la structure et les forces
moléculaires dans les liquides et les solutions tenu à Édimbourg du 24 au
26 septembre 1936 via la conférence plénière du chimiste américain Joël
Henry Hildebrand ( 1881-1983) qui souligne l'extrême importance du concept
de liaison hydrogène (Hildebrand 193 7) :

129
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLIJf/ON DE LA MÉDECINE

Il est en train de devenir évident, une fois encore, que le terme


«association», sous lequel nous avons regroupé tous les écarts par rapport à
un comportement jugé normal, doit être subdivisé en association provenant
d'interactions entre dipôles et celles dues à la fonnation de liaisons
chimiques bien définies. Parmi les premières, les plus intéressantes sont les
liaisons ou ponts hydrogène entre atomes d'oxygène, d'azote ou de fluor.

Suite à ce meeting, les chercheurs français spécialisés en spectroscopie


infrarouge abandonnent très vite le concept liaison monoélectronique de
Jean Perrin (Perrin 1927) pour adopter le terme de « liaison hydrogène ».
Enfin, certains considèrent que la liaison hydrogène est stabilisée de manière
quantique en raison de l'existence de structures de résonance dans lesquelles
l'atome d'hydrogène est lié alternativement à l'un ou l'autre atome d'oxygène
(Sherman 1937). L'impression générale qui ressort de cette histoire est un
malaise devant cette tendance à qualifier d'anonnale une association de
faible énergie entre molécules d'eau ainsi que devant la difficulté à définir
un concept sans lequel toute vie serait impossible. On trouvera en annexe
la définition officielle IUPAC du terme « liaison hydrogène » qui tient sur
plusieurs pages !!! Du pur délire si d'aventure on tentait d'appliquer le rasoir
d'Occam.

Aspects structuraux
Le problème des approches purement thermodynamiques est qu'elles
occultent complètement le problème de la structure des objets et la nature
exacte des interactions inter-moléculaires. Ainsi, on sait aujourd'hui que
l'eau Hp n'existe à l'état de molécule isolée que dans l'espace interstellaire
et intergalactique lorsque la pression est extrêmement faible. Dès que la
pression augmente, l'eau fonne des petits polymères cycliques présentant au
maximum 5 molécules d'eau ou bien des petites cages tridimensionnelles
à partir de 6 molécules d'eau (Keutsch & al. 2001). Comme on vient de le
voir, on suppose, pour rendre compte de ces structures, que la molécule d'eau
peut s'associer spontanément à une autre molécule via le partage d'un atome
d'hydrogène.

130
CHAPITRE III- UNE IMPASSE NOMMtE H 20

= -0,40
Çjj--~
E/k.1. mot·•

L
«>

IZ
a - 580

~
Z4

16 298 prn

0

-1

-z ~~~~~~~~~~~
R(O-Oypm
-· a(o)
zoo zzo Z«> HO HO aoo no I«> HO 110 «>O

Figure 61 : Dès que la pression devient suffisante, la molécule d'eau n'existe


pas sous forme isolée H20 (en haut à gauche) mais s'associe avec une deuxième
molécule d'eau pour former au minimum un dimère d'eau {HpJ 2 (en haut à droite).
Comme le montre la courbe en bas à gauche pour ce qui concerne l'étirement le long
de l'axe ou la courbe à bas à droite pour le pliage perpendiculairement à l'axe de
liaison, le potentiel associé à cette liaison impliquant la mise en commun d'un atome
d'hydrogène entre deux atomes d'oxygène est extrêmement mou.

La figure 61 montre que cette liaison est extraordinairement flexible et, avec
une énergie de liaison proche de -20 kJ mol· 1, se trouve être nettement plus
stabilisante que les interactions de van der Waals impliquant des moments
dipolaires permanents ou induits (E ~ -1 kJ mol·') tout en restant nettement
moins énergétique qu'une liaison covalente impliquant un partage direct
des électrons comme dans la liaison chimique entre l'atome d'hydrogène
et l'atome d'oxygène qui vaut -458,9 kJ mol· 1• Au niveau structural, cette
liaison hydrogène se caractérise par une distance oxygène-oxygène comprise
entre 270 et 295 pm et une tolérance angulaire 0-H ... O comprise entre 0
et 30°. On remarquera que cette interprétation simple basée sur les lois de
l'électrostatique est loin d'être satisfaisante, car les interactions impliquant des
charges ne sont par nature pas directionnelles, contrairement aux interactions
impliquant des dipôles ou des quadripôles. Selon la théorie de Maxwell, les
énergies d'association entre deux molécules d'eau sont de l'ordre de 0,05 eV
par interaction dipôle-dipôle, de 0,03 eV par interaction dipôle-dipôle induit et
de 0,12 eV par interaction dipôle induit/dipôle induit (figure 62). Ces valeurs
ne permettent donc pas d'expliquer le point d'ébullition anormalement élevé
de l'eau liquide qui nécessite une énergie d'interaction entre molécules au
minimum égale à 0,22 eV.

131
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

6-
(1105 ± 10) cm-1
Do (13.2 ± 0,05) kJ ·moI-1
(0.1368 ± 0.0005) eV

R(O ...O) = Rv<1w(H) + d(O-H) + Rvdw(O) = 1.2 + 0.95 + 1.5 = 3.75 A


Willem Hendrik
Keesom Peter Debye Fritz London
(1876-1956) (1884-1966) (1900-1954)

Po = 1,855 D a= 1.47 Â3 1 = 12,6 eV


T= 300K

u =
•··•
Dipôles permanents

2p;
Dipôle permanent

• · · · :-
Dipôle induit

dd 3(41Œo)2·R 6·ksT u = 2a·p;


lnd (41Œo)2R6
Udd = -0.05 eV Udisp = -0.009 eV
Uïnd = -0.003 eV

Figure 62: La forte polarité de la molécule d'eau ne permet pas de rendre compte non
plus de /'énergie de stabilisation par liaison hydrogène dans le cadre d'interactions
dipolaires permanentes ou induites.

D'autre part, comme le montre très bien la figure 13, le moment dipolaire de
l'eau ne permet pas d'expliquer la différence de points d'ébullition que l'on
observe entre le néon et la molécule d'eau qui ont pourtant des masses molaires
très proches. Ce moment dipolaire n'est en aucun cas capable de justifier l'écart
qui existe entre H2S et Hp au niveau des points d'ébullition. Il existe donc un
certain mystère autour de cette liaison hydrogène qui est absolument nécessaire
à la vie.
On remarquera qu'en biologie le groupement CH en alpha de la liaison
peptidique est capable d'agir comme un donneur d'hydrogène vis-à-vis de tout
atome d'oxygène placé à sa proximité immédiate (Scheiner & al. 2001) et que
pour un résidu lysine chargé, la liaison C-H ... O est quasiment aussi stabilisante
qu'une liaison 0-H ... 0 (tableau 2). Pour ce qui concerne les acides aminés
présentant des résidus aromatiques, à savoir la phénylalanine (Phe ), la tyrosine
(Tyr), le tryptophane (Trp) et l'histidine (His), on a pu montrer (Scheiner & al.
2002) qu'il pouvait aussi exister une interaction de type« liaison hydrogène»
entre des molécules d'eau et le centre des noyaux aromatiques (figure 63). Ceci
démontre sans ambiguïté que cette interaction est de nature non électrostatique
et ne peut être comprise que dans un cadre quantique, comme on le verra plus
loin. Cet aspect directionnel de la liaison hydrogène se manifeste directement
dans l'existence de plusieurs polymorphes de la glace. Notons cependant
que la forte anisotropie de la liaison hydrogène par rapport à l'isotropie des

132
CHAPITRE III- UNE IMPASSE NOMMtE HlO

interactions électrostatiques ou de van der Waals joue un rôle crucial en biologie


dans le phénomène de reconnaissance moléculaire en autorisant le repliement
des protéines, la structuration del' ADN ou encore la reconnaissance entre une
molécule et un récepteur localisé sur la membrane cellulaire. De plus, la plupart
des réactions enzymatiques reposent sur la capacité de la structure à transférer
le plus rapidement possible des protons HEll, ce qui nécessite très souvent la
présence d'un réseau de liaisons hydrogène.

Acide aminé Éner ie/kJ·mol-1 Distance / pm


GLY, R = H -10,5 334
ALA R=CH3 -8 8 334
VAL, CH CH3)2 -8,4 335
SER R=CH20H -96 332
CYS, R = CH2SH -8 331

ASP- = CH2C008 +6 0 333

Tableau 2 : Énergie de liaison et distance carbone-oxygène pour une interaction


entre le groupement CH en alpha de la liaison peptidique, -HCa -C=O-NH-R et
l'atome d'oxygène d'un groupement carbonyle.

~ Phénol \fyr) ..., tndolekJ(Trpmol) -, Im-~:~is)


8.t -9.6kJ·mol· ~ -•3"' . • !t ·v
- ~ { ~ -~t- ~ \Ï
~ - \1, ~
\• ~~ \
Be.mie (Phe)
-8,SkJ·mol·• ~ Indole (Trp)
~ -14,6lrJ·mol•
. . o
lmidazole(Hts)
-13,tlrJ·mol·

Figure 63 : Les composés aromatiques sont également capables d'établir des


liaisons hydrogène non conventionnelles entre leur cycle et une molécule d'eau.
Généralement, cette liaison est telle que l'atome d'hydrogène pointe vers le centre
du cycle, sauf dans le cas de l'ion protoné imidazolium où c'est l'atome d'oxygène
qui vient se placer au centre du cycle.

Clusters ou grappes d'eau


C'est le concept de liaison hydrogène qui est généralement invoqué pour
la formation de clusters d'eau observables sur une surface solide ou à l'état
gazeux. L'étymologie du mot « cluster » est assez incertaine. La plupart des
dictionnaires font référence à la racine grecque tluÇro qui signifie « laver »,
« baigner par les flots » et qui a donné naissance au « clystère », espèce de
grande seringue qui désignait un instrument médical que l'on utilisait pour
introduire dans le corps humain un fluide via l'anus. Cette étymologie se
retrouve aussi dans les mots tels que« cataclysme» (destruction par les flots)
ou cloaque (mare d'eau clapotante) et aussi très probablement par extension

133
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE U MÉDECINE

dans « cloître » qui signifie cerner par des murs (ces murs étant très souvent
entourés par des fossés remplis d'eau). Le problème de cette étymologie est
que l'on n'y retrouve pas la signification actuelle du mot « cluster » qui peut
se traduire en français par« bouquet»,« grappe» ou« amas». En revanche,
si l'on prend une autre racine grecque très voisine, tlacrwÇ qui signifie
«brisé » et qui a donné naissance au mot« iconoclaste » (briseur d'image)
ou le verbe dérivé tlacrtaÇro qui signifie « ébrancher », on comprend mieux
l'origine de ce mot puisqu'un arbre peut être tout à fait défini comme un
cluster de branches.

heptamère

-- ........- • • •
lft ~ *

........
j •

"• -,. f .. •
'
;
. .. '!Ill" ......
~ .
. . . ..ti]

. H ·• l
. •

1 . ..

.
l

• 4t:
. •


:
.
.. ..;

'1 76

• • • • • ~
. ~

. 2 tiJ. .• - .
hexamère nonamère

Figure 64 : Images STM basse résolution (milieu), haute résolution (gauche) et


calculées (droite et bas) de clusters d'eau déposés sur des surfaces métalliques à très
basse température (T = 17 K). Dans les images basse résolution, le nombre en jaune
indique le nombre de molécules d'eau par c/uster. D'après Michaelides & al. (2007).

Dans le cas de l'eau, le mot cluster fait référence à des petits amas de
molécules d'eau qui peuvent être formés par exemple lors du dépôt de
vapeur sur une surface métallique hydrophobe (figure 64). Ces petits amas
qui comprennent entre six et neuf molécules d'eau sont la preuve directe de
l'existence de clusters sur des surfaces de nature hydrophobe à très basse
température (T = 17 K). Le problème est que dans de telles conditions, il
n'est pas possible d'accéder à la dynamique interne propre à ces objets.
Une autre manière de synthétiser des clusters d'eau de manière contrôlée
et reproductible consiste à réaliser une expansion supersonique d'un jet
d'atomes d'hélium contenant de la vapeur d'eau (figure 65, en haut à gauche).
Un rayonnement infrarouge de fréquence variable généré par un laser est
ainsi envoyé dans une cavité résonante au sein de laquelle règne un vide
poussé. À l'intérieur de la chambre, le rayonnement pulsé rencontre un jet
d'hélium en expansion ayant barboté dans de l'eau liquide à l'extérieur de la
chambre. L'expansion supersonique de ce jet d'hélium entraîne la formation

134
CHAPITRE III- UNE IMPASSE NOMMÉE ff 20

des clusters d'eau qui interagissent avec le rayonnement infrarouge du laser.


Après interaction avec le jet de clusters, le signal infrarouge est détecté et
analysé de manière numérique. La détermination des fréquences d'absorption
du rayonnement infrarouge permet de remonter à la structure et la dynamique
interne des clusters d'eau formés au moyen de la spectroscopie de vibration-
rotation par effet tunnel qui utilise un laser fonctionnant dans l'infrarouge
lointain à des fréquences de l'ordre du térahertz (Paul & al. 1997).

Clusters gogeux
Le dimère d'eau {Hp} 2 est le cluster le plus simple qui permet de
comprendre en détail comment fonctionne la liaison hydrogène. La structure
à l'équilibre de ce dimère d'eau est représentée en figure 65 et montre que
la distance entre les deux atomes d'oxygène est proche de l'ordre de 0,3 nm
ou 3 A pour une énergie de liaison voisine de 20 kJ mol- 1• On remarque aussi
que dans toute liaison hydrogène, il existe toujours une distance 0-H courte
voisine de 1OO pm correspondant à une liaison covalente entre les atomes
d'hydrogène et d'oxygène qui définit l'atome donneur et une distance H... O
plus longue qui définit l'atome accepteur qui interagit via l'un de ses deux
doublets électroniques non liants.

Figure 65 : Structures et dynamique de petits clusters d'eau {Hp}. (1 ~ n ~ 6)


observables sur des jets moléculaires par spectroscopie de vibration-rotation par effet
tunnel. En haut à gauche: appareillage à jets supersoniques et propriétés électriques
de la molécule. En bas à gauche : structure de la molécule. Milieu : dynamique
interne par effet tunnel au sein du dimère. Les écarts d'énergie L1E indiqués sous
chaque processus donnent l'énergie quantique qu 'il faut fournir pour passer de la
con.figuration de référence située en haut de la figure à la nouvelle con.figuration
spatiale indiquée en bas. D'après Keutsch & Saykaylly (2001).

135
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

À partir de cette structure dimère, il a été possible de trouver (figure 65,


en haut à droite) que l'énergie d'activation qu'il faut fournir pour qu'un
accepteur change de doublet était de 1,9 kJ mol· 1• Dans le processus de type
BARD, il y a bascule de l'accepteur suivie d'une rotation du donneur avec
conservation de l'atome d'hydrogène pontant. Dans le processus de type
LDBA, le mouvement de libration du donneur est suivi d'une bascule de
l'accepteur (LDBA) permettant au donneur de changer l'atome d'hydrogène
en position pontante. Ceci se produit avec une énergie d'activation beaucoup
plus élevée de 4,7 kJ mol· 1• Dans ce type de mouvement, il y a formation
dans l'état de transition d'une liaison hydrogène bifurquée. Enfin, dans le
processus de type RCDA, il y a rotation concertée du donneur et de l'accepteur
pour aboutir à une situation où le donneur est devenu accepteur et vice versa.
L'énergie d'activation à fournir pour que l'atome donneur devienne accepteur
et l'atome accepteur devienne donneur a une valeur intermédiaire égale à
2,5 kJ mol· 1, ce qui correspond à peu près à l'énergie thermique disponible à
température ambiante (T ::::: 300 K).

Si le dimère d'eau était un objet obéissant aux lois de la mécanique


classique, les mouvements de type RCDA ou LDBA qui entraînent la rupture
de la liaison hydrogène auraient une énergie d'activation ~Eau moins égale
à l'énergie de dissociation du dimère qui est de l'ordre de 20 kJ mol· 1• La
figure 65 montre au contraire que les barrières d'énergie sont nettement
plus basses que cette dernière valeur, ce qui montre bien que le mouvement
de l'atome d'hydrogène implique un phénomène purement quantique dans
lequel une particule franchit une barrière de potentiel trop haute pour elle
en creusant un « tunnel » (d'où le nom d'effet tunnel) de manière à relier
plusieurs configurations atomiques présentant exactement la même énergie.
Il découle de cette analyse que tout cluster d'eau possède une dynamique
interne soumise aux lois de la mécanique quantique grâce à l'effet tunnel qui
autorise des mouvements.

Pour les autres clusters, la distance 0-0 dans le trimère cyclique se trouve
être significativement raccourcie par rapport à celle observée dans le dimère,
un phénomène qui traduit la coopérativité de la liaison hydrogène, à savoir
la non-additivité des interactions par paires dans les problèmes à trois corps.
Dans ce type de structure, chaque monomère agit à la fois comme un donneur
et comme un accepteur de liaison hydrogène, entraînant que chaque molécule
d'eau possède un hydrogène lié et un hydrogène libre. À cause de l'alternance
de l'atome d'hydrogène libre au-dessus et en dessous du plan du cluster, cette
structure est chirale comme tout cycle non plan formé d'un nombre impair de
monomères. Sur le plan de l'effet tunnel, deux processus distincts ont pu être
identifiés. Le premier est un processus de bascule d'un atome d'hydrogène
libre présentant une énergie d'activation quasi nulle. Le deuxième est un
mouvement de libration impliquant une liaison hydrogène bifurquée similaire

136
CHAPITRE III- UNE IMPASSE NOMMÉE H 20

au processus LDBA étudié dans le dimère qui s'est révélé avoir une barrière
d'activation de l'ordre de 8,4 kJ mol- 1•

Le motif de liaisons du tétramère est très similaire à celui du trimère avec


chaque monomère fonctionnant à la fois comme donneur et accepteur de
liaison hydrogène. La distance 0-0 apparaît ici encore raccourcie par rapport
au trimère, démontrant que la coopérativité s'est encore renforcée. Sur le plan
dynamique, la haute symétrie du tétramère (groupe de symétrie S4) impose des
mouvements par effet tunnel hautement concertés, ce qui défavorise fortement
le mouvement de libration à l'origine de la formation d'une liaison hydrogène
bifurquée, qui n'a donc pas été observé. Le pentamère pour sa part continue
l'évolution structurale en étant très similaire tant dans sa structure que dans
sa dynamique au trimère. La liaison hydrogène dans le pentamère d'eau est
donc quasiment linéaire avec une distance 0-0 très proche de celle que l'on
rencontre dans la glace ou dans l'eau liquide. En revanche, on observe avec
l 'hexamère une transition vers des structures tridimensionnelles de type cage
octaédrique et non la formation d'un anneau à six molécules d'eau comme
dans le cas de l'eau au contact d'une surface à caractère hydrophobe. Dans
l 'hexamère d'eau, 4 monomères forment trois liaisons hydrogène, tandis que
les deux monomères apicaux forment deux liaisons hydrogène définissant une
géométrie assez similaire à celle rencontrée dans la glace-VI. Le mécanisme
de libration avec formation de liaison hydrogène bifurquée a pu être observé
dans l'hexamère d'eau.

Pour conclure, le trimère est le seul cluster sur le plan dynamique où il a été
possible d'étudier en détail les mouvements de translation, rotation et libration
pouvant conduire à une rupture des liaisons hydrogène. Ainsi, la durée de
vie du trimère vis-à-vis des mouvements de translation et de rotation est de
l'ordre de 1-2 os, alors que sa durée de vie lors d'une libration est beaucoup
plus courte, de l'ordre de 1-6 ps. Ce mouvement de libration à l'origine de
la formation d'une liaison hydrogène bifurquée dans l'état de transition a pu
être observé dans le cas du dimère, du trimère, du pentamère et de l 'hexamère
et correspond au mécanisme de plus basse énergie d'activation pour casser
et reformer une liaison hydrogène. De plus, la barrière de potentiel reste à
peu près la même pour tous les clusters et correspond à un mouvement très
local, sans concertation avec les autres molécules. La présence de ce type de
mouvement confère une durée de vie à la liaison hydrogène dans la gamme
1-6 ps, échelle de temps très voisine de celle observée dans l'eau liquide en
relaxation diélectique ('t0 1 ::::: 8-9 ps, t 0 2 ::::: 1 ps), en relaxation de réorientation
(t 1 ::::: 13 ps, t 2 ::::: 0,7 ps) ou en mobilité protonique (t::::: 1 ps).

Une autre manière d'étudier les clusters d'eau est d'avoir recours à la
dynamique moléculaire qui consiste à résoudre les équations de Newton pour
un système de N molécules soumises à des potentiels ad hoc via la méthode

137
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de Monte-Carlo, consistant à sélectionner des configurations au hasard en


fonction du temps. La figure 66 à gauche montre la configuration instantanée
d'un cluster formé de 15 molécules de basse densité dans une eau refroidie
à 240 K. On voit qu'effectivement les molécules d'eau forment des grappes
où certaines molécules d'eau se lient à 4 autres molécules. L'image de droite
montre pour sa part un autre cluster dynamique, composé de 16 molécules
d'eau« mobiles», car ce sont celles qui bougent le plus durant un intervalle
de temps de 2 ps dans une eau à 260 K. Ici aussi, malgré le mouvement, on
voit que les molécules continuent à former des grappes, comme l'indiquent
les lignes jaunes. Ces simulations tendraient à prouver qu'il existe bien des
clusters d'eau dans le liquide, mais uniquement dans de l'eau surfondue,
c'est-à-dire en dessous d'une température de 273 K.

Figure 66 : Apparition de clusters d'eau statiques (gauche) et dynamiques (droite)


dans des simulations numériques del 'eau suifondue. D'après Debenedetti et al (2003).

Glace hexagonale
Si l'on augmente la taille des clusters d'eau indéfiniment, on finira par
atteindre un état où toutes les molécules d'eau sont reliées entre elles via
des liaisons hydrogène formant un réseau tridimensionnel. Concrètement, ce
réseau s'appelle de la glace, et, depuis les premières études structurales via
la diffraction des rayons X sur monocristal, on s'est aperçu qu'il n'existait
pas une seule forme de glace, mais de nombreuses autres présentant des
topologies différentes (Petrenko & Withworth 1999). La différence majeure
par rapport aux clusters d'eau gazeux est que toutes ces structures contiennent
le pentamère à structure tétraédrique (Hp){Hp} 4 impliquant 4 liaisons
hydrogène, deux de type donneur-accepteur et deux de type accepteur-
donneur (figure 67).

138
CHAPITRE III - UNE IMPASSE NOMMÉE ff 20

dµ/dp(25°C) = 19,73 cm.. mol., Glace hexagonale =


µ -236,59 kJ·mol·1
T = 0°C, p = 101 ,325 kPa 4H- = 51,059 kJ·mol·1
Ils = 0,1142 GPa·1 =
S 41,488 J·mot' -K"'
~ = 0,1178GPa·1 a,. = 0,0001598 K·1
K,. = 8,9 GPa U = -6,007 kJ·mot•
E = 9,33GPa H = -6,005 kJ·mot'
G =3,52GPa G = 1,826 J·mol·1
V= 0,325 F = -0,166 J·mot'
oc., = 2,4 W·m·1·K·1 X..= -1 ,63·10·10 m'·mol·I
p = 916,72 kg·m" c = 37,n J·mo1·1-K- 1
E/E0 = 99, t •ft 0 =3,16 \/,. = 19,66 cm•·mo1·1
dµ/dT(25°C) = -44,8 J·mol·1-K-1

Figure 67 : La glace hexagonale est basée sur des unités pentamériques {H20} 5 où
chaque molécule d'eau forme deux liaisons hydrogène de type accepteur et deux
liaisons hydrogène de type de donneur (gauche). À droite, on indique les propriétés
thermodynamiques de cette glace hexagonale.

En effet, sur le plan topologique, pour un atome d'oxygène donné,


on a l'habitude de distinguer entre une situation de type donneur (notée
D = 0-H ... 0) et une autre de type accepteur (notée A= O ... H-0). Ainsi,
dans le cas du réseau de liaisons hydrogène de la glace, chaque oxygène
se trouve entouré de quatre autres atomes d'oxygène placés aux sommets
d'un tétraèdre régulier avec deux liaisons de type donneur et deux de type
accepteur (configuration notée AADD). Cette situation est nettement
différente de celle rencontrée dans les clusters en anneaux (figure 65) où
chaque atome d'oxygène ne forme que deux liaisons hydrogène, l'une de
type donneur et l'autre de type accepteur (configuration de type AD). Dans
le cas des clusters en forme de cages, on trouve aussi des atomes d'oxygène
engagés dans 3 liaisons hydrogène dans des configurations de type DDA ou
AAD. Au niveau structural, on notera que la molécule est assez peu affectée
avec une distance 0-H égale à 0,985 A et un angle HOH égal à 106,6 ± 1,5°
pour la glace hexagonale.

H,O(g) g 2 H(g) + O(g)


B,. • 458,9 U ·moJ·•
µ • -228,s9 U ·mol"•
dµ/clT(25°C) • -188,7J·K·•·moJ·• 211,(g) + O,(g) g H,O(g)
dµ/dp(25'C) • 24A6o U ·MPa"·moJ·•

Figure 68 : Propriétés thermodynamiques de l'eau vapeur et diagramme de phase


de l'eau.

139
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Au niveau thermodynamique, il est intéressant de faire une comparaison


entre la vapeur (figure 68) et la glace (figure 67). On peut noter tout d'abord que
l'énergie interne U de la glace est négative alors que celle de l'eau vapeur est
fortement positive et que le potentiel chimique de la glace est plus nettement plus
bas que celui de la vapeur. Ceci signifie qu'il y a beaucoup d'énergie potentielle
associée au réseau 3D de liaison hydrogène et peu d'énergie cinétique dans la
glace. C'est exactement l'inverse dans la vapeur où l'énergie cinétique domine,
ce qui explique la valeur positive de U et le fait que la vapeur d'eau tend à
occuper tout le volume disponible, alors que la glace possède une forme qui lui
est propre. Cette association plus forte des molécules d'eau dans la glace se voit
aussi au volume molaire qui est de l'ordre de 20 cm3 pour une mole de glace
contre une trentaine de litres pour la vapeur d'eau. Concernant l'entropie de la
glace, il est clair qu'elle est nettement inférieure, puisque les molécules d'eau se
trouvent complètement immobilisées aussi bien en translation qu'en rotation. Il
ne reste donc plus que la possibilité de vibrer autour des positions d'équilibre
du réseau. La surprise fut grande de constater qu'à T = 0 K, l'entropie de la
glace n'était pas nulle, comme cela devrait être le cas en vertu du troisième
principe de la thermodynamique établi par Walther Nernst, mais prenait la
valeur S0 = 3,408 ± 0, 19 J mol· 1 K- 1•
Pression / GPa

100

0.1

100 200
Température / K

Figure 69: Diagramme des phases condensées de l'eau et structures cristallines des
15 polymorphes de la glace connus à ce jour. On notera aussi /'existence de 3 phases
solides amorphes métastables non indiquées sur ce diagramme car métastables.

Pour justifier cette valeur, Linus Pauling invoqua le fait que sur le réseau de
glace, chaque atome d'hydrogène pouvait adopter deux positions distinctes
indiscernables physiquement: 0-H ... O ou O...H-0 en raison de l'asymétrie
de la liaison hydrogène (Pauling 1935). Si l'on considère que l'atome
d'hydrogène peut occuper indifféremment chaque position d'une liaison
à l'autre, il existe une entropie résiduelle liée à ce degré de liberté dans le
positionnement des atomes d'hydrogène.

140
CHAPITRE III - UNE IMPASSE NOMMÉE H 20

EHB I kJ·mol-1

o* 1,17
0,28 165
D 16 110 O* 1 272
=::::::::~~=====~====::::::=::~
D 28 ==:9=8=~==0=*===!=:::1.:=2:::3:::
1 ~=========
D 10 225 1,1 1,373
=====~~=====~==::::::::==~
D 2 ~29::::5:::::::::~==2=4~!==:::::
1:: 59::::9==:::::'!==:::::::::~===
2.4 1,628
028 194
62 2,79

0,5 1,292 -19,5(3)


o• t,251
12 1294
am. O* 094
am.
am.
Pbcm

Tableau 3 : Densité (p) et énergie de la liaison hydrogène EH8 (Henry 2002) des
différentes polymorphes cristallisés ou amorphes (am.) de la glace en fonction de la
température Tet de la pression p. Les lettres D et 0 indiquent une forme désordonnée
ou ordonnée au niveau des liaisons hydrogène (LH) de type donneur/accepteur.
Pour les polymorphes cristallins, on indique le groupe spatial (GS) et le nombre de
molécules d'eau par maille élémentaire (Z). La dernière ligne correspond à un calcul
théorique réalisé par dynamique moléculaire (MD). (*) Valeurs mesurées après être
revenu à pression ambiante. En présence de gaz dissous, d'autres arrangements sont
possibles, appelés clathrates (figure 70) en fonction de la nature du gaz encapsulé
dans des cages d'eau.

Polymorphes de la glace
Comme le montre la figure 69, l'unité structurale de base (Hp){Hp} 4
est extrêmement flexible, pouvant donner naissance à un minimum de
15 polymorphes cristallins, connus aujourd'hui, notés de 10 , Ih et de II à XIV
ainsi que 3 phases amorphes différentes. Parmi les 15 polymorphes cristallins,
3 paires peuvent être identifiées (lh, XI), (III, IX) et (VII, VIII) correspondant
à la même structure dans une version soit complètement désordonnée où il
n'est pas possible de différencier entre donneur et accepteur (polymorphes
lh, III et VII), soit au contraire dans une version complètement ordonnée où
cette différentiation est possible (polymorphes XI, IX et VIII). On notera que
les polymorphes V et XII, également désordonnés, n'avaient pas d'équivalent
ordonné jusqu'en 2006 où deux nouveaux types de glace notés XIII et XIV

141
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

ont pu être préparés par dopage à l'acide chlorhydrique et refroidissement


(T = 80 K) sous pression (0,5 GPa pour la glace V et 1,2 GPa pour la glace
XII) (Salzmann & al. 2006). Une autre différentiation est possible entre les
glaces à structure ouvertes (lh, le, II, III, IX, XI, XII, et XIV) et les glaces à
double réseau de liaison hydrogène interpénétrées (IV, V, VI, VII, VIII, X et
XIII).
La table 2 compare ces 15 polymorphes du point de vue de leur densité et
de la stabilité de la liaison hydrogène. On ne trouve pas sur ce diagramme les
3 phases solides amorphes notées LDA (« Low-Density Amorphous ice »),
HOA(« High-Density Amorphous ice ») et VHDA (« Very-High-Density
Amorphous ice ») (Finney & al. 2002) ainsi qu'une phase extrêmement
dense prévue par des calculs de dynamique moléculaire et qui pourrait être
présente sur des planètes comme Jupiter où règne une pression gigantesque
(Benoit & al. 1996). Pour ce qui concerne la stabilité de la liaison hydrogène, la
table 3 montre qu'en dessous de p = 1 GPa, on trouve une valeur, EH 8 = -21(2)
kJ·mol- 1 très voisine de celle trouvée dans les clusters d'eau isolés. Au-dessus
de 1 GPa, la liaison tend à être affaiblie et se symétrise vers p = 1OO GPa
pour donner une glace symétrique (notée X) où il n'y a plus de distinction
entre atomes d'oxygène de type donneur ou accepteur puisque l'hydrogène
se place juste au milieu des deux atomes d'oxygène.

En présence de gaz dissous, d'autres arrangements sont possibles, appelés


clathrates (figure 70), en fonction de la nature du gaz encapsulé dans des
cages d'eau. La figure 70 montre aussi ce que l'on connaît des trois glaces
amorphes. En général, les glaces amorphes se forment en dessous d'une
température de l'ordre de 130 K (-143 °C) qui correspond à la température
de transition vitreuse. La vitesse de refroidissement doit être très rapide
afin d'éviter toute croissance cristalline. Sur Terre, il est rare de trouver
des températures aussi basses et les seuls lieux concernés sont la haute
atmosphère ou les régions polaires. Par contre, de telles températures sont
monnaie courante dans des conditions extra-terrestres, plus particulièrement
dans les nuages moléculaires et à la surface de comètes ou d'astéroïdes. On
a trouvé de la glace amorphe sur les satellites joviens Europe, Ganymède et
Callisto ainsi que sur la Lune, Saturne, Encelade.

142
CHAPITRE III - UNE IMPASSE NOMMtE H 10

Méthane + glaœ
0 ~,....,....,....,,.,.,.........,.......,.,.,..,..,

.
!i "

~~~~~~~~ -
'°.10 -6 1 ~ 11 ~ ~ a
Température / 'C

Figure 70 haut: structure des clathrates basée sur le dodécaèdre de Platon (à gauche) et
à côté, le diagramme de phase. Au-dessous : empilement cristallin des polyèdres (gauche
et milieu) avec à droite libération du méthane (en vert) lors de la.fusion.
Figure 70 bas : les trois types de glace amorphe que l'on rencontre essentiellement
en milieu extra-terrestre avec les domaines de pression où l'on peut transformer
ces polymorphes. Tout en bas, comparaison entre les diagrammes de diffraction des
rayons X de deux glaces cristallines (Ih hexagonale et Je cubique) et des deux glaces
amorphes HDA et LDA.

143
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Fusion
Considérons maintenant ce qui se passe lors de la fusion. La figure 71
montre les résultats d'une simulation qui révèle que la fusion ne se fait
pas de manière continue, mais avec des paliers. Le point remarquable est
la valeur relativement faible de l'enthalpie de fusion qui révèle que lors de
la fusion, il n'y a pas beaucoup de liaisons hydrogène qui se sont brisées.
En effet, sachant que chaque molécule d'eau est engagée en moyenne dans
deux liaisons hydrogène ayant chacune une énergie de l'ordre de 20 kJ mol- 1,
l'enthalpie de fusion qui correspondrait à rendre isolées les molécules devrait
être d'environ 40 kJ mol- 1• Avec seulement 6 kJ mol- 1 absorbés, on est donc
loin du compte et il est clair que cette énergie doit correspondre au pliage des
liaisons hydrogène et non à leur étirement pour briser le pont.

Figure 71 : Simulation de la fusion de la glace en eau liquide vue à /'échelle


moléculaire. On part d'une température de départ T = 100 K avec une vitesse
de chauffe de 0,5 K par picoseconde. Dans ces conditions, le réseau de la glace
se trouve préservé (a) pendant les 100 premières picosecondes, soit T < 150 K.
À cette température, un plan de cisaillement apparaît dans le réseau qui s'étend
progressivement (b) et se stabilise au bout de 200 ps, soit T = 200 K. La région en
fusion recommence à grandir à partir de 290 ps et durant les 20 ps suivantes, il y a
fusion totale (c). La température in si/ico est alors T = 255 K au lieu de T = 273 K,
valeur expérimentale. Ceci démontre que les potentiels utilisés pour simuler le
comportement de l'eau ne sont pas encore tout à fait satisfaisants.

On peut aussi regarder l'entropie de fusion, qui, à la transition, est égale au


rapport entre l'enthalpie de fusion Aflfus = 6006,8 J.mol- 1 et la température de
fusion Tr=273,16K, soitôSfus =6006,8/273,16=21,99 J.K- 1.mol- 1• Sur le plan
microscopique, cette valeur correspond à la mise en rotation des molécules
d'eau, processus impossible à réaliser à l'état solide. Or, on sait que l'entropie
de rotation pour une molécule d'eau pouvant accéder à tous ses niveaux
énergétiques rotationnels doit prendre la valeur srot = 95,35 J ·mol- 1. K- 1•
On voit donc que la rotation dans le liquide est relativement gênée, d'une
part pour des raisons quantiques qui tiennent à la faible masse molaire de
la molécule, mais aussi à la présence d'un réseau 3D de liaisons hydrogène
qui gêne le processus de rotation. Lorsque l'on passe de 273,16 K = 0 °C à
298, 15 K = 25 °C, l'entropie augmente encore de 6,615 J K- 1 mol- 1•

144
CHAPITRE III - UNE IMPASSE NOMMÉE H20

Lz
D=-
6-ro

.' ..... .........



. .. ....
..... ,... ...
........
-... ...
11"7

.... '·'"""
Ut 2.1 2.3 2.5 n.• ....
R(O-H)/ A T •2S'C - ~~~~~~~

p • lg<m.. i- -
S • 70 J·mol·'·K., !-
Q •~
11 = -237.2 kl·mol·'
dllfdT • ~.9 J·mol·'·K·'
i=
n... .~.~.~.'--'... .., . .
V.. • dµ/dp • 18,1 cm•·mol·'
D • 0,0023 mmJ·s·1
8/&0 • 80
-i, • • 1/60r - 0,0485 ps
E, • 7,74 kJ·mot'
T - / 'C

Figure 72 : Quelques propriétés del 'eau liquide. Haut: mécanisme de réorientation


des molécules d'eau à l'état liquide. Gauche : structure locale del'eau liquide vue par
RMN du proton. D'après Modig & al. (2003). Milieu : données thermodynamiques
et dynamiques mesurées par diffusion des neutrons (Bosio & al. 1983). En bas à
droite: variation du coefficient d'autodiffusion.

D'un point de vue microscopique, le mécanisme de cette rotation a été étudié


in silico par dynamique moléculaire (Laage & al. 2006). Comme le montre la
figure 72, la molécule d'eau qui veut se mettre en rotation doit casser une liaison
hydrogène avec l'un des atomes d'oxygène appartenant à sa couche de premiers
voisins. Les traits de couleur verte représentent les liaisons hydrogène au sein
d'une grappe de 3 molécules contenant un atome d'oxygène normal O* lié à un
dimère contenant deux atomes d'oxygène, ü8 qui contient une liaison hydrogène
de plus (5) que la normale (4) et Ob qui contient une liaison hydrogène de moins (3)
que la normale (4). Lorsque, suite aux fluctuations thermiques, une telle situation
(A) se rencontre, ü8 va chercher à s'éloigner de 0* tandis que Ob au contraire
va chercher à se rapprocher de 0*. Lorsque ü8 et Ob sont équidistants de 0*,
l'atome d'hydrogène H* se trouve en bifurcation et peut changer de partenaire en
s'orientant vers Ob (B). Ce mouvement fait que ü8 possède maintenant 5 liaisons
hydrogène alors que c'est ü8 qui n'en possède plus que 3 (C). Tout se passe donc
comme si ü8 et Ob avaient échangé leurs positions alors qu'en fait aucun atome
d'oxygène n'a bougé !!! Bien évidemment, un peu plus tard, les fluctuations
thermiques vont rétablir un voisinage normal à quatre voisins pour ü8 et Ob. Si cet
atome de première couche est lié à un atome d'oxygène appartenant à la couche
de seconds voisins de l'atome en rotation qui possède lui une liaison de moins
(3) que la normale, la coupure de la liaison hydrogène et la rotation moléculaire
vont se faire de manière concertée et non de manière séquentielle comme on

145
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

pourrait naïvement le croire. La réorientation des molécules d'eau dans le liquide


se fait donc via des sauts angulaires de larges amplitudes et non par des petits pas
diffusifs comme dans les liquides ordinaires.
Une dernière grosse augmentation d'entropie se produit à l'ébullition,
lorsqu'on libère les degrés de liberté de translation avec ~Svap(298,15 K,
0,1 MPa) = 118,895 J K- 1 mol- 1• La valeur de l'enthalpie de vaporisation étant à
peu près égale à deux fois l'énergie d'une liaison hydrogène, on comprend que
cette vaporisation détruise de manière irréversible le réseau 3D qui avait résisté à la
fusion. La même remarque s'applique à l'enthalpie de sublimation de la glace qui
correspond au passage direct d'un réseau 3D de liaisons hydrogène rigides à une
phase vapeur où il n'y a plus de liaisons hydrogène. Si l'on soustrait l'enthalpie
de vaporisation de l'enthalpie de sublimation, on trouve MI= 10,4 kJ mol-1, ce
qui donne une idée de l'énergie qu'il faut fournir pour plier les liaisons hydrogène
lors de la fusion.

« Structure» de l'eau liquide

En envoyant différents rayonnements sur l'eau liquide, il est possible


d'étudier sa structure locale. Ainsi, par diffusion des rayons X, on a pu montrer
que l'eau liquide apparaît bien comme étant un milieu structuré avec quatre
distances O ... 0 caractéristiques (Bosio & al. 1983). La corrélation O ... 0
située à 0,28 nm est la signature de la liaison hydrogène. Une autre corrélation
à 0,45 nm correspond à la configuration dite « trimère » {Hp} 3 où deux
liaisons hydrogène linéaires à d = 0,28 nm font un angle 0-H ... O-H ... O
voisin de 110° (angle du tétraèdre). L'existence d'une autre corrélation 0 ... 0
à 0,35 nm prouve que ces liaisons hydrogène peuvent aussi être pliées, ce
qui entraîne une réduction de la distance 0 ... 0. Enfin, l'interprétation la plus
probable pour la corrélation à 0,56 nm correspond à une portion de cycle
ou de chaîne impliquant 3 liaisons hydrogène consécutives (configuration
que l'on pourrait qualifier de « tétramère »). Lorsqu'on augmente la pression, on
constate que la corrélation à 0,35 nm s'intensifie au détriment de la corrélation
à 0,45 nm (Okhlukov & al. 1994). Sur la base de ces données, certains auteurs
(Urquidi & al. 1999) supposent qu'il existe dans l'eau liquide deux états bien
distincts, l'un appelé LDW (Low Density Water) responsable du pic à 0,45 nm
et l'autre HDW (High-Density Water), responsables du pic observé à 0,35 nm.
Ce sujet est encore très discuté dans la littérature scientifique (Huang & al. 2009,
Soper & al. 2010 et Clark & al. 2010). Une image très différente est obtenue si
l'on fait absorber des rayons X à l'eau, car l'eau apparaît non pas structurée autour
d'un arrangement local tétraédrique mais plutôt formée de chaînes enchevêtrées
(Wernet & al. 2004).
Le problème de la diffusion des rayons X est qu'elle tend à donner une image
statique de l'eau, alors qu'il s'agit d'un milieu dynamique. Tel n'est pas le cas de
la diffusion des neutrons qui a révélé l'existence de deux temps de relaxation dans

146
CHAPITRE III - UNE IMPASSE NOMMÉE H20

l'eau liquide (Teixeira 1985). Ainsi, le premier temps proche de 1 ps à température


ambiante correspond à la fluctuation du réseau de liaisons hydrogène suite aux
rotations des molécules d'eau. Ce temps suit une loi d 'Arrhénius, •LH = • 0 ·exp(U#1
~0) avec •0 = 0,0485 ps etuneénergie d'activation U#=7,7 kJ mol- 1• Le deuxième
temps de relaxation varie quant à lui très fortement avec la température, passant
de 1,25 ps à 20 °C à 22,7 ps à-20 °C. Ce temps indique que l'atome d'hydrogène
est aussi capable« sauter» entre deux molécules d'eau avec une longueur de saut
valant 0,13 nm à 20 °C et 0,24 nm à-20 °C.

Un autre moyen d'étudier la dynamique de l'eau liquide est fourni par la


résonance magnétique nucléaire du proton (Modig & al. 2003). On constate
ainsi qu'à température ambiante la très grande majorité des molécules d'eau sont
associées par liaison hydrogène avec des paramètres géométriques de l'ordre de
0,28-0,29 nm pour la distance 0 ... 0 (la distance 0-H covalente étant voisine
de 0,1 nm) et des angles H-0 ... 0 voisins de 10° (liaisons légèrement pliées).
Lorsque la température augmente, le nombre de liaisons hydrogène rompues
s'accroît sensiblement (figure 72), mais l'on constate aussi que le liquide reste
néanmoins toujours fortement associé, l'ébullition correspondant plutôt à la perte
du seuil de percolation du réseau de liaisons H. Le temps de réorientation de
la molécule d'eau dans le liquide pur à une température de T = 25 °C est ainsi
trouvé égal à 1,83 ± 0,05 ps (Modig & al. 2002). Comme cette rotation de l'eau
ne peut se faire qu'en cassant des liaisons hydrogène, ce temps de corrélation
peut être identifié à la durée de vie de la liaison hydrogène dans le liquide. Les
simulations de l'eau via la dynamique moléculaire (Laage 2006) donnent un
temps de réorientation de 1,8 ps en excellent accord avec la RMN ou la diffusion
des neutrons.
On peut aussi étudier l'eau liquide par spectroscopie infrarouge (Libnau & al.
1994) ou diffusion Raman (Walrafen & al. 1989). Le Raman montre l'existence
de deux types d'eau dont les proportions relatives varient avec la température
et présentant une différence d'énergie au niveau de la liaison hydrogène égale à
9,6 ± 2,5 kJ mol- 1• L'analyse des spectres infrarouges aboutit à la même conclusion
avec deux types d'eau présentant une différence d'énergie de la liaison hydrogène
égale à 9,2 kJ mol-1, mais aussi une augmentation d'entropie de 30,5 J.K- 1.mol- 1
lorsque l'on passe d'une liaison hydrogène linéaire à une liaison hydrogène pliée.
En ce qui concerne la dynamique d'orientation des molécules d'eau, il a été
possible de montrer, en utilisant un rayonnement infrarouge pulsé et focalisé sur
la vibration d'étirement de la liaison 0-H, que l'eau relaxait après excitation avec
deux temps très différents, le premier de 0, 7 ps que l'on peut associer aux liaisons
hydrogène pliées et le deuxième de 13 ps associé aux liaisons hydrogène plutôt
linéaires (Woutersen & al. 1997).

Pour conclure, il existe actuellement une large majorité de scientifiques qui


décrivent l'eau liquide comme un réseau fluctuant de liaisons hydrogène, où
chaque molécule d'eau se trouve entourée en moyenne de 4 autres molécules

147
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

d'eau selon une disposition tétraédrique comme dans la glace hexagonale. La


différence avec la glace, c'est que les molécules d'eau sont ici en rotation, ce
qui entraîne que la durée de vie de chaque liaison hydrogène est voisine de
10- 12 sec= 1 ps à température ambiante. La diffusion des neutrons (figure 73)
montre clairement que les probabilités de présence des atomes d'oxygène autour
des deux atomes d'hydrogène de la molécule centrale forment deux calottes bien
distinctes, signe d'une liaison de type donneur 0-H ... 0 plutôt rigide (Finney
2004). En revanche, du côté del' oxygène, on observe une distribution continue de
la probabilité de présence des atomes d'hydrogène, signe que de ce côté la liaison
hydrogène de type accepteur O...H-0 est beaucoup plus lâche. Par opposition,
les deux liaisons 0-H ... 0 et les deux liaisons O... H-0 sont parfaitement rigides
dans les différentes formes de glace.

Dans ce cadre, l'explication du maximum densité à 4 °C de l'eau liquide réside


donc dans une flexibilité angulaire du côté de l'atome d'oxygène associée à une
rigidité radiale du côté des deux atomes d'oxygène. Aussi, lorsque la température
augmente, l'angle HO-H ... O... H-OH du tétraèdre {~0)2Hp~0)2 } se
referme, ce qui entraîne une diminution du volume du tétraèdre et donc une
augmentation de densité. Vers 4 °C, la répulsion entre les nuages électroniques
des deux molécules d'eau fait qu'il devient impossible de continuer à refermer
l'angle HO-H ... O... H-OH. La seule solution pour suivre l'augmentation de
température est donc de procéder à un étirement radial selon chacun des quatre
sommets, ce qui entraîne une augmentation du volume du tétraèdre et donc une
diminution de densité, au-delà de 4 °C.

C'est l'existence de cette contrainte d'orientation anisotrope, absente dans les


liquides« normaux», qui permet d'une part de rendre compte de l'extraordinaire
polymorphisme de la glace (figure 69) et qui rend d'autre part le comportement
de l'eau liquide en fonction de la température« anormal». En effet, dans tous les
liquides (et donc y compris dans l'eau), il existe une contrainte radiale isotrope
qui s'affaiblit lorsque la température augmente, ce qui entraîne une expansion
volumique et donc une diminution de la densité avec la température. L'entropie
d'un liquide étant proportionnelle au logarithme du volume molaire, une expansion
volumique correspond donc également à une augmentation d'entropie entraînant
que les fluctuations de volume ôV et d'entropie ôS sont toujours positivement
corrélées. C'est la raison pour laquelle, dans un liquide« normal», on s'attend
à ce que le module de compressibilité isotherme ~ proportionnel au carré des
fluctuations volumiques, la capacité calorifique isobare Cp proportionnel au carré
des fluctuations entropiques et le coefficient d'expansion thermique isobare
proportionnel au produit croisé des fluctuations volumiques et entropiques
augmentent tous de façon monotone avec la température suite à une diminution
de la densité (lignes pointillées dans la figure 73).

148
CHAPITRE III - UNE IMPASSE NOMMÉE H 20

Ordre local tétraédrique {H,0}5 dans l'eau liquide


H: Déformation radiale
Maximum à T = 3,984°C

~
1 1

é.
.....a.
o.•

J...
o.•

ow 1 1
. ,

•.• r.....i....i....L.-L..,.J,..u....J.,..L...u...J....,i.....i.....i..,.,:i
• ~ ~ ~ 0 ~ » ~ ~ ~ • ~ • ~ 100
0: Déformation angulaire Temp6ratuœ / 'C

~T Compressibilité isotherme Cr Capacité calorifique <lp Dilatation the~que

/J,. =-l{')V) =(<6V>') isobare --------------1


V dp T
C, =(;~), =((6S)2) 1--"*""""----T--
------------i~~o 40C
35°_~ ... -------
------ a, =H::), =(<6V)-(6S))
46,s0 c T
13T·(C, - Cy) =a,2 ·T·V H=U+p·V

Figure 73 : Interprétation des« anomalies» de l'eau liquide au moyen du concept


de liaisons hydrogène comme la conséquence d'une anisotropie entre atomes
d'hydrogène donneur et doublets non liants accepteurs.D'après Finney & al. (2004).

Si maintenant il existe une deuxième contrainte de type angulaire favorisant


à basse température une structure tétraédrique ouverte de faible densité, on
s'attend à ce qu'une augmentation de la température affaiblisse cette contrainte
angulaire, provoquant une diminution du volume et par voie de conséquence
une augmentation de la densité. Le fait que l'eau présente un maximum de
densité à 277 K est le résultat de cette compétition entre affaiblissement des
contraintes radiales et angulaires. Comme de plus les fluctuations de volumes
(ôV < 0) deviennent anti-corrélées aux fluctuations d'entropie (ôS > 0), le
coefficient de dilatation thermique isobare devient nul pour cette température.
Pour la même raison, on s'attend à ce que la variation de la compressibilité
isotherme et de la capacité calorifique passe par un minimum en fonction de
la température.

149
Bibliographie
ARMSTRONG, H. E. (1926), « Bigamous Hydrogen - A Protest »,Nature, 117 : 553-554.
AVOGADRO, A. (1811), «Essai d'une manière de déterminer les masses relatives des molécules
élémentaires des corps et les proportions selon lesquelles elles entrent dans ces combinaisons»,
J. Phys. Chim., 58-76.
BECKMANN, E. (1890), « Bestimmung von Moleckulargewichten nach der Siedemethode », Z.
Phys. Chem., 6 : 437-473.
BENOIT, M.; BERNASCONI, M.; FOCHER, P.; PARJNELLO, M. (1996), «New High-Pressure Phase
of Ice », Phys. Rev. Lett., 76 : 2934-2936.
BERNAL, J. D.; FowLER, R. H. (1933), «A Theory ofWater and Ionie Solutions, with Particular
Reference to Hydrogen and Hydroxyl Ions », J. Chem. Phys., 1 : 515-548.
BERZÉLIUS, J. J. (1819), Essai sur la théorie des proportions chimiques et sur l'influence
chimique de l'électricité, Méquignon-Marvis, Paris, p. 97-98.
Bosm, L.; CHEN, S. H.; TEIXEIRA, J. (1983), « lsochoric temperature differential of the X-ray
structure factor and structural rearrangement in low temperature liquid water », Phys. Rev. A,
27: 1468-1475.
BozoRTH, R. M. ( 1923), «The crystal structure of potassium hydrogen ftuoride », J. Am. Chem.
Soc., 45: 2128-2132.
BRAGG, W. H. (1922), «The crystal structure ofice », Proc. Phys. Soc. London, 34: 98-103.
CLARK, G. N.; HuRA, G. L.; TEIXEIRA, J.; SOPER, A. K. ; HEAD-GORDON, T. (2010), « Small-
angle X-ray scattering and the structure of ambient liquid water», Proc. Nat/. Acad. Sei. USA,
107: 14003-14007.
COLLINS, J. R. (1925), «Change in the infra-red absorption spectrum ofwaterwith temperature »,
Phys. Rev., 26: 771-779.
CONDILLAC, E. B. de (1803), Œuvres complètes de Condillac : Traité des systèmes, Dufart,
Paris, t. 3, p. 337.
DAGOGNET, F. (2002), Tableaux et langages de la chimie. Essai sur la représentation, Champ
Vallon, Seyssel. Première édition : Le Seuil (1969).
DALTON, J. (1803), «On the absorption of gases by water and other liquids », Memoirs of the
Literary and Philosophical Society of Manchester, Second Series, 1 : 271-87 (1805).
DALTON, J.(1808), A new system of chemical philosophy, vol. 1, Manchester.
DEBENEDETTI, P. G. ; STANLEY, E. H. (2003), « Supercooled and glassy water», Physics Today,
juin, p. 40-46
FINNEY, J. L. ; BoWRoN, D. T. ; SoPER, A. K. ; LOERTING, T. ; MAYER, E. ; HALLBRUCKER, A.
(2002), « Structure of a new dense amorphous ice », Phys. Rev. Lett., 89 : 205503.
FINNEY, J. L. (2004), «Water? What's so special aboutit?», Phil. Trans. R. Soc. London B,
359: 1145-1165.
GAY-LussAc, L.-J. (1809), «Mémoire sur la combinaison des substances gazeuses, les unes
avec les autres», Mémoires de la Société de physique et de chimie de la Société d'Arcueil, t. 2,
p. 207-234, 252-253 (2 tableaux).
HEITLER, W. ; LONDON, F. (1927), « Wechselwirkung neutraler Atome und homôopolare
Bindung nach der Quantenmechanik », Z. Phys., 44 : 455-472.
HENRY, M. (2002a), « Non-empirical quantification ofmolecular interactions in supramolecular
assemblies », Chemphyschem, 3: 561-569.
HENRY, M. (2002b), « Thermodynamics of hydrogen bond patterns in supramolecular
assemblies of water molecules », CHEMPHYSCHEM, 3 : 607-617.
HENRY, M. (2005), «The State of Water in Living Systems : from the Liquid to the Jellyfish »,
Cel/. Mol. Bio/., 51 : 677-702.

150
CHAPITRE III - BIBLIOGRAPHIE

HENRY, M. (2015), « The Hydrogen Bond », lnference Rev., 1(2), http ://inference-review.
com/article/the-hydrogen-bond
HILDEBRAND, J.H. (1937), « Interrnolecular Forces in Solutions», Trans. Faraday Soc., 33 :
144-151.
HUANG, c. ; WIKFLEDT, K. T. ; TOKUSHIMA, T. ; NORDLUND, D. ; HARADA, Y. ; BERGMANN, u. ;
NIEHBUR, M. ; WE1ss, T. M. ; HoRIKAWA, Y. ; LEETMAA, M. ; LJUNGBERG, M. P. ; TAKAHASHI, O. ;
LENZ, A. ; 0JAMA1l, L. ; LYUBARTSUR, A. P. ; SHIN, S. ; PETTERSSON, L. G. M.; NILSSON, A. (2009),
«The inhomogeneous structure of water at ambient conditions», Proc. Nat!. Acad. Sei. USA,
106: 15214-15218.
KEuTSCH, F. N. ; SAYKAYLLY, R. J. (2001), «Water clusters: Untangling the mysteries of the
liquid, one at a time », Proc. Nat!. Acad. Sei. USA, 98: 10533-10540.
LAAGE, D. ; HYNES, J. T. (2006), « A molecular jump mechanism of water reorientation »,
Science, 311 : 832-835.
LATIMER, W. M. ; RoDEBUSH, W. (1920), « Polarity and ionization from the standpoint of the
Lewis theory of valence», J Am. Chem. Soc., 42: 1419-1433.
LAUGIER A. ; DuMoN, A. (2001), «D'Aristote à Mendeleïev ; 2 000 ans de symbolisme pour
représenter la matière et ses transformations », L 'Actualité Chimique, mars, p. 38-50.
LAVOISIER, A. ( 1789), Traité élémentaire de chimie, Cuchet, Paris, t. 1, p. 140-141.
LEWIS, G. N. (1923), Valence and the structure of atoms and molecules, New York, p. 109
(édition de 1966).
LEWIS, G. N. ; ScHUTZ, P. W. (1934), « Sorne Properties of Pure Deutacetic Acid », J. Am.
Chem. Soc., 56: 493-495.
LmNAU, F. O. ; ToFT, J. ; CHRISTY, A. A. ; KERALHEIM, O. M. (1994), «Structure ofliquid water
deterrnined from infrared temperature profiling and evolutionary curve resolution », J Am.
Chem. Soc., 116: 8311-8316.
MACQUER, P. J. (1777), « Gas inflammable », in Dictionnaire de Chymie, 2' édition, P. Fr.
Didot, Paris, vol. 2, p. 70-71.
MICHAELIDES, A. ; MORGENSTERN, K. (2007), (( Ice nanoclusters at hydrophobie metal surfaces »,
Nature Materials, 6: 597-601.
M1RSKY, A. E.; PAULING, L. C. (1936), «On the Structure ofNative, Denatured, and Coagulated
Proteins », Proc. Nat. Acad. Sei., 22: 439-447.
MornG, K. ; Halle, B. (2002), « Proton magnetic shielding tensor in liquid water », J Am.
Chem. Soc., 124: 12031-12041.
MornG, K.; PFROMMER, B. G.; HALLE, B. (2003), « Temperature dependence ofhydrogen bond
geometry in liquid water», Phys. Rev. Lett., 90: 75502-(1,4).
MooRE, T. S. ; WINMILL, T. F. ( 1912), « The states of amines in aqueous solutions », J Chem.
Soc., 101 : 1534-1676.
NERNST, W. (1891), « Verteilung eines Stoffes Zwischen zwei Lôsungmitteln und zwischen
Lôsungmittel und Dampfraum », Z. Phys. Chem., 8: 110-139.
0KHULKov,A. V.; DEMIANETS, Y. N.; GoRBATY, Y. E. (1994), « X-ray scattering in liquide water
at pressures of up to 7 ,7 kbar: Test of a fluctuation mode!», J. Chem. Phys., 100 : 1578-1588.
OSTWALD, W. (1895), «La déroute de l'atomisme contemporain», Rev. Gen. Sei. Pures Appt.,
21 : 953-958.
PAUL, J. B. ; COLLIER, C. P. ; SAYKALLY, R. J. ; ScHERER, J. J. ; O'KEEFE, A. (1997), «Direct
measurement of water cluster concentration by infrared cavity ringdown laser absorption
spectroscopy »,J. Phys. Chem., 101: 5211-5214.
PAULING, L. C. (1928), «The Shared-Electron Chemical Bond», Proc. Nat. Acad. Sei., 14:
359-362.
PAULING, L. C. (1931), «The Nature of the Chemical Bond. Application ofResults Obtained
from the Quantum Mechanics and from a Theory of Paramagnetic Susceptibility to the
Structure ofMolecules »,J. Am. Chem. Soc., 53: 1367-1400.

151
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

PAULING, L. C. ; BROCKWAY, L. O. (1934), «The Structure of the Carboxyl Group. 1. The


Investigation of Fonnic Acid by the Diffraction of Electrons », Proc. Nat. Acad. Sei., 20 :
336-340.
PAULING, L. C. (1935), «The Structure and Entropy oflce and ofOther Crystals With Sorne
Randomness of Atomic Arrangement», J. Am. Chem. Soc., 57 : 2680-2684.
PERRIN, J. B. (1913), Les Atomes, Félix Alcan, Paris.
PERRIN, J. B. (1927), «Valence et composés d'addition», Compt. Rend. Acad. Sei. Paris, 185:
557-561.
PETRENKO, V. F. ; WITHWORTH, R. W. ( 1999), Physics of ice, Oxford University Press, Oxford.
PROUST, J. L. ( 1794), « Recherches sur le bleu de Prusse », J. de Physique, 45 : 334-341.
QuANE, D. (1990), «The reception ofhydrogen bonding by the chemical community: 1920-
1937 »,Bull. Hist. Chem., 7: 3-13.
SALZMANN, C. G.; RADAELLI, P. G.; HALLBRUCKER, A.; MAYER, E.; FINNEY, J. L. (2006), «The
preparation and structure of hydrogen ordered phases of ice », Science, 311 : 1758-1761.
SCERRI, E. R. (2006), « Normative and Descriptive Philosophy of Science and the Role of
Chemistry »,Boston Studies Phil. Sei., 242 : 119-128.
SCERRI, E. R. (2008), «The Past and the Future of the Periodic Table», Am. Scientist, 96: 52-60.
ScHEINER, S.; KAR, T.; Gu, Y. (2001), « Strength of the CaH ... O hydrogen bond ofaminoacid
residues », J. Bio/. Chem., 276 : 9832-9837.
SCHEINER, S. ; KAR, T. ; PATTANAYAK, J. (2002), « Comparison of various types of hydrogen
bonds involving aromatic aminoacids », J. Am. Chem. Soc., 124: 13257-13264.
SHERMAN, A. (1937), «The Nature of the Hydrogen Bond. II The Role ofResonance. General
Considerations », J. Phys. Chem., 41 : 117-122.
S1oow1cK, N. V. (1927), The Electronic Theory of Valency, Oxford University Press, Londres.
SIMMONS, J.H. (1931), « Hydrogen fluoride and its solution», Chem. Revs, 8: 213-234.
SoPER, A. K. ; TEIXEIRA, J. ; HEAD-GORDON, T. (2010), « Is ambient water inhomogeneous on the
nanometer-Iength scale ? », Proc. Nat/. Acad. Sei. USA, 107 : E44.
TEIXEIRA, J.; BELLISSENT-FUNEL, M.-C.; CHEN, D. H.; DIANoux, A. J. (1985), « Experimental
detennination of the nature of diffusion motions of water molecules at Iow temperatures »,
Phys. Rev. A, 31 : 1913-1917.
URQUIDI, J.; SINGH, S.; CHo, C. H.; RoBINSON, G. W. (1999), « Origin of the temperature and
pressure effects on the radial distribution function of water», Phys. Rev. Lett., 83: 2348-2350.
VAN BRAKEL, J. (2006), « Kant's Legacy for the Philosophy of Chemistry », Boston Studies
Phil. Sei., 242: 69-91.
WALRAFEN, G. E.; FISHER, M. R.; HoKMABADI, M. S.; YANG, W.-H. (1986), « Temperature
dependence of the low and high-frequency Raman scattering from liquid water », J. Chem.
Phys., 85: 6970-6982.
WALRAFEN, G. E.; FISHER, M. R.; HoKMABADI, M. S.; Yang, W.-H. (1986), « Temperature
dependence of the low and high-frequency Raman scattering from liquid water », J. Chem.
Phys., 85: 6970-6982.
WERNET, P. ; NoRDLUND, D. ; BERGMANN, u. ; CAVALLERI, M. ; 0DELIUS, M. ; 0GASAWARA, H. ;
NASLUND, L. A. ; HIRSCH, T. K. ; OJAMA!l, L. ; GLATZEL, P. ; PETTERSSON, L. G. M. ; NILSSON, A.
(2004), «The structure of the first coordination shell in liquid water», Science, 304 : 995-999.
WouTERSEN, S. ; EMMERICHS, U. ; BAKKER, H. J. (1997), « Femtosecond mid-IR pump probe
spectroscopy of liquid water : evidence for a two component structure », Science, 278 : 658-
660.
YoUNG, T. ( 1807), « On the nature of light and colours. Lecture XXXIX », in A Course of
Lectures on Natural Philosophy and the Mechanical Arts, vol. 1, Joseph Johnson, Londres,
p. 457-471.

152
Relatiuité
et quanta
•Préambule
s i vous demandez à n'importe quel physicien à peu près normalement
constitué comment fonctionne la nature, il invoquera très rapidement les deux
piliers de la science moderne que sont d'une part la théorie de la relativité pour
l'échelle cosmologique et d'autre part la théorie quantique, pour l'échelle
subatomique. Puis il vous expliquera très certainement que pour le monde qui
nous entoure et que nous pouvons appréhender avec nos cinq sens physiques,
ces deux théories se réduisent à la physique classique, terme regroupant les
lois de la mécanique et de l'électromagnétisme. Les plus arrogants oseront
même soutenir la thèse que la thermodynamique, la chimie et la biologie sont
des sous-disciplines de la physique, avec comme seul problème conceptuel
la complexité des équations à résoudre qui oblige à raisonner de manière
statistique en faisant parfois des approximations drastiques qui ne peuvent
être justifiées qu'a posteriori. Mais qu'en est-il exactement? La physique
peut-elle avoir réponse à tout? Est-on sûr que la thermodynamique, la chimie
et la biologie peuvent être réduites à la physique ? Nous allons voir que non,
et pour cela il nous faut bien comprendre la démarche intellectuelle qui a
donné naissance aux théories relativistes et quantiques. Le défi à relever est
énorme, comme en témoigne cette phrase ahurissante du physicien américain
Richard Feynman (1918-1988), Prix Nobel de physique en 1965 pour ses
travaux en électrodynamique quantique, qui n'hésite pas à écrire (Feynman
1980,p. 154):

Il y eut un temps où les journaux prétendaient qu'il n'y avait que douze
hommes pour comprendre la théorie de la relativité. Je ne crois pas que
ce fut jamais le cas. Il y eut un temps, peut-être, où un seul homme l'avait
comprise, car avant d'écrire son papier, il était le seul à l'avoir saisie. Mais
après avoir lu son article, beaucoup de gens ont pu comprendre la théorie de
la relativité, d'une façon ou d'une autre, sûrement plus de douze. Par contre,
je crois pouvoir dire à coup sûr que personne ne comprend la mécanique
quantique.

Pour ma part, je suis persuadé que Feynman plaisantait, ce qui ne serait pas
très surprenant vu l'originalité du personnage (Feynman 1985). Le problème
est que certains scientifiques ont pris cette boutade tellement au sérieux que,

153
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE U MÉDECINE

contrairement à la théorie de la relativité, la théorie quantique apparaît toute


nimbée de mystères et d'étrangeté. Pire, beaucoup de personnes semblent
persuadées qu'il existerait un monde quantique régi par une fantomatique
onde psi qui s'opposerait à un monde classique régi par les lois déterministes
de Newton, Maxwell ou Einstein.

Nous savons aujourd'hui que la raison pour une telle différence de


compréhension ne tient pas au formalisme mathématique, car l'algèbre
tensorielle de la relativité ou l'analyse fonctionnelle de la mécanique
quantique, même s'il s'agit de choses complètement abstruses pour l'homme
de la rue, sont parfaitement comprises et maîtrisées. Le problème est ailleurs
et se situe plutôt dans le traumatisme profond provoqué par l'idée qu'il puisse
exister un monde quantique qualitativement différent du monde classique,
alors que la différence entre un monde relativiste où les vitesses sont proches
de celle de la lumière et un monde classique où ces mêmes vitesses sont
négligeables n'est que d'essence purement quantitative. Avant de présenter ces
deux théories, posons la question de savoir ce que l'on appelle la« réalité».

Un monde mécanique
Pour les matérialistes, une chose sera qualifiée de « réelle » si l'on est
capable de la voir, de l'entendre, de sentir son odeur, de la toucher ou de
savoir quel goût elle a. Pour les idéalistes, cette manière de voir les choses
est beaucoup trop réductionniste car elle occulte le fait que les êtres humains
sont aussi doués d'un intellect, capables de réfléchir, de raisonner et de
conceptualiser. L'intellect nous introduit ainsi dans le monde des choses
immatérielles, indécelables via nos cinq sens physiques, mais néanmoins
tout à fait« réelles». Pour s'en convaincre, il suffit de regarder les satellites
de Jupiter avec une bonne paire de jumelles, ou mieux, un petit télescope.
La première fois que j'ai fait cela, j'ai eu un véritable choc en voyant ces
boules suspendues comme par magie dans l'espace sans rien autour. C'est en
faisant cette expérience d'adolescent que j'ai compris qu'il semblait exister
autour de toute masse une réalité invisible et tentaculaire appelée « champ de
gravitation», capable d'exercer une force bien réelle sur toute masse passant
dans son voisinage immédiat.

154
CHAPITRE IV - RELATIVITt ET QUANTA

Force F (Newton)= Masse (M) x Accélération (a) CM·L·T-2 ]

Sir Isaac Newton


(1643-1727)

~ Distance &L =vitesse x durée (&T}

Figure 74 : La science mécanique (Newton 1687) s'intéresse principalement à la


quantité de mouvement. produit de la masse par la vitesse. La première loi de Newton
stipule /'existence d'un coefficient d'inertie appelé masse. La deuxième loi que tout
changement de la quantité de mouvement est dû à une force. La troisième loi, que la
quantité de mouvement totale se conserve quoiqu'il arrive (principe d'action et de
réaction). Les trois lois combinées permettent d'expliquer le mouvement des objets
terrestres aussi bien que celui des planètes.

Si l'on y réfléchit un petit peu, la notion de réalité est étroitement liée au


concept de force (figure 74). Une force existe à partir du moment où quelque
chose de bien réel se manifeste. C'est ce qu'exprime le principe fondamental
de la dynamique en liant entre elles ces quatre notions fondamentales
et intuitives que sont la force, la masse, la vitesse et le temps. En fait, je
rencontre ici une première difficulté qui est généralement complètement
occultée dans la plupart des ouvrages de physique et qui est la source de bien
des difficultés pour comprendre l'essence même de la théorie de la relativité.
En effet, la seule donnée du temps Tet d'une vitesse v suffit à définir la notion
de longueur L, comme étant l'espace parcouru pendant le temps T avec la
vitesse v. Dans cette conception des choses, l'espace apparaît comme une
simple création du temps, en raison de l'existence d'un mouvement spontané
existant indépendamment de toute notion spatiale (figure 74). L'espace n'a
donc aucune réalité propre, n'étant que l'illusion générée par un mouvement
pur se déployant dans le temps. Si l'on avait adopté ce point de vue dès le
xvn• siècle, lors de la première formulation de science mécanique, la théorie

155
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de la relativité et son corollaire le Big-Bang couleraient de source au lieu


d'apparaître comme des révolutions conceptuelles du xx" siècle.

En effet, pour notre plus grand malheur, le physicien anglais Isaac Newton
décida de manière totalement arbitraire que l'espace et le temps étaient des
choses bien réelles et indépendantes l'une de l'autre. Dans ces conditions,
c'est la notion de vitesse qui devenait un concept dérivé, étant définie comme
l'espace parcouru par unité de temps. En fait, Newton voulait se démarquer
clairement de la philosophie du physicien français René Descartes (1596-·
1650) qui soutenait que l'espace n'existait qu'en relation aux choses sensibles,
c'est-à-dire qu'il s'agissait d'un concept apparent qui se résumait aux mesures
sensibles que l'on peut y faire. En d'autres termes, Descartes niait avec
Aristote l'existence du vide, alors que Newton en avait absolument besoin
pour formuler sa loi d'inertie qui introduisait une différence fondamentale
entre le mouvement uniforme en ligne droite qui n'est qu'une apparence liée
au choix d'un point de référence et le mouvement accéléré qui était considéré
comme la seule réalité tangible.

Ceci fait que chez Newton, l'espace est absolu en ce sens qu'il agit sur les
corps en étant le garant de l'inertie, mais sans possibilité que les corps agissent
sur lui en retour. Si l'espace cartésien est de nature purement géométrique,
l'espace newtonien est bien de nature physique, sorte d'arrière-plan fixe,
similaire à une scène de théâtre, lieu où s'expriment les mouvements vrais
uniformément accélérés. Il en découle que force, masse, accélération ou
quantité de mouvement sont des êtres physiques réels, tout comme l'espace
infini au sein duquel ils s'expriment. Ce dernier donc acquiert le droit
d'être « vide » de matière, scellant une rupture définitive avec la physique
aristotélicienne qui niait l'existence du vide et exigeait la présence d'un
moteur pour maintenir les objets à vitesse constante.

Pour être complet, notons que l'on aurait pu aussi considérer que espace et
vitesse étaient les seules sources de réalité, auquel cas ce serait le temps qui
serait un concept dérivé et illusoire. Cette manière de faire présente toutefois
l'inconvénient évident de définir le temps comme le rapport de deux vecteurs,
c'est-à-dire comme un tenseur et non comme un scalaire. Newton ne pouvait
donc vraiment choisir qu'entre deux alternatives de réalité (vitesse et temps
ou position et temps) et, guidé par les expériences de Galilée, il décida de
privilégier un espace absolu plutôt qu'un espace relatif, entraînant dans une
impasse de nombreuses générations de physiciens.

156
CHAPITRE IV - RELATIVITÉ ET QUANTA

Un monde massif
Le monde newtonien est un monde rassurant où l'on dispose de règles pour
mesurer les longueurs, d'horloges pour mesurer les durées et de balances
pour mesurer les forces. De manière assez étrange, il n'existe dans ce monde
mécanique et classique aucun appareil à mesurer les masses, alors que ce
paramètre joue un rôle de premier plan dans toute théorie mécanique. En
effet, la première chose à éviter est de confondre le poids qui mesure la
force avec laquelle toute masse est attirée par la Terre et qui se mesure en
newton avec la masse qui se mesure en kilogramme. De fait, si l'on change
de planète, le poids indiqué par la balance n'est plus du tout le même, alors
que la masse ne varie pas d'un iota. Il est donc particulièrement regrettable
que toutes les balances affichent systématiquement des kilogrammes là où
on s'attendrait à trouver des newtons !!! La raison d'un tel état de fait tient
à un phénomène tout à fait remarquable qui fait que deux corps de masses
différentes chutent exactement avec la même accélération dans le même
champ de pesanteur. Mais si cette manière de faire ne pose pas de problème
sur Terre, comment définir la masse en absence de gravité où le poids devient
nul puisque alors mP = 010 !!! On pourrait penser utiliser le rapport entre la
quantité de mouvement et la vitesse qui définit la masse inertielle. Mais si le
corps est au repos, sa vitesse s'annule, tout comme sa quantité de mouvement,
et l'on se retrouve avec le même problème m1 = 010 !!! Si la masse possède un
quelconque sens physique, il doit bien exister un moyen de la définir même
lorsque la gravité et la vitesse sont nulles ...

Le stratagème employé est en fait assez basique et fait appel à la troisième


loi de Newton concernant le principe d'action et de réaction, ou plus
exactement la conservation de la quantité de mouvement (figure 74). Ce
principe se manifeste lors de tout contact physique, occasion dont profite la
quantité de mouvement pour passer d'un corps à un autre. Autrement dit,
c'est lors de collisions ou de chocs que la masse révèle son existence et en
l'absence d'interaction parler de la masse n'a aucun sens. Le révélateur fut
pour moi le jeu de pétanque, rituel incontournable auquel devait se plier toute
la famille, une fois que le soleil provençal devenait moins chaud et que les
ombres envahissaient le terrain de boules tandis que les glaçons crissaient
leur désarroi au contact de l'eau fraîche venant troubler la limpidité des
pastis odoriférants aux couleurs ambrées. Mon coup préféré était bien sûr
le « carreau », où le tireur venait dégommer la boule intelligemment placée
par le « pointeur » sans toucher aux autres boules. Il y avait deux types de
carreau. Le premier qui se faisait sans changement de vitesse et se produisait
lorsqu'une boule venait en chasser une autre de même taille. Par contre,
lorsque la boule frappait le cochonnet, ce dernier pouvait acquérir une vitesse
incroyablement élevée. Il découlait donc du principe de conservation de la
quantité de mouvement que la connaissance des vitesses suffisait à déterminer

157
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

le rapport des masses enjeu. Le point crucial était que puisqu'il y avait choc,
les vitesses ne pouvaient pas être nulles et donc les masses étaient toujours
bien définies. C'est donc bien le choc qui permet de définir la masse lorsqu'on
ne possède aucune balance ou lorsque la gravité devient nulle ! ! !

En fait, la masse ne devient donc une réalité que lors d'une rencontre
violente. C'est la raison pour laquelle tous les physiciens sont fascinés par
les accélérateurs de particules, car seul le choc frontal permet d'appliquer le
principe de conservation de la quantité de mouvement afin de connaître les
masses relatives en présence. Le problème est qu'il faut disposer d'une masse
de référence, car lors de chocs, on ne peut mesurer que des rapports de masse
et non les masses elles-mêmes. La balance est donc utilisée une seule fois
sur une planète suffisamment grosse afin de connaître le poids d'une masse
étalon. Sur Terre, on a donc pu définir ainsi le kilogramme, comme étant
la masse dont le poids est égal à 9,81 N. Les collisions permettent ensuite
via les quantités de mouvement respectives de déterminer toutes les autres
masses en référence à la masse étalon. On notera cependant que tout cela ne
nous apprend strictement rien sur l'origine physique de la masse, puisque la
conservation de la quantité de mouvement ne donne accès qu'à des rapports
de masses. Cette notion de masse est donc loin d'être triviale, ce qui pourrait
signifier qu'elle n'est qu'un artifice mathématique commode pour parler de
la force en relation avec l'espace et le temps, concepts qui comme on l'a vu
expriment dans un monde newtonien la notion de réalité.

Il ne faut donc pas être outre mesure surpris que toute approche relativiste
ou quantique évacue en tout premier lieu cette notion de masse qui apparaît
être une bien mauvaise manière de définir la quantité de matière. De fait,
en relativité restreinte, la masse se confond avec l'énergie ou la quantité de
mouvement, tandis qu'en théorie quantique et en relativité générale, la masse
se confond avec le vide. Donc, la première chose à faire, lorsque l'on souhaite
vraiment avoir une approche relativiste ou quantique de la nature, c'est de
ranger bien consciencieusement le concept de masse au placard des notions
inutiles. Si l'on ne fait pas cela, la théorie de la relativité apparaîtra comme
une chose étrange et irréelle, tandis que la théorie quantique s'apparentera
plus à du nihilisme qu'à de la physique.

Un monde chiral
Une autre raison pour se méfier de la notion de masse comme de la peste
est que le temps, agissant de concert avec le mouvement, fabrique un espace à
3 dimensions. Or, le principe de conservation de la quantité de mouvement qui
permet de définir la notion de masse est associé à un mouvement « naturel »
de translation uniforme, qui ne balaye qu'une seule dimension spatiale sur les

158
CHAPITRE IV - RELATIVITÉ ET QUANTA

trois accessibles. Si l'on combine la gravitation qui impose une différentiation


entre les notions de haut et de bas avec l'inertie qui différencie ce qui se
trouve devant et ce qui se trouve derrière, il devient possible de courber la
trajectoire des corps et d'explorer les mouvements se produisant dans un
plan et non plus selon une ligne. Ce faisant, le mouvement de translation
uniforme se transforme en mouvement circulaire uniforme et le principe de
conservation de la quantité de mouvement linéaire devient le principe de
conservation du moment angulaire. Ce deuxième principe de conservation,
frère jumeau du premier, trouve sa plus belle expression dans la variation de
la fréquence de rotation pour toute altération de l'aire balayée par le corps
en rotation. Les pirouettes en patinage artistique ou les sauts périlleux et les
gyroscopes sont de bons exemples du principe de conservation du moment
angulaire. Or, la considération du mouvement circulaire permet de différencier
conceptuellement entre la droite et la gauche, car toute rotation dans le sens
inverse des aiguilles d'une montre fait pointer le moment angulaire vers le
haut, alors que la même rotation dans le sens horaire fait pointer le moment
angulaire vers le bas (règle de la main droite). De même, si l'on combine un
mouvement de translation avec un mouvement de rotation, afin d'explorer les
3 dimensions spatiales, on génère des hélices gauches ou des hélices droites.
Toutefois, la mécanique newtonienne ne fait aucune distinction entre la droite
et la gauche.

Il est donc intéressant de noter que lorsqu'on pèse des rotors en rotation,
on constate une diminution de leur poids proportionnelle à leur vitesse de
rotation lorsqu'ils tournent vers la droite (figure 75) avec un moment angulaire
pointant vers le bas. La chose très surprenante est que l'on ne constate aucune
variation de poids pour un mouvement de rotation vers la gauche où le moment
angulaire pointe vers le haut (Hayasaka & al. 1989). Ce genre d'expérience,
rarement mentionnée dans les livres de physique, achève la démonstration
que les notions de masse ou de poids sont des choses extraordinairement
subtiles. La morale de ceci est que si d'aventure vous rencontrez quelqu'un
qui vous parle de la masse comme d'une chose évidente, il y a de très fortes
chances que vous ayez affaire à un mystificateur, ou à quelqu'un qui ne sait
pas de quoi il parle.

Si l'on doit vraiment se méfier de la notion de masse, il en découle


logiquement que cette dernière ne peut pas être considérée comme une bonne
mesure de la quantité de matière, comme on le croyait au temps de Newton.
L'établissement de la formule chimique de l'eau fournit un excellent exemple
du danger que l'on court en raisonnant au moyen de masses. C'est la raison
pour laquelle il est préférable de mesurer la quantité de matière au moyen
du nombre de moles. Mais, de manière étrange, seuls les chimistes prennent
la peine de convertir les kilogrammes en moles, tous les autres scientifiques
raisonnant systématiquement en masse alors qu'ils utilisent un appareil

159
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

mesurant un poids et non une masse ! ! ! Pourquoi diable utiliser une valeur
qui dépend de la taille d'une planète et qui devient indéterminée lorsque la
taille de cette planète tend vers zéro ?

_ ..,_ .. ~:-::--
~. .
.. , ~-·
L
.

---
J ·~ · -L'-tt

--

lobdoa • .......
0 9-H-f-f +++ +!
S4 s 6 7 1 9 1 o u 1a13
~-rotadoe/toan·•··

Figure 75 : Expérience démontrant une variation de masse selon le sens de rotation.

Un monde électrique et magnétique


Je me rappelle que lorsque j'étais écolier, je m'amusais à frotter une
règle en plastique sur mon pull-over de manière à pouvoir attirer des petits
bouts de papier. J'ai ainsi compris qu'il existait également une autre réalité
invisible appelée « champ électrique » entourant toute charge électrique
immobile et conceptuellement différente du champ gravitationnel. J'avais
aussi une fascination pour les aimants, capables d'attirer toute substance à
base de fer, sans même qu'il soit nécessaire de frotter quoi que ce soit. ..
Lorsque mon professeur de physique au lycée expliqua, preuves à l'appui,
que tout courant électrique générait une troisième réalité tout aussi invisible
et immatérielle que les deux autres, appelée « champ magnétique », ce fut
le désarroi total. Si j'acceptais sans problème l'idée même d'un champ
magnétique généré par des charges électriques en mouvement, je ne voyais
rien de tel dans un aimant. ..

160
CHAPITRE IV - RELATIVITt ET QUANTA

Mes autres enseignants de physique du lycée étant tout aussi discrets


sur ce qui était en mouvement dans un aimant statique, j'ai donc dévoré
des tas de livres de physique pour tenter de comprendre. Mais aucun livre
n'abordait le problème de face, car tous insistaient sur l'expérience cruciale
d'Œrsted qui, pour moi, n'avait aucun rapport avec les aimants. En effet,
dans cette expérience, il faut un générateur de courant électrique, et dans
ma grande naïveté je ne voyais aucun générateur de courant, ni aucune pile
électrique dans un aimant permanent. Le champ est toujours là et si jamais
il devait exister une pile électrique miniature au sein de chaque aimant
permanent pour créer le champ, cette pile, contrairement à celles que je
pouvais acheter pour faire fonctionner mes montages électriques, ne s'usait
jamais ... Sans le savoir, je venais de faire ma première rencontre avec les
phénomènes quantiques, et l'adolescent boutonneux que j'étais ne pouvait
encore imaginer que l'étude de cette science quantique allait m'entraîner
dans une aventure où j'allais découvrir une substance bien étrange : l'eau.

Charges statiques: champ électrique E [M·Uf-2 .Q-1] (V·m-1)


Volt (V)
1N·m·C-1 1
Coulomb (C)
J.y-1
Farad (F)
C·V·1
Permittivité e
F·m·1
Énergie: Joule (J =N:m)
Charges en mouvement: densité de flux magnétique B [M·T·1 ·Q- 1] (Tesla)
Ampère(A)
C·s·1
Weber(Wb)
Y.:&
Henry(H)
Wb·A·1
Perméabilité µ
H ·m·1

Figure 76: Les notions de champ électrique E et d'induction magnétique B rendent


compte de tous les phénomènes électromagnétiques.

Mais pour l'instant, en bon chercheur, je réalisais des expériences. Sans


trop savoir pourquoi, j'ai ainsi eu l'idée un jour d'utiliser mon réchaud à
gaz pour camping pour chauffer un aimant. Jusque-là, ce réchaud me servait
à faire fondre les balles de plomb ramassées sur le champ de tir où j'allais
jouer. J'adorais chauffer ces trucs gris et mous complètement déformés par
l'impact avec la cible pour générer un liquide brillant comme le mercure
que je pouvais couler dans des boîtes de sardines vides afin d'obtenir après

161
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

refroidissement des lingots extrêmement lourds malgré leur petite taille.


Qu'allait-il arriver si d'aventure je plaçais un aimant permanent dans la
flamme du réchaud? À ma grande surprise, je constatai que l'aimant, une
fois chauffé, n'attirait plus les objets en fer comme avant. Par contre, dès
qu'il refroidissait, le champ magnétique réapparaissait comme par magie.
Le mystère se corsait. Non seulement il n'y avait aucune pile visible, mais
en plus, cette pile disparaissait en chauffant pour réapparaître spontanément
un peu plus tard en dessous d'une certaine température ...

Mais très vite j'oubliai complètement mes aimants, car ce qui me


fascinait c'était la chimie. En effet, j'avais réuni dans une remise du jardin
pleine de courants d'air du petit matériel de chimie et quelques réactifs.
Je torturais ainsi dans mon laboratoire de fortune à l'aide d'acides et de
bases différents métaux achetés dans le commerce ainsi que des cailloux
ramassés lors de mes excursions dans les collines calcaires du voisinage
truffées d'anfractuosités où l'on pouvait se faufiler à condition de n'être pas
trop gros. L'une de mes expériences favorites était celle où je pouvais faire
changer de couleur à volonté l'eau de cuisson de choux rouges. Ici aussi,
j'étais loin de me douter que la mécanique quantique se cachait derrière tout
changement de couleur.

Un monde thermique
Depuis 1850, on fait grand usage d'un premier principe de la
thermodynamique (figure 77) stipulant que tout système macroscopique
est caractérisé par une qualité de nature extensive qui ne peut jamais être
créée ou détruite. Ceci n'est en soi pas très nouveau puisque le philosophe
grec Anaxagore de Clazomène (500-428 AEC) proclamait déjà que : « Les
Hellènes ne jugent pas bien du devenir et du périr ; car aucune chose ne
devient ni ne périt, mais elle se mêle ou se sépare de choses qui sont.
Ainsi on dirait à bon droit "se composer" au lieu de "devenir" et "se
décomposer" au lieu de "périr" » (Tannery 1930, p. 312). Il a donc juste
fallu 2 500 ans pour transformer le nous d 'Anaxagore en énergie en passant
par la balance de Bergman et Lavoisier. Dans ce cadre, on définit l'énergie
cinétique comme toute forme d'énergie qui ne dépend que de la quantité de
mouvement (translation) ou du moment cinétique (rotation) et qui s'exprime
donc dès que la matière change sa vitesse de déplacement Par opposition,
il existe une autre forme d'énergie dite potentielle qui regroupe toute forme
d'énergie qui ne dépend que de la position et qui s'exprime donc dès que la
matière change de position dans un champ de force qui dérive de la donnée
d'un potentiel.

162
CHAPITRE IV - RELATIVITÉ ET QUANTA

·; '
Température absolue 9 (Kelvin)

••

'

.' . .
·' ·
.

.
- ·

·. .
/

·.-'
.. ,·

~
1

., ,. ···~...
100_

·-~-m.16
.71

-19'

.m ,16 1
- ' =_

-
--

l J
m ,16

lOO

71

-
Principe zéro de la thermodynamique (Kelvin)

o....,..
Équilibre thermique e, = e2

~ c.- ,...... U [M · L2·~·]


w.-, Thomson {lord Ke1W1J Premier principe de la thermodynamique (Joule)
11824- 19071 énergie interne AU= W (travail) + Q (chaleur)
(18 45)
1Cll• 4,184J

~erglf! mécanique iiii~


1
énetgie thermique
(~aoondeT)

Figure 77 : La thermodynamique s'intéresse aux échanges de chaleur et pose


l'existence de la température et le principe de conservation de l'énergie.

Le premier principe nous dit alors que si l'on additionne l'énergie cinétique
et toutes les formes imaginables d'énergies potentielles on obtient une valeur
qui ne peut jamais changer. Comme le clame Rudolf Clausius, l'énergie
du monde, somme de tout ce qui est homogène au produit d'une masse
que multiplie une aire que divise le carré d'un temps, doit toujours rester
constante. Comme cette énergie totale E ne peut jamais varier, il est légitime
de la poser comme étant égale à zéro pour se focaliser uniquement sur les
variations d'énergies et non sur les énergies elles-mêmes.

Toutefois, s'il existe bien une propriété commune à tous les possibles,
l'énergie cinétique, la partie potentielle est pour sa part un concept qui
possède une forme suffisamment souple pour qu'on puisse y faire rentrer
à peu près n'importe quoi (Feynman 1980). Ainsi, à la question« Qu'est-
ce que l'énergie?», le mathématicien français Henri Poincaré (1854-1912)
répondait (Poincaré 1917) :

Dans chaque cas particulier on voit bien ce que c'est que l'énergie et on
peut en donner une définition au moins provisoire ; mais il est impossible
d'en trouver une définition générale. Si l'on veut énoncer le principe dans
toute sa généralité et en l'appliquant à l'univers, on le voit pour ainsi dire
s'évanouir et il ne reste que ceci : il existe quelque chose qui demeure
constant... En résumé, et pour employer le langage ordinaire, la loi de
conservation de l'énergie ne peut avoir qu'une signification, c'est qu'il
y a une propriété commune à tous les possibles ; mais dans l'hypothèse

163
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

déterministe il n'y a qu'un seul possible et alors la loi n'a plus de sens. Dans
l'hypothèse indéterministe, au contraire, elle en prendrait un, même si on
voulait l'entendre dans un sens absolu ; elle apparaîtrait comme une limite
imposée à la liberté ... La loi de Mayer est une forme assez souple pour
qu'on puisse y faire rentrer presque tout ce que lon veut.

Nous touchons ici du doigt l'une des grandes difficultés de la


thermodynamique qui tend à nous fait croire que lénergie est une chose
réelle et tangible, alors qu'au contraire, c'est un concept vague et flou, dénué
de réalité. Le côté concret qui mesure la réalité d'un mouvement ne se trouve
donc pas dans l'énergie totale U mais bien dans la température E>. Pour bien
comprendre cela, il suffit de songer à une masse posée sur un support situé en
hauteur. Dans cette situation, la masse possède bel et bien une énergie mais
rien ne passe, elle reste parfaitement immobile sur son support. Cela tient à
deux raisons. La première est que la masse est un simple coefficient d'inertie
qui s'oppose systématiquement à tout changement de son état de mouvement.
S'il se trouve qu'elle est immobile, rien en elle ne pourra l'obliger à changer
cet état. De même, l'énergie que possède cette masse en hauteur n'est qu'une
potentialité de mouvement (énergie potentielle) et non un mouvement en
acte (énergie cinétique). Remplaçons maintenant la masse inerte par un
récipient d'eau chaude ayant une température supérieure à celle du milieu
environnant. Ce simple fait va immédiatement entraîner des transferts de
chaleur. Ceci montre que si l'énergie mesure la potentialité au mouvement, la
température mesure quant à elle son état de réalité. Rien ne peut empêcher un
corps chaud de devenir froid, alors qu'il est toujours possible d'immobiliser
un corps bourré d'énergie potentielle. C'est donc bien parce que le premier
principe stipule que la chose qui se conserve est une somme de deux termes,
l'un dépendant des vitesses et l'autre des positions, qu'il faut une qualité
supplémentaire (la température) pour décrire l'état de réalité du mouvement
s'exprimant sur les trois qualités de base que sont la longueur, le temps et la
masse.

Pour conclure, il convient de comprendre qu'il est donc incorrect de parler


de différentes formes d'énergie comme la chaleur, le travail mécanique,
électrique, interfacial, ou chimique, etc. En fait, travail et chaleur sont des
énergies échangées et non des types d'énergie. L'énergie, c'est donc un
peu comme l'argent qui s'échange et circule et permet de changer l'aspect
extérieur des choses là où il passe. Ainsi, si la science thermodynamique sait
définir l'énergie échangée dans chaque cas particulier, elle est cependant
parfaitement incapable d'en trouver une définition générale. Si l'on veut
énoncer le premier principe dans toute sa généralité, tout ce que l'on peut
affirmer c'est qu'il existe quelque chose qui demeure constant...

164
CHAPITRE IV - RELATIVITÉ ET QUANTA

Un monde en éuolution
Le problème du premier principe, c'est qu'il ne donne aucun sens
d'évolution, car rien ne peut être attendu d'une chose qui reste constante
quoi qu'il arrive. Tout le problème tient donc à connaître la raison pour
laquelle l'énergie commence à circuler pour transformer choses et êtres puis
s'arrête alors qu'il existe toujours de l'énergie disponible pour effectuer les
transformations. Après l'invention des thermomètres, on remarqua très vite
que lorsque deux corps n'étaient pas à la même température, celui qui était le
plus chaud cédait toujours sa chaleur à celui qui était le plus froid. De fait, de
nos jours, on n'a jamais vu un corps froid céder de la chaleur à un autre corps
plus chaud. Dans un sens, cela est évident, car si tel était le cas, le corps froid
deviendrait toujours plus froid et le plus chaud toujours plus chaud. Il serait
donc impossible d'atteindre un état d'équilibre. Si, par contre, le corps chaud
perd de la chaleur et celui qui est froid en gagne, il est clair qu'à un moment
donné celui qui était chaud deviendra froid et celui qui était froid deviendra
chaud. Dans ce cas, la chaleur repartira dans l'autre sens, jusqu'à ce que les
températures deviennent égales, entraînant l'arrêt des transferts de chaleur.

Jusqu'ici tout va bien, car on reste à un niveau macroscopique. Si, par contre,
on se place dans le paradigme où toute matière est composée d'atomes, les
choses se gâtent, car ici chaleur et température se confondent avec la notion
d'énergie. Pour la chaleur, cela ne pose pas trop de problèmes, car il est assez
facile de l'associer à l'énergie cinétique de mouvement des atomes. Dans
un corps chaud, les atomes se meuvent plus rapidement que dans un corps
froid. Si dans le passé on mesurait l'énergie cinétique en calorie et l'énergie
potentielle en kilogramme-force-mètre, on sait depuis les travaux de Mayer,
Joule et Helmholtz qu'il existe un équivalent universel permettant de passer
d'une unité à l'autre. C'est d'ailleurs la raison pour laquelle on a introduit
une nouvelle unité, le joule, afin de pouvoir sommer l'énergie cinétique et
l'énergie potentielle dans une énergie totale qui est toujours conservée quoi
qu'il arrive.

Reste le problème de la température qui semble ne correspondre à rien


sur un plan microscopique. On se tire généralement de ce mauvais pas en
déclarant que la température n'a aucun sens pour les atomes individuels et
ne peut être définie que lorsqu'on dispose d'une grande quantité d'atomes,
d'où l'idée d'une mécanique statistique basée sur des lois probabilistes
s'opposant à une mécanique rationnelle basée sur des lois déterministes.
Cette scission du monde en deux entre le microscopique et le macroscopique
explique pourquoi, dans le système international d'unités de mesure, il faut,
pour spécifier l'état de mouvement de toute matière, se donner deux qualités,
énergie pour parler du monde des atomes et des molécules et température
pour parler des substances. Je me souviens très bien que lorsque j'étais

165
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

étudiant, je trouvais cela extrêmement choquant, car après tout l'énergie


pouvait être définie à toute échelle, entraînant ipso facto que l'on pouvait
confondre énergie et température.
Or, il existe en physique une constante universelle appelée constante de
Boltzmann, notée~. homogène àun rapport entre une énergie etune température.
Si l'on confond les notions de température et d'énergie, la constante devient
sans dimension, un simple rapport d'échelle entre deux notions similaires.
Certains auteurs préconisent même de poser ~ = 1, prétendant que cette
constante est dénuée de tout contenu physique, la notion d'énergie se suffisant
à elle-même. Notons qu'on retrouve exactement le même problème avec la
quantité de matière qui dans le système international utilise deux qualités,
nombre de moles pour parler du monde atomique et masse pour parler des
substances. Si l'on dit que la masse peut être définie à toutes les échelles, alors
il s'ensuit qu'il est possible de confondre masse et nombre de moles. C'est
ainsi que l'on introduisit au xIX" siècle le nombre d'Avogadro NA, comme un
simple rapport d'échelle. Si Avogadro fut le premier à pressentir l'existence
de ce nombre en réalisant que mesurer des volumes revenait à compter les
atomes et les molécules, il n'en détermina pas la valeur car les atomes sont
beaucoup trop petits pour pouvoir être comptés un par un. C'est d'ailleurs pour
cela que certains scientifiques se méfiaient des atomes comme de la peste, ne
considérant que les masses pour écrire les lois chimiques, ce qui les obligeait à
utiliser les équivalents comme on l'a vu précédemment.

Énergie =
en action

IJ :S: l - e , Entropie=
a, en transformation

Nicolas Léonard
Sadi Carnot
(1796-1832)

Josiah Willard Gibbs


Rudolf Clausius (1839-1903)
(1822-1888)

Figure 78 : Le second principe de la thermodynamique donne un sens à l'évolution


via la notion d'entropie qui signifie « en évolution » et qui s'oppose à la notion
d'énergie qui signifie« en action ». Son lien avec la mécanique quantique est très fort,
car il se base sur une inégalité, tout comme le principe d'incertitude d'Heisenberg.

166
CHAPITRE IV - RELATIVITÉ ET QUANTA

Mais, il se trouve que la constante de Boltzmann et le nombre d' Avogadro


fixent la valeur de la constante des gaz parfaits, R = NA·~. qui ne peut en
aucun cas être considérée comme étant dénuée de tout sens physique. Pour
la quantité de matière, on est donc obligé de bien faire la distinction entre
la masse (kilogramme) et le nombre d'entités (mole), ce qui entraîne que le
nombre d'Avogadro devient la constante d'Avogadro NA. Par contrecoup, il
devient impossible de prétendre que la constante de Boltzmann est dénuée
de tout sens physique, puisqu'elle s'exprime comme le rapport de deux
constantes physiques ! ! ! On comprend donc une nouvelle fois que la notion
de température ne doit pas être confondue avec l'énergie, tout comme on ne
doit pas confondre nombre de moles et masse.

Le second principe de la thermodynamique (figure 78) affirme que les


systèmes macroscopiques sont caractérisés par une qualité extensive S
appelée entrooie qui se trouve être la variable conjuguée de la température E>
et qui ne peut qu'augmenter lors de toute transformation spontanée (Clausius
1854). Ce ménage à trois formé d'énergie, de température et d'entropie régit
en fait le devenir de l'univers et fait l'objet de la thermodynamique, science
particulièrement ingrate, redoutée de tous les étudiants en raison du manque
de clarté total qui la caractérise. Ceci est évidemment lié au fait que l'on ne
dispose d'aucun appareil capable de mesurer l'énergie ou l'entropie, comme
on mesure la température avec un thermomètre. D'ailleurs, comme tous
les étudiants, je n'ai absolument rien compris lorsque mes enseignants ont
tenté d'introduire la notion d'entropie. La plupart d'entre eux s'obstinaient à
présenter cette notion comme une mesure de l'état de désordre d'un système
physique. En gros, lorsque je chauffe, les particules qui constituent les
objets s'agitent de plus en plus vite, et lorsque leur énergie cinétique devient
suffisante, les belles structures régulières que l'on peut contempler dans la
Nature disparaissent à jamais pour laisser place au chaos.

Pour bien appuyer ce raisonnement, une grosse majorité d'enseignants cite


le cas d'une pièce bien rangée qui, au fur et à mesure que le temps s'écoule,
ne pouvant qu'augmenter son état de désordre, devient de plus en plus
désordonnée. Pour ma part, je trouvais cela complètement ridicule. Si mon
bureau devenait désordonné après avoir été rangé, ce n'était pas à cause d'une
tendance innée au désordre, car lorsque je quittais ma maison pour une longue
période, il restait exactement dans l'état où je l'avais laissé en partant. .. Si par
contre mes enfants étaient passés par là et surtout si je travaillais moi-même à
mon bureau, il avait effectivement tendance à devenir plus désordonné. Mais
il était clair pour moi que ce désordre était lié à l'énergie musculaire dépensée
pour déplacer les objets et non à une quelconque augmentation d'entropie ...
Bref, c'est bien l'énergie qui permet de créer l'ordre ou le désordre et en
aucun cas l'entropie.

167
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

En fait, lorsqu'on regarde les différentes significations du mot grec tpom't


on trouve : tour, conversion, évolution, révolution, changement ou direction.
On voit donc qu'il s'agit d'un mot présentant de multiples interprétations et
qui suggère en gros que quelque chose ne revient pas identique à lui-même
après un tour, une révolution ou un cycle entraînant l'existence d'un sens
ou d'une direction d'évolution. Avec un mot aussi lourd de sens, il n'est pas
surprenant que le concept d'entropie soit la source d'une grande confusion
dans beaucoup d'esprits plus à l'aise avec la notion apparemment plus claire
d'énergie. Tout comme l'énergie, l'entropie peut être échangée avec d'autres
systèmes, en particulier sous forme de chaleur. L'entropie, contrairement à
l'énergie, peut être créée, mais elle ne peut en revanche pas être détruite.
Ainsi, dans les systèmes isolés, l'entropie ne peut qu'augmenter ou à la rigueur
rester constante en cas d'équilibre thermodynamique. Une réaction démarre
donc lorsqu'il existe un processus disponible autorisant l'accroissement de
l'entropie totale et s'arrête lorsqu'il n'y a plus aucun moyen de faire croître
l'entropie, et ce, quelle que soit la quantité d'énergie disponible.

La thermodynamique fut ainsi la première science à mettre en avant une loi


basée sur une inégalité et non une égalité comme pour les lois mécaniques de
Newton ou celles de Maxwell pour l'électromagnétisme. L'inégalité introduit
de fait une ligne de démarcation très nette entre un monde qualifié de réel
car observable (AS 2: 0) et un autre monde inobservable (AS< 0). C'est une
des raisons pour lesquelles l'entropie nous introduit de manière directe au
monde quantique. L'inégalité traduit aussi le caractère épistémologigue de
toute science, par opposition au caractère ontologigue de toute philosophie
ou religion. Il est cependant crucial de noter que inobservable ne signifie
en rien inexistant. D'ailleurs, le x1x• siècle est aussi celui où se livre une
bataille acharnée entre atomistes, partisans d'une réalité inobservable et
équivalentistes qui ne croient qu'en ce qui peut se mesurer à la balance.

Un monde probabiliste
Mais si l'entropie n'était pas une mesure du désordre ou du chaos, que
pouvait-elle bien être? Je me souviens ici d'une discussion avec un de mes
cousins parisiens plus âgé que moi ayant fait ses études dans ce que l'on
appelle les« grandes écoles». Par un clin d'œil de la vie, il se trouvait que les
parents de mon cousin avaient hébergé mon père lorsqu'il se trouvait à Paris
pour ses études. Grâce à eux, j'avais pu trouver pour faire mes études à Paris
un logement dans le même immeuble et j'étais invité à dîner le soir une fois
par semaine. Le sujet de l'entropie arriva ainsi sur le tapis un soir après le
repas au moment du cognac, que mon cousin dégustait accompagné d'un gros
cigare. Il m'expliqua les yeux mi-clos que l'entropie était un concept très mal
compris et que seule la mécanique statistique permettait de se faire une idée

168
CHAPITRE IV - RELATIVITÉ ET QUANTA

précise de cette notion. J'avais donc hâte d'en savoir plus sur cette fameuse
physique statistique et attendais avec impatience le cours qui était prévu dans
mon école d'ingénieurs. Ma déception fut grande, car l'enseignant enchaîna
pendant des heures des séries de formules tout aussi abstruses les unes que les
autres et incompréhensibles pour le commun des mortels.

L'enseignant m'ayant définitivement écœuré du sujet, il me fallut de


longues années de convalescence pour me remettre du traumatisme subi. Ce
qui me motiva à remettre le sujet sur le tapis, c'est ma volonté de comprendre
pourquoi la vie avait choisi l'eau comme substance de base. J'avais beaucoup
lu sur le sujet, et revenait comme un refrain lancinant cette idée que la vie
violerait en permanence le second principe de la thermodynamique, qui
stipulait que dans tout système isolé l'entropie ne pouvait qu'augmenter
de manière spontanée pour aller vers toujours plus de désordre. Comme on
l'a vu plus haut, cette assimilation de l'entropie au désordre me mettait très
mal à l'aise et il me semblait que, si l'entropie devait jouer un rôle dans
les phénomènes vitaux, c'était pour assister ces derniers et non pour s'y
s'opposer. Restait donc à franchir la redoutable barrière de la mécanique
statistique, qui selon mon cousin était le point de passage obligé pour bien
comprendre la notion d'entropie. Je fus aidé en cela par les remarquables
articles du physicien américain Edwin Thompson Jaynes (1922-1998) qui
étaient d'une clarté lumineuse.

Entropie Statistique (Boltzmann)

W configurations de probabilité p1 (i =l ,... ,0)


Wabrscheinlicbkeit =probabilité
n
Constante de Boltzmann ~
ks"" l,38·10-23 J·K-' S = -ks ~ P;·ln P;
i=I
équiprobabilité (p1 = 11'2) • S = ks·ln '2

Troisième principe de la thermodynamique (Nernst)


Q = 1àT=0 K • S = 0 (1906)

Figure 79 : Le troisième principe de la thermodynamique se base sur la définition


statistique de/ 'entropie quis 'il avait été pris au sérieux aurait abouti à la découverte
de la mécanique quantique dans un contexte de matière et non dans un contexte de
rayonnement.

169
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Dans ses articles, E. T. Jaynes expliquait que l'énergie et l'entropie étaient


des concepts s'appliquant à ce que l'on appelle un macro-état, par opposition
aux variables dynamiques que sont la position ou la quantité de mouvement
définissant pour leur part des micro-états. Il existe évidemment beaucoup
de micro-états qui correspondent à un macro-état donné. La réunion de tous
ces micro-états s'appelle un « ensemble ». Il est important de réaliser qu'un
ensemble est une collection de systèmes macroscopiques sur laquelle on
effectue les moyennes statistiques et non une collection de particules formant un
système macroscopique. Le nombre de micro-états compatibles avec un macro-
état macroscopique donné, noté n, dépend a priori de trois variables de nature
extensive qui sont l'énergie totale disponible U, le volume total accessible V et
le nombre total de particules constituantes N, soit Q(U,V,N). Cette manière de
voir les choses conduit de manière très naturelle à l'interprétation statistique
de l'entropie S(U,V,N) comme proportionnelle au logarithme népérien de
Q(U,V,N) (figure 79) (Boltzmann 1877). Le physicien allemand Walther
Nernst ( 1864-1941) se basera sur ce résultat pour énoncer le troisième principe
de la thermodynamique qui stipule que l'entropie d'un corps pur tend vers zéro,
lorsqu'on s'approche du zéro absolu (Nernst 1906a, 1906b).

positions q
Joseph Liouville
(1809-1882)
Conservation du volume dans l'espace des phases Edwin Thompson Jaynes
(1922-1998)

Second principe Reproductibilité des


dSl!:O phénomènes

Inférence Bayésienne
Micr<rétats Micr<rétats
initiaux finaux

Figure 80 : Le second principe de la thermodynamique n'est pas un principe


d'interdiction mais assure simplement la reproductibilité des expériences que l'on
peut faire. Dans le cadre de la théorie des probabilités, cela signifie qu'il faut faire
appel au théorème de Bayes.

Le point clé est que cette définition statistique de l'entropie ne se limite pas
aux états d'équilibre macroscopiques et que toute augmentation d'entropie
assure la reproductibilité du phénomène étudié. Tout macro-état M, qu'il
soit à l'équilibre ou non, possède une entropie proportionnelle au volume
qu'il occupe dans l'espace des phases en termes de micro-états compatibles

170
CHAPITRE IV - RELATIVITÉ ET QUANTA

avec les macro-variables X; contrôlées ou observées qui permettent de définir


précisément le macro-état. Comme l'a montré le physicien américain Edwin
Thompson Jaynes (1922-1998), le second principe permettant d'affirmer que
l'entropie de l'état initial est toujours plus petite ou égale à l'entropie de l'état
d'arrivée découle immédiatement de l'application statistique du théorème de
Liouville et exprime la condition nécessaire pour qu'un changement d'état
soit reproductible par tout expérimentateur capable de contrôler seulement
les macro-variables définissant le macro-état (figure 80) (Jaynes 1965). Cette
formulation mettant l'expérimentateur au centre du jeu présente l'avantage de
montrer que les processus qui font diminuer l'entropie, loin d'être interdits ou
d'être statistiquement peu probables, peuvent en réalité tout à fait se produire
dans la nature. La seule différence par rapport aux processus se produisant
avec augmentation d'entropie étant qu'ils ne pourront pas être reproduits
lors d'une expérience future impliquant exactement les mêmes conditions
macroscopiques (Jaynes 1965).

Un monde lumineux
Selon la physique, la nature est donc une scène de théâtre (espace-temps)
avec de la matière évoluant sur cette scène selon les forces en présence. Dans
ce cadre, la masse, la charge électrique ou l'énergie sont des paramètres dits
« mécaniques » car ne changeant pas dans le temps, alors que le nombre
d'entités et la température sont des variables « dynamiques » susceptibles
de varier dans le temps. Le nombre d'entités est ce qui pousse les objets
doués de masse ou de charge électrique à changer de position (diffusion) ou
de nature (réactivité chimique) alors que la température est ce qui pousse
ces mêmes objets à changer de vitesse (diffusion thermique) ou de structure
(transition de phase) en échangeant de l'énergie. Il en découle que la structure
générale d'un laboratoire de recherche expérimentale est un savant mélange
de règles pour mesurer les longueurs L, d'horloges pour mesurer les durées T,
de balances pour peser les substances M, de voltmètres ou d'ampèremètres
pour mesurer les charges électriques Q, de thermomètres pour mesurer les
températures 0 et de baromètres pour mesurer les nombres d'entités N via les
pressions exercées pour une température donnée sur les parois d'un récipient
ayant un certain volume.

Le fait qu'il ne faille que 6 qualités fondamentales (L, T, M, Q, 0, N)


pour étudier tout phénomène naturel est évidemment extrêmement plaisant,
mais étant étudiant, je sentais obscurément qu'il y avait un problème de taille
qui était généralement passé sous silence, ou du moins abordé de manière
anecdotique dans les livres scientifiques. Pourquoi exactement 6 qualités et
pas une de plus ni de moins ? Intuitivement, je savais que la réponse à cette
question était cruciale et qu'il devait y avoir, derrière ce nombre 6, une raison

171
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

très profonde puisque aucun livre n'abordait ce sujet. Il m'a fallu une bonne
trentaine d'années pour entrevoir une explication convaincante à ce fait
étrange qui est lié au rôle joué par l'observateur, celui qui fait des mesures.
Le premier indice est bien sûr fourni par la théorie de la relativité restreinte
ou généralisée qui nous apprend que tous les observateurs sont foncièrement
équivalents, quels que soient leurs états de mouvement relatifs. Quoi de plus
naturel à cela ?

Or, pour lire les graduations sur une règle, il faut disposer d'une source
lumineuse. Comment lire une règle dans le noir absolu ? De même, pour lire
le cadran d'une horloge, il faut encore de la lumière. Pour lire le résultat d'une
pesée, il me faut une balance et de la lumière. Pour lire mon thermomètre ou
mon baromètre, j'ai encore besoin de lumière. Mais au fait, comment produire
de la lumière ? Eh bien, en mettant des charges électriques en mouvement. On
constate donc que l'existence même de l'hexade (L, T, M, Q, 0, N) appelle
une septième qualité faisant intervenir la notion de lumière. Toutefois, il ne
peut s'agir ici que d'une e@cacité lumineuse exercée par la lumière physique
sur un système biologique. Cette septième et dernière unité fondamentale
est la candela, seule unité à faire explicitement référence à un être vivant,
l'observateur, défini ici par un organe essentiel en science : l 'œil. Ceci
explique bien sûr l'importance du sens de la vue dans nos sociétés modernes
dès que l'on cherche à évaluer et quantifier les choses.

La raison d'être d'une septième qualité qui ne dérive pas directement


du groupe physique semble ici directement liée aux deux théorèmes
d'incomplétude de Gôdel (Gôdel 1931). Le premier théorème de Gôdel
affirme que tout système formel contient nécessairement des propositions
indécidables. Par indécidable, on veut dire qu'il est impossible de prouver
si une proposition est vraie ou non, car la réponse à la question posée se
trouve ailleurs, dans un autre système formel plus vaste. Mais, même
dans ce système plus vaste, il existera de nouvelles propositions toujours
indécidables qui nécessiteront un système formel encore plus vaste, et ainsi
de suite ad libitum. De manière plus littéraire, ceci signifie qu'il ne peut y
avoir d'extérieur à /'extérieur de l'être. En effet, si un tel extérieur existait,
toute proposition serait décidable en se plaçant à l'extérieur.

172
CHAPITRE IV - RELATIVITÉ ET QUANTA

1. Etpaoe (L) • Vue, Oule, Toucher

Volume(U) 2. Temps (MICOnde) • T : Vue, Ouïe

4. Temp6r1ture (kelvin)• e 5. Charge 'lectrique (Ampère ou Coulomb) • A ou Q


Vue, Oule, Toucher Toucher, GoQt
7. Luml~re (candela) • 1: Vue

Figure 81 : Il n'existe que sept qualités fondamentales pour exprimer tout résultat de
mesure. Parmi elles, une seule fait une référence explicite à un observateur humain,
les six autres ne concernant que le monde purement physique.

Le second théorème de Gôdel stipule que tout système formel est


nécessairement incohérent. Par cohérence, on entend qu'une proposition ne
peut être vraie et fausse en même temps. Par conséquent, tout système formel
ne peut pas trouver la raison de son existence en lui-même, car s'il tente de faire
cela, il tombera obligatoirement sur des propositions simultanément vraies et
fausses. Pour supprimer les incohérences, il faut justifier de l'existence d'une
chose depuis son extérieur, mais alors on tombe sous la coupe du premier
théorème qui dit qu'un tel extérieur n'existe pas ... Si l'on combine les deux
théorèmes en un seul, cela signifie que tout être humain peut connaître plus que
ce qu'il peut connaître à condition de le connaître.
En gros et pour simplifier, tout résultat d'expérience ne peut pas être compris
en se limitant aux autres faits expérimentaux de même nature. Il faut, pour saisir
Dame Nature dans sa complétude, toujours imaginer de nouvelles expériences
et avoir un œil observateur qui décidera des mesures à faire et des unités à
employer pour exprimer les résultats. L'œil n'est donc que le début d'une
longue chaîne biologique impliquant un cerveau, des muscles, des membres
moteurs via tout un métabolisme. Pour qu'il n'y ait aucune contradiction
interne, il est impératif que cette chaîne biologique se situe au-dessus de la
chaîne physique et non sur le même plan. Vouloir réduire la biologie à la
physique est donc une faute majeure qu'il convient de ne pas commettre. La
science est aussi un processus sans fin, car expérimenter ne permet en aucun
cas de comprendre ! Pour comprendre les faits, il faut un minimum de théorie,
qui ne peut en aucun cas être déduite de l'expérience, mais qui doit être conçue
intellectuellement, en dehors des faits expérimentaux. C'est essentiellement le

173
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

point de vue idéaliste. Donc on progresse par l'expérience, ce qui oblige la


pensée à produire une théorie se plaçant au-dessus des faits connus et suggérant
d'autres expériences, qui par leurs résultats obligent la pensée à produire une
autre théorie plus générale et ainsi de suite.
On notera à ce propos que l'introduction explicite d'un sujet qui observe
fait que ce dernier peut décider par lui-même du système d'unités qu'il va
employer pour exprimer quantitativement les résultats de ses mesures. Pour les
longueurs, il peut par exemple décider d'employer le mètre ou le millimètre.
Il est clair que ce choix particulier ne peut en rien influer sur le résultat des
mesures effectuées. Si cela semble être une évidence, on est en droit de savoir
quelles seront les conséquences d'une telle invariance par changement d'unités.
Ou, si l'on préfère, que se passe-t-il si je dilate toutes les longueurs et toutes
les durées d'un même facteur À? Comme la vitesse est un rapport entre une
longueur et un temps, il est clair que la vitesse est un concept qui présente
de manière intrinsèque la propriété d'invariance d'échelle. Comme la lumière
intervient dans toute mesure physique, il semble donc légitime que l'invariance
par changement d'observateur et donc d'échelle présuppose que la vitesse de la
lumière reste la même pour tous les observateurs. C'est précisément le postulat
de base de la théorie de la relativité et, comme on le sait, les conséquences sont
loin d'être anodines.

, ,
Electromagnetlsme
.
De manière plus générale, il semble légitime d'imposer que le principe de
relativité soit un ingrédient essentiel de toute théorie physique. Il convient en
effet de rappeler qu'en parallèle du développement d'une physique de nature
corpusculaire basée sur la mécanique, le xrx• siècle a aussi été marqué par
l'émergence d'une physique ondulatoire afin d'expliquer les phénomènes de
nature acoustique ou optique. Or, vers la fin du x1x" siècle, on réalisa que les
champs pouvaient également se déplacer dans l'espace. En 1864, Maxwell
traduisit les idées intuitives de Faraday en équations (Maxwell 1865), les lignes
et les boucles de Faraday devenant les champs électriques et magnétiques
obéissant à un système de 20 équations à 20 variables de champs (6 champs
vectoriels et 2 champs scalaires). Maxwell montra aussi que le produit de la
permittivité diélectrique du vide t 0 par sa perméabilité magnétique µ0 était
homogène à l'inverse du carré d'une vitesse. Lorsqu'il calcula cette vitesse,
il constata avec stupeur qu'elle coïncidait avec la vitesse de propagation de
la lumière dans le vide qui avait été mesurée avec précision vers le milieu du
xlx" siècle par les physiciens français Hippolyte Fizeau (1819-1896) et Léon
Foucault (1819-1868). Maxwell en déduisit que la lumière devait être une
onde transversale de nature électromagnétique faisant vibrer un éther physique
supposé remplir le vide, éther à la fois extrêmement ténu mais aussi plus rigide
que l'acier pour justifier la vitesse de propagation extrêmement élevée de la

174
CHAPITRE IV - RELATIVITÉ ET QUANTA

lumière dans un tel milieu. Maxwell regroupait ainsi l'électricité, le magnétisme


et l'optique en une seule théorie, exploit mémorable qui allait inspirer la grande
majorité des physiciens du rr siècle.
Il y avait cependant un grand souci avec une telle unification, à savoir
que les équations de Maxwell changeaient de forme lorsqu'on changeait de
référentiel d'inertie. Pour conserver la forme des équations de Maxwell dans
tous les repères inertiels, il fallait appliquer une transformation mathématique,
appelée poussée de Lorentz, mélangeant une variable d'espace avec le temps
(figure 82). Albert Einstein va alors tirer toutes les conséquences de l'existence
des poussées de Lorentz en énonçant son principe de relativité restreinte qui
pose l'équivalence fondamentale pour tout phénomène de nature mécanique
ou électromagnétique de tous les repères inertiels (Einstein 1905c) ainsi que
l'équivalence entre masse inertielle et énergie (Einstein 1905d). En fait, la
percée effectuée par Einstein n'est en rien liée au formalisme qui avait déjà
été mis en place par le mathématicien français Henri Poincaré (1854-1912),
qui comprit dès 1900 l'importance des transformations de Lorentz et en donna
la forme mathématique exacte. Poincaré souligna aussi l'absence de base
empirique pour la notion de simultanéité absolue, suggéra que l'éther n'était pas
détectable à tous les ordres du rapport v/c et démontra que les transformations de
Lorentz formaient un groupe de symétrie au même titre que les transformations
de Galilée. La contribution d'Einstein se situe plutôt dans le fait que la vitesse
de propagation de l'énergie dans l'univers ne peut jamais être supérieure à une
limite correspondant à la vitesse de propagation de la lumière dans le vide dans
tous les repères d'observation inertiels (v::; c).

p (x', y', T)
• (x, y, z)
u
ut

x' = X - U·t Isaac Newton


Galileo Galilei y' = y, z = z', t' = t
(1564-1642) (1642-1727)

z z' Même origine


àt = t' = O

x' - y-(x- u·t )

Henri Poincaré
(1854-1912)
r-gt u'
1- -
=>
y'-y
z' _ z

c-t' - y c·t - ~-x


Hendrik Antoon
Lorentz
(1853-1928)
c'
c

Figure 82 : Relativité du mouvement selon Galilée-Newton où le temps est absolu,


c'est-à-dire indépendant de /'observateur et, selon Lorentz-Poincaré, où le temps
devient relatif à /'observateur.

175
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Théorie de la relatiuité
En effet, si c désigne la vitesse de la lumière dans le vide et que c prend
toujours la même valeur quel que soit l'état de mouvement relatif des
observateurs, alors c'est un simple facteur d'échelle qui peut être posé sans
perte de généralité comme étant égal à 1. De là découle l'équivalence relativiste
entre espace et temps, entre masse et énergie ou quantité de mouvement et
entre champ électrique et champ magnétique en relativité restreinte. Il découle
aussi d'une telle invariance que la vitesse de propagation v de l'énergie dans
l'univers ne peut jamais être supérieure à la vitesse de propagation de la
lumière dans le vide dans tous les repères d'observation (v:::; c). L'idée de la
théorie de la relativité îénéra/e est alors d'élargir le principe d'invariance de
la vitesse de la lumière à tous les observateurs quels que soient leurs états de
mouvement relatifs, uniforme ou accéléré (Einstein 1915).

Lumière

Relativité restreinte Relativité gm~rale

espace-temps champ

[ v= ~• L-T"' ]s e [ P=dU •M ·L" T "']s_::'._- 9·IO"W


dt 4G

c • 299 792 258 m·s·• G• 66,73 pJ·m·kg-• Rayon R.. Aire A, Entropie S

Ma88e visible: L a: R,, 2G·M


R,=~
S=A~
4/l-G

Figure 83 : Selon la relativité générale, matière et espace-temps fusionnent pour


devenir un champ déformable dont l'on ressent la courbure via le phénomène de
gravitation. Cette théorie prévoit aussi /'existence d'objets appelés trous noirs qui
absorbent sans espoir de retour tout aussi bien la lumière que la matière.

En particulier, Einstein réalisa que le phénomène de gravité devait aussi


être formulé au moyen d'un champ (figure 83). Après avoir réussi à trouver
la forme de ce champ gravitationnel et les équations auxquelles il devait
obéir, il réalisa avec stupeur que ce champ gravitationnel qu'il venait juste
d'introduire était en fait identique à l'arrière-plan fixe introduit par Newton ...
Mais au lieu que l'accélération soit relative à un arrière-plan absolu comme
chez Newton, il trouva qu'elle était en fait relative au champ gravitationnel
environnant. Newton avait donc supposé à tort que le champ gravitationnel
environnant était une entité fixe. En fait, en relativité générale, il n'y a pas de
champs évoluant dans un espace-temps, mais plutôt des champs évoluant sur

176
CHAPITRE IV - RELATIVITÉ ET QUANTA

d'autres champs. Tant que l'on reste dans le régime classique de nature non
quantique, le champ gravitationnel définit un continuum quadridimensionnel,
sorte d'espace-temps obéissant aux équations du champ mais capable de se
plier et d'osciller.

La relativité générale se base sur le fait que toute augmentation d'énergie


tend à séparer les choses, alors que tout accroissement de masse M
tend au contraire à diminuer leur distance L, selon la loi de gravitation
universelle de Newton. Il en découle immédiatement que toute masse peut
courber l'espace et que par réciprocité, toute courbure spatiale pourra être
considérée comme une masse. L'espace-temps, au lieu d'être une simple
scène de théâtre pour le mouvement des masses, devient donc lui-même la
masse. D'où l'idée séduisante que l'espace-temps soit une sorte de matelas
souple capable de se courber et d'osciller sous l'influence des masses, la
courbure de ce matelas étant à l'origine de la force de gravitation universelle
poussant les masses à se coller les unes aux autres. Le fait que l'espace-
temps soit acteur dans le mouvement au même titre que les masses permet
ainsi d'associer à toute masse M une longueur caractéristique Rg, appelée
rayon de Schwarzschild. Dans ces conditions, pour qu'une masse m puisse
être observée, il faut donc que sa taille L soit supérieure ou égale à son
rayon de Schwarzschild. Si, d'aventure, la taille devient égale au rayon
de Schwarzschild associé, la courbure du matelas devient tellement forte
qu'un horizon spatio-temporel appelé trou noir se forme duquel rien ne
peut ressortir, même pas la lumière.

En fait, de manière très générale, toute théorie physique, y compris


la mécanique quantique, a besoin d'un principe de relativité stipulant
l'équivalence fondamentale de tous les types d'observateurs (Destouches-
Février & Destouches 1946). Par exemple, en thermodynamique,
l'observateur a une liberté totale de fixer la ligne de démarcation entre ce
qu'il appelle le « système » d'une part et son « environnement » d'autre
part. C'est ce principe de relativité de la ligne de démarcation qui est à
l'origine du second principe, s'exprimant par une inégalité portant sur la
fonction entropie : ~S 2: ~. où ~ est la constante de Boltzmann. Ceci est à
rapprocher de l'inégalité v ~ c pour la relativité des vitesses et P~ c5/4G, pour
la relativité des accélérations. De même, en électromagnétisme, on a IQI 2: e,
avec le principe de relativité du signe de la charge, tandis qu'en chimie, on
a N 2: NA qui assure l'équivalence statistique de toute fluctuation, c'est-à-
dire la reproductibilité par changement d'expérimentateur. On voit ainsi qu'à
tout principe de relativité semble correspondre une inégalité impliquant une
constante fondamentale de la nature. Si l'on suit cette ligne de raisonnement,
il est clair que la mécanique quantique doit elle aussi se fonder sur un principe
de relativité avec une inégalité impliquant une constante de la nature, propre
à ce principe.

177
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Mais cela ne suffit pas, car le but ultime de toute science est de pouvoir
faire des prévisions concernant des mesures ultérieures à partir du résultat de
mesures initiales. Il faut donc adjoindre au principe de relativité un principe de
prédictibilité. Ceci implique aussi un principe de linéarité, selon lequel tout
énoncé de résultat de mesure se trouve associé à un énoncé d'appartenance
d'un point à une multiplicité linéaire peuplée de scalaires (énergie, entropie),
de vecteurs (forces, quantités de mouvement, champ électrique) ou de tenseurs
(courbure, champ magnétique, moments cinétiques) (Destouches-Février
1944). Enfin, chaque observateur étant totalement libre de choisir son repère
ainsi que la ligne de démarcation entre observateur et système observé, il faut
un principe d'homomorphisme garantissant la conservation des frontières
choisies par l'observateur au cours de l'évolution dans le temps.

Mécanique quantique
Le mot « quantique » vient du latin « quantum » pouvant être traduit en
français par l'expression« combien de». C'est la raison pour laquelle le mot
« quantique » doit toujours être associé à la chose qui doit être dénombrée ou
comptée et qu'une expression comme« c'est quantique» ne veut absolument
rien dire du tout, démontrant chez ceux qui l'utilisent une ignorance complète
du domaine. Par exemple, le mot « physique » vient du grec « cpucma) »
pouvant être traduit en français par l'expression « choses naturelles ». La
« physique quantique » est donc tout bêtement la science qui permet de
répondre à la question : Combien y a-t-il de choses naturelles ? De même,
le mot « mécanique » vient du grec « µrixaviJ » signifiant « machine ». La
mécanique quantique s'occupe donc de machines fonctionnant par sauts
dénombrables et non de manière continue. On retrouve là les caractéristiques
de tout mouvement brownien ou de tout mouvement unicellulaire. Dans cette
optique, toute cellule vivante doit être vue comme une machine quantique et
non comme un objet ayant un comportement déterministe et fluide.

La nécessité d'une mécanique quantique découle directement du fait que


la mécanique relativiste ne nous fournit que des limites supérieures à la
vitesse des choses ou aux taux de variation de l'énergie dans le temps. La
mécanique relativiste ne posant ainsi aucune limite inférieure aux choses
naturelles, il est légitime d'utiliser dans ce cas le calcul différentiel et intégral
ainsi que l'algèbre tensorielle. Une telle asymétrie entre grande échelle et
petite échelle n'a bien sûr aucune raison d'être, car les mathématiques nous
apprennent que les notions de zéro et d'infini ne peuvent se concevoir l'une
sans l'autre, comme chacun pourra le vérifier en divisant le nombre 1 par
tout nombre arbitrairement petit tendant vers zéro. Il en découle que si les
choses observables ont des limites supérieures, comme le prétend la théorie
de la relativité, elles doivent logiquement avoir aussi des limites inférieures.

178
CHAPITRE IV - RELATIVITÉ ET QUANTA

Dès lors, tout le problème consiste à ramener la théorie quantique à un seul


principe général duquel il sera possible de déduire la forme que doit prendre
l'arsenal mathématique pour permettre aux ingénieurs de faire correctement
leur travail dans le domaine de !'infiniment petit.
En fait, la raison d'être de la mécanique quantique est d'étendre encore plus
le principe de relativité en stipulant que le monde peut être découpé d'une
infinité de manières totalement équivalentes en un ensemble de systèmes,
chacun d'entre eux pouvant être considéré soit comme un système observateur,
soit comme un système observé. Autrement dit, le principe de relativité doit
nécessairement s'appliquer quelle que soit l'échelle d'observation choisie.
Ce point est hélas trop souvent occulté dans les ouvrages de référence qui
préfèrent se focaliser sur le formalisme mathématique, extrêmement abscons.
Les ouvrages de vulgarisation préfèrent pour leur part souligner le caractère
incompréhensible de la mécanique quantique.

Action = énergiextemps; impulsionxdistance; moment angulairexangle

Particules

Energie
Champs [U] = M·L ·T'
2 1

t
Information
Bit= ln 2
t
Exformation

L'action est la quantité qui mesure le changement


La nature minimise toujours l'action

Constante de Planck (h) = Quantum d'action


Figure 84 Strncture générale de la mécanique quantique. Pour la notion
d'exformation, voir Henry (2015).

Une des manières simples d'exprimer l'existence d'une limite inférieure est
que vitesse et énergie ne peuvent jamais vraiment s'annuler et donc qu'il n'y a
jamais d'état de repos absolu dans la nature. C'est cette absence de repos qui
fait que toute chose de masse suffisamment faible est toujours nécessairement
en mouvement perpétuel, comme a pu le constater dès 1827 le botaniste
Robert Brown en observant des mouvements de particules à l'intérieur de
grains de pollen de la variété Clarkia pulchella. Ce mouvement perpétuel dit

179
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

«brownien» est la preuve directe de l'existence d'une limite inférieure absolue


d'action, d'où l'exigence de sauts quantiques pour tout type de mouvement.
L'une des grandes originalités de l'approche quantique est de ne pas se
concentrer sur l'énergie qui est juste le moyen par lequel les choses peuvent
bouger, mais plutôt sur une autre grandeur physique reliée à l'énergie mais
conceptuellement différente, appelée« action». Pour comprendre la différence
qu'il existe entre énergie d'une part et action d'autre part, il suffit de comparer
un film et une photographie. Dans le film d'action, il y a beaucoup d'énergie
dépensée, cette dépense d'énergie faisant bouger les choses, d'où mouvement
et donc changement. Arrêtons maintenant le film pour avoir une photo.
Il y a bien sûr toujours de l'énergie dans tous les objets immobiles sur la
photo, mais cette énergie qui existe bel et bien ne produit aucun mouvement
et par voie de conséquence aucun changement. En mécanique quantique, il
existe trois manières de mettre en jeu une action : en faisant agir l'énergie
pendant une certaine durée, en faisant agir la quantité de mouvement sur une
certaine distance ou en faisant agir le spin sur un certain secteur angulaire.

La figure 84 montre que le niveau de l'action est celui de la mécanique


quantique standard dite de première quantification où l'on remplace l'espace
des phases réel et déterministe de Hamilton par un espace de Hilbert complexe
et probabiliste. À ce niveau, on pense le monde en termes de corpuscules
quantiques, dotés de masses et de charges électriques, soumis à des champs
continus qui continuent à obéir aux lois de la physique classique : champ
gravitationnel pour les corpuscules de charge électrique nulle et champ
électromagnétique pour les corpuscules chargés.
• Je crois que ma vie en physique
se divise en trois périodes( ...) J'ai
d'abord cru que tout était fait de
particules ( ... ) Dans ma seconde
période que tout était fait de
champs (...) Dans cette troisième,
John Archibald Wheeler mon impression est que tout est
(1911~2oo8)
fait d'information •

«Itfrom bit •
• Ne jamais faire de calculs sans connaître le résultat •

Figure 85 : Un exemple à suivre si l'on souhaite comprendre la nature. Certains


choisissent de s'arrêter au stade corpusculaire. D'autres verront que ce sont les
champs qui créent et agitent les corpuscules. En.fin, les plus avancés comprennent
que les champs ne sont que la manifestation d'une information quis 'échange et qui
circule.

180
CHAPITRE IV - RELATIVITÉ ET QUANTA

Le deuxième niveau plus profond est celui de la mécanique quantique de


seconde quantification appelée aussi physique quantique des champs où les
espaces individuels de Hilbert se fondent dans un gigantesque espace de
Fock et où les champs eux-mêmes se trouvent quantifiés. Enfin, le troisième
niveau est celui de la mécanique quantique relationnelle où tout système
observateur peut obtenir de l'information sur un autre système observé en
entrant en interaction physique avec ce dernier, le mécanisme physique précis
autorisant l'acquisition ou la mémorisation de l'information n'étant qu'un
point d'essence technique (Rovelli 1996). La figure 85 montre que le très
grand physicien américain John Wheeler, célèbre pour ses travaux en théorie
quantique et relativité générale, a suivi tout au long de sa vie exactement
le chemin indiqué en figure 84. En ce début de xx1• siècle, il ne reste plus à
espérer que la médecine emboîte le pas à la physique au lieu de se complaire
dans une mentalité corpusculaire datant du x1x• siècle.

Catastrophe ultrauiolette
En fait, il est assez regrettable que tout ait démarré par la quantification
du champ électromagnétique, car il aurait été beaucoup plus simple de
partir de la loi de Dulong et Petit (chapitre 3) qui peut être justifiée par un
raisonnement classique de mécanique statistique et qui, comme on l'a vu, est
clairement mise en échec, surtout à basse température. De simples mesures
de capacité calorifique démontrent donc déjà sans autre forme de procès que
nous vivons dans un monde quantique. De même, lorsque Walther Nernst
formula son théorème de la chaleur (Nernst 1906a, 1906b) selon lequel
l'entropie de toute substance doit tendre vers zéro lorsqu'on s'approche du
zéro absolu, la quantification de l'énergie aurait dû apparaître comme une
évidence, dans un contexte matériel mécanique et non dans un contexte
immatériel électromagnétique. En effet, comme le champ électromagnétique
possède une amplitude en chaque point de l'espace, il en découle qu'il
constitue un système thermodynamique possédant une infinité de degrés de
liberté non dénombrables, d'où des difficultés mathématiques considérables
qui plombèrent dès le départ la mécanique quantique.

Au lieu de suivre la voie royale de la thermodynamique des systèmes


matériels, l'accouchement de la mécanique quantique s'est fait dans la
douleur et le noir total d'une cavité surchauffée, laissant des cicatrices
profondes encore visibles aujourd'hui. La physique quantique se caractérise
par l'omniprésence d'une constante h introduite de manière totalement
arbitraire pour expliquer le spectre d'émission du corps noir afin d'éviter
ce que l'on avait coutume d'appeler la catastrophe ultraviolette (Planck
1900). Il était en effet connu depuis l 'Antiquité que lorsqu'on chauffe
des métaux ou bien d'autres substances à une température suffisamment

181
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

haute, ils rayonnent de la lumière visible. Plus haute est la température et


plus la lumière émise tire vers le bleu. Suite à l'unification de l'optique et
de l'électromagnétisme au x1x• siècle par J. C. Maxwell, on savait que la
lumière était une perturbation électromagnétique générée par le mouvement
de charges qui était capable de se propager dans le vide (Maxwell 1865).
Une température plus haute impliquait plus de mouvement des charges et
donc des radiations plus intenses associées à un déplacement de fréquences
vers le bleu. Dans les années 1850, le physicien allemand Gustav Kirchhoff,.
féru de thermodynamique et d'électromagnétisme, considéra le cas
d'un corps creux dont les parois étaient maintenues à une température
constante 0. Kirchhoff supposa que les murs étaient à la fois capables
d'émettre et d'absorber des radiations électromagnétiques (figure 86). Bien
que la théorie atomique ne soit pas encore bien développée, on savait que
la matière contenait des charges électriques et que le mouvement de ces
charges pouvait conduire à l'émission de radiations. Par réciprocité, toute
radiation incidente pouvait mettre les charges en mouvement, conduisant à
une absorption d'énergie radiative.

Afin de maintenir un certain équilibre entre émission et absorption, le


récipient creux devait être rempli de radiations électromagnétiques avec
des ondes se propageant dans toutes les directions possibles et couvrant
l'ensemble du spectre de fréquence. Par un raisonnement thermodynamique
ingénieux, Kirchhoff montra que l'intensité radiative était nécessairement
isotrope et uniforme sur l'ensemble du récipient et surtout que la densité
d'énergie p rayonnée en fonction de la fréquence f ne pouvait pas dépendre
de la nature du matériau constituant les parois. Ceci signifiait que cette
fonction était universelle car ne dépendant que la température et de la
fréquence : p0 (f). En raison de cette universalité, cette densité spectrale
dite du « corps noir » était d'un intérêt fondamental, quelque chose qu'il
fallait étudier non seulement de manière expérimentale, mais aussi qu'il
fallait parfaitement comprendre sur un plan théorique. Il fallut environ
quarante années avant que le physicien allemand Max Planck ne réussisse à
faire émerger un début de compréhension. Tout d'abord l'expérimentateur
autrichien Jozef Stefan découvrit que la densité d'énergie totale, c'est-à-
dire intégrée sur toutes les fréquences, était proportionnelle à la quatrième
puissance de la température absolue 0. Plus tard, Ludwig Boltzmann
démontra cela sur des bases purement thermodynamiques.

En 1893, le physicien allemand Wilhelm Wien prouva de nouveau au


moyen d'un argument thermodynamique astucieux que la densité spectrale
pouvait s'exprimer comme le produit du cube de la fréquence par une
fonction universelle W ne dépendant que du rapport de la fréquence f à la
température 0. Quelques années plus tard, Wien montra de manière moins
convaincante que la fonction W(f/0) était de type exponentielle décroissante.

182
CHAPITRE IV - RELATIVITÉ ET QUANTA

Vers le milieu de l'année 1900, Lord Rayleigh reconsidéra le problème sous


l'angle de la mécanique statistique et arriva au résultat que la fonction p0 (f)
devait être proportionnelle au produit de la température par le carré de la
fréquence. Le résultat était désastreux, car lorsque l'on intégrait cette fonction
sur tout le domaine de fréquence, on obtenait une densité d'énergie totale
infinie, connue depuis lors sous le nom de catastrophe ultraviolette. Rayleigh
fit donc des excuses et abandonna le sujet.

j=a·& James H. Jeans John W. Strutt


(1877-1946) l.Drd Rayleigh
(1842-1919)
a ,
PaCf>=-pI -0

a=--•
21f'·k4
l5h'·c 2

Froid Max Karl Ernst


Ludwig Planck
(1858-1947)

a·f '
Wilhelm Wien
hx:
.l_, - 0 = - - = 2897,8 µm ·K
a = 8n:·h/c' = 6,MO... kg·m"·s'
Il = h/k,, = 4,9·10"' K·s
Pa<f>=
exp
( !)
f3 e -1
(1864-1928) 4,965·k,

Figure 86 : Le spectre d'émission du corps noir est un problème sur lequel un bon
nombre de physiciens se sont cassé les dents.

Le 7 octobre 1900, Planck prend le thé à Berlin en compagnie de M. et


Mme Rubens. Rubens montre à Planck ses derniers résultats expérimentaux
concernant le spectre d'émission du corps noir. Planck, qui avait déjà réfléchi
au problème du corps noir depuis quelque temps, s'assoit et trouve par
interpolation une formule empirique qui reproduit la fonction de Rayleigh à
basse fréquence et qui colle à la forme exponentielle de Wien à haute fréquence.
La formule de Planck présente aussi l'avantage de coller parfaitement dans la
zone de fréquence intermédiaire.

Planck était un excellent thermodynamicien qui était extrêmement sceptique


sur la toute jeune mécanique statistique. Aussi, malgré le succès évident de
sa formule empirique, il ne souhaitait pas en rester là, et voulut obtenir sa
formule à l'aide des premiers principes. Heureusement pour lui, il ignorait
le résultat désastreux de Rayleigh qui était parfaitement correct dans le cadre
de la physique classique de l'époque. Pour son raisonnement, Planck partit
du fait que le résultat à trouver ne dépendait pas de la composition chimique
des parois du récipient. Il imagina donc des parois constituées d'oscillateurs

183
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

simples possédant des charges aux deux extrémités des ressorts et couvrant
tout le spectre de fréquences. Par des arguments de nature électromagnétique
impeccables, il arriva à relier la fonction spectrale p0 (t) à l'énergie moyenne
thermodynamique U(f,0).

Afin d'arriver à ses fins et en désespoir de cause, Planck introduisit une


hypothèse complètement arbitraire qui allait lui éviter (sans le savoir)
de tomber sur la formule de Rayleigh. Il supposa donc que l'énergie des
oscillateurs pour une fréquence f donnée ne pouvait prendre que des valeurs
étant des multiples entiers d'une quantité h·f. Autrement dit, les parois ne
pouvaient émettre ou absorber que via des paquets ou quanta d'énergie.
La constante h liant énergie et fréquence fit ainsi sa première apparition
en physique comme un nouveau paramètre de la nature complètement
arbitraire et dont le seul but était de pouvoir dériver une loi pour le
rayonnement spectral du corps noir dans un cadre purement classique. Muni
de sa nouvelle constante purement empirique h, Planck arriva à recalculer
au moyen d'arguments solidement établis la valeur du nombre d' Avogadro
ainsi que la charge électrique de l'électron (Planck 1900). Si Planck avait
obtenu un très bon accord empirique pour la loi d'émission du corps noir,
il n'en restait pas moins que le résultat théorique aberrant de la mécanique
statistique restait complètement pertinent.

Implosion atomique
En 1911, le physicien néozélandais Ernest Rutherford (1781-1937)
supervise une crucis experimentum destinée à tester le modèle du plum
pudding de son mentor J. J. Thomson, découvreur de l'électron (Rutherford
1911 ). L'expérience est réalisée sous vide. De la matière radioactive
émettant des rayons a (noyaux d'hélium, He2+) est placée dans une boîte
et le faisceau de particules a est orienté en direction d'une fine feuille d'or
d'une épaisseur de 6 µm. Derrière cette couche d'or, un écran enrichi en
sulfure de zinc est placé qui va permettre de visualiser, par un scintillement
lumineux, la collision avec les particules a (figure 87). Plusieurs minutes
après la disposition du matériel, différents points lumineux apparaissent sur
l'écran et ces points ne sont pas dans l'orientation du faisceau, mais étalés
sur de grands angles ... La majorité des particules a traversent la feuille
d'or sans être déviées, car seule une partie de ces particules, de l'ordre de
0,01 %, a été déviée.

Rutherford fut ainsi capable d'estimer l'ordre de grandeur de la taille


d'un noyau d'atome d'or responsable des déviations aux grands angles
et trouva une valeur extraordinairement petite, voisine de 3·10- 14 m. Par
comparaison, la taille d'un atome neutre que l'on peut déterminer via

184
CHAPITRE IV - RELATIVITÉ ET QUANTA

la théorie cinétique des gaz ou via des expériences de diffraction des


rayons X est de l'ordre de 10- 10 m. Il en découle donc que l'atome est
une structure hautement lacunaire constituée à 99,999999999 % de vide,
raison pour laquelle la plupart des particules ne sont pas déviées. Suite
à cette expérience, Ernest Rutherford proposa un modèle planétaire de
l'atome : les électrons, portant les charges négatives, étaient satellisés
autour d'un noyau positif très petit.

Hans Geiger
(1882-1945)
&:ran fluoreaœnt ZnS

Figure 87: Expérience de 1911 démontrant que l'atome est essentiellement vide de
matière.

À peine né, le modèle planétaire de l'atome fut cependant condamné à mort


sans appel par les lois de la physique classique. En effet, selon les équations
de Maxwell, toute charge électrique subissant une accélération rayonne de
l'énergie avec un taux proportionnel au carré du produit de la charge par
l'accélération. Or, toute masse contrainte à tourner sur un cercle de rayon R
avec une vitesse v subit une accélération radiale et centripète égale au carré
de la vitesse que divise le rayon de la trajectoire. Par conséquent, si, comme
le prétend Rutherford, les électrons gravitent autour du noyau comme les
planètes gravitent autour d'une étoile, ce dernier doit rayonner son énergie
mécanique de manière continue sous la forme d'ondes électromagnétiques.
Si l'on calcule la durée de vie approximative d'un atome selon la physique
classique, on trouve qu'en partant d'une taille R voisine de 1 A= 10- 10 m,
valeur déduite de la théorie cinétique des gaz, la durée de vie d'un tel édifice
sera de l'ordre de 100 picosecondes ...

Cette implosion de l'atome associée à une catastrophe ultraviolette et des


capacités calorifiques capricieuses fut la goutte d'eau qui fit déborder le vase.
En effet, d'un côté toute la chimie clamait haut et fort que toute matière était
faite d'un assemblage d'atomes indéfiniment stables ayant une taille voisine
de 10- 10 m et d'un autre côté la physique démontrait piteusement que ces
mêmes atomes avaient une durée de vie ridiculement faible et qu'au lieu d'un
monde fait d'atomes, on devrait avoir un monde rempli de rayonnements
venant de toutes les directions. On ne pouvait évidemment pas continuer

185
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

comme cela, et une révision sérieuse des lois de la physique s'imposait. Mais
comment faire pour provoquer une révolution sans toucher aux avantages
acquis ? Telle était l'épineuse question de ce début de xx• siècle.
n E(eV)
L man Il Balmer (Ba) Pascllen(Pa) Bradœlt (Br) Pfund (Pf) Humphreys (Hu)
CIO 0
1 1
4
3
il 1 1
1 1 N -0,85
M -1,51

2 111 1 L -3,39
Orbites circulaires
2:rc·L = n·h
Sauts entre orbites
h·c
1 Niels Bohr li E=E(m )- E(n)= h-J= T
(1885-1962) _!__ liE _ m' -e' _!._ _ _!_)- R{_!._ _.. .!_)
À. - h-c - 8e~ ·h 3 -c n2 m2 - H n2 m2

8a-<J Pa-0 8F-O Pf-« Hu-0


1 Ly-a 1 l l 1 1

100 DIDI IOOO nm IOOOOnm


-~----------------- K -13,6

Figure 88: C'est le physicien danois Niels Bohr qui sauva l'atome de l'implosion
à laquelle le condamnait la physique classique en quantifiant le moment cinétique.

Pour sauver la mise, le physicien danois Niels Bohr aura l'idée de


quantifier le moment cinétique dans les atomes tout comme Planck avait
quantifié l'énergie du corps noir (Bohr 1913), ce qui permit de retrouver
des atomes stables (atome de Bohr). Il put ainsi rendre compte pour la
première fois du spectre discontinu d'émission de la lumière des atomes
(figure 88). Vu l'importance que prenait la constante de Planck, toute une
série d'expériences furent menées au moyen de rayons X afin de savoir si
la théorie ondulatoire de la lumière pouvait rendre compte de la diffusion
de ces rayons X par la matière (Compton 1923). Le résultat fut sans appel
et trancha de manière définitive en faveur de l'existence des quanta de
lumière postulés par Planck et Einstein. La lumière, que l'on croyait être
une onde, s'avérant être in fine constituée de corpuscules, on s'aperçut
avec effroi que les électrons que l'on croyait être des corpuscules se
comportaient en fait comme des ondes de matière (De Broglie 1923).
Enfin, il fallut introduire la notion de spin (Uhlenbeck & al. 1926) afin
de justifier l'existence d'un principe d'exclusion (Pauli 1925), permettant
de comprendre la structure électronique des atomes poly-électroniques
(figure 89).

186
CHAPITRE IV - RELATIVITÉ ET QUANTA

Invention du
cspin• (1926)

Samuel Goudsmit George Uhlenbeck


(1902-1978) (1900-1988)

e. · ~
Effet 7.eeman

rn Champ
magnttique nul
1P11tllD's1/t

rnrn T.T
2P~llD's1 /l

[!]] Faible champ


magn&ique []]] DilI[] 111 ·
Pieter Zeeman If litNa (anormal)
ltt
(1865-1943) Cd (oonn.al)

Figure 89 : La découverte du spin a été un long chemin de croix pour les physiciens.
L'effet Zeeman découvert en 1896 par le physicien hollandais Pieter Zeeman consiste
à appliquer un champ magnétique à un atome qui émet de la lumière. En présence
d'un champ magnétique, on observe parfois, comme dans le cas de la raie rouge du
cadmium, trois raies formant triplet au lieu d'une seule raie à 6438 À (effet Zeeman
normal). À l'opposé, les raies d'autres éléments comme le sodium ne se décomposent
pas en triplets sous l'action d'un champ magnétique mais en quadruplets ou en
sextuplets (effet Zeeman anormal). L'expérience de Stern et Gerlach réalisée en 1921
sur un faisceau d'atomes d'argent traversant une région où règne un gradient de
champ magnétique a permis de mettre en évidence/ 'existence d'un moment cinétique
intrinsèque qui sera nommé «spin »par la suite par Uhlenbeck et Goudsmit en 1926.

Première quantification
La situation se clarifia dès 1925 lorsque Heisenberg introduisit sa
mécanique des matrices. Ainsi, au lieu de s'intéresser à la position d'un
électron en un lieu donné, chose impossible à mesurer, Heisenberg utilise
un tableau infini de fréquences fondamentales déduites de la seule chose qui
peut être mesurée, à savoir des raies d'absorption ou d'émission de la lumière
par les atomes. En dérivant le tableau « position » par rapport au temps et en
multipliant par la masse, on obtient un nouveau tableau infini, « quantité de
mouvement ». Puis, pour définir le tableau « action », il cherche à multiplier
le tableau« position» par le tableau« quantité de mouvement». Il s'aperçoit
alors avec inquiétude que le produit de deux tableaux dépend de l'ordre avec
lequel on effectue leur multiplication. En particulier, il n'obtient pas le même
résultat selon que le tableau « position » se trouve à gauche ou à droite du
tableau « quantité de mouvement », c'est-à-dire que les deux tableaux ne
commutent pas entre eux. Au prix d'efforts calculatoires titanesques, il finira
par traiter avec succès le cas de l'oscillateur harmonique et par expliquer
la quantification de son énergie (Heisenberg 1925). Sa méthode fut alors
rapidement améliorée par de meilleurs mathématiciens (Jordan & Born 1925,

187
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Dirac 1926a, Born & al. 1926) jusqu'au calcul théorique complet du spectre
de l'atome d'hydrogène (Pauli 1926). L'année suivante, Heisenberg montre
que lorsque deux tableaux ne commutent pas entre eux, cela signifie que les
deux quantités physiques associées ne peuvent être mesurées simultanément
avec une précision arbitraire et obéissent donc à un principe d'indétermination
(Heisenberg 1927).

L'algèbre matricielle transcendantale d'Heisenberg provoqua un profond


désarroi dans une communauté scientifique qui était plus habituée à manier
le calcul différentiel et intégral. Mais, Einstein ayant émis l'opinion que les
conceptions de Louis de Broglie étaient plus qu'une simple analogie (Jammer
1966, p. 257), Erwin Schrôdinger, complètement découragé et dégoûté par
les méthodes d'Heisenberg (Jammer 1966, p. 272), allait approfondir l'idée
selon laquelle une particule en mouvement ne serait rien d'autre qu'une
écume portée par une radiation ondulatoire au sein du substrat de base de
l'univers (Schrôdinger 1926a). Le résultat fut la livraison d'une équation
différentielle du second ordre impliquant une onde mystérieuse 'l'(x,t) variant
dans l'espace et dans le temps (Schrôdinger 1926b) et dont Schrôdinger était
bien incapable de préciser le contenu physique, comme en témoigne ce petit
quatrain moqueur (Bloch 1976).

Erwin ne cesse de calculer


Avec son psi ondulatoire,
Mais à quoi ça peut ressembler,
Ça, on aimerait bien le savoir.

D'ailleurs, Heisenberg ne se privait pas en privé de critiquer la théorie


de Schrôdinger, comme en témoigne cette lettre du 8/06/1926 adressée à
Wolfgang Pauli juste avant la publication du travail de Schrôdinger :

Plus je réfléchis au contenu physique de la théorie de Schrôdinger, plus je


la trouve répugnante. Ce que Schrôdinger écrit sur la meilleure visibilité de
sa théorie, je le considère comme étant digne de la poubelle. Le plus grand
résultat de sa théorie est le calcul des éléments de matrices ... (Moore 1989,
p. 221).

En effet, le seul avantage de la théorie de Schrôdinger était de pouvoir


prédire le spectre d'émission de l'atome d'hydrogène de manière beaucoup
plus simple et visualisable qu'avec l'algèbre matricielle transcendantale
d'Heisenberg.
De son côté, Schrôdinger s'acharnait à nier l'existence des particules et des
sauts quantiques prônés par Heisenberg et toute sa clique et pensait que le carré
de sa fonction d'onde mesurait la densité étalée de la charge électrique de ce

188
CHAPITRE IV - RELATIVITÉ ET QUANTA

dernier à un endroit x à l'instant t. Poussé dans ses derniers retranchements en


octobre 1926 lors de discussions éreintantes à Copenhague avec Niels Bohr,
Schrôdinger finira par déclarer avant de tomber malade : « Si ces damnés
sauts quantiques devaient subsister, je regretterais de m'être jamais occupé
de théorie quantique » (Heisenberg 1972, p. llO). Face à ce problème, le
physicien allemand Max Born ( 1882-1970) suggéra de renoncer au dogme
fondamental du déterminisme en avançant que c'était plutôt une probabilité
qui se propageait selon les lois de la causalité (Born 1926). Porter la fonction
d'onde au carré ne donnait plus la position réelle de l'électron comme le
soutenait Schrôdinger, mais seulement la probabilité - les chances - qu'il
aura d'être ici plutôt que là. Avec cette interprétation de nature probabiliste,
Max Born ouvrait un gouffre béant entre le possible 'l'(x,t) mesuré par un
nombre complexe et le probable mesuré par un nombre réel l'l'(x,t)j 2 • La vieille
distinction, chère à Aristote, entre l'être en puissance 'l'(x,t) et l'être réalisé
l'l'(x,t)l 2 venait d'être ressuscitée, au grand dam d'Heisenberg qui considéra
que son ami Born venait de le trahir en adoptant le point de vue ondulatoire.
On sait que Schrodinger refusa catégoriquement l'interprétation donnée par
Max Born car, si tel était le cas, il n'y avait pas moyen d'éviter les sauts
quantiques, ce qui impliquait de renoncer à toute causalité.

Bien évidemment, la communauté scientifique fut très surprise que deux


théories aussi différentes que la mécanique des matrices et la mécanique
ondulatoire permettent d'arriver aux mêmes résultats concernant l'atome
d'hydrogène. Schrôdinger tenta de démontrer très maladroitement que sa
théorie était mathématiquement équivalente à celle d'Heisenberg, mais ce
fut Dirac qui démontra l'équivalence mathématique complète entre les deux
théories via l'emploi de transformations canoniques déjà largement employées
en mécanique classique (Dirac l 926b). Toutefois, un examen plus approfondi
des fondements mathématiques permit d'aboutir à une formulation purement
axiomatique de la mécanique quantique nommée théorie des transformations
(Jordan 1927). Dans cette formulation, toute quantité physique se trouve
représentée par une matrice hermitique  dont le spectre de valeurs propres
fournit tous les résultats possibles pour la mesure de la quantité observable.
Ceci permettait de disposer d'un formalisme extrêmement général faisant
apparaître la mécanique des matrices d'Heisenberg et la mécanique
ondulatoire comme de simples cas particuliers correspondant à l'emploi
d'espaces linéaires complexes munis d'un produit scalaire, appelés espaces
de Hilbert (Hilbert & al. 1927). Finalement, John von Neumann put aboutir
à un formalisme totalement dépourvu de toute hypothèse physique ou
épistémologique autre que celles introduites par Jordan (von Neumann 1929).

Pour la petite histoire, rappelons que von Neumann est le père des
calculateurs modernes et un grand spécialiste du jeu de poker. Dans les
années 1950, il a lancé le premier la notion « d'équilibre de la terreur »

189
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

(« mutually assured destruction » en version originale ou, de manière


plus qu'appropriée, « MAD »). L'objectif de cette théorie est de décrire
les comportements de deux parties qui se trouvent dans une situation où
l'utilisation d'armes de destruction massive conduirait obligatoirement à
l'annihilation des deux, avec absence de gagnant. Dans une telle situation,
d'après la théorie MAD, les deux parties éviteront le conflit, et c'est
effectivement bien ce qui s'est passé durant toute la guerre froide. Le cinéaste
Stanley Kubrick s'est inspiré du rôle crucial joué par von Neumann auprès
des autorités militaires, lors du lancement de deux bombes nucléaires sur le
Japon et lors de la guerre froide, pour créer le personnage du D' Folamour.
Henri Poincaré a pour sa part démontré l'équivalence masse-énergie qui allait
servir de base de raisonnement théorique pour développer la bombe atomique
que von Neumann fut chargé de construire. Moralité : toujours se méfier des
mathématiciens, qui peuvent changer la face du monde avec des idées a priori
complètement contre-intuitives, mais qui s'avèrent cependant être conformes
à la réalité physique.

C'est la formulation axiomatique de John von Neumann de la mécanique


quantique de première quantification déconnectée de tout contexte physique
et largement basée sur le formalisme de Schrôdinger qui est généralement
présentée aux étudiants en université ou en école d'ingénieurs, avec pour
conséquence un désarroi massifdes étudiants devant cette matière extrêmement
rébarbative. Les conséquences pour le grand public sont évidemment encore
plus désastreuses, vu que la compréhension du formalisme nécessite d'être
familier avec l'analyse fonctionnelle et les opérateurs intégraux, calcul que
l'on ne peut arriver à maîtriser qu'après des années d'études supérieures.
Cela apporte de l'eau au moulin de tous les mauvais prophètes qui prennent
appui sur la boutade de Feynman pour prétendre que personne ne comprend
vraiment la physique quantique.

Un monde quantique
En fait, il y a très peu de choses à savoir pour manier correctement la
mécanique quantique. La figure 90 récapitule les concepts clés pour une
approche de première quantification où le rayonnement reste traité avec les
équations macroscopiques de Maxwell. On y voit très clairement que si le
quantum d'action était nul, on ne pourrait pas associer énergie et fréquence.
De mêmes quantités de mouvement et longueur d'onde seraient des notions
disjointes et donc plus de dualité onde/corpuscule. Il n'y aurait pas non plus
de spin, ce qui fait que le monde serait dense, sans vide et uniquement noir
et blanc. Il n'y aurait aussi aucune incertitude affectant les notions de temps,
d'énergie, de position, de quantité, de mouvement et tout serait parfaitement
dénombrable. Bref, un bien triste monde où régneraient des comptables

190
CHAPITRE IV - RELATIVITt ET QUANTA

infaillibles. Heureusement, la constante de Planck n'est pas nulle et le monde


est par conséquent incertain, chatoyant, coloré avec des comptables qui font
plein d'erreurs. En dehors de ces quelques relations permettant de traiter
l'aspect quantitatif, on peut aussi énoncer cinq principes très généraux qui
forment le socle d'une pensée quantique.

Dans la nature aucun changement ne peut mettre en jeu


une action inférieure à h = h/2:n: = o,66 eV·fs
Constante
0 L de Planckb (J·s)
SPIN

Moments angulaires M·L2 ·T'1

Énergie E/fréquence v E = n·h-f Spin k = h·m/2

Quantité de mouvement p/ ;.. =!!._ =_!!___ Position x, temps t


longueur d'onde À p m·v Nombre N, phase q>

Relations d'incertitude ll.p·t:u'?:. -


n
2
Mode classique (:::} h =o

Figure 90 : Résumé de physique quantique de première quantification soulignant le


rôle clé du quantum d'action appelé aussi« constante de Planck».

Principe d'intemporalité
Le premier principe d'intemporalité est lié à l'aspect discontinu de la
mécanique quantique (figure 91). Ce sont les fameux sauts quantiques qui
effrayaient tant Schrôdinger. Il existe de fait une différence importante entre
un point de vue relativiste et un point de vue quantique. Ainsi, si l'on cherche
à connaître la position d'une particule, un physicien relativiste dira : « Elle
se trouve ici à la position x et au temps t »,alors qu'un physicien quantique
dira plutôt ceci : « Elle est nécessairement quelque part et soit x le résultat de
la mesure de sa position à l'instant t. » Le physicien quantique prend donc
bien soin de distinguer entre trois concepts : l'état, l'opérateur représentant la
mesure effectuée et le résultat obtenu. Or, s'il existe un opérateur quantique
associé à la mesure de la position spatiale, il n'en existe aucun associé à la
mesure du temps. Ce qui est très ennuyeux, car la théorie de la relativité exige
que temps T et espace L jouent physiquement le même rôle. Le temps n'est
donc pas une observable en théorie quantique en raison de l'existence de

191
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

sauts quantiques de nature discontinue et imprévisible entre différents états


lors de toute mesure. Le temps qui intervient dans l'équation de Schrodinger
n'est donc qu'une simple étiquette permettant d'ordonner le déplacement
spatial des corpuscules.

Principe d'intemporalité (absence de continuité)

Saut quantique
Temps classique (t)
Énergie E = hxfréquence (f)

Réalité: ÂE·Ât ~ h/2

Potentialité: ÂE·Ât < h/2

Figure 91 : En raison des sauts quantiques qui peuvent arriver à tout instant de
manière parfaitement aléatoire, la mécanique quantique est intemporelle, c'est-à-
dire que le temps t tel que le conçoivent Newton ou Einstein n'existe plus.

Ceci implique que le temps t qui se mélange avec les coordonnées d'espace
dans une poussée de Lorentz n'a absolument rien à voir avec le temps t qui
apparaît dans l'équation de Schrôdinger. Comme on utilise un même label
pour deux concepts de nature très différente, la confusion rôde à tous les
étages. Les traités de mécanique quantique sont en effet particulièrement
évasifs sur l'origine physique de cette vilaine asymétrie entre temps et
espace en première quantification. Un autre problème est que la théorie de
Schrodinger n'est pas covariante par application d'une poussée de Lorentz.
En effet, une poussée de Lorentz mélange la coordonnée de temps avec une
coordonnée d'espace. Or, dans l'équation de Schrodinger dépendante du
temps, il faut dériver une seule fois par rapport au temps et deux fois par
rapport aux coordonnées spatiales. Il en découle que seule une poussée de
Galilée laisse invariante l'équation de Schrodinger. La théorie ne peut pas
donc être relativiste.

192
CHAPITRE IV - RELATIVITt ET QUANTA

La conséquence est que tout phénomène d'essence électromagnétique doit


faire appel à des concepts macroscopiques comme le potentiel électrique ou
le potentiel-vecteur magnétique. Cette asymétrie entre dans le traitement de
la matière et celui du rayonnement étant bien peu satisfaisante sur un plan
intellectuel, il a fallu dériver une autre équation, l'équation de Dirac, qui se
trouve être covariante par application d'une poussée de Lorentz (Dirac 1928).
Pour cela, il joua sur le fait qu'un carré peut toujours s'exprimer comme le
produit d'un nombre complexe par son conjugué. Si a et b sont des opérateurs
différentiels, il est alors possible de transformer une équation différentielle du
deuxième ordre en deux équations différentielles du premier ordre.

Principe d'indétermination
Dans l'esprit de la mécanique quantique relationnelle (Rovelli 1996), le
même formalisme basé sur la théorie de l'information au sens de Shannon
conduit aussi bien à l' insécabilité du quantum d'action qu'à la célèbre relation
d'indétermination d'Heisenberg liant l'étalement spatial d'un objet quantique
dans une direction quelconque ~q à l'étalement en quantité de mouvement
~p dans cette même direction (figure 92). Ce qui est frappant dans cette
nouvelle manière de raisonner, c'est que la théorie de l'information permet
de s'exprimer indifféremment selon un langage classique ou quantique. Ceci
tient au fait que si la mécanique quantique nous impose de faire une distinction
entre système observé et observateur qui échangent de l'information, elle
nous laisse complètement libres de choisir la ligne de démarcation entre les
deux systèmes. Il en découle que différents observateurs peuvent très bien
avoir des visions différentes d'une même séquence d'événements et que
les notions d'état quantique, de valeur d'une variable, ou de résultat d'une
mesure sont des notions relatives à l'observateur, au même titre que la valeur
que peut prendre la vitesse en mécanique relativiste.

On notera avec intérêt que le principe d'indétermination est aussi


traditionnellement lié à la non-commutation de deux observables quantiques
et trouve ici une interprétation physique claire via l'existence du second
principe de la thermodynamique, condition nécessaire pour que toute
transition de nature macroscopique soit expérimentalement reproductible. La
condition S '.'.'.: 0 peut en effet être dérivée de manière simple en combinant
la relation de Boltzmann liant l'entropie au logarithme naturel du volume
n qu'occupe un système isolé dans l'espace des phases avec le théorème de
Liouville qui exprime l'invariance dynamique de ce même volume (Jaynes
1965, 1989). Ceci permet de mieux comprendre les raisons profondes pour
lesquelles la théorie quantique doit sa naissance à la nécessité de résoudre
un problème de nature thermodynamique. De même, l'indéterminisme
essentiel de la thermodynamique peut être bel et bien attribué à l'existence

193
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

d'un quantum d'action. Il est donc aisé de comprendre que la constante de


Boltzmann joue le rôle de quantum d'entropie en lieu et place du quantum
d'action de la théorie quantique (Rosenfeld 1961).

Principe d'incertitude (absence de repos)


~p·ÂX~h/2

h _, 301
Â. = ..!:__ => Â. / nm = 399 mô.v·!ix ~ - => ô.v/m·s "" ( )i 1)
m·v (ml Da){vlm·s-') 4.1r 111 / Da \!ix l 11

Figure 92 : Le principe d'indétermination fait que la matière n'est jamais au repos.


Par exemple, dans cet anneau de 48 atomes de fer placés sur une surface en cuivre,
on observe une probabilité de présence non nulle au centre del 'anneau, alors qu'on
n'a rien mis en ce point.

Principe d'indiuisibilité
Le fait que le quantum d'action soit non nul implique qu'il est impossible
de couper un objet quantique en deux. Si d'aventure on y arrive, les deux
parties séparées se réuniront aussitôt afin de reformer un objet intact. C'est ce
principe qui est à l'origine de l'effet tunnel. Comme le montre la figure 93,
la présence de l'obstacle n'affecte ici en rien l'énergie ou la masse, mais
simplement la probabilité de passage d'un côté à l'autre. Ce mécanisme est
abondamment exploité de nos jours dans le microscope à effet tunnel qui
réalise le rêve d' Avogadro consistant à voir et manipuler les atomes un à un.

194
CHAPITRE IV - RELATIVITÉ ET QUANTA

Principe d'indivisibilité (absence de prison)


Souffrance
lntenliction de
Nijour

~...WJ7. Réduction de la
probabilité mais
Pensée quantique pas de l'énergielll
effet tunnel

Un objet quantique est insécable...


Figure 93 : Ce principe est aussi souvent appelé « effet tunnel», où un système arrive
à traverser une barrière de potentiel qui aurait été infranchissable classiquement.

L'existence de l'effet tunnel fait qu'il n'existe pas de prisons hermétiques


en mécanique quantique, ce qui est somme toute assez rassurant. Si l'on
essaye d'emprisonner un corpuscule quantique, ce dernier s'agite comme un
beau diable dans tous les sens avec une énergie d'autant plus grande que le
confinement est plus sévère. C'est ce mécanisme qui fait que dans un atome,
un électron peut effectivement venir s'écraser sur le noyau comme le prévoit
la physique classique. Il peut le faire car le noyau est beaucoup trop petit pour
espérer retenir une particule de masse aussi faible qui est un véritable zébulon.
Donc, si d'aventure il se retrouve collé sur le noyau avec une incertitude
Ax ;::: 10- 14 m, l'incertitude sur son énergie cinétique AU 0 sera voisine de
380 MeV (figure 94). Pour comparaison, on aura pour la même incertitude
Ax, AU ;::: 1,44 MeV pour l'incertitude sur son énergie potentielle liée à
l'attraction coulombienne. L'énergie cinétique étant largement dominante
sur l'énergie potentielle, l'électron ne pourra jamais être emprisonné dans le
noyau. Si maintenant l'électron se place à une distance plus respectable de
0,1 nm par rapport au noyau, l'incertitude sur son énergie cinétique chute à
3,8 eV tandis que son énergie potentielle vaut 14,4 eV. C'est donc maintenant
l'énergie potentielle qui l'emporte sur l'énergie cinétique et tous les atomes
auront donc à peu près la même taille voisine de 0, 1 nm.

195
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Atome: .âx ... 10·10 m

Heisenberg: Ap·.âx .., h Noyau: .âJC.., 10·14 m


AU = Ap" = 11• 11U ,,,_a h·c
c 2m 2m-(Ax)" ~ {AU /eV) = 0 ,038
P 11x
c (Ax/mn)' 1,44
~ (11UP /eV) "' (/1x/nm)

Figure 94 : Mécanisme de stabilisation de ! 'atome par effet tunnel.

La désintégration radioactive est un autre exemple d'effet tunnel que l'on


constate à notre échelle. Un proton ou un neutron étant l 000 fois plus massif
qu'un électron, il en découle une incertitude sur l'énergie cinétique qui n'est
que de 0,4 MeV. Par comparaison, l'énergie de liaison de deux nucléons
dans le modèle de la goutte liquide vaut (U/MeV) = 15,55 - 17,8·A 113 , où A
est la masse du noyau. L'énergie potentielle de liaison est donc 10 fois plus
grande que l'incertitude sur l'énergie cinétique, d'où la stabilité des noyaux.
Toutefois, certains nucléons arrivent quand même à sortir de ce vaste puits de
potentiel grâce à l'effet tunnel.

Principe d'indiscernobilité
Dans notre monde macroscopique, il est impossible de rencontrer deux
objets identiques en tout point : même masse, même composition chimique,
même forme, même couleur, même charge électrique, etc. Et, même si tel
était le cas, cela ne poserait aucun problème conceptuel pour le formalisme
classique. En effet, en physique classique, il est toujours possible de suivre
les objets de manière individuelle en utilisant des repères numériques. On
dira par exemple que l'objet numéro 1 se trouve à telle position et que
l'objet numéro 2 se trouve à telle autre position, et ainsi de suite. Cela n'est
plus possible en physique quantique, car absolument rien ne permet de
distinguer un électron d'un autre électron en raison du fait que les positions
ne sont connues que de manière probabiliste. Il existe donc un traitement
typiquement quantique de ce genre de situations qui ne possède aucun
équivalent classique. Les implications de cet état de fait sont parfois tout à
fait non intuitives et peuvent avoir des conséquences très profondes. Ce qui

196
CHAPITRE IV - RELATIVITÉ ET QUANTA

est en fait tout à fait remarquable, c'est que toutes les particules connues sont
des copies conformes : tous les électrons sont identiques, tous les protons
sont identiques, etc. Comme on le verra au chapitre suivant, seule la théorie
quantique des champs est capable de fournir une explication naturelle pour
cette identité particulaire extrêmement frappante.

La superfluidité et la supraconductivité sont toutes deux la conséquence


d'une symétrie quantique impliquant un processus d'échange au cours duquel
deux particules absolument identiques en tout point échangent leurs positions
spatiales respectives. Comme les particules sont rigoureusement identiques, le
seul moyen de détecter cet échange est de placer des étiquettes de type « 1 »
sur la particule de gauche et« 2 » sur la particule de droite (figure 95). Bien
évidemment, ces étiquettes sont parfaitement arbitraires et n'importe quel autre
type d'étiquette aurait pu être employé. Une fois l'échange effectué, l'étiquette
« 1 » se retrouve bien sûr à droite, tandis que l'étiquette« 2 »est passée à gauche.
Le point clé est que ces étiquettes sont fictives et ne servent qu'à visualiser
mentalement le mouvement réel qui est appliqué aux deux particules. Après
échange, il faut donc enlever les deux étiquettes, et force est de constater que
l'on obtient alors une disposition matérielle absolument identique à la situation
où les deux particules n'échangent pas leurs positions (identité).

Par conséquent, toute mesure faite sur le système avant et après échange
doit conduire au même résultat expérimental. Dans le cadre du formalisme
quantique, cette invariance des observations expérimentales par permutation
d'étiquettes sur des objets identiques signifie que la probabilité de trouver
le système dans un état donné doit rester invariante lors du processus de
permutation. Le fait d'autoriser physiquement la permutation se traduit dans
ces conditions par le fait que l'amplitude de probabilité décrivant le système
se trouve multipliée par un facteur de phase arbitraire. En effet, rappelons
que l'espace de Hilbert possède une structure d'espace vectoriel impliquant
l'ensemble des nombres complexes, c'est-à-dire que les amplitudes de
probabilité de se trouver dans un état donné sont des nombres complexes.
Il est très facile de constater que cette multiplication de l'amplitude de
probabilité par un nombre complexe unitaire arbitraire ne modifie en rien la
probabilité correspondante.

Conformément au théorème de Noether, à cette indétermination de l'angle


de phase <p associée à la symétrie d'échange de deux particules identiques,
on peut associer le principe de conservation du nombre total de particules.
Sachant que tout échange impliquant deux particules identiques conduit à
multiplier l'amplitude de probabilité d'être dans un état quantique par un
facteur de phase, que se passe-t-il si l'on effectue une deuxième permutation
immédiatement après la première ? Dans ce cas, l'état final après cette double
permutation revient à ne rien faire du tout puisque l'étiquette« 1 »se retrouve

197
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE U MÉDECINE

de nouveau à gauche et l'étiquette « 2 » à droite, comme dans l'état de départ


avant double permutation, et l'on peut montrer qu'il n'existe alors dans
l'intervalle ]0,27t] que deux solutions pour l'angle de phase qui sont : cp = 7t
(fermions de spin demi-entier) ou cp = 27t (bosons de spin entier).

Principe d'indiscernabilité (absence d'étiquette)

Symétrie d'échange

Figure 95 : Il est interdit de mettre des étiquettes sur les objets quantiques en
raison du fait que tous les corpuscules sont identiques en tout point et qu'il peut y
avoir superposition d'états lors de toute permutation laissant la situation physique
inchangée.

C'est ce mécanisme qui est ainsi à l'œuvre dans le phénomène de


superfluidité où l'on voit un liquide remonter spontanément les parois du
récipient qui le contient pour venir s'étaler sur la table où est posé le container.
La raison tient au fait qu'un liquide quantique ne peut tout simplement pas
supporter une situation où une partie de lui-même se trouve à une hauteur
plus élevée qu'une autre. En effet, la partie en hauteur ne possède pas dans ce
cas la même énergie potentielle que la partie restée en bas et donc on pourrait
théoriquement distinguer les molécules du haut de celles qui sont en bas. Or,
selon le principe d'indiscernabilité, cela ne peut être. Donc le fluide sort en
bloc de tout récipient pour venir s'étaler comme une crêpe afin que toutes ses
parties soient exactement à la même hauteur. De même, un superfluide mis en
rotation tourne pour l'éternité.

198
CHAPITRE IV - RELATIVITÉ ET QUANTA

Principe d'intrication
Il s'agit à coup sûr du principe le plus étrange de la théorie quantique,
car il amène à la notion de non-localité. En physique classique, un système
est une partie de la nature qui peut être isolée de son environnement. En
physique quantique, les systèmes isolés n'existent pas, car il est impossible
de rendre les interactions infiniment petites en raison de la finitude du
quantum d'action. Ceci permet de définir avec plus de précision le concept de
système. Un système est donc une partie de la nature qui interagit de manière
incohérente avec son environnement tandis qu'un objet est une partie de la
nature qui interagit avec son environnement à travers un bain. Il découle de
cette définition qu'un système sera qualifié de quantique s'il peut être décrit
par une fonction d'onde 'V chaque fois qu'il est presque isolé avec un temps
d'évolution tevo1 = h/LiE < tr et qu'il est en interaction incohérente avec son
environnement. Autrement dit, un système quantique ne peut être décrit par
une fonction d'onde que s'il interagit de manière incohérente et faiblement
avec son environnement. Par contraste, un bain ne peut jamais être isolé car
son temps d'évolution est toujours plus grand que son temps de relaxation.
Comme la plupart des corps macroscopiques sont en contact avec des bains,
voire contiennent eux-mêmes un bain, ils ne peuvent pas être décrits au
moyen d'une fonction d'onde. En particulier, il est impossible de décrire un
appareil de mesure à l'aide d'une fonction d'onde. Il découle de ceci qu'un
système macroscopique est un système qui possède un temps de décohérence
plus petit que le temps d'évolution de ses constituants. De manière évidente,
les systèmes macroscopiques interagissent de manière incohérente avec leur
environnement proche. Selon ce critère, les objets de la vie de tous les jours
et les personnes sont tous des systèmes macroscopiques.

Tout système qui interagit de manière cohérente avec son environnement


n'est ni microscopique, ni macroscopique. On parle dans ces conditions de
système intriqué ou bien d'intrication quantique (figure 96). De tels systèmes
ne peuvent pas être décrits par une fonction d'onde et, pour être rigoureux,
ne sont pas des systèmes. Dans de telles situations, on dit que l'ensemble des
particules est intriqué avec son environnement. Les systèmes intriqués, c'est-
à-dire interagissant de manière cohérente, ne peuvent pas être séparés, saufs 'il
y a suffisamment d'énergie pour les séparer. L'acte de division aboutit alors
à des entités séparées qui interagissent de manière incohérente. La physique
quantique montre que la nature n'est pas faite d'entités séparées, mais plutôt
d'entités séparables. En mécanique quantique, le critère de séparation est
l'incohérence de l'interaction. Les superpositions cohérentes d'états sont
surprenantes dans ce sens où les systèmes sont faits de parties séparées qui en
fait ne le sont pas en raison de l'intrication qui empêche la séparation.

199
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Principe d'intrication (absence de séparation)

Superposition d'états

Figure 96 : L'intrication quantique est la propriété de non-séparabilité entre deux


objets aussi éloignés soient-ils.

Le paradoxe du chat de Schrôdinger est donc la conséquence de la


conception erronée selon laquelle un système fait d'une ou plusieurs
parties peut être séparé en deux sous-systèmes sans les perturber. Or
l'intrication dans les systèmes en superposition cohérente ne permet pas
de faire la séparation sans perturbation. Chaque fois que l'on suppose être
capable de séparer un système intriqué, on obtient des résultats incorrects,
comme des signaux se propageant à des vitesses supra-lumineuses ou des
comportements non locaux.

Tel est le cas dans la fameuse expenence EPR, ou dans l'exemple


suivant. Soit deux atomes, l'un dans un état excité et l'autre dans son état
fondamental, et soit L la distance qui les sépare. Le bon sens commun
nous dit que si le premier atome retourne à son état fondamental en
émettant un photon, le deuxième atome ne pourra être excité qu'après
qu'un temps t = Lie se soit écoulé, c'est-à-dire après que le photon ait
voyagé du premier atome vers le second. De manière surprenante, cette
conclusion est fausse, et l'atome dans son état fondamental possède une
probabilité non nulle d'être excité au même moment où l'atome excité se
désexcite. Ce comportement a été vérifié expérimentalement et se trouve
être plus parlant que l'expérience EPR impliquant des spins. En fait, le
résultat de l'expérience dépend du type de superposition pour les deux
atomes au début de l'expérience, qui peut être cohérent ou incohérent.
Dans le cas d'une superposition incohérente, le résultat intuitif est
parfaitement correct, le résultat contre-intuitif n'apparaissant qu'en cas
de superposition cohérente. Dans ce dernier cas, il est crucial de noter
que la cohérence est toujours associée à la phase inobservable et non à
l'énergie qui peut être mesurée.

200
CHAPITRE IV - RELATIVITÉ ET QUANTA

Par conséquent, la réduction du paquet d'ondes lors de toute mesure


qui casse la cohérence concerne la phase dont la vitesse de propagation
peut être aussi grande que l'on veut. Il y a donc bien non-localité pour
l'information associée à la phase qui peut se propager avec une vitesse
infinie, mais ces vitesses de phase infinies n'impliquent jamais un
transport de l'énergie à des vitesses supra-lumineuses. Le principe de
relativité n'est donc en aucun cas violé lors de la perte de cohérence
comme on le voit trop souvent écrit.

Nombres complexes
Ce qui fait souvent renoncer à avoir une pensée quantique est
probablement le fait que la mécanique quantique utilise des nombres
complexes et non des nombres réels comme la physique classique. Il est
donc impératif de démystifier quelque peu ces nombres au lieu d'y voir
des constructions intellectuelles imaginaires, puisqu'ils font intervenir
ce nombre, noté i, qui multiplié par lui-même donne -1. Il faut plutôt
les prendre pour ce qu'ils sont, à savoir des nombres circulaires et non
des nombres linéaires comme les nombres réels. Ce qui nous ramène à
la figure 1 de l'introduction où je présente les deux modes de pensée,
occidental et oriental. L'avantage de penser en cercle, c'est qu'apparaît
de manière naturelle l'idée que toute réalité est fixée par la donnée
de deux nombres : le rayon du cercle et l'angle de phase, c'est-à-dire
l'angle que fait la droite joignant le centre du cercle à l'un des points de
sa circonférence avec l'axe réel. Si l'angle de phase est nul, je suis dans
le monde des nombres réels, tandis que si l'angle de phase vaut 90°, je
suis passé dans une autre réalité linéaire, mais orthogonale à la première
et n'ayant qu'un seul point commun : le centre du cercle. Si j'ai un
angle de phase de 180°, je me retrouve de nouveau dans le monde réel,
mais ce qui était droit est devenu gauche et vice versa. Bref, le monde
avec angle de phase de 180° est en tout point similaire au monde avec
angle de phase nul, sauf que tout y est inversé, c'est-à-dire multiplié par
-1. Or, comme 180° = 90° + 90°, si j'appelle 'i' l'opération consistant
à tourner d'un angle de 90° dans le sens inverse des aiguilles d'une
montre, je retrouve bien la propriété i2 = -1. Ceci n'a rien d'imaginaire ni
d'intellectuel, mais traduit l'existence d'une réalité circulaire différente
sur un plan topologique d'une réalité linéaire.

La topologie, qui est cette science qui parle des objets indépendamment
de leur forme ou de leur taille, nous apprend que la seule différence entre la
droite et le cercle est l'absence d'un seul point situé à l'infini qui aboutit à une
topologie de la droite non compacte, c'est-à-dire de taille infinie. Rajoutons
un seul point à l'infini à la droite et celle-ci se transforme aussitôt en cercle de

201
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

topologie compacte qui possède une taille finie. Si vous aviez à choisir entre
une topologie non compacte générant un monde infini et une autre compacte
générant un monde fini, que choisiriez-vous ? Le monde fini, bien sûr, car
au moins, on a une chance de pouvoir en faire le tour et revenir à son point
de départ à un moment ou à un autre. L'idée d'un monde infini, où l'on part
dans une direction sans aucun espoir de retour, est par contre assez effrayante.
Donc vous choisiriez le cercle et non la droite, et la nature fait comme vous,
puisque vous êtes la nature, elle choisit pour s'exprimer le cercle et donc
les nombres complexes, se réservant le droit de revenir à des nombres réels,
soit en annulant la phase, ce qui permet d'obtenir le rayon du cercle, soit
en multipliant par ce que l'on appelle le complexe conjugué, ce qui permet
d'obtenir le carré du rayon du cercle.

Il y a aussi un avantage énorme à travailler avec des nombres complexes,


car, au lieu d'avoir un signe comme les nombres réels, ils ont un angle de
phase. Prenez un nombre complexe quelconque, changez sa phase de 180° et
additionnez le nombre obtenu au nombre de départ et vous arrivez au centre
du cercle, au vide, seul point où il est possible d'avoir une vision complète
du cercle. Faites cela sur une droite, c'est-à-dire additionnez un nombre
quelconque avec son opposé, et vous arrivez également à l'origine, au vide,
mais cette position n'a rien de bien original, car ce que vous voyez, vous
pouvez le voir de n'importe quel autre point de la droite, et comme la droite
est infinie, on ne peut pas la saisir dans sa totalité. Le point zéro du cercle est
donc beaucoup plus intéressant que le point zéro de la droite.

Intégrale des chemins


Le corpuscule de la première quantification est un objet très bien défini,
comme la masse ponctuelle newtonienne, sauf que par une certaine forme de
perversion intellectuelle, on refuse de se servir du seul moyen physique qui
permettrait de le caractériser totalement, à savoir sa trajectoire. De fait, dans
un monde classique, pour aller d'un point A à un point B, le corpuscule suit
une trajectoire bien définie calculable au moyen de la loi de Newton. C'est ce
que l'on essaye de faire avec les lycéens en terminale, avec plus ou moins de
succès. Si l'on se donne des conditions initiales, comme le point de départ et
la vitesse à un temps donné, le calcul newtonien permet de prédire quelle sera
la trajectoire suivie et où arrivera le corpuscule à un temps postérieur au temps
de départ. C'est cela qui nous donne l'illusion que la mécanique newtonienne
décrit une réalité. Rappelons quand même que lorsqu'on envoie une sonde se
poser sur une comète, c'est bien la loi de Newton qui est appliquée et non pas
la mécanique quantique ! ! !

202
CHAPITRE IV - RELATMTÉ ET QUANTA

Mais la pensée classique ne se limite pas aux lois de Newton, car ces
dernières ne sont d'aucune utilité pour décrire les phénomènes de nature
électromagnétique. Pour ceux-ci, on a donc introduit au x1xe siècle en chaque
point de l'espace-temps un champ à six composantes (trois pour le champ
électrique et trois pour le champ magnétique) qui se transforment l'une dans
l'autre selon les quatre équations de Maxwell. Ici aussi, lorsqu'on récupère les
images de la sonde qui s'est posée sur une comète grâce aux lois de Newton,
on utilise les bonnes vieilles équations de Maxwell et non l'électrodynamique
quantique. Tout cela donne donc l'illusion que l'on peut se passer de la
mécanique quantique à notre échelle, vision des choses qui culmine dans
l'interprétation de Copenhague de Niels Bohr, avec des corpuscules obéissant
aux lois quantiques et des observateurs exclus du monde quantique car
obéissant aux lois purement déterministes de la physique classique.

Voyons maintenant les mêmes phénomènes avec la lorgnette quantique.


Pour la loi de Newton, au lieu de chercher à calculer la trajectoire, on va partir
du fait que toute trajectoire est par principe légitime, aussi tarabiscotée soit-
elle (figure 97). Ceci rend bien sûr complètement inutile la notion de force qui
jouait un rôle crucial dans l'approche newtonienne. L'idée est de remplacer
la force par un nombre complexe qui possède une phase quantique bien
définie que l'on associe à chaque trajectoire possible et surtout imaginable.
On appelle cette formulation de la mécanique quantique « l'intégrale des
chemins », et pour ce qui me concerne c'est la seule manière d'introduire
correctement le sujet. Pour calculer notre nombre complexe, on commence
par découper la trajectoire choisie en un certain nombre d'intervalles de temps
où les énergies cinétiques et potentielles ne varient pas trop rapidement. Pour
chaque intervalle, on calcule la différence entre l'énergie cinétique et l'énergie
potentielle et on la multiplie par la durée de l'intervalle, de manière à obtenir
un nombre réel homogène à une action comme la constante de Planck. Puis on
additionne toutes les actions calculées sur chaque intervalle depuis l'instant
de départ jusqu'à l'instant d'arrivée de manière à obtenir l'action totale
dépensée sur le chemin arbitrairement choisi. Pour finir, on divise cette action
par la constante de Planck réduite, ce qui donne un nombre sans dimension
qui peut être utilisé comme angle de phase d'un nombre complexe via la
relation d'Euler. Il ne reste plus qu'à additionner tous les nombres complexes
obtenus sur tous les chemins possibles et imaginables. Le carré du module du
nombre complexe final donne la probabilité d'observer le corpuscule au point
d'arrivée au temps fixé sachant qu'il était avec certitude au point de départ.

203
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

y\
/x ~i
flèche résultante
~.1
0,0
0 % OA

fi>.
0%
y~, ô
0,3
~6
Richard Feynman Flèche
(1918-1988) résultante

.~ ABCDEFGHIJKLM

BCDEFGHIJKLM
_, 1-.......-/'//_ . . . . . , ,_
Figure 97 : La mécanique quantique par intégrale des chemins est une idée du
physicien américain Richard Feynman qui permet de démystifier la dualité onde/
corpuscule. La seule chose à faire est d'additionner des nombres complexes, ou,
ce qui revient au même, faire une somme vectorielle de flèche. Chaque événement
se représente par une flèche à laquelle est associé un angle de phase par rapport à
une direction commune, le module de chaque flèche correspondant à la probabilité
de /'événement. Comme on le voit en bas, lorsque les chemins sont compliqués ou
trop longs, les angles de phase varient rapidement, ce qui les rend inobservables par
interférence avec d'autres chemins similaires. Par contre, il existe des chemins où
l'angle de phase varie très peu, ce qui les renforce lors de la sommation, les rendant
finalement observables.

Ce qui est remarquable et vraiment caractéristique d'un mode de pensée


quantique est que, pour résoudre le problème, il faut considérer tous les
chemins possibles, y compris ceux qui ne seront jamais réellement observés.
Ceci tient précisément au fait qu'il n'existe pas de grandeur d'état dont la
donnée permet de fixer les états de toutes les autres variables comme en
mécanique classique. Il faut donc considérer toutes les possibilités, car on ne
sait jamais à l'avance ce que la nature nous réserve comme surprises!!! En
fait, tout va dépendre de la quantité d'action dépensée.

Pour un corps macroscopique, l'action ramenée au centre de masse est


gigantesque par rapport à la constante de Planck qui sert à définir l'angle
de phase. Il suffit alors de rechercher les trajectoires où l'angle de phase

204
CHAPITRE IV - RELATIVJTt ET QUANTA

reste stationnaire, c'est-à-dire ne varie quasiment pas quand on modifie très


légèrement la trajectoire. Il est alors facile de montrer que de tels chemins
correspondent aux solutions des équations de Lagrange de la mécanique
classique, c'est-à-dire d'une formulation newtonienne en termes de degrés de
liberté et non en termes de forces. Bref, si la loi de Newton existe, c'est bien
que le monde est fondamentalement quantique, puisqu'il faut diviser par la
constante de Planck pour calculer l'angle de phase. En effet, on ne pourrait
pas faire une telle division si la constante était nulle. Cette formulation
permet aussi d'en finir avec l'apparente téléologie du principe de moindre
action de Louis-Claude de Maupertuis, qui permettait en mécanique classique
de trouver la bonne trajectoire en minimisant une intégrale d'action. Le fait
qu'il faille connaître le point d'arrivée pour calculer cette trajectoire donnait
l'impression que la nature avait un but et flairait le bon chemin. La mécanique
quantique nous apprend que la nature ne flaire rien du tout, elle explore
bêtement tous les chemins possibles et imaginables. Si, au final, on n'en
voit qu'un seul, c'est que les autres font varier l'angle de phase de manière
très importante, d'où une annulation par interférences destructives lors de la
sommation.

Maintenant, que se passe-t-il avec le même formalisme si l'action dépensée


n'est pas très grande par rapport à la constante de Planck ? Dans ce cas,
il n'y a plus aucune raison pour rechercher des trajectoires avec angle de
phase stationnaire et l'évolution quantique montre, comme le confirme
l'expérience, que le système évolue selon un faisceau de trajectoires autour
de la trajectoire classique, en plein accord avec le principe d'indétermination
d'Heisenberg. Dans ce cas de figure, que se passe-t-il si d'aventure on effectuait
un développement de Taylor au second ordre de l'intégrale des chemins? Eh
bien, on tombe alors tout bêtement sur l'équation de Schrôdinger ! ! ! (Feynman
1980, p. 255-257). C'est donc bien la phase d'un nombre complexe qui me
permet de passer continûment d'un monde newtonien à un monde quantique.
En fait, le monde newtonien n'existe que dans la mesure où l'on ne considère
que des amas de particules impliquant la constante d' Avogadro. Dans ce cas,
au lieu de sommer des actions, il devient plus commode de résoudre des
équations différentielles apparemment déterministes. Mais, même dans ce
cas, seule la théorie quantique permet de traiter tous les cas de figure depuis
le corpuscule isolé jusqu'au corps macroscopique.

Considérons maintenant le cas de l'électromagnétisme. Selon la théorie


de la relativité, tout photon est décrit par la donnée de quatre nombres qui
définissent son cône de lumière, c'est-à-dire l'ensemble des événements spatio-
temporels sur lesquels il peut agir physiquement en un temps de propagation
fini. Trois nombres sont en effet nécessaires pour définir une direction de
propagation, c'est-à-dire un vecteur d'onde dans un espace à trois dimensions.
L'inverse de la norme de ce vecteur d'onde multiplié par le facteur 21t fixe la

205
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

longueur d'onde du photon. Le quatrième nombre fixe l'énergie transportée


par le photon ou sa fréquence si l'on divise cette énergie par la constante de
Planck. Pour la théorie quantique, tout photon se caractérise par un indice
d'hélicité donnant la projection du moment angulaire (+h pour la polarisation
droite et -h pour la polarisation gauche) le long de la direction de propagation.
Dans cette description du champ électromagnétique dans le vide au moyen
de photons, deux états de base indépendants suffisent à décrire complètement
l'état du photon. Or, la description classique de ce même champ fait appel
à six composantes indépendantes. Il existe donc quatre combinaisons du
champ classique qui ne décrivent pas des états physiques permis. Ceci impose
l'existence d'un mécanisme permettant d'annihiler de telles superpositions,
prenant la forme exacte des quatre équations découvertes empiriquement
par Maxwell et qui traduisent donc simplement notre volonté d'ignorer la
réalité quantique de la nature. Ce qui démontre une nouvelle fois que seule
la physique quantique est pertinente, la physique classique n'offrant que des
approximations commodes des lois quantiques lorsque les actions mises en
jeu sont démesurément grandes devant la constante de Planck.

Il n'y a donc aucune différence de fond entre la mécanique de Newton et


celle de Schrodinger, car c'est uniquement la quantité d'action dépensée qui
entraînera l'appel à l'une ou l'autre formulation. Ce qui est très satisfaisant,
c'est que la dualité onde/corpuscule, qui historiquement a permis le
développement de la mécanique ondulatoire, passe totalement au second
plan, devenant un simple jeu numérique consistant à diviser une énergie par
le quantum d'action pour obtenir une fréquence, ou bien encore à diviser ce
même quantum d'action par une quantité de mouvement pour obtenir une
longueur d'onde. Le fait que l'intégrale des chemins soit une simple addition
de nombres complexes munis d'une phase rend exactement compte des
phénomènes d'interférences observés avec des ondes. Il n'y a là qu'une astuce
mathématique et tout peut se ramener à des corpuscules comme en mécanique
newtonienne, la seule différence étant que l'on se limite uniquement aux
nombres réels chez Newton, alors que chez Schrodinger, on travaille avec des
nombres complexes. Tout ceci devient absolument trivial dès que l'on utilise
le théorème de Paulette Février (Destouches-Février 1946).

Dualité onde/corpuscule
La mécanique quantique de première quantification est empoisonnée par
un concept qui rend cette science incompréhensible pour le commun des
mortels. Je vais ici démonter le mécanisme qui, en 1930, a vu triompher
cette notion de dualité onde/corpuscule qui n'est qu'un épiphénomène de peu
d'intérêt. De fait, la dualité onde/corpuscule supposée des particules de la
première quantification les fait apparaître comme des entités métaphysiques.

206
CHAPITRE IV - RELATIVITÉ ET QUANTA

Ce qui a embrouillé toute l'histoire, c'est que la quantification de l'énergie a


été introduite par Max Planck pour justifier la loi du corps noir, un problème
de seconde quantification, puisqu'il fait intervenir le rayonnement. Cela
lui vaudra le prix Nobel de physique de 1918. Mais comme quantifier un
champ qui possède un nombre infini de degrés de liberté est une chose très
difficile sur le plan mathématique, on s'est bien vite rabattu sur un problème
beaucoup plus simple: la quantification du mouvement d'un électron, où le
nombre de degrés de liberté est juste égal à 2 : une position et une quantité de
mouvement. On est donc parti d'un problème de seconde quantification et on
l'a mutilé pour aboutir à quelque chose de tractable sur le plan mathématique.

Les deux fautifs s'appellent Albert Einstein et Louis de Broglie. Car c'est
Einstein qui a mis le feu aux poudres en suggérant que les échanges d'énergie
et de quantité de mouvement entre le champ électromagnétique et un système
atomique ne peuvent se faire qu'au moyen d'un quantum, qui sera baptisé
« photon » quelques années plus tard par Gilbert Newton Lewis. C'est ce
quantum qui permettra à Einstein d'expliquer l'inexplicable, à savoir l'effet
photoélectrique, et qui lui vaudra son prix Nobel de physique en 1921.
Comme on l'a vu, le dernier clou sera enfoncé par Arthur Compton en 1923
qui confirmera sans appel possible le caractère corpusculaire de cet échange
d'énergie et de quantité de mouvement entre rayonnement et matière, ce qui
lui vaudra le prix Nobel de physique en 1927. C'est ce qui va amener Louis de
Broglie à douter de la nature corpusculaire de l'électron avec tout le brillant
génie qu'on lui connaît et qui lui vaudra le prix Nobel de physique en 1929.

C'est à ce niveau qu'il convient de se rappeler la phrase de Robert Brasillach,


«l'histoire est écrite par les vainqueurs». Or, vaincre en science, c'est obtenir
un prix Nobel, récompense la plus prestigieuse pour un chercheur. L'histoire
est donc écrite par les prix Nobel, prix décernés depuis 1904 par des comités
norvégiens ou suédois très restreints, pour gérer la fortune laissée par un
industriel inventeur de la dynamite. Pour le problème qui nous préoccupe, il
est clair que si la dualité onde/corpuscule s'est imposée, c'est en raison d'une
avalanche de prix Nobel sur des chercheurs tous brillants et parfois même
carrément géniaux, qui ont réussi le tour de force de pouvoir travailler tantôt
avec des ondes et tantôt avec des corpuscules. Parfois même, certains arrivent
à se persuader qu'ils ont affaire à la fois à des ondes et des corpuscules, tandis
que d'autres disent que ce ne sont ni des ondes, ni des corpuscules.

Je me souviens très bien de mon désarroi total lorsque j'étais étudiant, face
à ce problème rencontré lors de mon premier cours de mécanique quantique.
L'enseignant semblait très à l'aise avec ce problème épineux, et se mit
immédiatement à poser une équation d'onde différentielle du second ordre aux
dérivées partielles, sans justifier son origine physique, et l'on passa le reste du
cours à résoudre cette équation, en long, en large et en travers, dans des tas de

207
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

situations où seule change la forme du potentiel. Puis, lors d'un cours sur la
liaison chimique, un autre enseignant, tout aussi brillant que le premier, ne posa
aucune équation différentielle, mais se mit au contraire à écrire des matrices
carrées et chercha à les diagonaliser pour obtenir des niveaux d'énergie. Je
cherchais vainement à voir le rapport avec les ondes de l'autre cours, car les
deux enseignants étaient d'accord pour dire que cela importait peu. Ce qui
comptait, c'était que les résultats obtenus étaient conformes à l'expérience, et
si les méthodes employées présentaient des côtés incompréhensibles, c'était en
raison du caractère incompréhensible de la nature atomique. J'étais évidemment
très frustré, car s'il était vrai que mon corps était fait d'atomes et de molécules,
alors il s'ensuivait que mon corps devait être lui aussi incompréhensible.
Comme cela semblait ne pas être le cas, il y avait donc anguille sous roche et je
me faisais fort de la dénicher un jour.

Il me fallait remonter à la source du problème, à savoir Planck et Einstein.


Einstein, dans son réalisme rigide, était persuadé que si des photons
apparaissaient lors de toute interaction rayonnement-matière, c'était que
le champ électromagnétique devait être physiquement fait de corpuscules.
D'où l'angoisse, car si cela est vrai, comment expliquer les diagrammes
d'interférence impossible à obtenir avec des corpuscules ? De son côté,
Planck était tout aussi troublé qu'Einstein, mais voyait bien qu'il y avait deux
problèmes. Celui du comportement de la lumière lorsqu'elle rencontre de
la matière et qui se manifeste sans doute possible de manière uniquement
corpusculaire. L'autre problème était celui de la nature de la lumière lorsqu'il
n'y avait pas de matière pour qu'elle se manifeste. Einstein supposait
implicitement que si les photons existaient lors d'une rencontre entre
lumière et matière, c'est qu'ils devaient nécessairement exister aussi avant la
rencontre, d'où la dualité.

Planck n'était pas d'accord avec cette interprétation et pensait plutôt que
le champ électromagnétique n'était pas une collection de photons, mais une
entité remplissant tout l'espace à tout instant et qui devait être redéfinie pour
rendre compte de l'apparition de corpuscules sous certaines conditions.
Autrement dit, les photons n'existent pas en tant que tels, ils ne sont que
la manière dont un champ se manifeste lorsqu'il rencontre de la matière.
Dès que l'excitation cesse, les photons disparaissent et le champ retrouve
un nouvel état d'équilibre. Le problème est que Planck ne voyait pas du tout
comment faire pour concrétiser ses idées sur un plan mathématique et qu'il
jeta l'éponge suite à l'avalanche de Prix Nobel consacrant la dualité onde/
corpuscule comme un point acquis de la réalité atomique.

En fait, comme le montre la formulation par intégrale des chemins, on


peut très bien se passer de cette hypothèse, bonne à vous faire perdre la tête,

208
CHAPITRE IV - RELATIVITt ET QUANTA

tant il est absurde de penser qu'une particule puisse être en même temps
parfaitement localisée en une position donnée et occuper aussi tout l'espace
disponible. Bien sûr, il y a toujours la possibilité de former des paquets
d'onde, satisfaisant au principe d'indétermination d'Heisenberg, mais toute
cette physique mathématique est déjà comprise dans le développement au
second ordre de l'intégrale des chemins, qui montre donc que les ondes n'ont
rien de fondamental puisqu'il s'agit d'une approximation. Conceptuellement
parlant, les ondes n'amènent que de la confusion dans les esprits, même si
techniquement parlant elles s'avèrent très utiles pour faire les calculs.

111!1! h 1- 2- 5-

~I 1 1 1 t t 11
-.r--t -t-·-f ~ --m---~H-- 11 1
. .
lU . .
40 ()()() électrons Ceo: m = 1 ,2·1~ kg => A= 2,8 pm

..... -· -
*• -- .....

140 000 électrons


.~..~ t.~ 1.- ,...

6 ()()() électrons

Figure 98: Haut: expérience de 1961 de Claus Jonsson démontrant qu'un faisceau
d'électrons se comporte bien comme un faisceau lumineux /orsqu 'on le fait passer
dans un système de fentes. Gauche : expérience de Akira Tonomura réalisée en 1989,
où les électrons sont envoyés un par un sur un cible et où l'on voit le diagramme
d'interférence apparaître progressivement dès que le nombre d'électrons devient
suffisamment important. Droite : expérience d'Anton Zellinger réalisée en 2003
et démontrant qu'un faisceau de molécules C60 présente bien comme un faisceau
électronique un comportement de nature ondulatoire.

L'expérience la plus probante démontrant que les électrons sont capables


de donner des diagrammes d'interférence fut faite par Claus Jônsson en
1961 (Jônsson 1974) en utilisant la méthode des fentes d'Young (figure 98).
L'expérience fut refaite en 1989 par le physicien japonais Tonomura
(Tonomura & al. 1989), mais en envoyant cette fois-ci les électrons un par
un, ce qui a permis de constater que l'apparition des franges d'interférences
caractéristiques d'un comportement ondulatoire était un phénomène
statistique lié à la présence d'un grand nombre de particules. Bien évidemment,

209
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

toutes ces expériences avec des électrons de masse extrêmement faible sont
impressionnantes et les physiciens se sont donc demandé ce qu'il adviendrait
avec des objets de masse beaucoup plus grande comme une molécule. C'est
ainsi qu'en 2003 on utilisa des fullerènes de type C60 qui avec une masse
m = 1,2 · l 0- 24 kg, un million de fois supérieure à la masse de l'électron,
devraient avoir, pour des vitesses del' ordre de 200 m s- 1, une longueur d'onde
À= 2,8 pm (Nairz & al. 2003). De fait, lorsque l'on envoie un faisceau de
molécules C60 monocinétique bien collimaté à travers des fentes, on observe
à la sortie des franges d'interférences qui indiquent que même pour des
masses aussi élevées, les molécules continuent à produire des diagrammes
d'interférence.

Il est donc tout à fait clair qu'il est impossible de voir un seul électron
se comporter comme une onde, car ce que l'on observe dans toutes ces
expériences, c'est que les électrons ou les molécules forment toujours
des spots bien localisés spatialement sur l'écran. Ce n'est qu'après avoir
envoyé un grand nombre de corpuscules que l'on voit apparaître les franges
d'interférences traduisant l'existence d'une phase. Le fait que l'on interprète
la figure d'inférence obtenue avec un formalisme ondulatoire est ici une
simple affaire de goût, une manière de voir les choses et de s'exprimer. Le
fait qu'il faille sommer des nombres complexes pour justifier les observations
expérimentales ne vient pas d'un quelconque caractère ondulatoire
intrinsèque aux objets quantiques, mais seulement de l'absence de grandeur
d'état (Destouches-Février 1946).

210
Bibliographie
BITBOL, M. (2001), « Jean-Louis Destouches : théorie de la prévision et individualité »,
Philosophia Seientiae, 5 : 1-30.
BwcH, F. ( 1976), « Heisenberg and the early days of quantum mechanics », Phys. Today, 29 :
23-27.
BoHR, N. (1913), «On the Constitution of Atoms and Molecules »,Phil. Mag., 26: 1-25.
BOLTZMANN, L. (1877), « Über die Beziehung zwischen dem zweiten Hauptsatze des
mechanischen Wlirmetheorie und der Wahrscheinlichkeitsrechnung, respective den Siitzen
über das Wiirmegleichgewicht », Wiener Berichte, 76 : 373-435.
BoRN, M.; HEISENBERG, W.; JoRDAN, P. (1926), «On Quantum Mechanics II», Z. Phys., 35:
557-615.
CLAUSIUS, R. (1854), « Ueber eine veriinderte Form des zweiten Hauptsatzes der mechanischen
Wiirmetheoriein »,Anna/en der Physik und Chemie, 93: 481-506.
COMPTON, A. H. (1923), «A quantum theory of the scattering of X-rays by light elements »,
Phys. Rev., 21 : 483-502
DE BROGLIE, L. (1923), «Ondes et quanta», C. R. Acad. Sei. Paris, 177: 507-510.
DESTOUCHES, J.-L. (1942), « Sur le principe de décomposition spectrale en Mécanique
ondulatoire», C. R. Acad. Sei. Paris, 215: 523-525.
DESTOUCHES-FÉVRIER, P. (1944), «Sur les rapports entre la Logique et la Physique théorique»,
C. R. Acad. Sei. Paris, 219: 481-483.
DESTOUCHES-FÉVRIER, P. (1946), « Signification profonde du principe de décomposition
spectrale», C. R. Acad. Sei. Paris, 222: 866-868.
DESTOUCHES-FÉVRIER, P. ; DESTOUCHES, J.-L. (1946), (( Sur l'interprétation physique de la
mécanique ondulatoire», C. R. Acad. Sei. Paris, 222: 1087-1089.
DIRAC, P. A. M. (1926a), «The fundamental equations of quantum mechanics », Proc. Roy.
Soc. London (A), 109: 642-653.
DIRAC, P. A. M. (1926b), «The physical interpretation of the quantum dynamics », Proc. Roy.
Soc. London (A), 113: 621-641.
DIRAC, P. A. M. ( 1928), «The Quantum Theory of the Electron », Proc. Roy. Soc. London (A),
117: 610-624.
EINSTEIN, A. (1905a), « Concerning an heuristic point of view toward the emission and
transformation of light », Ann. Phys. Lpz., 17 : 132-148. Traduction anglaise in Am. J. Phys.,
33: 367-374 (1965).
EINSTEIN,A. (1905b), «On the electrodynamics ofmoving bodies »,Ann. Phys. Lpz., 17: 891-921.
EINSTEIN, A. ( l 905c ), « Does the inertia of a body depend on its energy content », Ann. Phys.
Lpz., 18: 639-641.
EINSTEIN, A. ( 1915), « Feldgleichungen der Gravitation », Preuss. Akad. Wiss. Sitzungberichte,
844-847.
FEYNMAN, R. P. ( 1980), La Nature de la Physique, Seuil, Paris.
FEYNMAN, R. P. (1985), Vous voulez rire, monsieur Feynman!, InterEditions, Paris.
GôDEL, K. ( 1931 ), « Über formai unentscheidbare Siitze der Principia Mathematica und
verwandter Systeme, 1 », Monatsh. Math. Phys., 38 : 173-198.
HAYASAKA, H., TAKEUCHI, S. (1989), « Anomalous weight reduction on a gyroscope's right
rotation around the vertical axis of the Earth », Phys. Rev. Lett., 63 : 2701- 2704.
HEISENBERG, W. (1925), « Über quantentheoretische Umdeutung kinematischer und
mechanischer Beziehungen », Z. Phys., 33 : 879-893.
HEISENBERG, W. (1927), «Über den anschaulichen lnhalt der quantentheoretischen Kinematik
und Mechanik », Z. Phys., 43 : 172-198.

211
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

HEISENBERG, W. ( 1972), La Partie et le Tout: le monde de la physique atomique, Flammarion, Paris.


HENRY, M. (2015), De l'information à l'exformation: une histoire de vide d'eau ou d'ADN ?,
Éditions Natur'Eau Quant, Strasbourg.
HILBERT, D. ; VON NEUMANN, J. ; NORDHEIM, L. (1927), (( Über die Grundlagen der
Quantenmechanik »,Math. Ann., 98: 1-30.
JAMMER, M. (1966), The conceptual development of quantum mechanics, Mc Graw Hill,
New York.
JAYNES, E. T. (1965), «Gibbs vs Boltzmann Entropies», Am. J Phys., 33: 391-398.
JAYNES, E. T. (1989), « Clearing up mysteries - The original goal », in J. Skilling (éd.),
Maximum Entropy and Bayesian Methods, Kluwer, Dordrecht, p. 1-27.
JôNssoN, C. (1974), «Electron diffraction at multiples slits »,Am. J Phys., 42 : 4-11.
JORDAN, P.; BORN M. (1925), «On Quantum Mechanics », Z. Phys., 34: 858-888.
JoRDAN, P. (1927), «Über eine neue Begründung der Quantenmechanik », Z. Phys., 40: 809-838.
MAXWELL, J. C. ( 1865), «A dynamical theory of the electromagnetic field », Phil. Trans. Roy.
Soc. Lond., 155: 459-512.
MOORE, W. ( 1989), Schrodinger; life and thought, Cambridge University Press, Cambrige.
NAJRZ, O. ; ARNDt, M. ; ZEILINGER, A. (2003), «Quantum interference experiments with large
molecules »,Am. J. Phys., 71: 319-325.
NERNST, W. (1906a), « Ueber die Berechnung chemischer Gleichgewichte aus thermischen
Messungen », Nachr. Kg/. Ges. Wiss. Gott., 1 : 1-40.
NERNST, W. (1906b), « Über die Beziehung zwischen Wiirmeentwicklung und maximaler
Arbeit bei kondensierten Systemen »,Ber. Kg/. Pr. Akad. Wiss., 52 : 933-94.
NEWTON, 1. (1687), Philosophiae naturalis principia mathematica, Samuel Pepys éd., Royal
Society, Londres.
PAULI, W. (1925), « On the Connection between the Completion of Electron Groups inan Atom
with the Complex Structure ofSpectra », Z. Phys., 31 : 765-783.
PAULI, W. ( 1926), « On the hydrogen spectrurn from the standpoint of the new quantum
mechanics », Z. Phys., 36: 336-363.
PLANCK, M. (1900), «On the theory of the energy distribution law of the normal spectrum »,
Verhandl. Dtsch. Phys. Ges., 2 : 237-244.
POINCARÉ, H. ( 1917), La Science et /'Hypothèse, Flammarion, Paris, chap. 8, p. 148-166.
RosENFELD, L. ( 1961 ), « Foundations of quantum theory and complementarity », Nature, 190 :
384-388.
RovELLI, C. (1996), « Relational Quantum Mechanics »,/nt. J. Theoret. Phys., 35 : 1637-1678.
RUTHERFORD, E. ( 1911 ), « The scattering of a and ~ partieles by Matter and the Structure of the
Atom »,Phil. Mag., 21 : 669-688.
ScHRôDINGER, E. (1926a), « Zur Einsteineschen Gastheorie », Phys. Z., 27: 95-101.
ScHRôDINGER, E. (1926b), « Quantisierung ais Eigenwertproblem », Ann. Phys., 79: 361-376;
489-527; 80: 437-490; 81 : 109-139.
TANNERY, P. (1930), Pour l'histoire de la science hellène, 2•éd., Gauthier-Villard, Paris.
ToNOMURA, A. ; ENDO, J. ; MATSUDA, T. ; KAWASAKI, T. ; EzAWA, H. (1989), « Demonstration of
single-electron buildup of an interference pattern», Am. J Phys., 57: 117-120.
UHLENBECK, G. ; GouosMIT, S. (1926), « Spinning Electron and the Structure of Spectra »,
Nature, 117 : 264-265.
VoN NEUMANN, J. (1929), «Allgemeine Eigenwerttheorie Hermitischer Funktionaloperatoren »,
Math. Ann., 102: 49-131.
WHEELER, J. A. ; FoRD, K. (1998), Geons, Black Ho/es and Quantum Foam. A Life in Physics,
W.W. Norton & Co., New York, p. 63-64.

212
L'eau quantique
•Préambule
La mécanique quantique peut-elle nous aider à mieux comprendre les
propriétés de l'eau ? Assurément oui, car si l'on en reste au concept de liaison
hydrogène avec une définition tenant sur plusieurs pages A4, on ne pourra
au cours des années futures que rallonger une liste de critères déjà bien
longue. Dans ce chapitre, nous allons voir que pour comprendre vraiment
ce qui se trame derrière une liaison hydrogène, il faut en fait procéder à une
double quantification. La première quantification concernera le mouvement
des électrons dans un objet contenant 10 protons, où 8 protons se trouvent
collés ensemble et stabilisés par 8 neutrons (noyau oxygène) avec deux autres
protons situés de part et d'autre de ce noyau massif soit générant une tête
de Mickey, soit traçant le V de la victoire. Nous verrons qu'à ce stade de
première quanti:f}cation, le mystère reste entier. Pour vraiment comprendre
ce qui se passe, il nous faudra procéder à une seconde quantification, c'est-
à-dire prendre les états quantiques issus de la première quantification et les
considérer non pas comme des états mais comme des champs afin qu'ils
puissent interagir via leur phase avec d'autres champs, comme le champ
électromagnétique. Cela nécessitera de comprendre que le vide n'est
finalement pas si vide que cela, et que c'est peut-être parce que l'on s'obstine
à croire que le vide est vide que l'eau nous apparaît si mystérieuse. Mais
avant de s'embarquer dans ce voyage fascinant, il peut être utile de résumer
le chapitre précédent en faisant une analogie avec ce que l'on connaît de
l'électromagnétisme classique. Cela a été très bien expliqué par le physicien
américain Freeman Dyson, comme le révèle ce petit extrait (Dyson 1958) :

L'idée fondamentale de la mécanique quantique est d'étendre à la matière la


vision de la nature en double couche mise en place par Maxwell en 1865 lors
de sa triple unification entre électricité, magnétisme et optique. Ainsi, selon
Maxwell, on trouve une première couche inférieure où existent deux entités
abstraites, le champ électrique et le champ magnétique, qui satisfont à une
équation d'onde simple et qui sont capables de se propager dans l'espace
sous la forme d'ondes lumineuses ou d'ondes radio. La couche supérieure
est formée d'objets matériels, d'énergies et de forces et seule cette dernière
couche est directement accessible aux expériences. Un champ électrique
ne peut par exemple être observé qu'en étudiant les effets qu'il produit en
termes de force ou d'énergie électrique sur des charges électriques de la
couche supérieure. Ces énergies ont la caractéristique fondamentale d'être
proportionnelles au carré de l'intensité du champ en un point donné, cette

213
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

intensité n'étant en elle-même qu'une pure abstraction mathématique.


Pour ce qui concerne la mécanique quantique, on conserve cette structure
en double couche en rajoutant à la couche inférieure contenant déjà Je
champ électromagnétique une nouvelle abstraction mathématique appelée
«fonction d'onde» permettant de décrire Je comportement de la matière
pour ne laisser dans la couche supérieure que des choses observables
comme l'énergie, la quantité de mouvement, les moments angulaires et des
probabilités de présence des masses données par le carré des amplitudes des
fonctions d'onde associées. Ainsi, il est impossible d'observer cette fonction
d'onde en elle-même, tout comme il est impossible d'observer un champ
électrique ou un champ magnétique. S'il existe des différences techniques
considérables entre la mécanique quantique et l'électromagnétisme, l'idée
générale reste donc la même et la raison pour laquelle il est aussi difficile de
comprendre la mécanique quantique est que notre expérience de la nature
solide de la matière est fortement ancrée en nous depuis notre naissance.

Il est donc bien nécessaire de comprendre la notion de champ pour ne


pas être dérouté par les aspects souvent très troublants de la dualité onde-
corpuscule ou de l'aspect non local des champs par opposition à l'aspect bien
localisable du corpuscule. Pour l'eau, ce point est fondamental, car si l'on
s'accroche à sa formule Hp, on devra repasser par la case liaison hydrogène,
et dans ce cas le recours à la mécanique quantique deviendra superflu. Si, par
contre, on oublie un moment cette formule obsédante pour accepter de voir
l'eau comme un champ de cohérence avec des hauts et des bas définissant des
,domaines de cohérence, on accède à un niveau supérieur, celui où elle révèle
sa vraie nature de milieu capable de stocker et propager l'information. Le
chemin pourra sembler dur et ardu à certains, mais les enjeux à la clé sont tels
que le jeu en vaut la chandelle.

L'eau en première quantification


Je vais montrer ici comment l'on quantifie le mouvement des électrons dans
une molécule répondant à une formule aussi simple que Hp. En premier lieu,
il convient de quantifier le mouvement des électrons dans l'atome d'hydrogène
et dans l'atome d'oxygène, chacun pris séparément. Ceci peut être fait
une fois pour toutes et aboutit à ce que l'on appelle pudiquement un «jeu
d'orbitales atomiques» (figure 99, à droite). Ces orbitales sont des fonctions
d'ondes solutions de l'équation de Schrôdinger prenant leurs valeurs dans le
plan complexe afin de disposer d'une phase qui permet de créer des zones
spatiales d'où sont exclus les électrons (interférences destructrices) et d'autres
où au contraire les électrons s'accumulent (interférences constructives). Une
fois connu le mouvement autour de chaque noyau, on utilise la propriété
de superposition d'états de la mécanique quantique pour bâtir une fonction

214
CHAPITRE V- L'EAU QUANTIQUE

d'onde moléculaire s'exprimant comme une combinaison linéaire des


états atomiques (méthode des orbitales moléculaires). On transforme ainsi
N orbitales atomiques isolées en N combinaisons (orbitales moléculaires)
représentant chacune une forme possible du nuage électronique délocalisé
sur les 3 noyaux (2 H et 1 0 central).

Chaque combinaison est affectée d'une étiquette (a 1, b 1 ou b2) représentant


les propriétés de symétrie du nuage global. Par exemple, l'étiquette a 1 signifie
que les couleurs affectées au mouvement des électrons restent identiques
après rotation de 180° autour de l'axez ou après réflexion dans le plan miroir
(xz) bisecteur de l'angle H-0-H, deux opérations qui échangent la position
des protons H et H' mais aboutissent à une configuration indiscernable de la
configuration de départ. S'il y a changement de couleur après rotation de 180°
et après réflexion miroir, on utilisera l'étiquette b2• Enfin, s'il y a changement
de couleur après rotation de 180° mais conservation de la couleur après
réflexion miroir, on utilisera l'étiquette b 1•

Une fois que chaque niveau possède son label, on calcule son énergie
de manière à faire un classement depuis les niveaux les plus stables en bas
jusqu'au niveau le moins stable tout en haut. Dans le cas présent, on a combiné
sept états de valence (cinq pour l'oxygène et un pour chacun des deux atomes
d'hydrogène), ce qui fait qu'on obtient sept combinaisons : quatre ayant
l'étiquette a 1, deux ayant l'étiquette b2 et un d'étiquette b 1• Il reste enfin à
placer les électrons par paires en raison du principe d'exclusion de Pauli en
allant du bas vers le haut. Ici, il y a dix électrons à placer, soit cinq paires, ce
qui fait que l'on occupe les cinq premiers niveaux. La dernière étape consiste
à interpréter le diagramme sachant que chaque niveau rempli correspond soit
à une liaison chimique, s'il y a étalement de la densité électronique sur tous
les noyaux, soit à une paire d'électrons dite «non liante » car localisée sur
seulement quelques noyaux. Ici, il y a clairement trois paires d'électrons non
liantes (la, et lb 1 près de l'oxygène et 3a1 qui évite l'oxygène pour se répartir
entre les deux protons). Cela laisse deux paires complètement délocalisées
sur les trois noyaux : 2a 1 qui enrobe les trois noyaux de manière homogène
sans changement de signe de la fonction d'onde et 1b2 qui se partitionne entre
deux moitiés de signes opposés mais bien délocalisée à part égale entre la
droite et la gauche de la molécule.

L'image quantique que l'on obtient en procédant de la sorte peut se noter


(la 1) 2(2a 1) 2(lb 2) 2(3a 1) 2(lb 1) 2(4al(2bz)° et se trouve être en parfait accord
avec ce que les chimistes ont appris sur la manière dont la molécule d'eau
se comporte. Il y a ainsi un doublet de cœur non liant (la,) qui ne participe
à aucune interaction chimique, deux liaisons 0-H covalentes correspondant
à la paire (2a 1, 1b2) très stables, deux doublets non liants correspondant à
la paire (3a"lbJ La grande stabilité de la molécule d'eau provient d'un

215
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

premier niveau vide, appelé LUMO (4a 1), très haut en énergie empêchant
les agents réducteurs donneurs d'électrons de briser les liaisons 0-H selon la
réaction : H-0-H + 2 ee--+ H-oe + 8H. De même, la molécule d'eau possède
un dernier niveau occupé, appelé HOMO (l b 1), très bas en énergie empêchant
les agents oxydants avides d'électrons de briser les liaisons 0-H selon la
réaction : H-0-H--+ H-OEB + EllH + 2 ee.

Orbitales moléculaires Oxygène: 1s2 ·2s 2 ·2p• = 8 électrons


Hydrogène: 1s•x2 = 2 électrons
Plans nodaux Total = 10 électrons
cœur valence
0 3 - 2b 2

2 - 4a 1
LUMO

HOMO
0
-#- 1bl


-#- 3a1 Orbitales atomiques

+ 1b2
0
-tf- 2a 1

0 0

Figure 99: La molécule d'eau en première guantitication. Les couleurs représentent
la phase positive (orange) ou négative (bleu) de la fonction d'onde décrivant le
mouvement des électrons attirés par les noyaux. On appelle plan nodal une zone
spatiale où la fonction change de signe et où la probabilité de présence de/ 'électron
est donc nulle. Plus une fonction d'onde présente de plans nodaux, plus l'état devient
instable en raison des répulsions internucléaires non écrantées par les charges
négatives des électrons. Les niveaux en rouge sont des niveaux hautement instables
qui doivent rester vides, sauf en cas de réaction chimique. Un réducteur viendra
alors placer ses électrons dans le premier niveau vide, noté LUMO, tandis qu'un
oxydant retirera deux électrons depuis le plus haut niveau occupé, noté HOMO.

Par contre, rien ne semble expliquer dans ce diagramme la raison pour


laquelle certaines molécules d'eau en l'absence de tout oxydant ou de tout
réducteur s'amusent à briser une liaison 0-H selon le schéma : H-0-H--+
H-08 + EllH (auto-protolyse). Rappelons que cette réaction est quand même à
l'origine de la notion de pH, grandeur cruciale qui régule tous les équilibres
acido-basiques aussi bien au niveau des êtres vivants (figure 100) qu'au
niveau d'une planète.

216
CHAPITRE V- L'EAU QUANTIQUE

Substance pH app1oxlma11f Les pH d4ons l'organl.,,,. en bonne santé


Acide chlorhydrique molai11 E....,,.. 1.2-3,Q log 0,1 = -1
Drainage minier acide (OMA) "°il• 3.4-4.2 log ton= n log 1=0
Batterie acide s-. 4.0-6.8
Urtno 4.8-7.5
log 10 = 1
Acide gastrique

--
~

...
Jus de citron 4.8-8.2

2 H 20 +:± H 30 61 + OH 0
Cola
Vinaigre ...
2·µ(H 20) = µ(H 3QG>)+ µ(H0 9 )

-
Sein 5.5-6,5
Jus d'orange ou de pomme
c..Mbuccolo 6.2-1.2
Bièrti
6.3-7.3
T = 25°C => Kw = [H3QG>l[H0 8 ] "'10-..
Café
~ 6.5- 7.2 [HaQG>] = [H06 ] = ..fK; • 10·'
Thé
Collulo 6.9
Pluie acide
Pluma.-- 1.0
Lah pH = -log,. [H3QG>] => pH =7 à T = 25°C
EtytlvocylOs 7.2
Eau pure


l . l q l * » - 7.3-1.4
Salive humaine
Corjondlvo 7. ~-e.o
Sang
ACIDE ALCALIN
Song 7.35- 7.42
Eau de mer

1 11Ill
Poumons 7.6

-
SiM>n ,_

_....
7.6
Ammoniaque 7.8
Chaux
Soude molaire
~
.....,_
7.t-1.0

Figure 100: Quelques points de repère concernant l'échelle de pH associée à l'eau.



De même, notre diagramme d'orbitales moléculaires est complètement muet
sur une autre propriété encore plus cruciale que le pH qui est l'auto-électrolyse
selon la réaction : 2 H-0-H ~ 2 H2 + 0 2 qui est en fait la réaction inverse
de la synthèse de l'eau et qui est à l'origine du potentiel rédox et de ce que
l'on appelle rH2 • La figure 101 montre la gamme de potentiel rédox des eaux
naturelles ainsi que le rH 2 extraordinairement bas atteint par certains appareils
du commerce réalisant l'électrolyse de 1' eau grâce au courant électrique afin
de produire une solution diluée de soude sursaturée en dihydrogène contenant
des nanoparticules de platine. Ceci explique son potentiel rédox extrêmement
bas ainsi que ses propriétés thérapeutiques (Henry & Chambron 2013, 2014).
Ici aussi, l'on aimerait comprendre pourquoi l'eau se comporte de la sorte et
prétendre que le diagramme d'orbitales moléculaires de la figure 99 permet
de rendre compte des figures 100 et 101 n'est pas très sérieux. Bien sûr, que
ce soit avec l'auto-protolyse ou avec l'auto-électrolyse, on pourra toujours
dire que les constantes d'auto-dissociation sont extrêmement faibles et que la
majorité des molécules d'eau sont bien intactes et non dissociées. Mais alors,
comment expliquer que si le pH du sang passe au-dessous de 7 ou au-dessus
de 7, 7, c'est la mort assurée ? De même, on constatera en figure 102 que si
le rH2 est proche de 6, c'est la mort par prolifération cancéreuse, alors qu'au-
dessus d'un rH2 de 9, c'est la nécrose par stress oxydatif... Ici aussi, on voit
l'importance de ces équilibres mineurs mais cruciaux.

217
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

0 14 21 28 42

milieu milieu très milieu milieu oxydant


fortement anti-oxydant anti-oxydant
anti-oxydant
1000

800

600

rzf 400
><
0
"O
~ 200 2 H 2 0(liq.) ~ 2H 2 (gaz) + 0 2 (gaz)
Ql
·.i:i 2·µ("20 ) = 2·µ( "2)+ µ(O.)
i::
0
~
Cl..
T = 25°C ~ KE = P(H.) 2·P(02) " 8 ·10 ·84
-200 2P(O.) = P(H.) ~ P(H.) = efï"K: ~ 2,6·10-"'
-400 rH2 = -log'° P(H2) ~ rH2 = 27,6 à T = 25°C

- 600 ~T·ln 10
0 2 4 6 2e - (rH • - 2·pH)
"' = - -
...,,

Figure 101 : Gamme de potentiels rédox et gamme de pH pour des eaux naturelles
ou synthétiques (ERB).

Réduction Potentiel réd~!' (Eh) / m Oxydation


-240 -200 - 170 -150

...... i l
rH • 6 rH. • 7 rH, • 8 rH2 • 9

Prolüération

Flavo-
enzymes
0 2 -ee
---

Figure 102 : Influence du rH2 sur la différenciation cellulaire et sur le stress oxydatif.
D'après Sarsour & al. (2009)

218
CHAPITRE V- L'EAU QUANTIQUE

L'eau uue comme une énergie


Par contre, il y a une chose que la figure 99 pennet d'expliquer. C'est le
spectre d'excitation électronique de la molécule d'eau isolée représentée en
figure 103. Pour l'obtenir, on envoie des photons d'énergie variable sur la
molécule d'eau et on regarde ceux qui sont absorbés et ceux qui passent sans
être affectés .

-
.rl
:e
c:
~20
~
'b

R
!i10
c:
0
A,: IP =14.87 eV
~
1

Cl)

........~,_._~a--~9:----~,o~~,~,.........~,2:-1-~,s~~,.':-'-~,~s~1~e_._~,,~~,a,.....i.~,~9~20
0 s~~e

Ënergie.du photon /eV

Figure 103 : Spectre de photo-absorption UV de la molécule d'eau (Gurtler & al.


1977) et attributions des bandes correspondant à des transitions électroniques
depuis les trois orbitales de valence occupées (lb 1, Jal' lb) vers des états vides de
Rydberg (3s, 3p, 3d, 4s, 4p, 4d, 5s, 5p, 5d, etc.). Les bandes en pointillé correspondent
aux bandes vibrationnel/es observées dans les spectres photo-électroniques.
IP =potentiels d'ionisation.

La complexité de ce spectre d'absorption de la lumière ultraviolette


pennet de saisir que des fonnules brutes extrêmement simples comme Hp
sont trompeuses puisque se cache derrière elles toute une extrême richesse
énergétique. Ainsi, la transition la plus basse en énergie est observée à
E = 7,44 eV (}..max = 167 nm) et correspond à la promotion d'un électron
depuis le niveau de symétrie 1b 1 vers le premier niveau moléculaire vide
4a 1 qui pourrait être mélangé avec l'orbitale 3sa1 de Rydberg de l'atome
d'oxygène (Wang & al. 1977). Cette excitation provoque une élongation
symétrique des deux liaisons 0-H (sans variation de l'angle H-0-H) jusqu'à
une distance critique de 1,09 A suivie d'une rupture asymétrique qui génère
les radicaux HO• et •H (Engel & al. 1992). Comme la bande ne présente
quasiment aucune structure vibrationnelle, ceci indique que la dissociation
se produit très rapidement avec une durée de vie inférieure à la période de

219
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

vibration interne de la molécule. On notera qu'il n'y a aucune excitation


électronique vers le niveau 2b2 qui est probablement mélangé avec les états
de Rydberg, c'est-à-dire des états purement atomiques qui ne participent pas
aux liaisons chimiques.

La deuxième bande d'excitation par un photon de 9,85 eV (J..max = 126 nm)


envoie un électron depuis le niveau moléculaire 3a1 vers l'orbitale de Rydberg
3sa1 de l'atome d'oxygène. Ici aussi, il y a génération de deux radicaux HO•
et •H après excitation. Après ces deux premiers états excités de la molécule
d'eau donnant des bandes larges, on trouve tout un ensemble d'états ne
conduisant pas à une dissociation de la molécule, car ils sont obtenus en
excitant un électron du niveau moléculaire non liant 1b 1 vers les orbitales de
Rydberg (3p, 3d, 4s, 4p, 4d, 5s, 5p, 5d, 6s, 6p et 6d) de l'atome d'oxygène
qui ne sont pas impliquées dans la liaison chimique covalente 0-H. Ces états
de haute énergie présentent donc des structures vibrationnelles très bien
résolues qui peuvent être étudiées au mieux au moyen de la spectroscopie
~dipolaire à haute résolution (Chan & al. 1993). Le tableau 4 résume
toutes les transitions observées depuis les niveaux moléculaires 1b 1 ou 3a1
vers des orbitales de Rydberg de l'atome d'oxygène et qui se trouvent en
dessous d'une énergie 15 eV.
ISleiMl·i'i!i
• 1111 .
_ _ _ _ __ . .
n nsa,- 1b1 npa1 -1b, npb,- •b, nda,-1b 1 nda,- 1b, nsa1 .,__Jar

3 9,078 eV 9,987 eV 10,165 eV 10,981 eV 11,117 eV 8,652 eV


n,039 eV - n,359 eV 11,722 eV 11,767 eV -
4
5 11,740 eV - 11,883 eV - 12,058eV 12,794 eV
6 - - - - 12,229 eV -

7 - - 12,280 eV - 12,328 eV -
8 - - - - 12,397 eV -

9 - - - - 12,441 eV -
IO - - - - 12,472 eV -
II - - - - 12,495 eV -
OO 12,62 eV 12,62 eV 12,62 eV 12,62 eV 12,62 eV 14,87eV

Tableau 4: Récapitulatifdes transitions depuis les niveaux moléculaires lb 1 ou 3a1


vers des orbitales de Rydberg de l'atome d'oxygène présentant toutes des structures
vibrationnelles résolues.

Les énergies d'ionisation des niveaux moléculaires lb 1 ou 3a1 étant de 12,6


eV et 14,9 eV respectivement, les transitions observées au-delà de 15 eV ne
peuvent provenir que du niveau moléculaire plus profond 1b2 avec comme
destination finale des états de Rydberg de l'oxygène de type 3s, 4s ou 5s.
Enfin, la figure 104 montre aussi l'allure générale du spectre de l'eau jusqu'à
des transferts d'énergie de l'ordre de 200 eV en utilisant une résolution

220
CHAPITRE V- L'EAU QUANTIQUE

énergétique plus faible de 1 eV. Seuls cinq maxima principaux persistent


à cette basse résolution tandis qu'au-delà de 25 eV le transfert d'énergie
diminue régulièrement sans structure apparente, la probabilité d'absorption
devenant négligeable vers 200 eV.

Il est important de réaliser que les spectres des figures 103 et 104 représentent
beaucoup mieux la réalité de l'eau, avec toute sa richesse et sa complexité,
qu'une formule banale HzD obtenue au xvme siècle se limitant à l'aspect
purement matériel de la chose avec des liaisons H-0-H parfaitement irréelles,
simples images fantomatiques dues à notre malaise à penser « énergie » au
lieu de« matière». C'est pourtant ce que nous invite à faire la théorie de la
relativité et des quanta selon l'équivalence de base entre la masse, la matière,
le tangible, l'inerte et de l'autre côté la fréquence, l'énergie, le non-tangible,
le dynamique. La constante de Planck est bien là pour faire le pont et assure
que les deux aspects complémentaires corpuscule et onde sont équivalents
pour discuter des phénomènes naturels.

;CD
'l'
0 20 .;\ •
:c )• .
..~ \
w ~ :
0.2S

:s~ 16 : \ 1 0.20

CD
:::s
\ i 0.1'

aO'

0
12 .• \
.\

t 0.10

\ J
1

t 0.05

8 f

1 12 16 20
ti-...ar .,._., rN
24 28

0 ~ 100 1~ 200
Ënergie du photon I eV
Figure 104: Force d'oscillateur optique de l'eau dans la région 6-200 eV mesurée
à basse résolution (1 eV) au moyen de la spectroscopie (e,e) dipolaire (Chan & al.
1993). L'encadré montre une mesure haute résolution (48 meV) de la zone 6-30 eV
qui peut être comparée au spectre de photo-absorption présenté en figure 103.

221
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Eau « para » et eau « ortho »


On voit donc que cette première quantification du mouvement des électrons
est très utile pour nous parler de l'eau quand elle se trouve bien séparée de ses
semblables. Si l'on regarde du côté des protons qui sont comme les électrons
des particules élémentaires, la première quantification nous apprend que les
protons sont des particules de spin Yi. Les atomes d'hydrogène pouvant être soit
des toupies qui tournent à droite, soit des toupies qui tournent à gauche, chaque
molécule Hp peut être de type« ortho »avec ses deux atomes d'hydrogène
tournant dans le même sens ou« para» où l'atome d'hydrogène de gauche
tourne en sens inverse de celui de droite et réciproquement (Tikhonov & al.
2002) (figure 105). Comme la différentiation entre les isomères de spin de
l'eau semble rester possible même à l'état liquide, il en découle que l'eau
liquide, tout comme l'eau gazeuse, doit être vue comme un mélange de deux
substances ayant des propriétés physiques, spectroscopiques, chimiques,
thermodynamiques ou cinétiques sensiblement différentes. Comme l'eau
ortho est un triplet de spin (1 = h), il existe trois fois plus d'états ortho (m1 =0,
±h) que d'états para (1=0, m1 = 0). En conséquence, pour une température
inférieure à T = 50 K, le rapport ortho/para mesurable par spectroscopie
infrarouge peut être significativement différent de 3 car il est fixé par les
conditions de formation de la molécule et non par un processus d'équilibrage
thermique qui met en jeu les niveaux de vibration-rotation, inaccessibles à
basse température puisqu'il faut une température minimale de 53,4 K pour
atteindre le premier niveau excité de l'isomère para.

Watervapor

A. F. Bunkin & al., Laser Phys. Lett., 3 ( 2006) 275


.. - ,_ Milli-Q liquid

i~ ul~ f:
::i
...;
j 0.4

.!!P
Cf.) ~- "-'--~~~~~......-"~-'-'r-

0.2

0 20 40 60 80 100
Wavenumber /cm-•

Figure 105 : Mise en évidence des raies des isomères ortho et para de la molécule
d'eau à l'état liquide.

222
CHAPITRE V- L'EAU QUANTIQUE

On sait que la distinction entre eau« ortho »et eau« para» n'est possible
que pour des molécules d'eau séparées à l'état gazeux, et c'est la raison pour
laquelle ces deux isomères sont généralement étudiés dans les masers à eau
galactiques. Par exemple, les masers à eau présents dans la voie lactée ont
permis de mesurer la distance qui nous sépare du centre de notre galaxie. Ce
fait peut être exploité en astrophysique pour étudier via la mesure du rapport
ortho/para le mécanisme de formation des comètes où règnent des températures
de l'ordre de T = 25 K (Minia & al. 2004). En revanche, pour une température
suffisamment haute (T > 50 K), le rapport à l'équilibre thermique doit être de
trois molécules ortho pour une molécule para. Même dans ces conditions et
surtout en phase non condensée où les collisions sont rares, l'isomérisation
ortho +-+ para peut être extrêmement longue car la théorie quantique impose
que le moment cinétique de spin d'un système isolé se conserve indéfiniment
dans le temps. De fait, la seule manière de transformer un isomère ortho en
isomère para (et réciproquement) est que, lors d'une collision entre deux
molécules d'eau, il y ait excitation vers des niveaux vibro-rotationnels des
isomères ortho ou para ayant des énergies très proches et qu'une interaction
hyperfine prenne le relais pour changer les valeurs des moments cinétiques et
donc la parité des états afin d'autoriser la transition ortho +-+para.

L'observation des raies spectrales caractéristiques de ces deux isomères de


spin à température ambiante à l'état liquide serait donc une preuve indirecte
mais très forte de l'existence d'une cohérence quantique. L'observation
récente de librations cohérentes dans la gamme de fréquence 0-1 OO cm- 1
caractéristiques des isomères « ortho » et « para » par spectroscopie de
diffusion Rayleigh à quatre photons dans de l'eau désionisée liquide Milli-Q
est donc très encourageante (Bunkin & al. 2006) (figure 105). Comme cette
inter-conversion ortho +-+ para est rapide dans le dimère d'eau et dans les
petits clusters (Sliter & al. 2011 ), on constate que l'émergence de la cohérence
nécessite bien la présence d'un liquide.

Un autre point intéressant est qu'en raison des règles liées au spin, la
molécule d'eau para peut s'arrêter de tournoyer autour de son centre de
masse, tandis que l'eau ortho est condamnée à tournoyer sans fin puisqu'elle
possède une énergie de point zéro pour la rotation. Ceci est évidemment un
fait crucial pour l'eau morphogénique qui se structure en couches sur des
surfaces minérales ou organiques. La figure 106 montre que l'on observe bien
un enrichissement en eau para pouvant s'immobiliser dans les couches par
rapport à l'eau ortho qui est incapable de s'immobiliser.

223
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

45
0.15

30 .,;
:i
a-<:hymolrypsine
!!
IV

CL
15 l 0.10
17mg·mL·•

!•
Qj

~ 0 f-<++-+-+-+++-+-+++++-+-+-+-+-+-+-+++-+-+-+-H-i
l
"'~ 20
IV

75 80 85 .,
QI
-QI Nombre d 'onde I cm.,

""~ 15
~ Lysozyme: J:onoo/Tpara = 2,3 ± 0,2
10 =
Collagène: J:onoo/T:para 1,5 ± 0,2
MgSQ4: :ronoo/T:para = 2,1 ± 0,3
5
CaO: J:onoo/T:para = 1,8 ± 0,2
Zéolithe sé~be: J:ortOOIT:para =1,9 ± 0,3
0 5 10 15 20 25
t (min)
S.A. P.ote.khin & al., BiaTJbr.s. Chem., fil (2005) 84
Figure 106: Différentiel d'adsorption entre eau ortho et eau para sur des surfaces
organiques ou minérales.

Une autre conséquence de l'existence de deux isotopomères de spin dans


une formule comme Hp est que lors de l'application d'un champ magnétique,
seules les molécules d'eau de type ortho présentant un état triplet (75 % du
total) sont affectées. Les molécules d'eau de type para (25 % du total) sont
donc invisibles par résonance magnétique nucléaire (RMN) du proton. Les
scanners RMN ne peuvent donc peut-être pas voir toute l'eau corporelle, ce
qui devrait être pris en compte dans les diagnostics.

Biologie quantique
Nous avons vu au chapitre 2 que nous sommes des êtres hydriques. Dans
nos cellules, c'est probablement l'effet tunnel qui permet le passage de l'eau
dans les aquaporines. En effet, les neurones, comme toute cellule, doivent
s'hydrater pour fonctionner et utilisent pour cela des aquaporines (AQPs),
canaux dédiés au passage de l'eau de part et d'autre d'une membrane
lipidique fortement hydrophobe (voir chapitre 2). Afin que seule la molécule
d'eau passe, les aquaporines disposent toutes d'un site de constriction ar/R
formé d'un résidu aromatique faisant face à un résidu arginine (R) qui pour
AQPl, principale aquaporine du cerveau, possède un diamètre de seulement
0,28 nm. Sachant que la molécule d'eau a un diamètre légèrement supérieur
de 0,3 nm, on pourrait s'attendre à ce que le passage de l'eau soit un

224
CHAPITRE V- L'EAU QUANTIQUE

processus long et pénible pour la molécule d'eau. En fait, il n'en est rien,
et les mesures montrent qu'environ 3 milliards de molécules d'eau passent
chaque seconde dans le canal, ce qui fait que l'eau diffuse plus vite dans le
canal de l'aquaporine que dans de l'eau liquide à 5°C !!!

Principe d'incertitude m li v· tu """ 1}:_ ~ li v / m·s- 1 """ 318 Â


d'Heisenberg 2 ( m /Da )·(li x / )

Relation de de.Broglie.: Â =_h_ ~ Â / nm """ ___3_9_9_ __


S.chro.dinger. m·v (ml Da)-(vlm·s- 1 )

ÂX = 2-3,4Â

=>À~ 25-44Â

AQP1: File d'eau= 12 molécules~ L =12x3 =36 A


AQPs: Passage par effet tunnel même si illc < 0(H20)
G}p.F (illc = 3.4 Â): Glycérol passe plus facilement que l'eau!!!

Figure 107: Analyse quantique du passage de l'eau dans une aquaporine.

La raison en est simple et tient dans le fait que la distance à franchir est un
multiple entier de la longueur d'onde quantique de la molécule d'eau fixée
par sa vitesse. Ainsi, on sait qu'une aquaporine laisse passer 3 milliards de
molécules d'eau par seconde et se caractérise par un coefficient de diffusion
de l'eau de 5 10- 10 m2 ·s· 1 (De Groot & Grubmüller 2001). Si on prend la
racine carrée du produit du flux par ce coefficient de diffusion, on trouve
une vitesse moyenne de 1,2 m s· 1 (figure 107). Toutefois, si l'on prend en
compte la relation d'indétermination d'Heisenberg liant position et quantité
de mouvement, on trouve compte tenu de la taille du pore une incertitude
sur la vitesse pouvant atteindre 10 m·s- 1• Compte tenu de la masse molaire
de la molécule d'eau et de cette incertitude, on trouve une longueur d'onde
comprise entre 25 et 44 A, valeur comparable à la longueur du pore où se
trouve une file de 12 molécules d'eau (figure 107). La molécule d'eau peut
donc très bien se trouver en superposition d'état de part et d'autre du canal
de sélectivité et passer par effet tunnel par un canal qui est plus petit que son
diamètre propre.

225
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

On peut aussi songer aux neurotransmetteurs qui sont censés se fixer sur
des récepteurs post-synaptiques après diffusion à travers la fente synaptique.
En effet, rappelons qu'il a été démontré expérimentalement via l'expérience
cruciale des deux fentes que des molécules pouvant avoir des poids moléculaires
aussi grands que 7 kDa se comportaient bien comme des paquets d'onde et non
comme des objets classiques (Homberger & al. 2012). Cela signifie donc que
tout objet intracellulaire qui possède un poids moléculaire inférieur à 7 kDa est
un paquet d'ondes quantique et non une molécule (figure 108).
Comportement ondulatoire de grosses molécules
... C.,(C,,F,.J,
(5672 Da) 2.000
C.,(C,,F,.J,.
(6910 Da)
,..,.
l:: 100
]'ooo
...
0
·-~-~~-
0 200 400 llOO 800 1,000 0
x,PoMbllnrn}

c 1. H.,.N, F,S2s,o,
'"°" (5310 Da )

Interféromètre de
100
f:i------
<00

Kap.itza:Dirac::Talbot:La.u 01--~~~-_.,.
·-~-~~-
0 200 400 800 900 1,000 0 200 .OO flOO 100 1.000
X,PoMiarl{rm) x,Polltiorl(rwn)

Tous les objets de la cellule ayant


une masse inférieure à 7 kDa sont K. Hornberger & al.,
des paquets d'ondes et non des Rev. Mod. Phys. , .fui., 157
corpuscules ... (2012)

Figure 108: Démonstration expérimentale que des objets, ayant une masse molaire
pouvant aller jusqu'à 7 kDa, se comportent comme des ondes.

La figure 109 montre les principaux: neurotransmetteurs utilisés par le cerveau


qui sont censés « diffuser» avec un coefficient de diffusion ONT:::: 4 10- 10 m2 s· 1
dans une fente synaptique de largeur comprise entre 38 et 65 nm (Rusakov & al.
2011 ). Si l'on considère que la distance à parcourir est de l'ordre de 40 nm, on
a donc une vitesse moyenne de l'ordre de 0,1 m s- 1, soit une longueur d'onde
associée comprise entre 23 nm (sérotonine) et 39 nm (GABA). Ici aussi on
voit que la longueur d'onde quantique est du même ordre de grandeur que la
distance à parcourir, ce qui fait qu'il est parfaitement irréaliste d'imaginer que
ces neurotransmetteurs diffusent comme des ivrognes vers leurs récepteurs.
La réalité est beaucoup plus simple en ce sens que le neurotransmetteur est
complètement délocalisé sur toute la synapse et n'a donc pas besoin de se
déplacer massivement puisqu'un morceau de son paquet d'ondes se trouve
dans la vésicule pré-synaptique qui vient de s'ouvrir et qu'un autre morceau
est potentiellement présent sur le récepteur post-synaptique. Tout se passe donc

226
CHAPITRE V- L'EAU QUANTIQUE

par effet tunnel et le temps mesuré expérimentalement n'est pas un temps de


diffusion physique mais un temps de décohérence des paquets d'onde associés
à ces neurotransmetteurs. C'est probablement cet aspect purement quantique du
fonctionnement du cerveau qui le rend aussi performant. Là aussi, l'étalement
du paquet d'ondes associé au neurotransmetteur suffit à atteindre les récepteurs
sans qu'il soit nécessaire de diffuser physiquement. Sur un plan quantique, tous
les signaux électriques transmis par les nerfs sont destinés à arriver dans ce l'on
appelle une synapse chimique, où l'un des éléments clés est la libération du
contenu d'une vésicule contenant un neurotransmetteur au sein de la jonction
synaptique. Un modèle théorique de ce processus amène à considérer un pulse
de potentiel d'action qui ouvre des canaux calciques, qui sont ensuite supposés
diffuser pour atteindre des sites permettant l'ouverture de la vésicule.

Sympathique Perasympalhlque
ousysttme ou sysll6me
ergotrope trophotrope

169 Dll

176 Dll 153 Dll

À= _h_ ~À/ nm :::---3


- 99
---
m·v (ml Da}(vlm·s- 1 ) L2 L 6D
D=-~(v}=-=-
=
L 40 nm => <v> =6 cm·s- 1 61' 1' L

38 nm s À s 65 nm Absence de «diffusion» dans les synapses...

Figure 109 : Analyse quantique de la diffusion des neurotransmetteurs dans une synapse.

Plusieurs ions calcium doivent se lier aux sites pour que la libération du
neurotransmetteur ait bien lieu. À l'échelle de la synapse, cela signifie qu'un
ion calcium doit se déplacer sur une distance d'environ 50 nm sur une durée de
200 µs pour aller de la sortie du canal au site de relâchement. Classiquement
parlant, cela correspond à une vitesse de diffusion voisine de 0,25 mm s- 1• Or,
selon la dualité onde-corpuscule, on trouve, avec une masse de 40 Da pour
l'ion calcium et une telle vitesse de diffusion, une longueur d'onde/...;:::; 40 µm.
Ceci montre que le paquet d'ondes associé à l'ion calcium possède une taille
nettement supérieure de plusieurs ordres de grandeur à la taille classique de
l'ion calcium. Cela signifie que l'idée même d'une trajectoire pour cet ion est
un non-sens et que l'ion n'a pas besoin de diffuser physiquement pour atteindre
le site de relâchement, car il lui suffit pour cela d'étaler son paquet d'ondes.

227
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Mais là n'est pas toute l'histoire, car le cerveau est aussi un calculateur qui
somme les signaux arrivant au sein de chaque synapse. Ce calcul quantique
nécessite donc la délocalisation d'un paquet d'ondes, mais aussi la diffusion
quantique par recouvrement du paquet d'ondes de l'ion calcium avec tous les
autres paquets d'onde associés aux molécules d'eau qui sont omniprésentes
dans la cellule. Les effets combinés de ces deux processus quantiques
(étalement du paquet d'ondes et diffusion) impliquent une probabilité
d'ouverture de la vésicule voisine de 50 % et donc une probabilité de non-
relâchement du neurotransmetteur de 50 % également. S'il n'y a pas réduction
de cet état quantique intrinqué, les deux potentialités quantiques vont
persister. Par conséquent, durant un certain intervalle de temps At où il y aura
N passages de pulses de potentiel d'action, l'état quantique du cerveau sera
une superposition de 2N alternatives possibles, chacune ayant le même poids
statistique. Ces multiples états vont avoir tendance à se rassembler autour de
certains « attracteurs » correspondant aux différentes alternatives de choix pour
le niveau d'intégration supérieur. À ce niveau supérieur, le nombre de plans
d'action est probablement très petit devant 2N, en raison de la théorie du chaos
qui montre que le nombre d'attracteurs d'un système chaotique est toujours
bien inférieur aux nombres d'états possibles de ce système.

Insuffisances de la première quantilication


Si les techniques de première quantification semblent parfaitement
adaptées au traitement de la molécule d'eau isolée, elles semblent échouer
lamentablement dès qu'il s'agit de traiter la liaison hydrogène, car ici il y a
au moins deux molécules à traiter et non une seule. De plus, ces molécules
sont à une distance suffisamment éloignée pour que les recouvrements entre
fonctions d'onde assurant le passage des électrons soient quasiment nuls.
Regardons tout d'abord les problèmes sous l'angle expérimental avant
d'essayer de leur apporter une solution théorique.

p1(rc) = 0,39; V2 p1(rc) =-2,44


P2(rc) = 0,38; V2 P2(rc) = -2,54
p3(rc) =0,02; V2 Pa(rc) = +o,o6
HOH-OH2

Liaison covalente ,.. Point col(3,-1) /V 2 p(r,,) < O

Figure 110 : Analyse de la topologie de la densité électronique selon la méthode


de Bader dans le dimère d'eau révélant /'existence de points cols (3,-1) de nature
attractive pour les liaisons 0-H et d'un point col (3,-1) de nature répulsive pour la
liaison hydrogène. D'après Bader (1990).

228
CHAPITRE V - L'EAU QUANTIQUE

Tout d'abord, on constate sur la figure 99 que le dernier niveau électronique


occupé (HOMO) est de symétrie b 1 alors que le premier niveau vide (LUMO)
est de symétrie a1, impliquant que le recouvrement HOMO-LUMO est nul
par symétrie. Ceci implique que, lors de l'approche de deux molécules d'eau,
il ne peut y avoir absolument aucune covalence au sens quantique du terme
(Ghanty & al. 2000). La nature de la liaison hydrogène a aussi été étudiée
par diffusion Compton, technique permettant de mesurer l'anisotropie de la
densité de quantité de mouvement des électrons de valence avec analyse des
résultats par des fonctions de Wannier à localisation maximale (Romero & al.
2001). Une forte anisotropie du profil Compton signifie en effet que les
rayons X ont interagi avec des électrons qui présentent des fonctions d'ondes
étendues, soit en raison de la formation de liaisons chimiques, soit parce
que ces électrons décrivent des états anti-liants sur le plan du partage des
électrons. L'analyse de la glace hexagonale Ih, prototype d'un solide associé
par liaison hydrogène, du silicium cristallin, solide lié de manière covalente
et présentant la même structure que la glace, et de l'argon, solide associé
par liaisons de van der Waals, révèle bien l'existence d'une forte anisotropie
pour la glace. Toutefois les fonctions d'ondes quantiques sondées se révèlent
être de caractère anti-liant, signifiant l'existence d'une répulsion et non d'une
attraction entre les molécules d'eau.

L'analyse topologique de la densité électronique par la méthode de Bader des


structures assemblées par liaisons hydrogène (figure 110) confirme d'ailleurs
parfaitement qu'il est impossible de distinguer les liaisons hydrogène de
simples interactions de van der Waals (Bader 1990). Pour corser l'affaire,
les mesures par spectroscopie d'émission des rayons X (figure 111) montrent
très clairement que le niveau 3a1 (HOM0-1) est fortement affecté par la
formation des liaisons hydrogène, alors que la HOMO 1b 1 plus haute en
énergie ne bronche quasiment pas (Nilsson & al. 2005). Il se passe donc bien
quelque chose qui n'est ni une interaction de van der Waals, ni une interaction
quantique entre orbitales frontières, et rien dans la première quantification
ne permet de justifier la structure tétraédrique observée pour l'eau liquide et
tous les polymorphes de glace. La situation est si grave que, même encore
aujourd'hui, la bataille fait rage entre ceux qui décrivent l'eau liquide
comme un réseau tétraédrique parfaitement aléatoire et fluctuant de liaisons
hydrogène (Bukowski & al. 2007) et les partisans du modèle à deux états de
densité, l'un étant de nature non tétraédrique (Wernet 2004).

229
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

PES 11>1 XAS


Symétrie C2 v
.... .... ..1
/
3a1
11>2 48 1

r
... 2b2
I'
(1a,)"(2a.) 2(1b2) 2(3a,) 2(1b,)2(4a,) 0 (2b,) 0

~ 3a,)

.....
S>O ~
~.

théorie
hv
" Symétrie C5

535 540 545


la1> - la'> lb1> - la">
15 10 5
tnergie de liaison/ eV tnergie du photon

Figure 111 : La spectroscopie d'émission des rayons X montre très clairement que le
niveau de symétrie 3a1 (HOM0-1) est fortement affecté par la formation des liaisons
hydrogène, alors que la HOMO de symétrie 1b1 plus haute en énergie n'est quasiment
pas affectée. D'après Nilsson & al. (2005).

Le concept même de liaison hydrogène gouvernant les propriétés de l'eau


liquide est aussi à l'origine de la très obscure « interaction hydrophobe »
des livres de biologie. En effet, certains auteurs n'hésitent pas à classer
cette interaction hydrophobe comme un lien énergétique, alors qu'il s'agit
en réalité d'un problème purement entropique qui a peu de choses à voir
avec l'énergie. Le terme hydrophobe est d'ailleurs très mal choisi, car il se
trouve que l'eau et l'huile s'attirent mutuellement au lieu de se repousser
(Chandler 2002). Il n'y a donc aucune répulsion entre l'eau et l'huile, mais
seulement le fait que le coût énergétique pour creuser une cavité dans l'eau
afin d'accueillir l'huile est prohibitif en raison de la très forte cohésion de
l'eau. L'interaction hydrophobe d'ailleurs ne peut se produire que dans l'eau
et reste encore à l'heure actuelle pleine de mystères (Meyer & al. 2006). Il y a
aussi le problème de forte sensibilité de l'eau aux champs électromagnétiques
qui est elle aussi une véritable énigme. Or, en première quantification,
on ne quantifie que le mouvement des électrons tandis que les champs
électromagnétiques créés par ces mouvements électroniques sont traités de
manière classique par le biais des équations de Maxwell. Cette asymétrie
dans le traitement physique des charges électriques d'une part et des champs
électromagnétiques associés d'autre part ne remet donc nullement en question
le caractère diamagnétique de la molécule d'eau qui devrait donc rester une
substance très peu sensible à la présence de champs magnétiques. Or, il existe
dans la littérature scientifique une multitude de résultats expérimentaux qui

230
CHAPITRE V- L'EAU QUANTIQUE

montrent que des champs magnétiques même très faibles peuvent modifier le
comportement de l'eau liquide.
Rappelons aussi qu'il existe une équivalence de principe entre la physique
de Newton et celle de Schrodinger, ce qui nous permet de mieux comprendre
l'échec de cette première quantification pour décrire l'eau. En effet, comme
la description des propriétés de l'eau était déjà insatisfaisante en physique
classique, il y a peu à attendre en gardant le même mode de pensée, basé
sur des corpuscules inaltérables en substituant simplement des nombres
complexes (première quantification) aux nombres réels (physique classique).

Seconde quantification
Pour sortir de toutes ces impasses théoriques, il n'existe en fait qu'une
seule issue qui consiste à quantifier simultanément le mouvement des
charges électriques et celui des champs électromagnétiques couplés à ces
mouvements (seconde quantification). Le corpuscule type de la seconde
quantification, le photon, n'a en fait absolument rien à voir avec le corpuscule
type de la première quantification, l'électron. La mécanique quantique de
première quantification, qui est non relativiste, ne peut pas en effet traiter
le cas des photons qui sont des particules se déplaçant à la vitesse de la
lumière. Il faudra donc attendre 1927 pour que P. A. M. Dirac développe
l'électrodynamique quantique en considérant le champ électromagnétique
comme une collection infinie d'oscillateurs harmoniques. L'idée fut ensuite
reprise et développée par Jordan, Heisenberg, Pauli, Fermi et Fock qui
montrèrent que les photons devaient être considérés comme des excitations
quantifiées du champ électromagnétique. L'intérêt de la mécanique quantique
de seconde quantification est donc qu'elle se place d'emblée dans un cadre
relativiste, ce qui lui permet de traiter aussi bien le cas des photons que
celui des électrons, clarifiant ainsi la notion de spin (Dirac 1928). Dans ce
mode de pensée, le photon se borne à être la réponse qu'apporte le champ
électromagnétique lorsqu'on l'excite ou on le sollicite. Le champ pour sa
part décrit de quelle manière une certaine région spatiale sondée diffère de
l'état fondamental de plus basse énergie, le vide, où toute mesure donnera
par définition un résultat nul. En seconde quantification, les notions d'espace
et de temps sont donc rattachées à un observateur à travers ses différents
appareils de mesure et n'ont plus le caractère absolu d'existence qu'on leur
prête en mécanique classique ou en première quantification.

Au niveau formalisme, ceci nécessite de remplacer la notion d'espace


de Hilbert individuel par un espace de Fock collectif décrivant les états
quantiques d'un champ unique vu comme une collection infinie d'oscillateurs
harmoniques présents en chaque point de l'espace. Chaque oscillateur peut
être excité depuis son état fondamental d'énergie non nulle, égale à la

231
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

moitié du produit de la constante de Planck par la fréquence d'oscillation,


appelée une énergie de point zéro. Chaque mode d'excitation du champ
est caractérisé par son vecteur d'onde et chaque état de l'espace de Fock
décrit une configuration du champ où les modes d'excitation sont recensés
via le nombre de quanta qu'ils mettent en jeu. On peut changer le nombre
de quanta d'un mode donné au moyen d'un opérateur de création qui fait
apparaître un quantum du vide et un opérateur d'annihilation qui renvoie un
quantum au vide. Le vide apparaît ainsi comme un état fondamental commun
à tous les modes d'excitation. Dans ces conditions, le nombre de quanta
devient la valeur propre d'un opérateur de dénombrement défini comme
le produit des deux opérateurs de création et d'annihilation. Cette capacité
de pouvoir faire fluctuer le nombre de quanta au sein d'un espace de Fock
est le point central sur lequel la seconde quantification diffère de manière
radicale de la première quantification où le nombre de quanta est donné
une fois pour toutes et ne peut jamais changer (conservation de la norme
dans un espace de Hilbert approprié). Une autre différence remarquable
avec la première quantification est que les opérateurs associés à l'énergie
et à la quantité de mouvement totale du champ quantique peuvent être
diagonalisés simultanément sur la même base de Fock, alors que cela était
impossible en première quantification.

Il est ainsi facile de voir qu'en l'absence de toute excitation du champ


quantique, le champ a comme attendu une quantité de mouvement totale
nulle car, pour chaque mode de vecteur d'onde p, on a un mode de vecteur
d'onde opposé-p. Toutefois l'énergie totale n'est pas nulle dans un tel état, car
chaque oscillateur harmonique se trouve alors dans son état fondamental avec
son énergie de point zéro. En fait, cet état fondamental de plus basse énergie
où le champ n'est pas excité mais possède néanmoins une énergie moyenne
de fluctuation non nulle s'appelle hélas le « vide », car si l'on retire les
opérateurs de création/annihilation le champ coïncide avec le vide de matière
et de rayonnement de la première quantification. On est ainsi conduit à parler
d'énergie du vide, ce qui est très troublant pour quelqu'un qui raisonne de
manière classique ou dans un cadre de première quantification et qui ne voit
pas ce qui pourrait bien sortir du vide. Dans ce qui suit,j 'appellerai donc «vide
quantique » le vide de matière rempli de rayonnements virtuels de la seconde
quantification et « vide » tout court le vide de la première quantification et de
la physique classique dénuées de matière ET de rayonnement.

La première chose à faire en seconde quantification est donc de définir le


vide, c'est-à-dire l'état fondamental d'énergie minimale. En effet, comme
il est dans la nature des champs quantiques de fluctuer, tout état quantique
dans une certaine région finie de l'espace finira par relaxer après un temps
approprié, dépendant des interactions avec d'autres champs, vers un état
d'énergie minimale, le seul état stable. Le vide est donc une réalité tangible

232
CHAPITRE V- L'EAU QUANTIQUE

absolument nécessaire pour que l'on puisse savoir dans quels états précis se
trouvent les champs quantiques présents dans une région spatiale donnée.
Autrement dit, c'est la structure du vide qui détermine le type d'excitations
physiques ou« quanta» qu'un appareil de mesure détectera ou excitera dans
le champ, suite à des échanges d'énergie entre le champ et les appareils
de mesure. Il découle de ceci que toute mesure dans une région localisée
d'espace-temps provoque une transition du champ entre deux états, dont la
différence d'énergie est fonction du type de mesure effectuée, l'excitation se
présentant sous la forme de quanta tous identiques et indiscernables.

Il est donc impératif de comprendre qu'en seconde quantification, c'est le


champ qui définit l'absence ou la présence de matière via ses deux opérateurs
de création/annihilation, et ce qui apparaissait comme vide de manière
classique devient en réalité peuplé d'une infinité de modes d'excitations
virtuelles du champ qui se compensent exactement à tout moment en tout
point. Cela signifie qu'un champ quantique est capable de produire à partir
du tissu spatio-temporel autant de quanta qu'on veut. Bref, le champ est une
véritable corne d'abondance, d'où peut sortir à peu près n'importe quoi.
Étant tous produits par le même champ, les quanta sont tous rigoureusement
identiques, qu'il s'agisse de fermions (matière) ou de bosons (rayonnement).
Si des particules élémentaires peuvent être distinguées, cela signifie bien sûr
qu'elles sont produites par deux champs quantiques de nature différente.
Comme les quanta ne font que refléter l'état d'excitation du champ, ils
perdent toute réalité physique et n'ont plus de dynamique autonome, et il
est impossible de leur attribuer une fonction d'onde au sein d'un espace de
Hilbert comme on le fait en première quantification. Toute la réalité physique
est donc contenue dans le champ qui est une entité non locale et non séparable
par principe. L'intrication de ce fait devient permanente au lieu d'être
éphémère.

Résolution du paradoxe EPR


On sait qu'Albert Einstein s'est toujours opposé à l'interprétation
probabiliste de la mécanique quantique de première quantification, ses
critiques culminant dans une expérience proposée en 1935 avec ses collègues
Boris Podolsky et Nathan Rosen, dans le but de mettre en évidence des
contradictions supposées de la mécanique quantique (paradoxe EPR). La
situation resta confuse jusqu'en 1982, lorsque le physicien français Alain
Aspect montra que la mécanique quantique avait bel et bien raison et que
la nature était foncièrement non locale et non séparable. L'avantage de la
seconde quantification est qu'elle permet clairement d'expliquer l'origine
de cette non-localité et cette non-séparabilité qui caractérisent la mécanique
quantique.

233
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

En effet, si l'on pose que le champ existe et contient toute la réalité, la


mécanique quantique de première quantification apparaît alors comme la
limite d'une extrême dilution de la matière dans le champ. Extrême dilution
signifie ici que lorsqu'on observe le champ dans un volume fini, où le nombre
de corpuscules, valeur propre de l'opérateur dénombrement, correspond à un
nombre petit et fini. Cette mécanique quantique ne concerne donc que des gaz
dilués d'atomes ou de molécules, d'où le piège de la dualité onde/corpuscule
avec une intrication quantique perçue comme étrange et non naturelle.
L'avantage de se placer en seconde quantification est de concevoir le carré de
la fonction d'onde, solution de l'équation de Schrôdinger, comme une simple
fonction de corrélation par rapport aux mesures de la densité du champ en
N points disjoints de l'espace-temps réel. De fait, en seconde quantification,
les coordonnées spatiales ne sont plus des observables associées aux
différents corpuscules quantiques indiscernables, mais se trouvent être en
correspondance parfaite avec les positions spatiales où l'on est susceptible à
un moment donné d'acquérir une information via des systèmes capables de
mesurer la densité du champ. Que le système soit observé ou pas n'y change
rien, il continue donc son évolution selon l'équation de Schrôdinger, jusqu'à
ce qu'il atteigne son état d'énergie minimale.

Pour ce qui concerne la critique EPR, elle peut être réduite au fait que la
fonction d'onde d'un système à deux quanta ne se factorise pas comme le
produit de deux fonctions, dans une région spatiale où les deux quanta sont
observés et où ils ne peuvent échanger del 'information via un signal lumineux.
Si l'on attribue aux corpuscules une réalité physique, cette intrication entre les
fonctions d'onde des deux quanta pose alors des problèmes insurmontables
qui ont fait couler de l'encre et de la salive. Pour la seconde quantification,
l'intrication quantique ne cause aucun souci puisque les corpuscules
quantiques n'ont aucune réalité physique indépendante du champ, ni aucune
localisation physique précise comme en première quantification. Tout
corpuscule qui se manifeste ne fait que refléter la présence d'un système
d'acquisition de l'information (observateur) localisé dans l'espace en train de
sonder le champ quantique qui répond à l'excitation locale en émettant des
quanta au point où il se trouve sondé.

La grande illusion, c'est donc de croire que, lorsque j'observe un corpuscule


quantique aller d'un point A à un point B, c'est le même corpuscule qui se
déplace, car ce faisant, on lui attribue une réalité physique qu'il ne possède
pas. Ce qui se passe en réalité, c'est que mon appareil de mesure excite le
champ en A et ce dernier répond en créant un quantum pour manifester son
état actuel. Ce quantum ayant joué son rôle de pourvoyeur d'information est
aussitôt détruit dès que l'appareil de mesure est déplacé ailleurs. Au point B
où la mesure est répétée, le champ recrée un autre quantum puisqu'il se trouve
à nouveau sollicité par l'appareil de mesure. Bien sûr, le quantum qui apparaît

234
CHAPITRE V- L'EAU QUANTIQUE

en B n'est pas celui qui était apparu en A lors de la première mesure, mais
un autre quantum créé par le champ quantique. Toutefois, comme un champ
ne sait que créer des quanta tous parfaitement identiques et indiscernables,
l'observateur peut avoir l'illusion qu'un corpuscule« réel» s'est déplacé de
A en B.

Ceci pour faire comprendre qu'en seconde quantification, la seule réalité


physique se situe dans le champ quantique. L'intrication quantique est donc
permanente et présente à toutes les échelles de mesure. Si l'on réalise que
les corpuscules sont systématiquement créés et détruits à chaque mesure, le
problème EPR ne se pose plus, et la non-localité clairement validée par les
expériences ne fait simplement que refléter l'existence du champ qui est par
définition non local et non séparable.

Le uide quantique
Les quanta ne sont donc observés que lorsqu'un champ entre en interaction
avec d'autres champs. Quand il n'y a pas d'interaction, il n'y a pas de quanta
et seul existe le champ. Ainsi, lorsque le champ n'est pas excité, c'est-à-dire
lorsqu'il se trouve dans son état fondamental d'énergie minimale non nulle,
une conscience extérieure qui observerait le champ de très loin ne percevrait
absolument rien et en particulier aucun mouvement donnant l'illusion d'un
milieu parfaitement vide de matière et de rayonnement. En fait, même le temps
et l'espace sembleraient ne pas exister, le spectacle étant semblable à une mer
parfaitement lisse lorsqu'on la regarde de très haut. Mais si l'on observe le
champ de très près, on s'apercevrait que cette immobilité n'est qu'apparence
et qu'en réalité la surface de ce vide serait parcourue de nombreuses rides
qui s'agitent dans tous les sens. C'est en fait cette agitation incessante qui
donnerait naissance à l'idée d'une étendue spatiale tridimensionnelle évoluant
de manière unidimensionnelle dans le temps. Ce sont donc les fluctuations
inévitables du« vide »qui créent les notions d'espace et de temps que l'on
perçoit à notre échelle macroscopique.

Tout comme l'océan possède des zones calmes et d'autres parcourues


par des tempêtes violentes, le champ peut dans certaines zones spatiales
apparaître extrêmement agité ou excité, donnant naissance à deux types de
choses: des vagues que l'on perçoit à notre échelle comme des ondes qui se
propagent dans l'étendue du champ et de l'écume que l'on perçoit à notre
échelle comme des corpuscules qui naissent, vivent et meurent dans un ballet
incessant. Chaque corpuscule semble être fils du vide, apparaissant soudain
à un moment donné, et est condamné à retourner à un moment ultérieur plus
ou moins long dans ce vide qui lui a donné naissance. Mais, tout comme il est
impossible de détacher l'écume des vagues qui la génèrent, il est absolument

235
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

impossible de dissocier ces corpuscules du champ, car ils sont eux-mêmes le


champ qui, au point de formation de l'écume, concentre une énorme quantité
d'énergie ou, ce qui est équivalent, une très haute fréquence.

Ceci signifie en particulier qu'à tout moment des bosons ou des fermions
peuvent apparaître ou disparaître spontanément dans une région qui était
considérée comme « vide ». En raison de la finitude de la constante de
Planck h, les quanta d'un champ donné peuvent être soit « virtuels », soit
« observables » selon la valeur du produit de leur durée de vie Llt par leur
étalement en énergie LlE. Ainsi, un quantum est qualifié de « virtuel » et
donc inobservable tant que l'action reste inférieure au quantum d'action et il
devient observable et donc bien réel si l'action dépasse la valeur du quantum
d'action. Même s'ils ne peuvent pas être détectés par principe, les quanta
virtuels sont néanmoins bien réels, comme on va le voir maintenant.

Pour fixer les idées, la constante de Planck est telle qu'un laps de temps
d'environ 1 femtoseconde, soit 10- 15 s, donne la liberté de faire fluctuer le
vide jusqu'à une énergie de l'ordre de 0,66 eV. Une paire électron/positron
possédant une masse de l'ordre de 1 MeV, le vide apparaîtra comme un
milieu grouillant d'électrons et de positrons dès qu'on l'observera avec un
temps inférieur à la zeptoseconde (10-21 s). Les muons et les anti-muons, étant
environ cent fois plus massifs que les électrons, bouillonneront à leurs tour
si le temps d'observation descend en dessous de la dizaine de yoctoseconde
(I0-24 s). Enfin, si l'on descend en dessous d'un temps d'observation de
0,01 ys (I0-26 s), des bosons cent fois plus massifs que les pions comme le
boson Z 0 peuvent à leur tour entrer dans la danse. Bien évidemment, des
temps aussi brefs sont liés au fait que l'on demande au vide de créer de la
matière et non du rayonnement.

Après avoir vu comment l'atome se stabilise en première guantification, il


est très instructif de voir la différence avec le mécanisme de stabilisation de
la seconde quantification, où à l'échelle de taille du noyau, le vide apparaît
comme bouillonnant d'électrons et de positrons virtuels ayant une énergie
pouvant aller jusqu'à 200 MeV (figure 112). Ce sont bien sûr ces électrons
virtuels présentant une charge électrique de même signe que l'électron réel
qui repoussent ce dernier très loin du noyau, assurant une stabilité éternelle
à tous les atomes de la classification périodique. Toutefois, il est vrai qu'un
électron virtuel a forcément été créé avec son antiparticule qui elle attirera
l'électron. Mais c'est ici que la chose devient magnifique. Car rien ne peut
s'opposer à l'attraction de deux particules exactement identiques en tout point
et ne différant que par leurs charges électriques qui sont de signes contraires.
L'électron n'atteindra donc jamais le noyau car il sera happé au passage
par tout positron surgissant du vide comme un diable hors de sa boîte. La
collision électron-positron fera retourner au vide la nouvelle paire, laissant

236
CHAPITRE V- L'EAU QUANTIQUE

sur le carreau l'électron qui accompagnait le positron qui vient juste de se


désintégrer. Ce dernier profitera alors de l'énergie créée par la désintégration
pouvant aller jusqu'à 200 MeV pour échapper à l'attraction du noyau.

Le vide quantique : ~U·~t < h :::: o,66 eV·fs


füiergie t.U
Dwéet.t
Taillet.x
Diamant t.U • 4 eV
Eau t.U • 20 meV
Huile t.E • 1 meV Quantum d'action
t.t • t.x/c => c • 1 => (L aT) => h • M·L'·T"' • M·L
t.U·t.x < h-c • 2 00 eV·run Universalité: h • M·L • 1=>M • L"'• 1''
Masse (M), Espace (L) et Temps (T)
sont nne senle et meme chose
Plus l'échelle est petite, plus il y a d'énergie ...

Figure 112 : En seconde quantification, le vide est rempli d'excitations virtuelles


et s'identifie à la matière, puisque cette dernière peut surgir du vide à tout moment.
L'image classique que l'on peut associer aux particules virtuelles est celle de lignes
de champ autour de toute charge statique ou en mouvement.

Bilan du processus : un électron observable s'annihile avec un positron


inobservable pour faire passer de la virtualité à la réalité un autre électron
initialement inobservable. Tout cela se déroule à une échelle de temps de
l'ordre del' attoseconde, laissant tout observateur potentiel dans l'illusion d'un
électron impérissable échappant« par miracle» à l'attraction coulombienne
du noyau (modèle atomique de Rutherford). Ce qui rend le phénomène
miraculeux est bien sûr la croyance en l'indestructibilité de la matière, et il
suffit d'abandonner cette croyance pour que tout devienne simple et trivial.
Les exigences énergétiques et temporelles sont évidemment bien moindres
en ce qui concerne la création de rayonnement, puisqu'en observant le vide
à l'échelle de la femto-seconde, on voit qu'il fourmille déjà des photons
infrarouges. Pour une durée d'observation de l'ordre de la microseconde,
il n'y a plus de rayonnement infrarouge mais plein d'ondes radio avec une
fréquence maximale de 1 MHz. Enfin, à l'échelle de la seconde, il n'y a
plus d'ondes radio mais il reste un grouillement d'ondes dites ELF avec
des fréquences maximales de 1 Hz. Si l'on continue à augmenter l'échelle
de temps, on ne fera que baisser encore plus la fréquence du rayonnement

237
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

disponible dans le vide, mais ce dernier ne disparaîtra jamais. Le vide se


comporte donc comme un corps noir matériel. En physique quantique, le vide
complet, c'est-à-dire le néant, n'existe donc pas, ce qui résout de manière très
élégante la question de savoir pourquoi il y a quelque chose plutôt que rien.

&ectron: masse m.. charge électrique -e L'atome grossit (~R) lorsqu'il avale du vide
Noyau
charge
.)
Noyau =protons (Z) EB neutrons (A-Z)
électrique
+Ze Atome = noyau (A) EB électrons (Z)
Couplage vide (e0 , c) - e2
. !
matière (h, m,) a= "' -
via la charge 4Tœ0 ·1i·c 137
m.• 10-;90 kg
e• 0 ,16 ac -++-
10·'5 in électrique e
10·•0 m États atomiques

Photon ~t, ôR= m\· (~}in~


p
virtuel ~ ·
A ,k lli'2 > ,,,/' _..______ "1E

Déplacement de Lamb Photon


('1E) des niveaux virtuel
d'énergie
A,k
lwl>
Probab~i.té de
transition
(1-, IA·p-10 _,
k
JJF ·
'f" 1 k
JJF )
'f" 2

Figure 113 : Effets du vide quantique sur l'énergie des atomes (déplacement de Lamb).

Bien évidemment, le vide quantique apparaît très différent de l'éther


relativiste. Or, il se trouve que les fluctuations électromagnétiques virtuelles
qui subsistent dans le vide ont des effets observables bien réels et qui sont
connus parfois depuis bien longtemps. Par exemple, les particules virtuelles
expliquent pourquoi la permittivité électrique e0 et la perméabilité magnétique
~du vide ne sont pas nulles (Urban 2013). De plus, comme il existe une
relation topologique bien connue selon laquelle e0 µ 0 c2 = 1, il en découle que
ce sont ces mêmes particules virtuelles qui fixent la valeur de la vitesse de
propagation de la lumière dans le vide. La lumière voit donc très clairement
que le vide n'est pas vide. Pour la matière, un atome isolé dans le vide peut
très bien interagir avec les fluctuations incessantes de ce dernier. C'est
précisément cette interaction qui est responsable des processus d'émission
spontanée qui font passer l'atome de ses niveaux d'énergie élevée vers son
niveau fondamental. Toute radioactivité est donc une manifestation tangible
de l'énergie du vide. Dans un niveau excité, l'atome est encore couplé au

238
CHAPITRE V- L'EAU QUANTIQUE

vide et ce couplage est accompagné d'effets tels que le déplacement de


Lamb (Lamb 1947) des fréquences d'absorption, phénomène qui a pu être
vérifié expérimentalement (figure 113). Quand deux atomes sont couplés aux
mêmes fluctuations du vide, l'interaction des atomes avec les fluctuations du
champ induit une attraction entre eux, que les chimistes appellent la force de
van der Waals (voir équation de van der Waals).

L'existence du vide quantique a aussi pour conséquence que la masse des


particules n'est plus une propriété intrinsèque de ces dernières, car cette
masse est étroitement liée à la manière dont la particule interagit avec la
structure quantique du vide. Ceci est très bien illustré par le cas du proton et
du neutron. Prenons l'exemple du corps humain dont la masse est constituée
à 45 % de neutrons, à 54,97 % de protons et à 0,03 % d'électrons. Comme
le montre la figure 114, si l'on admet que la masse des nucléons provient des
quarks constituants, ces particules devraient avoir une masse ne dépassant
pas 2 % de la masse mesurée expérimentalement. Il est donc clair que la
majeure partie de notre masse ne vient pas des quarks, mais d'autre chose.
Comme cette masse ne peut en aucun cas provenir des électrons, il ne reste
que le vide pour expliquer cette masse très élevée par rapport à la masse
des constituants matériels ... Cette hypothèse peut être testée en appliquant
la relation d'incertitude d'Heisenberg aux quarks confinés à l'intérieur du
proton ou du neutron d'extension spatiale Ax::::: 0,9 fin. Ainsi, en« habillant»
chaque quark d'un nuage virtuel de photons, on trouve que 99 % de la masse
des nucléons vient de leur vide interne. Il en découle que 99 % de notre masse
corporelle vient du vide et non de la matière ...

Quark 'up': 1,5 s m(u) s 3,3 MeV/c 2


m(e-) = 0,51 MeV/c2
Quark 'down': 3,5 s m(d) s 6,o MeV/c2
no
MeV/c2 MeV/c2
m(uud) s 12,6 m(udd) s 15,3
m(p+) = 938 m(n°) = 940

proton neutron
ÂU·~ =hc =197 MeV·fni & 6R(n°, p+) =0,9 fui
AU(u,d)"' .J3 hc, "'380 MeV/ c 2 ::::} 6U(p+,n°) ::: 1140 MeV/c2
AR
Conclusion: protons et neutrons sont faits de vide ...

Figure 114 : Effets du vide quantique sur les masses des corpuscules.

239
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Si l'on change d'échelle, le physicien néerlandais Hendrik Casimir


découvrit en 1948 qu'une force s'exerce également entre deux miroirs
placés dans le vide, car les fluctuations du vide sont modifiées par la
présence de la cavité et leur énergie dépend de la distance entre les deux
miroirs (Casimir 1948). Le vide exerce donc une force universelle qui attire
les deux miroirs l'un vers l'autre. Puisqu'elle est issue du vide quantique,
cette force doit donc nécessairement faire intervenir la constante de
Planck h et la vitesse de la lumière dans le vide c. Or, il se trouve que le
produit de ces deux constantes est homogène au produit d'une énergie par
une distance, tandis qu'une pression est une énergie par unité de volume.
Si L désigne la distance entre les deux miroirs, on s'attend donc à ce que
cette pression du vide varie comme l'inverse de la puissance quatrième
de la distance (figure 115). Cette pression de radiation du vide est aussi
responsable d'une force de réaction de rayonnement qui tend à s'opposer
à tout mouvement du miroir, dès que celui-ci subit une accélération
non uniforme. En raison de la conservation de l'énergie, cet effet crée
des paires de photons réels directement à partir du vide, chose qui a été
effectivement observée en 2011. Ce rayonnement lié au mouvement dans
le vide est aussi appelé effet Casimir dynamique ou rayonnement de
Casimir (Wilson 2011 ).

Bateaux dans les ports

Attraction mutuelle par exclusion des vagues de


grande longueur d'onde entre deux surfaces

Effet Casimir

l
(Exclusion des
grosses bulles)

EffetFulling-Davies-Unruh [li lc ) = M-L


(hc]=M·L3 T 2 hc
{ Le vide rayonne .comme [r) ,. L·T"' => k, -0 ~ li7
[p]=M·C' ·r-2 ~ poc d' un corps noir... [k, e] s M·L'·r-' c

Figure 115 : Effet Casimir démontrant la réalité des excitations virtuelles du vide
quantique.

240
CHAPITRE V- L'EAU QUANTIQUE

Ces mêmes fluctuations du vide quantique sont aussi responsables de


l'effet Unruh, parfois aussi appelé radiation de Fulling-Davies-Unruh,
qui prédit qu'un observateur en mouvement uniformément accéléré verra
un environnement plus chaud qu'un observateur placé dans un référentiel
d'inertie. En effet, comme le rapport de la constante de Planck et de la vitesse
de la lumière est homogène au produit d'une masse par une longueur, on
obtient une énergie en le multipliant par une accélération, qu'il suffit alors de
transformer en température en divisant par la constante de Boltzmann à un
facteur Yzn près (figure 115). Cet effet est à l'origine del' évaporation des trous
noirs (radiation de Hawking). On remarquera d'ailleurs que la loi d'émission
du corps noir de Max Planck peut être dérivée de manière rigoureuse
moyennant la donnée de seulement trois hypothèses : homogénéité du vide,
isotropie du vide et invariance de Lorentz de l'énergie du vide (Boyer 1984).
Il existe donc une thermodynamique du vide qui coïncide parfaitement avec
la thermodynamique des systèmes matériels.

L'effet Aharonov-Bohm est un autre exemple spectaculaire des propriétés


du vide quantique (figure 116). Dans la théorie physique des champs, les
objets mathématiques représentant les champs sont décrits comme pouvant
« dériver» d'un potentiel. Les physiciens classiques ont longtemps cru que
ces potentiels n'étaient qu'une construction mathématique abstraite utile
pour faire certains calculs, mais qui n'avaient aucune existence physique.
Or, en 1959, les physiciens Yakir Aharonov et David Bohm proposent
une expérience dans laquelle une particule se déplaçant dans un champ
électromagnétique nul pourrait être influencée par les potentiels dont dérivent
les champs magnétique et électrique correspondants, ce qui signifie que les
champs électrique et magnétique seuls ne suffisent pas à décrire ce que nous
observons. Ceci découle du fait que le rapport de la constante de Planck h à
la charge électrique élémentaire e est homogène soit à un potentiel électrique
que multiplie un temps, soit à un potentiel vecteur magnétique que multiplie
une distance. En conséquence, tout gradient spatial de phase quantique
génère un potentiel vecteur magnétique et réciproquement. De même, toute
variation de la phase quantique dans le temps génère un potentiel électrique et
vice versa. Les potentiels à l'origine des champs électromagnétiques peuvent
donc influencer directement les phases quantiques, même lorsque les champs
correspondants sont nuls, fait confirmé expérimentalement en 1986 par le
physicien Alcira Tonomura.

Il est donc temps de réaliser un renversement de vision consistant à cesser


de regarder le vide depuis la matière pour examiner cette dernière depuis
le vide ! Si c'est le comportement de la matière à petite échelle qui nous a
permis de découvrir les propriétés du vide, il nous faut maintenant admettre
que les propriétés de la matière découlent de celles du vide, car la matière est
en interaction permanente avec le vide.

241
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Effet Aharonov-Bohm (1959)


Phase quantique: 'P(x ,y,z,t) oc e;"'

Yakir Potentiel vecteur : B=V x Â=>ll.ip=!IJ ·as


DavidBohm 11 p
Aharonov
(1932-) (1917-1992)
- - q·V·t
Potentiel scalaire V E = - Vv = o=> ll.ip = - -
11

-..
Vue de
Champ magn~que B

B• o
Potentiel vecteur A • o

La phase quantique est affectée par les potentiels et non par les champs

Figure 116 : Effet Aharonov-Bohm ou effet des champs électromagnétiques sur la


phase quantique.

Spin, rotation et échange


Le fait qu'un quantum puisse « manger » du vide et devenir plus massif fait
qu'en seconde quantification la masse ne peut plus être utilisée pour identifier
un corpuscule, car selon la quantité de vide qu'il aura avalée, il pourra
présenter différentes masses. Comment dans ces conditions différencier un
quantum de matière d'un quantum de rayonnement puisque le champ est
invisible ? Heureusement, il reste le spin et dans une moindre mesure la
charge électrique qui peut elle aussi varier. En effet, avoir un spin a signifie
que lors de toute rotation spatiale d'angle e, la phase de l'état quantique
se trouve additionnée d'une quantité égale au produit de la valeur du spin
rapporté au quantum d'action h par l'angle de rotation (figure 117). Cette
propriété du spin associée au caractère indiscernable des quanta issus d'un
même champ permet d'établir une distinction claire entre quanta de matière
et quanta de rayonnement.

Ceci provient du fait que dans le cas de deux particules identiques en tout
point, une rotation de 21t est équivalente à un échange de position spatiale.
Pour vous en convaincre, considérez une paire de clones qui se tiennent
la main et, par une rotation de 180° autour de l'axe médian, superposez
spatialement le clone A au clone B (figure 117). Comme nous avons affaire

242
CHAPITRE V- L'EAU QUANTIQUE

à des clones parfaits dans la paire superposée, il est parfaitement légitime de


tourner à nouveau d'un angle égal à 180° pour séparer à nouveau la paire,
mais en prenant non pas le clone A, mais le clone B qui était resté immobile.
C'est donc maintenant A qui reste à sa place et B qui tourne pour aller occuper
la place initialement occupée par A. Ce faisant, les deux clones ont donc
échangé leurs positions spatiales respectives et on constate que toute rotation
spatiale d'angle 7t + 7t = 27t revient donc à une permutation spatiale de deux
clones. Il me faudra donc tourner encore une fois de 27t pour retrouver le
clone A à gauche et B à droite comme au départ. En mécanique quantique de
seconde quantification, l'opération identité correspond donc à une rotation de
47t et non à une rotation de 27t comme c'est le cas en mécanique classique ou
en première quantification.

Identité: 0 • o ou 4"
Rotation d'angle 0 et spin a M" 11P(2")> • OOS(0·2,./b)l1P(O)>


lwCOJ> = cos(a·8/bll1P(O)>
111'(4..)> = C08(0·2"/b)lip{2,.)>
~ ~ ;Ir
... 11Py> - 111'(0)> + 111'(2..)> 111'(4,.)>= C08'(o•2,./b)l1P(O)>
o• 90• 180°
111'(4")> - 111'(0)>
oos'(a·2,./b) • l

* ~ MA
~ ~~ e .. o: ldentit6
~ ·• C08(0·2,./b) - ±1
270• 360° 450•

l ~ ~(A mut
llUl'B)
61~
_,. rttr
540• 630° 720°
y
Lebras humain est un
exemple de spineur

q:P>
r. .
Albert Einstein
(1879-1955)
Enrico Fermi Wolfgang P•uli Paul Dirac
(1901-1954) (l90<HC}58) (19C>:M9&4)
Boson: cos(a·2,./b) • +1
o • n·h, n • o, 1, 2 . .. Fermion: oos(o·2"/b) • -1
11P(2")> = C08(D•2")1ip{o)> •lljJ(O)> a,., (n+lh:)oh, n = o, 1, 2 ...
111',.> • 111'(0)> + l1P{2,.)> • 2·11jJ(O)> 111'(2"}> • oos[(2n+1)·,.Jlip(o)> •-111'(0)>
<1Pyl11',.> = 4-<1jJ(O)l1P(O)> 11Py> - 111'(0)> + 111'(2")> - 0
Photon: a/b • l <1Pyl1Py> - 0
Autre exemple de spineur Graviton: afb • 2, Higgs: a/b • o filectron, quark, neutrino: Photon: a/b • ,....

Figure 117 : En mécanique quantique de seconde quantification, c'est le spin et la


charge électrique qui permettent d'identifier les quanta et non la masse qui varie
selon la manière dont le corpuscule interagit avec le vide. En raison de/ 'équivalence
entre une rotation de 21c et l'échange de position spatiale de deux quanta, le spin ne
peut prendre que des valeurs entières (bosons) ou demi-entières (fermions). Pour la
même raison, /'identité correspond à une rotation de 47C comme le montre la danse
du verre (à gauche) ou la ceinture de Dirac.

Comme le montre la figure 117, il existe plusieurs manières de montrer que


l'identité est bien une rotation de 720° et non 360°. Il existe un truc qui était
utilisé par Dirac pour expliquer ce fait et qui consiste à prendre une ceinture
attachée par sa boucle à un objet fixe. Si l'on prend l'autre extrémité et qu'on
la tourne de 360° selon n'importe quel axe, on induit une torsion dans la
ceinture qui sera toujours présente tant que l'on ne fera pas une rotation inverse
de -360°. Toutefois, si l'on tourne à nouveau dans le même sens, la double
torsion obtenue n'est qu'une illusion puisqu'on peut manipuler la ceinture
pour la rendre à nouveau plate sans jamais tourner. En fait, le corps humain

243
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

possède lui aussi une telle ceinture : le bras. Pour le comprendre, prenez votre
main et posez un objet dessus, un verre par exemple, puis tournez la main de
360°. Vous verrez que votre bras acquiert une torsion. Pour revenir à votre
état initial non tordu, faites une deuxième rotation de 360° dans le même sens
en passant la main au-dessus de votre tête. Vous êtes bien redevenu identique
à vous-même.

Ceci étant acquis, le fait que l'on travaille avec des clones parfaits aboutit
après une simple rotation de 360° à une situation mentalement distincte mais
physiquement rigoureusement équivalente. Si vous préférez, j'aurais très
bien pu après la première rotation de 180° amenant le clone A à la même
position que le clone B reprendre pour la deuxième rotation le même clone A.
Auquel cas la situation obtenue après rotation de 360° est bien celle de départ
avec le clone B à droite puisqu'il n'a pas bougé et le clone A à gauche qui a
fait sa rotation de 360°. On aurait pu aussi revenir en arrière après la première
rotation de 180°, montrant qu'absence de rotation ou rotation de 360° sans
échange d'étiquettes sont équivalentes. Mais comment diable savoir s'il y
a eu échange d'étiquette entre les deux clones ou pas lorsqu'ils se trouvent
ensemble ? La réponse est claire : cela est absolument impossible à partir
du moment où l'on a bien deux clones identiques jusque dans les moindres
détails. La réponse de la physique quantique à ce sujet est aussi également
très claire et tient à sa structure même qui impose une superposition des états
concernés dès qu'une même situation physique finale se trouve pouvoir être
réalisée selon plusieurs modalités mentalement distinctes.

Voyons ce que cela donne pour une rotation de 360° impliquant deux
corpuscules parfaitement indiscernables et dont le spin se trouve être un
multiple entier du quantum d'action. Si l'on superpose l'état quantique avant
rotation de 360° à celui après rotation de 360°, on constate que l'amplitude
de probabilité est doublée. On voit donc que le fait de ne pas savoir ce qui
se passe lors de la rotation fait que la probabilité d'avoir deux quanta de
spin entier dans le même état quantique est quatre fois plus élevée que celle
correspondant à un seul quantum. On appelle « boson » tout quantum de
spin entier qui se comporte de la sorte. Ceci signifie que les bosons peuvent
s'agréger tous sans problèmes dans le même état quantique, un phénomène
donnant naissance au laser, à la supraconductivité ou à la superfluidité ainsi
qu'à l'eau liquide. L'effet laser, impliquant un rayonnement, fait que l'on
attache le caractère « boson » de spin entier à tout ce qui se comporte comme
un rayonnement ou comme une force attractive ou répulsive.

Le même raisonnement réalisé avec deux corpuscules de spin demi-


entier aboutit à une situation très différente. Ici aussi, on doit superposer
l'état quantique avant rotation de 360° à celui après rotation de 360°, mais
on trouve ici une amplitude de probabilité nulle. On voit donc que le fait

244
CHAPITRE V- L'EAU QUANTIQUE

de ne pas savoir ce qui se passe lors de la rotation fait que la probabilité


de trouver deux quanta de spin demi-entier dans le même état quantique
est rigoureusement nulle. On appelle « fermion » tout quantum de spin
demi-entier qui se comporte de la sorte. Ceci signifie que les fermions ne
peuvent contrairement aux bosons s'agréger entre eux et se repoussent donc
violemment comme le fait la matière lorsqu'on essaye de les superposer. Pour
cette raison, on attache le caractère « fermion » de spin demi-entier à tout
ce qui se comporte comme des corpuscules matériels impénétrables. Cette
distinction entre matière et rayonnement est donc ancrée au cœur même de
la physique quantique dans la valeur du spin qui doit être impérativement
spécifiée en plus de la masse et de la charge électrique. Si je connais le spin,
je sais si j'ai affaire à du rayonnement ou au contraire à de la matière.

Cohérence
Le rôle central joué par le vide en mécanique quantique de seconde
quantification doit nous inciter à regarder l'opérateur d'annihilation de
seconde quantification d'un petit peu plus près. En effet, c'est lui qui, en
détruisant les quanta un à un, nous permet d'atteindre l'état fondamental.
Si l'on cherche quels sont les vecteurs propres de cet opérateur, on constate
qu'ils possèdent la caractéristique très intéressante d'avoir une phase bien
définie. C'est la raison pour laquelle on parle d'états « cohérents ». Ainsi,
dans la limite de la matière condensée, où le nombre de quanta devient infini,
on trouve que la trajectoire de la mécanique classique donne à chaque instant
les valeurs numériques des phases de l'état cohérent dans lequel le système
quantique se trouve au moment de l'observation. Dans ces conditions, le
champ évolue selon une trajectoire classique autour de laquelle il s'autorise
des fluctuations d'amplitude inversement proportionnelle à la racine carrée
du nombre de quanta. Il en découle que les états cohérents de l'opérateur
annihilation représentent la meilleure approximation quantique de la physique
classique. Autrement dit, tout ce que vous voyez autour de vous, et que l'on
analyse au moyen des lois de Newton ou de Maxwell, peut aussi s'analyser
comme des états cohérents basés sur les vecteurs propres de l'opérateur,
annihilation du formalisme de seconde quantification.

Avant de montrer le rôle que joue la notion de cohérence pour l'eau,


précisons de quoi on parle. Parler de cohérence signifie qu'il existe au moins
deux acteurs identiques en tout point et parfaitement non distinguables l'un
de l'autre. Cette condition est impérative, car si jamais on peut mettre une
étiquette non ambiguë sur l'un ou l'autre acteur, c'est que la décohérence
s'est déjà produite et que l'on a affaire à une situation incohérente. Une autre
manière de comprendre cela est d'essayer de compter avec une certitude
absolue une collection d'objets tous rigoureusement identiques. Si vous

245
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

n'arrivez pas à compter ou que vous faites toujours de grandes erreurs, c'est
que vous êtes face à un état à phase cohérente. Si au contraire vous pouvez
compter sans erreur, c'est que vous avez affaire à un état à phase incohérente,
et c'est précisément parce que les phases sont incohérentes entre elles que
l'objet vous apparaît fait de parties séparées. Avoir une cohérence de phase
signifie apparaître comme une unité non divisible en parties. Autrement dit,
lorsqu'on parle d'un domaine de cohérence constitué de plusieurs objets
tous identiques entre eux, la notion même d'objet constitutif perd son sens.
La seule réalité que je puisse percevoir de ce domaine est que tout se passe
comme si l'on avait pris un seul objet et qu'on l'avait gonflé pour que sa
taille soit celle du domaine de cohérence. Ou, si vous préférez, chaque objet
possède la taille de tout le domaine, ce qui fait que compter n'a plus aucun
sens. Par opposition, une collection d'objets incohérents sera perçue comme
un ensemble d'entités indépendantes ayant toutes la même taille et pour
obtenir la taille du domaine, il faudra additionner toutes les tailles.

Il est en fait assez facile de voir des exemples de domaines de cohérence


dans la nature. Les nuées d'étourneaux, les bancs de poissons ou les figures
de Chladni fournissent en effet d'excellents exemples de systèmes faits
de parties qui se comportent comme un tout (figure 118). Le domaine de
cohérence est donc avant tout une structure temporelle et non une structure
spatiale, car tout domaine de cohérence implique trois ingrédients : une
collection d'objets identiques en mouvement, une fréquence caractéristique
et un milieu apte à propager les ondes. Pour les oiseaux, la fréquence est
fixée par le battement des ailes et le milieu de propagation des ondes est l'air.
Pour les poissons, la fréquence est donnée par le battement des queues et
le milieu de propagation des ondes est l'eau. Enfin, pour de simples grains
de sable, c'est un générateur qui impose une fréquence de vibration à un
support solide. Peu importe l'échelle ou la nature matérielle des choses, car
ce qui compte, c'est la phase qui en tant qu'angle est invariant d'échelle et
ne possède pas de contenu dimensionnel. Peu importe aussi la nature exacte
des ondes mises en jeu, la cohérence pourra émerger à partir du moment où
des objets indiscernables les uns des autres peuvent échanger leurs positions
respectives. Cela empêche de mettre des étiquettes sur les choses comme on
pourrait le faire en cas d'incohérence.

246
CHAPITRE V- L'EAU QUANTIQUE

f = 1225 Hz f = 1450 Hz

••
Figure 118 : Exemples de domaines de cohérence dans la nature. En haut, des nuées
d'étourneaux dans le ciel et en bas des figures de Chladni sur une plaque vibrante
et des bancs de poissons dans l'eau. L'absence de la constante de Planck dans la
relation d'indétermination entre nombre d'entités Net phase rp fait que cette relation,
qui se trouve à la base du processus de seconde quantification, est valable à toutes
les échelles y compris l'échelle macroscopique. Nous vivons donc dans un monde
quantique à toutes les échelles.

Pour que la cohérence émerge, quelque chose doit impérativement accepter


de fluctuer. Ainsi, pour les objets macroscopiques, si je découpe l'espace en
cellules numérotées pouvant accueillir chacune un oiseau, un poisson ou un
grain de sable, ce qui fluctue est le nombre d'entités qui peuvent visiter cette
case. Lorsque la cohérence de phase s'installe, chaque case peut être visitée
par l'ensemble des entités, ce qui correspond bien à une indétermination
maximale. Comme l'indique la relation d'indétermination liant nombre et
phase (figure 118), la phase devient bien définie dès que le nombre fluctue.
C'est ce que l'on peut clairement voir sur la nuée d'étourneaux, puisqu'à
un moment donné, ils vont tous dans la même direction, c'est-à-dire qu'ils
possèdent le même angle de phase. Ce qui donne l'aspect saisissant au
spectacle, c'est que l'angle de phase change au cours du temps, en raison
des variations de température ou de pression de l'air, ou du changement de
fréquence du battement des ailes.

Il existe une vidéo très instructive sur internet, où l'on voit 32 métronomes,
disposés avec ordre (cohérence spatiale) et battant la même cadence
(cohérence temporelle) sur un support mobile. L'expérimentateur lance alors
les 32 métronomes, mais comme il n'a que deux mains, il est obligé de les

247
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

lancer les uns après les autr.es et non simultanément. Ce faisant, on obtient
une véritable cacophonie auditive et visuelle, car chaque métronome, même
battant au même rythme que ses voisins, n'est pas parti en même temps
qu'eux, ce qui fait qu'il n'arrive pas en bout de course en même temps que
les autres. Dans cette situation, on a affaire à une collection d'objets tous
parfaitement identiques mais en incohérence de phase, ce qui permet de
suivre le mouvement de chacun d'entre eux de manière individuelle. Puis,
au cours du temps, il va se passer un phénomène merveilleux, car tous les
métronomes partagent le même support qui ne peut aller que dans une seule
direction, alors qu'au-dessus de lui, au même moment, certains métronomes
vont vers la droite et d'autres vers la gauche en raison de leur incohérence
de phase. Intuitivement, on comprend qu'une telle frustration ne peut pas
durer car de la quantité de mouvement s'échange en permanence entre les
métronomes et leur support commun. Comme toujours en pareille situation,
c'est la cohérence qui finit par l'emporter et au bout de quelques minutes une
belle harmonie s'impose, car tous les métronomes se sont comme par magie
tous synchronisés sur la cohérence faible mais persistante du support.

Domaines de cohérence aqueux (DCs)


Rappelons que pour comprendre le comportement de l'eau liquide,
il est nécessaire qu'un proton, particule de charge positive, se déplace
parmi les molécules d'eau avec un temps de résidence moyen de l'ordre
de la picoseconde à T = 300 K qui augmente jusqu'à 20 ps à T = 250 K
(Teixeira & al. 1985). Ce mouvement de charge doit donc nécessairement
créer un champ électromagnétique ayant une fréquence voisine de 10 12 Hz
et il est tacitement admis en première quantification que ce champ
« interne » à l'eau car lié à la fluctuation incessante des liaisons hydrogène
est de nature locale et complètement incohérente, ce qui provoque sa
disparition très rapide par interférences et l'empêche de se manifester à un
niveau macroscopique. Ne reste donc que les champs électromagnétiques
« externes » à l'eau qu'il est parfaitement légitime de traiter classiquement
vu les énergies mises en jeu. Mais que se passerait-il si le champ interne, au
lieu de disparaître par interférences comme on le suppose, était de nature
cohérente et non incohérente ? De fait, si l'on associe à chaque molécule
d'eau quatre liens disposés au sommet d'un tétraèdre, il apparaît alors que si
tous ces liens fluctuent en nombre, l'on pourrait alors avoir selon la relation
d'indétermination nombre/phase apparition d'une phase commune. En effet,
les objets en mouvement seraient les liens qui par leurs fluctuations génèrent
des ondes électromagnétiques se propageant dans le vide quantique.

248
CHAPITRE V- L'EAU QUANTIQUE

Incohérence spatiale et temporelle Cohérence spatiale, incohérence temporelle

Cohérence spatiale = même direction


Cohérence temporelle = même fréquence
Cohérence de phase = même origine

Cohérence spatiale, temporelle et de phase

Figure 119: Mise en cohérence d'ondes électromagnétiques dans un vide quantique.

On peut aussi partir de l'exemple des métronomes en remplaçant


mentalement chaque métronome par une molécule d'eau et en substituant le
vide quantique au support. Ce vide est bien sûr rempli d'ondes incohérentes
mais par contre, chaque fois que l'on excite les électrons de la molécule d'eau
vers un de ses états d'énergie discrets situés en dessous du seuil d'ionisation,
c'est toujours la même fréquence qui est extraite du vide et rendue au vide
après relaxation vers l'état fondamental. Imaginons maintenant qu'au lieu
de relaxer vers le vide, la molécule d'eau transfère son énergie vers une
autre molécule. Comme les deux molécules sont rigoureusement identiques,
l'énergie qui a excité l'une pourra exciter l'autre avec un rendement de
1OO %. De plus, en raison de règles de sélections liées à l'opérateur moment
dipolaire, les transferts se feront toujours dans la même direction, c'est-à-dire
avec cohérence énergétique et spatiale. Il ne reste alors plus qu'à attendre
que le temps fasse son travail (comme dans le cas des métronomes), en
synchronisant le tout pour faire émerger la cohérence de phase. Pour que
tout cela fonctionne, les molécules doivent rester à proximité les unes des
autres (énergie de liaison) dans une certaine orientation (directionnalité) en
synchronisation avec le vide qui les sépare (dilatation). La figure 119 montre

249
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

quel serait l'état du vide si l'on pouvait voir les ondes électromagnétiques
échangées entre les molécules. La situation e~ haut à gauche correspondrait
au vide quantique sans molécules d'eau, ceUe de droite au vide physique
aqueux perturbé par la présence des molécules d'eau. Au milieu à gauche, il y
a eu accordage sur une fréquence commune entre le champ électromagnétique
du vide et le champ de matière représenté par son état fondamental et un état
excité. Au milieu à droite, les molécules d'eau s'orientent pour maximiser
l'efficacité des transferts, ce qui amène la cohérence spatiale. Une fois établie
la cohérence spatio-temporelle, la cohérence de phase apparaît spontanément
(en bas à gauche).

Cette nouvelle conception du vide dans le cadre de la seconde quantification


va évidemment profondément bouleverser la vision que nous pouvons avoir
de la molécule d'eau. En effet, les propriétés physiques et chimiques des
molécules en première quantification sont essentiellement gouvernées par
le dernier niveau d'énergie électronique occupé (HOMO) et par le premier
niveau d'énergie électronique vide (LUMO). Les autres niveaux d'énergie
qui sont non peuplés dans l'état fondamental n'interviennent que lorsque
la molécule absorbe ou émet un rayonnement électromagnétique provenant
soit du milieu matériel environnant (phénomène de relaxation), soit d'un
expérimentateur qui irradie volontairement la molécule par le biais de
l'acte spectroscopique. En aucun cas, la molécule ne peut s'exciter elle-
même sans l'aide de l'extérieur, car cela violerait le premier principe de la
thermodynamique qui interdit la création spontanée d'énergie à partir d'un
milieu vide de matière ou de champ.

La finitude de la constante de Planck et l'existence de quanta virtuels lèvent


bien sûr cette contrainte, car le premier principe ne s'applique qu'à ce qui
peut être observé. Or, une particule virtuelle présente la propriété de pouvoir
exister pendant un laps de temps inférieur au rapport de la constante de Planck
et de l'énergie nécessaire pour sa création sans pouvoir être détectée. Dans ce
cas, le premier principe peut très bien être temporairement violé sans changer
la réalité concrètement observable. Toute molécule devient donc susceptible
d'auto-excitation en absorbant via n'importe lequel de ces niveaux excités,
aussi haut en énergie soit-il, un photon virtuel emprunté durant un bref
instant au vide. Il n'y a donc plus besoin d'excitation externe pour que la
molécule explore à chaque instant la totalité de son spectre d'énergie, depuis
les niveaux occupés les plus profonds jusqu'au potentiel d'ionisation de la
molécule, voire même au-delà.

Bien sûr, plus l'énergie d'auto-excitation mise enjeu sera importante, plus
la durée de cette auto-excitation sera courte. Avec ces nouvelles règles du jeu,
les propriétés physiques et chimiques deviennent fonction non seulement du
spectre d'énergie total (et non plus uniquement de la paire HOMO-LUMO

250
CHAPITRE V- L'EAU QUANTIQUE

comme en première quantification), mais également du rapport entre le


nombre de molécules total et le volume disponible, c'est-à-dire de la densité
du milieu matériel. En effet, le vide avec son océan de particules virtuelles
occupant tout l'espace « vide » entre les molécules devient maintenant un
partenaire à part entière qui ne peut plus être négligé.

Pour fixer les idées, imaginons qu'une molécule d'eau donnée A absorbe à
un certain instant un photon virtuel emprunté au vide quantique (figure 120).
Ce photon doit nécessairement être tel que le produit de sa fréquence
par la constante de Planck soit égal à la différence d'énergie entre l'état
fondamental et un certain niveau excité de la molécule d'eau. Selon la
relation d'indétermination d'Heisenberg, la durée de vie maximale de cet état
excité sera donnée par l'inverse de la fréquence absorbée. Comme il s'agit
d'une excitation virtuelle, la molécule peut très bien relaxer vers son état
fondamental en réémettant un autre photon virtuel de même énergie que celui
qui a été absorbé. Durant son existence éphémère, le photon virtuel peut se
propager jusqu'à une distance égale à sa longueur d'onde. Ainsi, pour ..une
excitation vers un état situé 12 eV au-dessus de l'état fondamental, le photon
virtuel pourra ainsi parcourir une centaine de nanomètres et donc rencontrer
sur son chemin, selon la densité du milieu, soit du vide, soit une ou plusieurs
autres molécules d'eau.

Tout va donc dépendre de la distance moyenne entre deux molécules


d'eau et qui correspond en moyenne à la racine cubique de l'inverse de la
densité. Si cette distance moyenne est supérieure à la longueur d'onde du
photon, les excitations virtuelles ne concernent qu'une molécule isolée et le
vide, cas qui correspond à de la vapeur d'eau en équilibre avec un champ
électromagnétique interne fluctuant de valeur moyenne nulle. Dans ce cas,
le« vide» entre les molécules d'eau n'est plus le vide, mais un état perturbé
par la présence de la matière, que j'appellerai« vide physique aqueux». Par
contre, si la distance moyenne entre molécules d'eau se trouve être inférieure
à la longueur d'onde du photon virtuel, les excitations peuvent prendre un
caractère collectif, impliquant plusieurs molécules d'eau pour un même
photon virtuel emprunté au vide physique aqueux. Dans ce cas, on aura soit
un gaz de van der Waals si les excitations collectives sont incohérentes et
déphasées, soit un état condensé si des cohérences de phase apparaissent entre
les différentes molécules d'eau impliquées dans l'auto-excitation. S'il y a
cohérence de phase, le «vide» entre les molécules d'eau n'est plus le vide
physique aqueux, mais un état oil rayonnement et matière sont en cohérence
de phase, que j'appellerai« vide Physique cohérent». Pour cet état qui n'est
possible que dans le cadre de la seconde quantification, N molécules d'eau
auparavant indépendantes adoptent un mouvement collectif piloté par la
création/destruction incessante de photons virtuels empruntés à l'espace vide
qui les sépare et qui assure que les phases du champ de matière et celles du

251
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

champ électromagnétique piégé restent constamment rivées l'une à l'autre.


Ce bloc de N molécules soudées par un champ électromagnétique sur une
échelle de taille donnée par la longueur d'onde de l'auto-excitation s'appelle
un domaine de cohérence.

État excité a'q(t)·aq(t)

X
Bq= 12.07 eV (10%) : 15d(O)>
s" :\ '4)

·:a0=
~ bQ
Il
;;::'·
~
e ~~ Q.
~ .,0 8 t' 4)
IP ~
~
4)
~
~
è"'of p$ \ . .Ë
;..
Vide
quantique
·Si 4) "'·
or- ~·
<I'
=
·..,80"
'O t:I. 09 0
13 0
~ ~Q. 9',
'3 s:
~ B0 = 0 eV (90%): llb 1> HOMO
État fondamental a'0 (t)·Rg(t)

Figure 120 : Mise en cohérence de la molécule d'eau par interaction avec des
photons virtuels en provenance du vide quantique.

Maintenant, au lieu d'utiliser comme base de description quantique les


vecteurs propres de l'opérateur position de la représentation de Schrôdinger
(fonctions d'onde) ou ceux de l'opérateur hamiltonien (matrices) dans la
représentation de Heisenberg comme en première quantification, on peut
utiliser la représentation « cohérente » basée sur les vecteurs propres de
l'opérateur annihilation. Ce faisant, il devient possible de décrire des états
dont la cohérence quantique se manifeste à une échelle macroscopique et
non plus microscopique (Preparata 2002). Il suffit alors d'appliquer le
formalisme de l'intégrale des chemins dans le cadre d'une représentation
cohérente des champs quantiques associés aux niveaux d'énergie d'une
molécule donnée d'une part et au rayonnement électromagnétique d'autre
part. On aboutit ainsi pour chaque niveau d'énergie décrivant la matière à
trois équations de cohérence où interviennent deux constantes de couplage,
qui dans l'approximation dipolaire sont fonction des forces d'oscillation
associées respectivement aux transitions discrètes entre l'état fondamental et
l'état excité concerné ainsi qu'aux transitions vers le continuum énergétique
de la molécule (Arani & al. 1995, Bono & al. 2012).

Si l'on néglige la dépendance spatiale des champs de matière et du champ


électromagnétique piégé dans un domaine de cohérence, la première équation
de cohérence est du premier ordre et décrit l'absorption d'un photon virtuel
d'énergie en provenance du vide physique par une molécule dans son état
fondamental provoquant son excitation vers un état discret avec un facteur
de pondération dépendant de la force d'oscillation de la transition et de la
fréquence associée (figure 120).

252
CHAPITRE V- L'EAU QUANTIQUE

La deuxième équation de cohérence, qui est également du premier ordre,


décrit l'émission d'un photon virtuel depuis l'état excité discret vers le
vide physique et qui ramène la molécule dans son état fondamental avec
évidemment le même facteur de pondération que précédemment.

La troisième équation est quant à elle du deuxième ordre et décrit l'état


du champ électromagnétique fluctuant du vide perturbé par la présence des
molécules d'eau dans leur état fondamental (même facteur de pondération)
auquel s'additionne le champ électromagnétique créé par le courant
électronique circulant entre les deux niveaux couplés soit via des transitions
directes, soit de manière indirecte via le continuum d'énergie. Ces dernières
transitions indirectes sont donc affectées d'un facteur de pondération intégral
car dépendant de la force d'oscillation avec l'ensemble du continuum.

Ainsi, partant d'une configuration initiale où toutes les molécules d'eau sont
dans leur état fondamental (vapeur d'eau) et où le champ électromagnétique
est lui dans son état fondamental (vide physique aqueux), on peut par
différentiation par rapport au temps obtenirune équation du troisième ordre pour
l'amplitude du champ électromagnétique couplant matière et vide quantique.
La recherche d'un état stationnaire pour ce champ électromagnétique interne
à l'eau conduit à considérer une équation du troisième ordre. Si cette équation
possède trois racines réelles, ce qui dépendra des valeurs relatives des forces
d'oscillation, l'amplitude du champ variera de manière sinusoïdale, décrivant
un état où le vide physique est stable, c'est-à-dire où le champ interne fluctue
autour de sa valeur initiale. Si par contre il n'existe qu'une seule racine réelle,
cela entraîne l'existence de deux autres racines complexes conjuguées l'une
de l'autre, ce qui déstabilise le vide physique aqueux. En effet, dans ce cas,
l'amplitude du champ électromagnétique interne peut croître de manière
exponentielle jusqu'à atteindre une valeur macroscopique.

Cette avalanche de photons virtuels est très similaire à ce qui se produit


dans un laser, sauf qu'ici c'est le vide quantique qui fournit l'énergie
nécessaire pour quitter le vide physique et se retrouver dans le vide cohérent
où matière et champ électromagnétique oscillent avec la même phase. On
notera que contrairement aux lasers qui utilisent une inversion de population
afin d'obtenir des photons réels capables de sortir de la cavité résonnante où
ils ont été créés, les photons associés au champ interne de l'eau restent eux
virtuels car piégés dans le domaine de cohérence qui leur a donné naissance.
Ces photons virtuels ne se manifestent donc pas comme un rayonnement
cohérent comme avec un laser optique ou un maser radio, mais plutôt
comme une énergie de liaison entre les molécules d'eau. Il s'agit bien sûr
de la fameuse liaison hydrogène des chimistes et des biologistes qui apparaît
ici sous sa vraie nature, c'est-à-dire comme une énergie de condensation
trouvant son origine dans le vide physique aqueux et obligeant les molécules

253
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

à rester proches les unes des autres afin de maintenir en permanence une
cohérence de phase quantique avec un champ électromagnétique interne de
valeur moyenne non nulle. Comme le phénomène est en fait très général et
non spécifique à la molécule d'eau, il conviendrait d'utiliser le terme « liaison
de cohérence » plutôt que le terme « liaison hydrogène ».

On comprend donc ici très bien tous les problèmes rencontrés en physique
classique ou en première quantification pour comprendre les propriétés de
l'eau liquide à partir de l'hypothèse que l'énergie du vide est nulle. Comme
on refuse de considérer le vide et sa structure quantique virtuelle, on est obligé
d'introduire un concept ad hoc, la liaison hydrogène, pour rendre compte des
observations expérimentales. En prenant explicitement en compte la structure
vibratoire du vide quantique, il n'y a plus besoin de faire une telle hypothèse
et l'eau redevient un liquide parfaitement normal qui se distingue des autres
simplement par le fait que le niveau d'énergie qui donne naissance par auto-
excitation au liquide conduit à un gap de cohérence relativement profond.
De plus, comme la cohérence de phase ne peut être maintenue qu'au prix de
créations et d'~nnihilations incessantes de photons virtuels, on explique très
bien que ces associations entre molécules d'eau à l'état liquide ne peuvent être
que très fugaces et fluctuantes comme on l'observe bien expérimentalement
par diffusion des neutrons.

Lo liaison de cohérence
D'un point de vue quantitatif, la résolution des trois équations de cohérence
conduit à trois paramètres, une fois connues les forces d'oscillation
électromagnétiques de la molécule d'eau. Le premier paramètre est l'angle de
mélange entre l'état fondamental de la molécule d'eau et l'état excité atteint
par absorption d'un photon virtuel en provenance du vide physique aqueux.
Le deuxième paramètre est l'amplitude finaleA 0 du champ électromagnétique
piégé. Le dernier paramètre est le gap énergétique de cohérence qui s'exprime
comme la somme de trois termes : l'énergie empruntée au vide physique et
stockée dans le champ électromagnétique (terme positif), l'énergie empruntée
au vide physique et utilisée pour exciter la molécule d'eau vers un état
discret (terme positif) et l'énergie de couplage entre le champ et les courants
électroniques circulant dans la matière (terme négatif).

254
CHAPITRE V- L'EAU QUANTIQUE

~
0 ,25

25 ........
~QI s:I
0
<=2

...ge-
........ 0,20
QI
20 0
&
·.i::
g. 0 ,15 ~
s:I 15 .cl
0 Q,
·~
~
..
F.3u
0
0,10
10
8
~
~
8... li!
s:I
0 0 ,05 0
5
i:i:. ·~
QI
c:ll

o,oo 0
4 8 12 16 20 24 28
~nergie du photon / eV

~ fi_ 8:{eV) Ao{eV) sin2a Eco1r{eV) dcm{g.cm·j


7.400 0.264 -0.3589 1.55 0.22 -0.67(17) 0.348(8)
19.700 0.225 - 0.3759 1.60 0.21 - 0.79(10) 0.290(7) 1
10.000 0.015 -0.4879 2.94 0.09 -0.11(4) 0.522(102)
10.170 0.039 -0.4715 - 2.36 0.13 - 0.24(3) 0.451(51)
10.350 0.029 -0.4781 - 2.52 0.12 - 0.19(6) 0.489(51)
10.560 0.024 -0.4815 - 2.64 0.11 -0.17(5) 0.424(32)
10.770 0.017 -0.4864 2.86 0.10 -0.13(4) 0.348(23)
l1i.000 0.052 -0.4634 - 2.21 0.14 - 0.32(10) 0.280(21)1
11.120 0.052 -0.4634 - 2.21 0.14 -0.33(10) 0.590(92)
11.385 0.022 -0.4828 - 2.69 0.11 -0.17(6) 0.372(24)
11.523 0.019 -0.4850 - 2.78 0.10 -0.15(5) 0.394(25)
11.772 0.037 -0.4728 2.38 0.13 -0.27(8) 0.356(13)
12.074 0.020 -0.4842 - 2.75 0.10 -0.1 5 034 12
12.243 0.010 -0.4916 3.23 0.08 -0.09 2
12.453 0.005 - 0.4956 - 3.80 0.06

Figure 121 : Émergence de la cohérence selon les différents états excités de la


molécule d'eau. On associe à chaque fréquence de transition mq (eV) caractérisée
par sa force d'oscillation i une constante de couplage cohérent, g1 = mp 2 (2ef.q'l/mq2
l
où mp est la fréquence du p asma électronique
.
(m e e0 mp 2 = e NIV) ainsi qu'une masse
réduiteµ, (fonction de la somme de toutes les forces d'oscillation à l'exclusion de
la transition considérée) pour tout photon piégé dans le domaine de cohérence. La
solution des équations de cohérence permet alors de calculer l'amplitude maximale
du champ électromagnétique piégé AO' la proportion de mélange entre l'état excité
et l'état fondamental sin2 a, le gap de cohérence Ecoh et la densité critique de
condensation de,;,. D'après Bono & al. (2012). Rappelons qu'en unités naturelles,
une énergie de 1 eV correspond à une pulsation de 1,52 1015 Hz ou à un potentiel
vecteur magnétique de 73 180 T m· 1•

255
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Alors que les deux premiers termes croissent de manière linéaire avec la
densité (NN), le dernier terme qui maintient en vie les fluctuations est lui
proportionnel à la racine carrée du cube du rapport NN. C'est lui qui est
donc responsable de l'existence d'une densité critique pour laquelle le terme
négatif compense exactement la somme des deux termes positifs. Pour cette
densité critique, la configuration oscillante qui va provoquer la condensation
peut être atteinte sans dépense d'énergie, alors qu'en dessous il faut aller
chercher de l'énergie dans le vide physique. Au-delà de cette densité, toute
augmentation de densité entraîne une réduction de l'énergie totale et aboutit
donc à la formation spontanée des domaines de cohérence. Au fur et à mesure
que la densité augmente, le champ électromagnétique au sein du domaine
de cohérence augmente son amplitude et réduit sa fréquence d'oscillation
par rapport à la fréquence d'excitation de manière à rester piégé à l'intérieur
du domaine de cohérence afin de pouvoir osciller en phase avec le champ
de matière. L'augmentation de la densité et de l'amplitude du champ piégé
cesse dès que les nuages électroniques des molécules d'eau en pulsation
commencent à se recouvrir de manière significative en raison de l'énergie
de répulsion liée au principe d'exclusion de Pauli qui devient supérieure
à l'énergie gagnée en augmentant la densité. Le domaine de cohérence,
combinaison ternaire de matière, de champ électromagnétique et de vide, a
atteint sa configuration d'équilibre où les valeurs de l'angle de mélange, de
l'amplitude du champ électromagnétique et du gap énergétique de cohérence
(valeur négative) ne varient plus dans le temps.
L'application de ce formalisme de seconde quantification au spectre
d'excitation optique expérimental de la molécule d'eau à l'état vapeur
dans la gamme spectrale 0-200 eV a été décrite par ailleurs (Arani & al.
1995, Bono & al. 2012). La figure 121 montre les valeurs des paramètres
pour chaque niveau d'énergie. Les couleurs jaune et rouge indiquent les
niveaux les plus aptes à faire émerger la cohérence, c'est-à-dire ceux qui
présentent une densité critique minimale proche de la valeur expérimentale
p* = 0,322 g cm-3 • Si l'on cherche maintenant le niveau qui présente un gap
de cohérence le plus proche de la valeur caractérisant l'énergie de la liaison
hydrogène (EH8 ::::: 0,21 eV), on est conduit à conclure que le meilleur candidat
est le niveau excité l5d(O)> situé à 12,07 eV au-dessus de l'état fondamental
(figure 121) avec un gap de cohérence de 0,16 eV, un angle de mélange de 18°
et une amplitude A0 ::::: 20 mT.

L'eau cohérente apparaît donc comme un état quantique superposé avec


une probabilité de 90 % pour un électron d'être dans l'état fondamental prévu
par la première quantification et une probabilité de 10 % de se trouver localisé
sur une orbitale 5d de l'atome d'oxygène. Ces orbitales 5d sont bien sûr
beaucoup plus diffuses que les orbitales moléculaires de la molécule d'eau, ce
qui fait que les molécules d'eau au sein d'un domaine de cohérence sont plus
volumineuses (rayon de l'ordre de 1,5 À) que celles d'une eau incohérente

256
CHAPITRE V- L'EAU QUANTIQUE

(rayon de l'ordre de 1,1 A). On remarquera également que parmi les cinq
orbitales d, un couple (z2 et x2-y2) se transforme comme la représentation
complètement symétrique a 1 du groupe C2v et peut donc se mélanger avec
les deux orbitales moléculaires (2a 1 et 3a1) impliquées dans la formation
des liaisons covalentes 0-H et/ou des paires non liantes (figure 122). Avec
quatre niveaux de symétrie a 1 impliqués, on s'attend donc à un arrangement
spatial des molécules d'eau plus ou moins tétraédrique afin de minimiser
les répulsions électroniques. La structure tétraédrique de la glace ou de
l'eau liquide découle naturellement de cet état de fait et rend parfaitement
compte de la non-participation de la HOMO 1b1 aux liaisons de cohérence
(Del Giudice & al. 1995).

sd(O) = 12,07 eV

Eau incohérente
HOMO ltb,>
état-p Eau cohérente
o,9!1b1> + o,1lsd(O)>
8E = o,16eV état mixte-(p,d)

Figure 122 : Changement de taille et de forme de la molécule d'eau suite à sa


participation à la formation d'un domaine de cohérence stabilisé par rayonnement
infrarouge compte tenu de la valeur du gap de cohérence.

Pour ce qui concerne les domaines de cohérence eux-mêmes, on peut les


modéliser comme des sphères d'un certain rayon emprisonnant un champ
électromagnétique interne non nul. Pour toute molécule d'eau à l'intérieur
d'une telle sphère, le fort couplage entre le champ interne et les molécules
d'eau réduit la fréquence d'excitation vers une nouvelle fréquence signifiant
que l'interface vide/matière se comporte comme un miroir parfaitement
réfléchissant pour le champ interne. Cette renormalisation de la fréquence
d'excitation empêche le champ de rayonner à l'extérieur du domaine de
cohérence où il se propagerait avec la fréquence d'excitation.
Comme on peut le voir sur la figure 123, l'empilement compact des
domaines de cohérence avec une distance minimale inter-domaines conduit
à une superposition du champ interne piégé et des parties évanescentes
entre domaines voisins. À l'extérieur du domaine de cohérence, le champ
électromagnétique est libre et doit donc avoir une amplitude obéissant à
l'équation de Poisson. En imposant une continuité du champ en amplitude et
pour la dérivée première entre le champ interne et celui externe qui décroît de
manière exponentielle, on trouve que le champ passe par une valeur minimale
entre deux domaines de cohérence pour un rayon inversement proportionnel
à la fréquence d'excitation (figure 123).

257
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

&B • 0,16eV R.ec:ouvremenc


entre deux OC.
f • 3,9'10 11 Hz
0.1 A. • 7,7,.m 0.1

~ o~ ~<"' o~
~
0.4 0.4

DCl..U Il
0.1 0.1
"'
o.o 0.2 0.4 0.6 0.1 l.D 1.1 1A o.o 0.20.40.60.11.0l.ll.4
X= "'/111 X= ro,r/11

Figure 123 : Profils de variation du champ électromagnétique à l'intérieur d'un


domaine de cohérence (gauche) et même profil par recouvrement de deux domaines
de cohérence (droite). La variable x est sans dimension puisqu'elle est le produit de
la fréquence d'excitation w exprimée en nombre d'onde par le rayon r du domaine.

Pour une excitation de la molécule d'eau à 12,07 eV, il s'ensuit que le


diamètre d'un domaine de cohérence est de 75 nm correspondant à un volume
voisin de 221 nm3 • Si l'on suppose 1OO % de cohérence pour la température la
plus basse qui puisse être atteinte tout en restant liquide (05 :::::: 228K) avec une
densité pour cette eau surfondue voisine de celle de la glace (p : : : 0,92 kg m· 3),
il vient que l'on trouve environ 7 millions de molécules d'eau. Un domaine
de cohérence n'a donc rien à voir avec un cluster d'eau. On remarquera que la
pénétration mutuelle du champ électromagnétique entre les domaines produit
une interaction qui est responsable de la cohésion à longue distance des
molécules d'eau constituantes. Les attractions inter-domaines étant nettement
plus faibles que les attractions intra-domaines, il s'ensuit qu'il faut beaucoup
moins d'énergie pour produire une bulle de gaz que pour vaporiser la même
quantité d'eau. Par conséquent, on s'attend à ce que les gaz dissous dans
l'eau se concentrent dans les interstices générés par l'empilement compact
des domaines de cohérence, dans une configuration hautement instable
qui favorise la coalescence des bulles. Dans ce contexte, le fait que des
électrolytes communs puissent augmenter ou ralentir le taux de coalescence
de nanobulles n'a rien de surprenant (Craig & al. 1993).
De manière stricte, tout ceci ne concerne que l'eau surfondue au voisinage
d'une température~\:::::: 228 K. Si la température augmente, des fluctuations
thermiques sont tout à fait capables d'éjecter hors du domaine de cohérence
une certaine fraction F.me(0) de molécules d'eau localisées à la frontière
du domaine de cohérence en démarrant à partir de la périphérie (x =%)et
progressant au fur et à mesure que la température augmente vers le cœur du
domaine (x = 0). Lorsque la fraction incohérente atteint le point x = 0, c'est
l'ébullition, c'est-à-dire 0 = 100°C sous une pression de 1 atm. Par analogie
avec le traitement de la superfluidité de l'hélium-4, on peut utiliser le modèle
de Landau à deux états (Arani 1995, Henry 2014), ce qui permet de calculer
le profil de variation de la fraction incohérente en fonction de la position x à
l'intérieur du domaine et de la température.

258
CHAPITRE V- L'EAU QUANTIQUE

1 . 1 00 ~-----~

.......
~ ... ~ -0.004
1.075
1.0llO

• o.e
... œ ......
1
œa...
1
;:...., ...... ."'
bol
......
"'• .....
-0.01 0
"'0.2

D.OO 100 200


0/K
300 ilOO l500
-O.ot2

0 100 ....
0/K
f-o.
000 ... ... ........ ......... 0/K

Figure 124 : Variation de la fraction d'eau cohérente liquide en fonction de la


température et justification de l'existence d'un état surfondu et d'un maximum de
densité.

En intégrant ce profil sur tout le domaine de cohérence, il est possible


d'évaluer comment varie la fraction éohérente en fonction de la température
(figure 124, à gauche). Lorsqu'on dérive cette courbe par rapport à la
température, on constate qu'elle présente un minimum prononcé pour une
température voisine de 230 K, signature de l'existence d'un état surfondu
pour l'eau liquide (figure 124, au milieu). Compte tenu de ces courbes, il
est possible de calculer comment doit varier la densité de l'eau liquide en
fonction de la température (figure 124, à droite). Le maximum de densité
de l'eau liquide peut ainsi être expliqué comme étant la température où
l'augmentation de la fraction incohérente de plus haute densité est juste
compensée par la décroissance de la fraction cohérente. Les autres propriétés
thermodynamiques de l'eau peuvent être expliquées de la même manière.

1 = ~J 4 tc·R' {!!..:!!!..)}R' ==> i = 1-iiJ


Moment d'inertie 1 51 3 oc V oc

Ionisation âll,. 0.54 eV


ôE = 0,16 eV > 12.s t
-- 12.0 ·- ·-·- -···· -· -· ······- • ••• •••••• •• •••••••
"'g.
F0 , . = 0.4 -~ IU
:o;
Temp.;oc Cohérente Incoh érente
~ 11.0
-4o•c 100% 0% "'
'5
o.
o•c 50% 50% 10.S
3o•c 40% 60%
100°c 0% 100% JO.OO 4 6 8 10 12 14
2
ri A

Figure 125: Schéma de la structure de l'eau liquide pour une température de 300 K
(gauche) et profil du potentiel à l'intérieur d'un domaine de cohérence (droite).

259
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ainsi, pour une température 0::::: 300 K, on a pu estimer qu'il y avait 40 %


d'eau cohérente pour 60 % d'eau incohérente (figure 125), correspondant à
un réseau de domaines de cohérence de rayon 28,5 nm séparés par un liquide
incohérent de densité supérieure d'épaisseur 2ô = 18 nm (Preparata 2002).
Comme l'énergie d'ionisation d'une molécule d'eau est de 12,6 eV et qu'un
électron passe 10 % de son temps dans un état situé à 12,07 eV au-dessus
de l'état fondamental, il s'ensuit que la barrière d'énergie que doit franchir
un tel électron pour devenir libre n'est que de 0,53 eV. Comme la distance
séparant deux nuages électroniques au sein d'un domaine de cohérence est
voisine de &- ::::: 0,5 A, la probabilité que l'électron saute d'une molécule
à l'autre par effet tunnel est de 91 %. Cette probabilité étant voisine de 1,
il s'ensuit que chaque molécule d'eau d'un domaine de cohérence fournit
0,1 électron à une bande d'états complètement délocalisés produisant des
super-courants à l'intérieur d'un même domaine de cohérence. La séparation
2ô = 18 nm relativement grande entre domaines de cohérence empêche l'eau
liquide d'être un bon conducteur électrique. Ceci fait que ces courants restent
confinés à l'intérieur d'un domaine de cohérence et peuvent effectuer des
rotations rigides avec un moment d'inertie 1 fonction du rayon du domaine.
Le moment angulaire associé à cette rotation confère donc aux domaines de
cohérence un moment magnétique intrinsèque, ce qui explique la sensibilité
de l'eau liquide aux champs magnétiques même très faibles. Par exemple,
pour le champ magnétique terrestre B = 50 µT, la pulsation de Larmor del' eau
liquide se fera à une fréquence v = 1,4 MHz. Par conséquent, dans le cadre
de la seconde quantification et contrairement à ce qui est prévu en physique
classique ou en première quantification, l'eau liquide est bel et bien sensible
aux ondes infrarouges via l'auto-excitation des molécules d'eau à partir du
vide physique ainsi qu'aux ondes radio par l'auto-ionisation partielle subie
par les molécules d'eau lorsqu'elles passent 10 % de leur temps dans un état
excité très proche du seuil d'ionisation.

L'existence de domaines de cohéren~ au sein de l'eau liquide a aussi


des conséquences importantes sur le cdrnportement des ions en solution.
Ainsi, contrairement à l'opinion répandue que les équations de la seconde
quantification sont bien approximées par les équations de la physique
classique pour calculer le mouvement des ions en solution par dynamique
moléculaire, leur prise en compte explicite montre que les ions en solution
ne forment en aucune manière une « couche diffuse » comme le prévoit la
théorie classique de Debye-Hückel. Le calcul montre plutôt que les ions sont
eux aussi dans une configuration de plasma cohérent, oscillant en résonance
avec le champ électromagnétique cohérent présent dans les domaines de
cohérence (Del Giudice & al. 2000). Cet état de fait a bien évidemment de
profondes conséquences sur les phénomènes d'osmose et pourrait jeter une
lumière nouvelle sur certains phénomènes difficilement explicables dans un
cadre classique, comme l'existence des séries de Hofmeister en biologie, par

260
CHAPITRE V- L'EAU QUANTIQUE

exemple (Lo Nostro 2012). Cela pennet aussi d'expliquer que des champs
magnétiques de quelques nanoteslas oscillant avec des fréquences de quelques
hertz puissent entraîner un mouvement ordonné de taille mésoscopique de
molécules ou d'ions centrés sur leur fréquence de résonance cyclotron dans
le champ magnétique terrestre (Del Giudice 2002).

Ions

f1
w = !L.Bo
m Plasma ionique cohérent

'''''''''''''''''''
'''''''''''''''''''
Protéine, ADN
\"""""""'"'
'''''''''''''''''''

Figure 126 : Effets des domaines de cohérence sur les ions de la biologie.
Intracellulaire

Si la cohérence de l'eau liquide n'est que de 40 % à température ambiante,


c'est bien évidemment en raison de l'agitation thennique trop importante, et il
suffit de descendre jusqu'à une température de l'ordre de -45 °C, température
de nucléation homogène de la glace dans de l'eau ultra-pure, pour obtenir
comme on l'a vu 100 % de cohérence. Un autre moyen de maintenir 100 %
de cohérence est bien évidemment de lutter contre le désordre thennique,
non pas en abaissant la température, mais plutôt en amenant une interface
sur laquelle l'eau peut s'appuyer pour mieux résister à l'agitation thennique
qui pousse à la décohérence. C'est ce qui se passe dans toute cellule qui
est constituée à 70 % en masse et à 99 % en nombre de molécules d'eau.
Comme on l'a vu, un calcul élémentaire montre que si l'on répartit toute l'eau
intracellulaire à la surface de composants de taille nanométrique, on obtient
une épaisseur d'au plus quatre couches d'eau autour de chaque composant. Il
s'ensuit que contrairement au cas de l'eau liquide, l'eau intracellulaire peut
garder 1OO % de cohérence même pour une température aussi haute que 37 °C
(figure 126). Le fait que certains ions puissent pénétrer l'eau cohérente, alors
que d'autres s'en trouvent exclus, apporte une explication simple et naturelle
à la différence de comportement entre l'ion sodium et l'ion potassium.

Il en découle que comme sa consœur liquide, l'eau intracellulaire est


sensible aux ondes infrarouges et/ou radio, ce qui ouvre bien sûr des
perspectives immenses dans la lutte contre la prolifération bactérienne par

261
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

des moyens purement physiques et non chimiques en envoyant des ondes


électromagnétiques de fréquence convenable sur de l'eau liquide ou des
biofilms (Merlin & al. 2015). L'amplitude maximale du champ interne
des domaines de cohérence étant théoriquement de l'ordre de la dizaine
de milliteslas, on s'attend à ce que des champs magnétiques de quelques
milliteslas soient suffisants pour perturber la croissance bactérienne. Pour ce
qui concerne les fréquences, il est clair que le champ magnétique terrestre
procure une fréquence porteuse naturelle de l'ordre du MHz comme on l'a
vu. La modulation de cette porteuse par des champs de l'ordre du kHz devrait
donc suffire pour apporter une information permettant de favoriser ou au
contraire d'inhiber la croissance bactérienne. Les milieux biologiques étant
par nature même non centro-symétriques, on peut même envisager d'utiliser
des ondes sonores qui par effet piézo-électrique généreraient des ondes
électromagnétiques de même fréquence.

Figure 127 : Nanocapsules géantes encapsulant des c/usters d'eau cohérente et


incohérente.

Le grand challenge qui reste à affronter dans les années qui viennent
est évidemment la mise en évidence expérimentale de ces domaines de
cohérence prévus par la seconde quantification. Vu leur taille mésoscopique
(plusieurs millions de molécules d'eau), une mise en évidence directe semble
très délicate, car on ne peut appliquer aucune des techniques expérimentales

262
CHAPITRE V- L'EAU QUANTIQUE

bien rodées développées pour les clusters, ni celles tout aussi bien rodées
pour les solides. Le fait qu'il y ait une cohérence quantique à l'œuvre permet
cependant d'envisager des caractérisations indirectes. Par exemple, on sait
que la distinction entre eau « ortho » et eau « para» n'est possible que pour des
molécules d'eau séparées à l'état gazeux. L'observation des raies spectrales
caractéristiques de ces deux isomères de spin à température ambiante à l'état
liquide serait donc une preuve indirecte mais très forte de l'existence d'une
cohérence quantique. L'observation récente de librations cohérentes dans la
gamme de fréquence 0-100 cm- 1 caractéristiques des isomères « ortho » et
«para» par spectroscopie de diffusion Rayleigh à quatre photons dans de l'eau
désionisée liquide Milli-Q est donc très encourageante (Bunkin & al. 2006)
(figure 105). De même, l'encapsulation de grands clusters d'eau dans des
nanocapsules géantes de polyoxo-molybdate (figure 127) révèle l'existence
d'assemblages {Hp} 100 parfaitement ordonnés à structure tétraédrique de
densité moyenne p;:::: 0.69 g cm-3 donnant une image assez fidèle de la structure
spatiale que pourrait présenter un domaine de cohérence (Müller & Henry
2003). À l'opposé, l'existence d'assemblages {Hp} 59 à structure non
tétraédrique et désordonnés de densité moyenne p;:::: 0.36 g cm-3 nous révèle à
quoi pourrait ressembler une eau incohérente utilisant uniquement sa HOMO
et sa LUMO pour interagir (Henry & al. 2005). Ces structures obtenues par
diffraction des rayons X sur monocristal nous montrent donc très clairement
que lorsque la densité en molécules devient suffisamment élevée, il y a bien
émergence d'une cohérence comme le prévoit la théorie (Bono & al. 2012).
On remarquera également l'apparition de larges structures cohérentes, dans
certaines simulations de dynamique moléculaire, s'exprimant sous forme de
vortex d'un champ dipolaire (Higo & al. 2001). Enfin, l'analyse topologique
au moyen des domaines de Voronoï de ces simulations révèle également
l'existence dans le liquide de deux types de domaines avec présence de points
isobestiques (Shih & al. 1994). Il y a donc de grandes chances que dans un
futur très proche d'autres techniques encore plus performantes confirment la
réalité de structuration de l'eau liquide en domaines de cohérence.

Conséquences
On peut aussi se poser la question de savoir ce qu'amène la vision de
l'eau en termes de domaines de cohérence. Tout d'abord, comme on l'a
vu, l'eau devient un liquide tout à fait normal. Ce qui était en fait anormal,
c'était la manière de la concevoir comme un ensemble de petites molécules
incohérentes. Le maximum de densité est bien prévu et reproduit par la
théorie, y compris l'existence d'un état surfondu dans une large gamme de
température. Plus il y a d'eau cohérente, plus le volume augmente quand
on refroidit, car l'eau cohérente ayant « mangé » du vide a pris un léger
embonpoint. C'est exactement ce que l'on observe lorsqu'on refroidit l'eau

263
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE REVOLUTION DE LA MEDECINE

entre 4 °C et -37 °C, qui est la température véritable à laquelle il n'y a plus
d'eau incohérente. Lorsque ceci se produit, c'est un autre mécanisme de
cohérence qui intervient, à savoir la mise en place de la cohérence nucléaire
qui va permettre la cristallisation sous forme de glace. De fait, si l'on pense
cohérence et si l'on se place dans l'approximation atomique où il existe deux
types d' entités discernables, les électrons et les noyaux, on s'attend à trois
types d'états de la matière. Un premier état où l'incohérence est complète tant
au niveau des noyaux que des électrons et qui correspond à un état gazeux.
Un deuxième état où les électrons se sont mis en cohérence, mais pas les
noyaux, et qui correspond à l'état liquide. Enfin, un troisième état, où les
noyaux et les électrons sont en cohérence définissant l'état solide.

On obtient aussi une bien meilleure compréhension du polymorphisme de


la glace. Comme on l'a vu, il n'existe pas moins de 15 polymorphes différents
de glace, sans compter les glaces amorphes et les clathrates. Si l'on suppose
que chaque état d'énergie dans la gamme 10-12,6 eV peut être utilisé pour
donner naissance à des domaines de cohérence, le polymorphisme de la glace
trouve une explication évidente au lieu d'être un mystère. En effet, comme le
montre la figure 121, à chaque état excité du spectre de l'eau correspond une
densité critique. Il est donc facile de concevoir qu'en changeant la température
ou la pression on change le niveau d'énergie impliqué dans l'émergence de
la cohérence. Par exemple, on peut montrer que l'excitation de l'eau vers
11,5 eV (états de Rydberg 4p de l'oxygène) est probablement responsable de
la formation de la glace HDA (Buzzacchi & al. 2002).

l3 15 17 19
1 e 9 lO
bape d11 photot1 'rirtael /eV
berpe d11 photon virtuel / 1V

-
- - ·::a:···.
--.'"···.;··'1:....,. ((H,0,y)~t(o~~~..~:or:-~~O;)<~~·~·J}·H,0)_,.
{(H,0 ,y)., ...H,01 - {(H,0 ,yJ>_ + H,o; + ~on Muel
Bilatl: DC+ H,0- -oc + H,Ot
-~-------

Figure 128 : Justification de bioélectronique de Vincent dans le cadre de/ 'hypothèse


des domaines de cohérence.

264
CHAPITRE V- L'EAU QUANTIQUE

Il devient aussi aisé de comprendre les phénomènes d'auto-protolyse et


d'auto-électrolyse. En effet, les excitations virtuelles via le vide concernent
tout le spectre de la molécule d'eau et pas seulement les états de Rydberg
non impliqués dans la liaison chimique qui favorisent l'émergence de
la cohérence. Comme le montre la figure 128, si les excitations virtuelles
concernent les états anti-liants d'énergie inférieure à 10 eV, il y a risque de
dissociation homolytique de la molécule, générant des radicaux qui peuvent
après réarrangement générer du dihydrogène et du dioxygène. Ceci se produit
dans l'eau pure, et si d'aventure on rajoute d'autres espèces électro-actives,
on peut amplifier ou inhiber cette auto-électrolyse liée au vide physique
aqueux lui-même. Sur un plan macroscopique, on constate une variation du
potentiel rédox.

Une autre possibilité est que des excitations virtuelles avec une énergie
supérieure à 12,6 eV provoquent une ionisation virtuelle de la molécule d'eau.
Ici aussi, suite aux réarrangements électroniques, il est possible de former une
paire d'ions hydronium et hydroxyle qui peuvent diffuser rapidement dans
l'eau incohérente, puisque l'ion hydronium n'est après tout qu'une molécule
d'eau avec un proton en excès, tandis que l'ion hydroxyle est une molécule
d'eau avec un proton en défaut. Le proton étant une particule élémentaire,
il peut passer par effet tunnel entre ces différentes espèces, d'où un certain
taux de dissociation spontané, là aussi lié au vide. Si maintenant on rajoute
des espèces douées de propriétés acido-basiques, ce petit jeu de l'eau avec
le vide se trouve perturbé. Sur un plan macroscopique, on constate dans ces
conditions une variation du pH.

Enfin, si les excitations virtuelles sont dans la gamme 10-12,6 eV,


il y a formation de domaines de cohérence comme on l'a vu. Sur un plan
moléculaire, ce cas de figure correspond à l'auto-diffusion de la molécule
d'eau, tandis que sur un plan macroscopique, c'est la résistivité ou la
conductivité électrique de l'eau qui peut changer, selon l'étendue des
domaines de cohérence qui sera évidemment fonction de la concentration en
électrolytes. La seconde quantification justifie donc pleinement les recherches
empiriques de l'ingénieur hydrologue français Louis-Claude Vincent, qui fut
le premier à souligner l'importance des trois paramètres (pH, rH2 , résistivité
électrique) pour caractériser totalement l'eau d'un point de vue physico-
chimique. Le regroupement de ces trois paramètres sous la forme d'une
puissance exprimable en micro-watts est un autre avantage indéniable, qui est
d'ailleurs déjà exploité pour trouver les caractéristiques optimales d'élevage
d'organismes aquatiques très sensibles à la qualité de l'eau, mais aussi pour
caractériser les sols en agriculture (Husson & al. 2016).
Très récemment, une nouvelle modélisation quantique a clarifié la situation
en démontrant que les domaines de cohérence étaient instables pour des
systèmes tridimensionnels uniformes comme l'eau liquide (Sen & al. 2015).

265
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ceci est dû au fait que le nombre minimum d'électrons qu'il faut exciter en
3D pour atteindre la cohérence est supérieur au nombre d'atomes disponibles.
Ceci explique donc les échecs répétitifs visant à prouver l'existence des
domaines de cohérence dans l'eau liquide pure. Cependant, il a également été
possible de montrer que cette cohérence pouvait être atteinte en 2D, c'est-à-
dire pour l'eau morphognénique structurée en couche. Il en découle que les
domaines de cohérence peuvent exister dans l'eau liquide à condition que
cette dernière contienne des nanobulles ou des colloides qui via leur surface
autorisent l'émergence de la cohérence même dans un milieu tridimensionnel.
Si l'on est donc en droit de conserver quelques doutes sur l'existence de
domaines de cohérence pour ce qui concerne l'eau liquide ultrapure, nier
le phénomène pour l'eau morphogénique structurée en couches d'épaisseur
nanométrique n'est pas tenable, car ici les preuves expérimentales abondent.
Comme toute la biologie s'articule autour du concept d'eau morphogénique,
l'existence de domaines de cohérences ne peut plus être simplement ignorée
et toutes les conséquences doivent être tirées pour bénéficier d'une médecine
encore plus performante que celle pratiquée aujourd'hui.

266
Bibliographie
ARANI, R. ; BoNo, 1. ; DEL G1umCE, E. ; PREPARATA, G. (1995), « QED coherence and the
thermodynamics of water», !nt. J Mod. Phys. B, 9: 1813-1842.
BADER, R. F. W. (1990), « Atoms in Molecules : A Quantum Theory », !nt. Ser. Monographs
Chem., 22: 293-299.
BoNo, 1.; DEL G1umcE, E.; ÜAMBERALE, L.; HENRY, M. (2012), «Emergence of the coherence
ofliquid water», Water, 4: 510-532.
BOYER, T. (1984), « Derivation of the blackbody radiation spectrum from the equivalence
principle in classical physics with classical electromagnetic zero-point radiation », Phys. Rev.
D, 29 : 1096-1098.
BuKOWSKI, R.; SzALEWICZ, K.; ÜROENENBOOM, G. C.; VAN DERAVOIRD,A. (2007), « Predictions
of the Properties of Water from First Principles »,Science, 315: 1249-1252.
BUNKIN, A. F. ; PERSHIN, S. M. ; NuRMArov, A. A. (1993), «Four-photon spectroscopy of ortho/
para spin-isomer H20 molecule in liquid water in sub-millimeter range», Laser Phys. Lett.,
3 : 275-277.
BUNKIN, A. F. ; PERSHIN, S. M. ; NuRMATOV, A. A. (2006), «Four-photon spectroscopy of ortho/
para spin-isomer Hp molecule in liquid water in sub-millimeter range », Laser Phys. Lett.,
3: 275-277.
BuzzACCHI, M.; DEL G1umcE, E.; PREPARATA, G. (2002), « Coherence of the glassy state »,!nt.
J Mod. Phys. B, 16: 3771-3786.
CASIMIR, H. B. G. (1948), «On the attraction between two perfectly conducting plates», Proc.
Kon. Ned. Akad. Wetensch. Proc., 51: 793-795.
CHAN, W. F., COOPER, G. ; BRION, C. E. (1993), «The electronic spectrum of water in the
discrete and continuum regions. Absolute optical oscillator strengths for photoabsorption (6-
200 eV)», Chem. Phys., 178: 401-413.
CHANDLER, D., « Two faces of water», Nature, 417: 491.
CRAIG, V. S. J. ; NINHAM, B. W. ; PASHLEY, R. M. ( 1993), « The effect of electrolytes on bubble
coalescence in water», J. Phys. Chem., 97: 10192-10197.
DE GRoor, B. L. ; ÜRUBMÜLLER, H. (2001 ), «Water Permeation Across Biological Membranes :
Mechanism and Dynamics of Aquaporin-1 and GlpF », Science, 294 : 2353-2357.
DEL G1umCE, E.; ÜALIMBERTI, A.; GAMBERALE, L.; PREPARATA, G. (1995), « Electrodynamical
coherence in water: a possible origin of the tetrahedral coordination», Mod. Phys. Lett. B, 9:
953-961.
DEL G1umcE, E. ; PREPARATA, G. ; FLEISHMANN, M. (2000), « QED coherence and electrolyte
solutions», J Electroanal. Chem., 482: 110-116.
DEL G1umcE, E.; FLEISCHMANN, M.; PREPARATA, G.; TALPO, G. (2002), «On the "unreasonable"
etfect ofELF magnetic fields upon a system of ions», Bioelectromagnetics, 23: 522-530.
DIRAC, P. A. M. ( 1928), «The Quantum Theory of the Electron », Proc. Roy. Soc. London (A),
117: 610-624.
DvsoN, F. J. (1958), « Innovation in Physics », Scientific American, 199, n° 3, septembre,
p. 74-82.
ENGEL, V. ; SrAEMMLER, V. ; VANDER WAL, R. L. ; CRIM, F. ; SENSION, R. J. ; HUDSON, B. ;
ANDRESEN, P.; HENNIG, S.; WEIDE, K.; ScHINKE, R. (1992), « Photodissociation of water in the
first absorption band. A prototype for dissociation on a repulsive potential energy surface »,
J Phys. Chem., 96: 3201-3213.
ÜHANTY, T. K. ; SrAROVEROV, V. N. ; KOREN, P. R. ; DAvmsoN, E. R. (2000), « ls the hydrogen
bond in water <limer and ice covalent?», J Am. Chem. Soc., 122: 1210-1214.
GuRTLER, P.; SAILE, V.; KoCH, E. E. (1977), «Rydberg series in the absorption spectra of HP
and op in the vacuum ultraviolet», Chem. Phys. Lett., 51 : 386-391.

267
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

HENRY, M. ; BôGGE, H. ; DIEMANN, E. ; MOLLER, A. (2005), « Chameleon water: assemblies


confined in nanocapsules », J. Malec. Liq, 118: 155-162.
HENRY, M. ; CHAMBRON, J. (2013), « Physico-chemical, biological and therapeutic characteristics
of electrolyzed reduced alkaline water (ERAW) », Water, 5: 2094-2115.
HENRY, M. ; CHAMBRON, J. (2014), «Les risques d'une libre consommation d'eau réductrice
alcaline produite par électrolyse», Bull. Acad. Nat/. Med., 198: 867-879.
Hmo, J. ; SASAI, M. ; SHIRAI, H. ; NAKAMURA, H. ; KuGIMIYA, T. (2001), «Large vortex-like
structure of dipole field in computer models of liquid water and dipole-bridge between
biomolecules », Proc. Nat/. Acad Sei. USA, 98 : 5961-5964.
HoRNBERGER, K.; GERLICH, S.; HASLINGER, P. ; NiMMRICHTER; S. ; ARNDT, M. (2012), «Quantum
interference of clusters and molecules », Rev. Mad. Phys., 84 : 157-173.
HUSSON, o.; HUSSON, B.; BRUNET, A.; BABRE, D.; ALARY, K.; SARTHOU, J.-P.; CHARPENTIER,
H. ; DURAND, M. ; BENADA, J. ; HENRY, M. (2016), « Practical improvements in soil redox
potential (Eh) measurement for characterisation of soi! properties. Application for comparison
of conventional and conservation agriculture cropping systems »,Anal. Chim. Acta, 906 : 98-
109.
LAMB, W. E.; RETHERFORD, R. C. (1947), «Fine structure of the hydrogen atom by a microwave
method », Phys. Rev., 72: 241-243.
Lo NosTRo, P. ; NINHAM, B. (2012), « Hofrneister phenomena: an update in ion specificity in
biology », Chem. Rev., 112: 2286-2322.
MERLIN, G.; ÜMRI, N.; GONZE, E.; VALETTE, E.; CAUFFET, G.; HENRY, M. (2015), « Hydraulic
continuity and biological effects of low strength very low frequency electromagnetic waves :
Case of microbial biofilm growth in water treatrnent », Water Research, 83 : 184-194.
MEYER, E. E. ; RosENBERG, K. J. ; lsRAELACHVILI, J. (2006), « Recent progress in understanding
hydrophobie interactions», Proc. Nat/. Acad. Sei. USA, 103: 15739-15746.
MINIA, A. ; TENNYSON, J. (2004), « Can ortho-para transformation for water be observed », J.
Chem. Phys., 120 : 2732-2739.
MOLLER, A. ; HENRY, M. (2003), « Nanocapsule water-based chemistry », C. R. Chimie, 6 :
1201-1208.
N1LssoN, A. ; ÜGASAWARA, H. ; CAVALLERJ, M. ; NoRDLUND, D. ; NYBERG, M. ; WERNET, P. ;
PETTERSSON, L. G. M. (2005), « The hydrogen bond in ice probed by soft x-ray spectroscopy
and density functional theory », J. Chem. Phys., 122 : 154505.
PREPARATA, G. (2002), An introduction to rea/istic quantum physics, World Scientific,
New Jersey.
RoMERO, A. H. ; SILVESTRELLI, P. L. ; PARRINELLO, M. (2001 ), « Compton scattering and the
character of the hydrogen bond in ice Ih », J. Chem. Phys., 115,: 115-123.
RusAKov, D. A.; SAVTCHENKO, L. P.; ZHENG, K.; HENLEY, J. M. (2011), « Shaping the synaptic
signal: molecular mobility indis-de and outside the cleft »,Trends Neurosci., 34: 359-369.
SARSOUR, E. H. ; KUMAR, M. G. ; CHAUDHURJ, L.; KALEN, A. L.; GoswAMI, P.C. (2009), « Redox
Control of the Cel! Cycle in Health and Disease », Antioxidants & Redox Signa/ing, 11 : 2985-
3011.
SEN, S.; GUPTA, K. S.; CoEY, J. M. D. (2015), « Mesoscopic structure formation in condensed
matter due to vacuum fluctuations», Phys. Rev. B, 92: 155115.
SHIH, J.-P. ; SHEN, S.-Y. ; Mou, C.-Y. (1994), «A Voronoi polyhedra analysis of structures of
liquid water», J. Chem. Phys., 100: 2202-2212.
SuTER, R. ; G1sH, M. ; VILEsov, A. F. (2011 ), «Fast Nuclear Spin Conversion in Water Clusters
and Ices : A Matrix Isolation Study », J. Phys. Chem. A, 115 : 9682-9688.
TAJKHORSHID, E. T.; NoLLERT, P.; JENSEN, M. O.; MIERCKE, L. J. W.; O'CONNEL, J.; STRouD,
R. M. ; ScHULTEN, K. (2002), « Control of the selectivity of the aquaporin water channel family
by global orientational tuning », Science, 296 : 525-530.

268
CHAPITRE V - BIBLIOGRAPHIE

ÎEIXEIRA, J. ; BELLISSENT-FUNEL, M.-C.; CuEN, S. H.; D1ANoux, A. J. (1985), « Experimental


detennination of the nature of diffusion motions of water molecules at low temperatures »,
Phys. Rev. A, 31 : 1913-1917.
ÎIKHONOV, V. 1. ; VoLKOV, A. A. (2002), « Separation of water into its ortho and para isomers »,
Science, 296 : 2363.
URBAN, M. ; CoucuoT, F. ; SARAZIN, X. ; DJANNATI-ATAI, A. (2013), «The quantum vacuum as
the origin of the speed oflight », Eur. Phys. J. D, 67 : 58.
WANG, H.-T.; FELPS, W. S.; McGLYNN, S. P. (1977), « Molecular Rydberg states. VII. Water»,
J. Chem. Phys., 67 : 2614-2628.
WERNET, P. ; NORDLUND, D. ; BERGMANN, u. ; CAVALLERJ, M. ; ÜDELIUS, M. ; ÜGASAWARA, H. ;
NA.SLUND, L. A. ; HlRSCH, T. K. ; ÜJAMA~, L. ; ÜLATZEL, P. ; PETTERSSON, L. G. M. ; N!LSSON, A.
(2004), «The structure of the first coordination shell in liquid water», Science, 304: 995-999.
WILSON, C. M. ; JoHANssoN, G. ; PouRKABIRJAN, A. ; SIMOEN, M. ; JouANSSON, J. R. ; DuTY, T. ;
NoRJ, F. ; DELSING, P. (2011 ), «Observation of the dynamical Casimir effect in a superconducting
circuit», Nature, 479 : 376-379.

269
Mémoire de l'eau
•Préambule
Lorsqu'on parle de la possibilité pour l'eau d'avoir une mémoire, il y a de
fortes chances d'entendre quelques grincements de dents, chez les scientifiques.
Pour les plus naïfs qui auraient encore une image idyllique de la science, il
faut savoir que plus une personne possède de connaissances abstraites, plus
son esprit sera obtus et peu enclin à remettre en cause tout ce qui a été appris.
Les scientifiques sont donc totalement fermés à toute idée remettant en cause
le paradigme qu'ils ont patiemment construit, souvent après des siècles de
labeur acharné. Pour l'eau, le paradigme actuel est le concept de liaison
hydrogène qui a été forgé pour rendre compte des anomalies constatées dès
qu'un atome d'hydrogène se trouve lié à un atome fortement électronégatif
comme le fluor, l'oxygène ou l'azote. En fait, une analyse objective de ce
concept (Henry 2015) montre que ni la physique classique, ni la mécanique
quantique de première quantification ne sont capables d'expliquer clairement
ce concept pourtant crucial pour toute la biologie moléculaire. Comme on
l'a vu au chapitre 5, seule la mécanique quantique de seconde quantification
incluant le champ électromagnétique permet de comprendre que cette liaison,
comme toutes les autres liaisons chimiques, n'existe pas et que ce n'est qu'un
moyen classique de parler d'un phénomène essentiellement quantique. Je
vais décrire ici ce que l'on appelle en science une crucis experimentum et
qui comme toutes les expériences cruciales provoque d'abord incrédulité et
scepticisme dans la communauté scientifique jusqu'à ce que cela devienne
une évidence quelques siècles plus tard.

Songeons en effet au temps qu'il a fallu attendre - près de 150 ans - pour
accepter que l'eau présente un maximum de densité vers une température
de 4 °C. Même des très grands chercheurs comme Robert Hooke ou John
Dalton ont usé de toute leur autorité pour s'opposer à cette idée nouvelle
qu'ils avaient du mal à comprendre. Tous les deux ont nié des faits
expérimentaux qui sont acceptés comme des évidences de nos jours, afin
de sauver des conceptions théoriques qui s'accordaient mal avec les faits.
Quand un scientifique ne veut pas accepter une idée nouvelle, il la dénigre
par tous les moyens à sa disposition en la combattant souvent jusqu'à sa
mort. C'est à cette aune qu'il faut considérer la polémique autour de la
mémoire de l'eau née vers la fin du xx• siècle des travaux du biologiste
français Jacques Benveniste (1935-2004) et qui ne trouvera probablement
pas de conclusion définitive avant la fin du xx1• siècle. Notons que cette
expérience a fait l'objet d'un documentaire de 52' réalisé par Christian

271
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Manil en 2013, intitulé On a retrouvé la mémoire de l'eau. Ce documentaire


a été diffusé sur la chaîne France 5 le samedi 4 juillet 2014 et peut être visionné
sur internet pour rendre plus vivant ce chapitre. Mais, avant cela, préparons
le terrain pour pouvoir mieux saisir le caractère profondément novateur de la
démarche proposée.

Eau et information
Afin de mieux comprendre les conséquences pratiques de l'existence de
domaines de cohérence au sein d'une eau liquide, considérons une goutte
d'eau de 1 cm3 de volume. Rappelons qu'un domaine de cohérence se
forme spontanément à partir d'une excitation du vide quantique de longueur
d'onde /...:::::: 100 nm, correspondant à un niveau situé 12 eV au-dessus du
niveau fondamental. Si l'on considère dans un premier temps l'eau liquide,
cette longueur d'onde définit dans l'eau une grille 30 basée sur un cube
élémentaire de volume 106 nm3 (figure 129). Compte tenu de la densité de
l'eau liquide, on sait qu'une molécule d'eau occupe en moyenne un volume
de 0,03 nm3, d'où il s'ensuit que l'on trouve 10 15 domaines de cohérence
dans chaque centimètre cube d'eau (figure 129). Assignons maintenant le
chiffre 1 à un volume élémentaire où l'eau est devenue cohérente et 0 aux
cubes où l'eau n'est pas en cohérence, de la même manière que dans une
mémoire conventionnelle il est possible de coder 1 bit d'information sur un
domaine ferromagnétique ordonné (1) ou désordonné (0). On arrive ainsi à
une capacité théorique de stockage de 100 To par centimètre cube d'eau.

Pour bien réaliser ce que cela représente, rappelons que le contenu


informationnel d'une molécule d' ADN codant un être humain complet est
d'environ 725 Mo. Ceci signifie que dans 1 cm3 d'eau on peut coder environ
un million d'êtres humains. L'humanité entière, correspondant à sept milliards
d'individus, pourra être codée dans 7 000 cm3, soit seulement 7 l d'eau ... On
peut aussi considérer le contenu informationnel de tous les livres du monde
entier qui a été estimé à 200 pétaoctets, soit 200 000 To. Un volume d'eau
de 2 000 cm3, soit 2 l d'eau, serait théoriquement suffisant. On peut enfin se
référer au débit mondial d'informations circulant sur internet en 2014 qui a
pu être estimé à 64 Eo = 64 millions de To, ce qui correspondrait à 640 litres
d'eau liquide. Comme le soulignait si bien le physicien Richard Feynman dans
une célèbre conférence prononcée le 29 décembre 1959 au meeting annuel
de la Société de physique américaine à l'Institut de technologie de Californie
(Caltech): « There is plenty ofroom at the bottom »(Feynman 1960).

272
CHAPITRE VI - MÉMOIRE DE L'EAU

p - l g-cm-J
M • •Bg·mol·•
Eau liquide NA• 6·10" mo1" 1

o • incohf:rence
1 • cohf:rence
1DC • 1blt
l domaine (o ou 1) • 1 octet • 8 bit.a
1oo x 1oox100 • 106 nm"
t To • 10 11 octeta

10• •
~ N - - - • tO"' DC-cm-• . 100 To·cm-J
Photon virtuel 1 x 10•

1 domaine •
Eau morphog~nlque 1x1oox100 • 104 nm.s
• N(H,O) • 300 ooo
\1111111111111111111
111111111111111111 1·
~
1 Go • 10• octets

1 cm• • 10"' nms

Ill11
111 11111t1111Il
1111Il
t1Ill ~
....~~·
N • 10'4 /10 4
• 1010 DC·cm:..
• 1 Gocm.•

··~7:?-­

À• 100 nm ~·~····e(·AD·N)~.,1;
·~2~nm
Photon virtuel I"
••
100 nna
2
nm
o.m
N(H,O) • 400/0,03 • 10 ooo
1 ko • tOS octets
1 cm • 101 nm
N • 4·10•/400
• 104 DC·cm: 1
• 10 ko cm.·1

Figure 129: L'eau vue comme une mémoire informatique via l'attribution du chiffre
1 à tout domaine de cohérence et du chiffre 0 en cas d'absence de cohérence. On
considère ici les trois cas de l'eau liquide (haut), de l'eau morphogénique en couche
d'épaisseur 1 nm (milieu) et de l'eau morphogénique en gaine d'épaisseur 1 nm sur
un polymère cylindrique comme /'ADN

Membranes
Cœur=
Cerveau'" 40000
1011 neurones neurones

146 ooo neurones par mm•


1011 neurones • 1 m1 3 milliards de cellules
000 2·1o•x1o< "" 1 • 20 To
ummmttmm 3·1o•x500 = 1.s·1o< cm•
ummmmtmt 2·109 x1,5·104 • 1 • 40 To

uuummmmt
\tHHHttttHuttl
Intestins'"
A(cellule} • 500 µm•
l • 2Go·cm-a 108 neurones
ttre humain
• 3,7"10,. cellules
3,7·1013 x 5 ·10-tx2-109 200 m•= 2 -106 cm1
•l • 400Po 2·1o•x2·106 . . 1 • 4 Po

Figure 130 : Estimations de la capacité de stockage des membranes cellulaires


pour le corps entier et les trois organes possédant des neurones, en communication
permanente via le nerf vague.

273
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ces chiffres donnent bien sûr un peu le vertige et je comprends très bien
que certains auront un peu de mal à considérer l'eau liquide comme un disque
dur tout à fait fiable. Ils n'ont pas tout à fait tort dans la mesure où l'eau pure
n'est après tout qu'un mythe et que dans la réalité l'eau liquide contient bien
d'autres choses que de l'eau, ce qui évidemment relativise considérablement
ces chiffres. Si je les ai donnés, c'est juste pour se faire une idée de l'énormité
de la chose. De manière beaucoup plus réaliste et surtout intéressante, on
peut se rabattre sur l'eau morphogénique qui est une eau intracellulaire
soigneusement gérée par le corps puisqu'elle passe à travers des filtres
moléculaires très performants que sont les aquaporines. La figure 129 reprend
le calcul assez élémentaire en considérant une couche d'épaisseur 1,2 nm,
c'est-à-dire environ quatre couches d'eau comme on l'a vu au chapitre 2. Le
nombre de molécules d'eau par domaine chute à 300 000 et la capacité de
stockage devient dans ce cas de 2 Go par centimètre carré pour une bicouche
lipidique hydratée des deux côtés.

La figure 130 donne ainsi quelques chiffres clés concernant l'être humain,
ainsi que les trois organes disposant de neurones et donc aptes à traiter
l'information. Les calculs sont donnés pour une surface membranaire
moyenne de 500 µm 2 qu'il sera toujours possible de rectifier si l'on dispose
de données fiables. Vu notre nombre de cellules, on trouve une « mémoire »
membranaire voisine de 400 Po, pour le corps pris dans son ensemble. On peut
donc coder sur notre eau intracellulaire membranaire, en double exemplaire,
tous les livres du monde entier publiés depuis que l'imprimerie a été inventée.
Une autre manière de voir la chose est de considérer que notre environnement
nous envoie en permanence des informations au rythme d'un milliard de bits
par seconde. Au bout de cent ans, c'est-à-dire environ 3 milliards de secondes,
on aura reçu 3 10 18 bits d'information, soit environ 300 Po. On voit donc que
la durée de vie humaine permet de stocker sans problème toute l'information
reçue durant une vie terrestre. Si le cerveau oublie facilement, les cellules
quant à elles semblent donc tout retenir, et il ne semble donc pas si idiot que
cela de parler de mémoire cellulaire.

Pour ce qui concerne nos trois cerveaux localisés au niveau de la tête, de


la cage thoracique et du ventre, on voit que les intestins se taillent la part du
lion avec 4 Po de capacité de stockage. Notons bien que ceci ne concerne que
les cellules intestinales et pas toute la flore et la faune bactérienne qui peuple
ce lieu hautement stratégique. Si l'on admet le chiffre très conservateur de
30 000 milliards de bactéries, il faut rajouter environ 400 Po de mémoire
bactérienne. On est donc sur du lourd et on ne peut que donner raison à
tous ceux qui affirment que la plupart des problèmes de santé démarrent au
niveau intestinal, vu que l'intestin peut mémoriser à lui tout seul toute une vie
humaine, grâce aux bactéries qui y séjournent. On trouve ensuite le cœur avec
ses 40 To de mémoire qui sont tout de même loin d'être négligeables, et enfin

274
CHAPITRE VI - MtMOIRE DE L'EAU

le cerveau avec environ 20 To. Mais il est vrai que ce dernier organe, avec ses
500 à 20 000 synapses par neurone, possède d'autres ressources de mémoire
lui permettant de calculer et pas seulement de mémoriser.

Un autre exemple est la molécule d' ADN où l'on peut considérer une gaine
d'eau morphogénique de 1 nm d'épaisseur entourant un colloïde linéaire de
2 nm de diamètre; on trouvera environ 10 000 molécules d'eau par domaine
de cohérence V= 7t(Y - 22) x 100/4 ::::: 400 nm3, soit un nombre de molécules
d'eau N::::: 400/0,03 ::::: 13 300::::: 104• Si l'on admet que chaque domaine de
cohérence peut coder un bit, on peut coder jusqu'à 10 millions de bits sur
la gaine d'eau d'un ADN humain, l'ADN étant capable de coder lui-même
de manière aléatoire environ 6 milliards de bits, soit environ 750 Mo. Si
l'on considère qu'un ADN humain contient 3 milliards de paires de base et
qu'il faut un maximum de 2 bits par paire, on obtient 2 x 3 109 = 6 109 bits.
Comme les paires sont séparées d'une distance de 0,34 nm, on trouve une
longueur totale voisine de 1 m. Chaque domaine de cohérence nécessitant
100 nm = 10·1 m, on peut donc coder 107 bits, soit 1,25 Mo, sur la gaine d'eau
d'un ADN humain.

On peut aussi considérer que nos intestins abritent environ 4· 10 14 bactéries,


ce qui donne une capacité de stockage de 4 Eo, si l'on suppose que chaque
cellule code pour 10 ko. Mais la capacité de mémoire la plus vaste pour un
seul organisme se trouve dans les myceliums, où certains d'entre eux âgés de
1500 ans peuvent atteindre une masse de 1OO tonnes. Si chaque cellule pèse
en moyenne 0,13 pg, on trouve un total de 1021 cellules, soit une capacité de
10 Yo ou 10 milliards de pétaoctets.

Ces chiffres donnent la mesure du changement de paradigme qui couve


dans le domaine médical. Car finalement, si ce que nous apprend l'une des
théories les plus sophistiquées de la science, à savoir la mécanique quantique
de seconde quantification, est vraie, on peut très bien imaginer que les
véritables causes des maladies soient imprimées dans l'eau d'hydratation de
notre masse membranaire corporelle. Donner une molécule chimique n'aurait
dans ce cas que peu de sens et reviendrait à soigner les symptômes et non
les causes de la maladie. Par contre, cela donne beaucoup plus de sens aux
techniques homéopathiques, qui en diluant retireraient le corps chimique pour
ne laisser que l'information codée dans des domaines de cohérence, surtout si
le fait de diluer change la phase quantique des états cohérents nécessairement
présents. Comme en mécanique quantique de seconde quantification, changer
la phase revient à faire apparaître ou disparaître tout phénomène physique,
on comprendrait qu'il y ait des dilutions qui minimisent et d'autres qui
aggravent les symptômes. Tout ceci n'est pas de la simple biologie-fiction,
vu le nombre de mes amis vétérinaires qui soignent des maladies très graves
uniquement par homéopathie. Je me garderai bien évidemment de citer les

275
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

nombreux cas en médecine humaine, car en ce domaine, il y aura toujours


quelques esprits chagrins pour invoquer quelque facteur psychologique non
identifié responsable des guérisons. Comme le but de ce livre est d'expliquer
le rôle très particulier que l'eau entretient avec la mécanique quantique, je
n'en dirai pas plus. Toutefois, cela ne serait pas très surprenant que dans un
futur proche, les recherches sérieuses en homéopathie explosent, vu l'enjeu
humain et commercial que représente tout changement de paradigme. Je
quitte donc le chemin glissant et parsemé de barbelés de l'homéopathie pour
aborder l'expérience révolutionnaire proprement dite qui justement met en
jeu une molécule d'ADN.

L'expérience de Luc Montagnier


La première étape de l'expérience consiste à extraire l'ADN d'une bactérie
pathogène ou d'un virus (figure 131, à gauche). L'ADN est comme la carte
d'identité d'un organisme, aussi bien pour l'homme que pour un champignon
ou un virus. Il est unique et permet donc d'identifier tout type d'organisme.
On prend de l'eau pure qui va servir à réaliser des hautes dilutions dans une
vingtaine de tubes (figure 131, à droite). On conserve la moitié des tubes qui
serviront de contrôle afin de vérifier si l'eau utilisée est bien neutre. Dans
une éprouvette, on ajoute un nanogramme d'ADN d'un virus du SIDA.
Puis on réalise une haute dilution qui consiste à diluer fortement l'ADN du
virus. On prend donc un dixième de la solution contenue dans la première
éprouvette avec une pipette et on la met dans une deuxième éprouvette à
laquelle on ajoute 9 volumes d'eau, de manière à obtenir une dilution au
l/lOèm•. Théoriquement, le tube contient donc 10 fois moins de molécules de
l 'ADN initial. Le tube est ensuite agité fortement. On répète plusieurs fois ce
processus de dilution si bien qu'après la 15° dilution, on considère que l'on
ne dilue plus que de l'eau dans l'eau.
Les différents tubes de dilutions sont ensuite étiquetés de manière aléatoire
de manière à ce qu'il soit impossible de savoir quels tubes contiennent les
hautes dilutions. La réponse est dans un cahier où sont notés les codages. Sur
20 éprouvettes, 10 ne contiennent que de l'eau pure dite de contrôle et 10
contiennent des hautes dilutions d' ADN. Chaque tube est ensuite placé sur
une bobine qui joue le rôle de micro et permet de capter d'éventuelles ondes
qui sont ensuite dirigées vers une carte son permettant de numériser les ondes
éventuellement émises (figure 132, à gauche).

276
CHAPITRE VI - MÉMOIRE DE L'EAU

Streptococcus
Staphylococcus
Pseudomonas
Bactéries Mycoplasma plrum flttration

1~111111 11111 111


pathogènes Salmonella
Clostrldlum
émettrices Proteus mirabilis
B. Subtllls
Borrella burgdorferl Hauteodilutlomcleflltntl
(100 nm, 20 am) de

Virus
HIV1 -...c-.->
Influenza group A
émetteurs HBV
HCV

Figure 131 : ADN pathogènes utilisés par Luc Montagnier et dilutions successives
dans de l'eau.

D&ec:tiood·-~-r... CULF 500-3000 Hz)


Solutions n6gatives
L Mont11JW & ol. lnloRlodp. Sel Comput Llo Sel (2000) 1: 81-GO

~ Bruit
0

Captura des signaux électromagnétiques


Ëchantillon 1 ml Logiciel d'analyse
1
f 11•••••·-.1•;.,.1111r•1I
'
, x500 du signal Solutions positives

~
<
(+) Ir•:•
O
1111111
Temps I sec
ti: 1tu ~
6

Bobine Amplificateur Ordinateur Augmentation d'amplitude(%)


détectrice FFT = déplacement haute fréquence
Cu/3000 500-2000 Hz

Figure 132 : Dispositif d'acquisition des signaux électromagnétiques mis au point


par Jacques Benveniste.

Ces ondes seront à leur tour enregistrées sur un ordinateur pour former un
fichier numérique, comme un fichier musical. Certains tubes ne présentent
que du bruit de fond dû aux ondes électromagnétiques ambiantes, ce qui
permet de les identifier comme des tubes de contrôle (figure 132, à droite).
D'autres tubes présentent des ondes spécifiques de très faible intensité ayant
une fréquence bien plus élevée que celle du bruit de fond (figure 133, à
gauche). Il s'agit des tubes qui ont subi les hautes dilutions à 10-s et 10-9 de
l'ADN. Ce sont toujours à ces dilutions-là que se produit l'émission d'ondes
électromagnétiques. Le fichier son enregistré sur les tubes de hautes dilutions
est ensuite envoyé via internet à un autre laboratoire qui l'enregistre sur une
simple clé USB.

277
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Bruit
~----l Genefator 7Hz

..
DNA

11 ...........
IJ
Tube 1
:
••••• •
.

++ + contact physique
EllS
44 116 2M MO 1.WO 3820 1 130 201500
Fréquence I Hz

Figure 133 : Signaux électromagnétiques captés et transmission sans contacts


physiques.

Le but est d'exposer un tube d'eau pure aux ondes que génère ce fichier et de
voir ce qui se passe. Les ondes partent de l'ordinateur, sont amplifiées par un
boîtier avant d'être envoyées dans un serpentin en cuivre qui joue un rôle de haut-
parleur, afin que l'eau« entende» les ondes du virus (figure 133, à droite). Un
tube d'eau pure est inséré dans le serpentin en cuivre et exposé pendant environ
une heure. L'eau exposée au son est alors analysée avec un système PCR utilisé
par la police criminelle pour identifier une personne, par exemple un suspect. La
PCR consiste à mettre dans l'eau, en quantité suffisante, les éléments chimiques
de base qui constituent tout ADN, plus une enzyme appelée polymérase.

Dans un premier temps, ces éléments sont inertes, il ne se passe rien. Si


l'on introduit des traces infimes d'ADN dans le tube, la polymérase glisse
le long du morceau de l'hélice d'ADN avec souplesse et derrière elle, les
briques viennent s'attacher sur l'hélice de l'ADN afin de la compléter
pour recomposer une séquence d'ADN (figure 134, à gauche). Une fois
recomposée, la séquence permettra d'identifier le criminel. Toutefois, ici,
il n'y a que les éléments de base de la PCR. Aucun brin d'ADN n'a été
ajouté pour se recombiner : il ne devrait donc théoriquement rien se passer.
Et pourtant la polymérase fonctionne comme s'il y avait un ADN physi-
quement présent.

Une fois la PCR terminée, on constate ainsi l'apparition d'une séquence


d' ADN, ce qui permet d'affirmer que l'eau a bien une mémoire puisqu'elle
a mémorisé des informations provenant du fragment d'ADN d'un virus et
transmises via internet à un tube d'eau pure (figure 134, à droite). On vérifie
également quel' ADN reconstitué à partir du tube d'eau pure exposé aux ondes
est bien le même qui avait été utilisé pour l'enregistrement du fichier son
(figure 134, en bas).

278
CHAPITRE VI - MÉMOIRE DE L'EAU

-
1
--- ·------ .
........
••••••••••••••••
Figure 134 : Utilisation de la PCR pour amplifier /'ADN transmis et vérification de
/'identité des séquences.

Les expériences de Luc Montagnier démontrent qu'il est possible de


mémoriser dans l'eau une séquence d' ADN via sa signature électromagnétique
(figure 135, haut). Les conditions de reproductibilité de cette expérience
cruciale pour le développement futur d'une biologie numérique ont été étudiées
et sont assez sévères (figure 135, bas).

De nombreuses critiques ont bien sûr été émises à l'encontre du protocole


expérimental. On peut par exemple critiquer l'absence totale de protection contre
le véritable brouillard électromagnétique dans lequel nous vivons, alors qu'on
cherche à détecter un signal qui est à la limite d'un bruit de fond. Encore une fois,
d'un point de vue classique, cette critique est évidemment très pertinente. Toutefois,
d'un point de vue quantique, elle perd de sa force car la cohérence de phase
quantique est un phénomène collectif impliquant, dans le cas de l'eau, plusieurs
millions de molécules en connexion avec l'énergie du vide. La présence d'ondes
incohérentes sous forme de bruit électromagnétique n'est donc pas très gênante.
Mieux, en raison du phénomène de résonance stochastique. on peut obtenir un
rapport signal/bruit maximal avec un niveau optimal de bruit. Or, il se trouve
que le mécanisme d'apparition de la cohérence quantique obéit précisément à
une équation différentielle du troisième ordre hautement non linéaire (Bono & al.
2012, Henry 2014, 2015). Une autre critique récurrente concerne les dangers de
contamination en PCR. Mais ici, le risque semble bien faible puisque la séquence
virale est transportée sous forme d'un simple fichier MP3 et non sous une forme
physique. De plus, si cela posait réellement problème, cela remettrait en cause
toutes les analyses ADN réalisées par la police scientifique.

279
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Dilution ADN Empreinte Apparition


dans l'eau électromagnétique dumêmeADN
Lecture de
l'empreinte
et amplification
.....................
Transmission
viaPCR
du signal ELF

.....................
émis par
l'ADN
+ nucléotide
+ amorceurs

.................... ·· + ADN-polymérase

Pas de corrélation linéaire entre les signaux


~.~~~
-~ Logiciel d'analyse
électromagnétiques émis et le nombre initial de cellules

f- x500 du signal
bactériennes avant filtration

~
Signaux observés seulement pour les hautes dilutions
des filtrats.

Un seul gène isolé penne! d'induire l'émission


Bobine Amplificateur Ordinateur Mycoplasma pirum). 104 paires de bases (HIV) suff1Sent
détectrice
pour produire les signaux.
Cu/ 300 0
Pas de signaux pour Lactobacillus

Détection d'ondes Taille des structures produisant les signaux


électromagnetiques (ULF
500-3000 Hz) dans certaines
< 20 nm (virus) < 100 nm (bactéries)
dilutions de filtrats (1 OO nm,
Vortex entre chaque dilution
20 nm) de cultures (virus,
bacteria) ou de plasma of Excitation par l'environnement dès 7 Hz,
humain infecté par les mêmes stoppée si µ-métal
agents. Mêmes résultats à
partir des ADN extraits.
Pas d'émission si chauffage(> 70°C, 30 min)
ou congélation

Eau informée + nucléotides + amorceurs + ADN-polymerase --+ ADN HIV

Figure 135: Conditions à remplir pour que l'expérience réussisse.

Quand on refuse d'admettre un fait, on pointe généralement du doigt


l'expérimentateur et l'on accuse d'avoir travaillé comme un cochon. En fait,
la meilleure réponse que l'on puisse apporter, c'est de réaliser ses propres
expériences au lieu de critiquer des protocoles expérimentaux qui ne seront
jamais parfaits. Bien peu le font, soit par conviction personnelle basée sur des
idées obsolètes, soit par peur du ridicule de travailler sur un sujet considéré
comme de la pseudoscience. Pour ce qui me concerne, ce qui m'a convaincu
du bien-fondé de cette crucis experimentum est qu'il existe une explication

280
CHAPITRE VI - MÉMOIRE DE L'EAU

rationnelle dans le cadre de la physique quantique des champs, basée sur


la notion de domaine de cohérence (voir chapitre précédent). Ici aussi, l'on
pourra toujours critiquer les approximations faites pour arriver au résultat
souhaité. Peu importe, car d'autres chercheurs travaillent sur le sujet et ont
pu déjà montrer que même si les domaines de cohérence 3D sont instables
dans l'eau liquide, ils doivent exister et sont parfaitement stables dès que l'on
se place à une interface eau-air (nanobulles) ou eau-polymère (biologie et
matériaux) (Sen & al. 2015).

ELF

Action bactérienne pathogène transmise par WiFi. ..

Figure 136: Possibilité d'infection à distance via l'eau corporelle.

Dans ce nouveau paradigme, il apparaît donc que des bactéries pathogènes


seraient parfaitement capables de transporter par WiFi leur ADN via l'eau
en n'importe quel point d'un organisme infecté (figure 136). Or, il se trouve
que le corps humain est un véritable nid à bactéries (figure 137, à gauche)
particulièrement au niveau de sa flore intestinale (figure 137, à droite).
Rechercher la cause d'une maladie, peut donc nécessiter de rechercher des
émissions d'ELF au lieu de rechercher des foyers infectieux, comme cela se
fait actuellement. De plus, il convient de rechercher l'agent pathogène dans
tout l'organisme et non pas seulement au niveau de la partie infectée.

Plus surprenant est le fait que l'émission ELF semble ne fonctionner


qu'avec des ADN de bactéries pathogènes, aucun signal ne pouvant être
enregistré avec des bactéries non pathogènes. Ici aussi, plutôt que de hausser
les épaules et de tourner les talons, il convient de rappeler que toute infection
implique une réaction d'inflammation génératrice de radicaux comme l'ion
superoxyde 0 2• 8 et qui présentent la particularité d'être paramagnétiques et
donc très sensibles aux champs magnétiques. Si le milieu n'est pas acide,
cet ion superoxyde forme quatre liaisons hydrogène avec quatre molécules
d'eau et peut donc avoir une longue durée de vie (on le détecte par une bande
d'absorption à 245 nm qui se déplace à 225 nm lors de sa protonation pour

281
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

former l'espèce H0 2•). Comme l'émission ELF fait intervenir le champ


magnétique terrestre, on peut comprendre que, lors de toute génération de
radicaux paramagnétiques, il puisse y avoir une certaine amplification d'une
émission qui existe mais reste d'amplitude beaucoup plus faible.

Glabelle Actinobactéries
- Corynebacterine.e
- Propionibacterineae
- Microoocci.ne11e
- Autres A.ctinobad~ries
- Bacteroidetes
- Cyanobactéries
Firmieutes
- Aut:resPirmicutes
- Staphylococcaceae
- Proteobactéries

• - Divisions
contribuant < 1%
Non classées

Ob.. ( Talon plantaire

Ombilic ~
&pace inter-orteils
Devant Denièrew
MICROFLORE INTESTINALE
micro-organismes, > 500 espèces
3-40-1013
150 fois le génome humain

Estomac
( 10- 1000 mL-1)
Lactobacilles

\Entérobactéries
Entérocoques
Faecalis
Bacteroides
Bifidobactéries
Peptocoques
Peptostreptocoques
Ruminocoues
Clostridia
Lactobacilles
10 11-10 12 m L"'

Streptocoques
Lactobacllles
10 4 -10 7 m L"'
Homme "' 3,7·10 13 cellules

Figure 137 : Notre corps contient 10 fois de plus de bactéries que de cellules.

282
CHAPITRE VI- MÉMOIRE DE L'EAU

On peut aussi attaquer le problème en essayant de démontrer que l'eau


est bien capable de mémoriser des informations de nature électromagnétique
hors de tout contexte biologique. Ainsi, au moyen d'une eau carbonatée,
il a été possible de montrer que la chaleur de neutralisation d'une solution
concentrée de soude par de l'eau dans un calorimètre pouvait être affectée
par de la lumière informée (Tedeschi 2010). On part de 1 1 d'eau carbonatée
qui est violemment agitée dans un récipient de 2 1 afin de provoquer son
oxygénation. On rajoute à cette solution un mélange aqueux d'algues et de
feuilles triturées. Le mélange obtenu est agité 100 fois de suite en irradiant avec
une lumière produite par une lampe à filament de tungstène d'une puissance
de 150 W. Puis on laisse reposer la solution pendant 45 min sous éclairage
permanent afin que l'activité photosynthétique s'adapte à ces conditions. On
obtient ainsi une teinture mère qui est versée dans un récipient transparent.
Une plaque - ou un cylindre - en verre ou en plastique est ensuite chauffée
à 200 °C (verre) et 80 °C (plastique) tout en étant irradiée par la lumière
traversant le récipient contenant la teinture mère. On maintient l'exposition
lumineuse jusqu'à refroidissement de la plaque (figure 138, à gauche). On
obtient ainsi une plaque ou un cylindre informé.

L'idée est ensuite de mesurer par calorimétrie en flux continu la chaleur


de mélange entre une solution de soude et de l'eau déminéralisée avec une
sensibilité de 0,1 µW. La courbe obtenue (figure 138, à droite) montre un fort
dégagement de chaleur au démarrage de l'expérience. Lorsqu'on obtient un
état stationnaire, on place sous le récipient contenant l'eau la plaque informée
sans qu'il y ait aucun échange de chaleur entre la plaque et le récipient.
Aussitôt, on constate une chute de la chaleur de mélange dans le calorimètre.
Lors d'une troisième étape, on ramène le volume du récipient d'eau à 20 ml,
ce qui provoque une nouvelle réduction de la chaleur de mélange. À titre de
contrôle (étape 4), on retire la plaque informée et on remplace le récipient
d'eau de manière à produire un mélange de deux solutions de même titre en
soude. On retrouve ainsi la ligne de base, ce qui montre que la sensibilité du
détecteur n'a pas été affectée par l'expérience. Tout comme avec l'expérience
de Luc Montagnier, l'hypothèse de domaines de cohérence permet de
comprendre que de tels effets soient possibles, alors que si l'on en reste à
la physique classique, le calorimètre ne devrait pas broncher du tout lors de
l'intercalation de la plaque informée.

283
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Stockage et restitution d'information électromagnétique


via les domaines de cohérence de l'eau
Eau (2L) carbonatée(• 150 mg·L-1) + succussions
(• 100 fois)+ lumière (45 min)

+ Pl8QUe lnformM

... 2

1 SenalbHlt6 rMeure • .0,1 f!W

---1---J...---·
· -'-----'------'-----
2 , .. 1 • 1
Tempe/li

Figure 138 : Expérience calorimétrique visant à démontrer que le comportement


chimique de l'eau pure peut être modifié au moyen d'une lumière informée.

Dans une autre expérience elle aussi spectaculaire (Voiekov & al. 2010),
on utilise du luminol qui possède la propriété d'entrer en luminescence en
présence d'eau oxygénée dès qu'il existe des radicaux ou des traces de fer, de
cuivre ou de cyanure. Le luminol est ainsi mis dans un tube scellé contenant
un mélange d'eau oxygénée et de solutions de bicarbonate mixte de soude et
de potasse. C'est l'ion carbonate qui joue ici le rôle de catalyseur en raison
de sa capacité à former des radicaux négatifs comme C02• 8 ou C03• 8 . On a
pu ainsi constater que ces solutions hermétiquement scellées pouvaient être
le siège d'émissions photoniques spontanées de faibles intensités présentant
une périodicité mensuelle ou circadienne (figure 139, à gauche). Leur
extrême sensibilité à des facteurs environnementaux d'ultra-faible intensité
est démontrée par le fait que l'amplitude de l'émission lumineuse augmente
d'un facteur 2 à 3 avec des périodes coïncidant avec des éclipses lunaires
(figure 139, à droite). Tout ceci montre que l'eau peut nous réserver encore
beaucoup de surprises pour peu que l'on veuille bien prendre la peine de faire
des recherches et ne pas se laisser influencer par la peur du ridicule ou par
des préjugés théoriques uniquement basés sur des raisonnements de physique
classique. La mécanique quantique de seconde quantification semble en effet
être un outil incontournable pour comprendre toutes les propriétés de ce
liquide merveilleux qu'est l'eau. Mais laissons ces belles expériences, pour
essayer maintenant de conclure en récapitulant les acquis, puis en montrant
les défis à venir.

284
CHAPITRE VI - MÉMOIRE DE L'EAU

Sensibilité de l'eau aux rythmes circadiens et


mensuels ...
NH2 ·O
02 9<:::~plet*0

=="' I _ + N2 H20 2 (0,01%) + (Na,K)HCQ3 (1-5 mM) + Luminol


2 OH· 8 0 (tube scellé+ obscurité)+ PM (400-500 nm)
0 Fe(Il} / 0 +2H,O
Singulet + hv
I. e,. --·-.....-·~-···-·---·-----·-·-·---~-----·---
"'

Chimioluminescence:
détection des traces de "" " " R i: :11 1 :! a !:! •
sang en criminologie
Sensibilité de l'eau aux éclipses lunaires ...

H202 (0,01%) + (Na,K)HC03 (1-5 mM) + Luminol (tube scellé+ obscurité)


,. ., ......
/ocip1. .tlfl

... F..
Motnodfpoe
11:31
1.. =400-500 nm
I
~
5IO

... 11.12.•
Ol:ot
12.0Z.OI
ot:IO

l
....
1s.az.n
.....
1"-12.•
-
15..ltOI

-
1G.12.ft
,.. IO:OO
I
- .......
- lt.112.at
... .......
,.. ....... n1n1111or
Modlplo
17:J4
ztl
11rlr

Figure 139: Utilisation du luminol pour mettre en évidence la sensibilité de l'eau à


des rythmes circadiens ou à des éclipses lunaires.

285
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Bibliographie
BONO, 1.; DEL GiumCE, E.; ÜAMBERALE, L.; HENRY, M. (2012), «Emergence of the coherence
ofliquid water», Water, 4: 510-532.
FEYNMAN, R. (1960), « There's plenty of room at the bottom », Ca/tech Engineering and
Science, 23(5): 22-36.
HENRY, M. (2014), « The topological and quantum structure of zoemorphic water », in
P. Lo Nostro & B. W. Ninham (éd.), Aqua lncognita: Why /ce Floats on Water and Gali/eo
400 Years on, Connor Court Pub., Ballarat (2014), chap. IX, p. 197-239.
HENRY, M. (2015), « The Hydrogen Bond », Jnference Rev., 1(2), http ://inference-review.
com/article/the-hydrogen-bond ·
MONTAGNIER, L. ; AlSSA, J. ; FERRIS, S. ; MONTAGNIER, J.-L. ; LAVALLÉE, c. (2009),
« Electromagnetic Signais Are Produced by Aqueous Nanostructures Derived from Bacterial
DNA Sequences », Interdiscip. Sei. Comput. Life Sei. 1 : 81-90.
MoNTAGNIER, L. ; AlssA, J. ; LAVALLÉE, C. ; FERRJS, S. ; MoNrAGNIER, J.-L. (2009), « Electromagnetic
Detection of HIV DNA in the Blood of AIDS Patients Treated by Antiretroviral Therapy»,
lnterdiscip. Sei. Comput. Life Sei. 1 : 245-253.
MONTAGNIER, L. ;AISSA, J.; DEL ÜIUDICE, E.; LAVALLÉE, c.; TEDESCHI,A.; VITIELLO, G. (2011),
« DNA waves and water »,Journal ofPhysics: Conference Series, 306: 012007.
MoNrAGNIER, L. ; DEL GiumcE, E. ; AlssA, J. ; LAVALLÉE, C. ; MorscHWILLER, S. ; CAPOLUPO,
A. ; PoLCARI, A. ; ROMANO, P. ; TEDESCHI, A. ; VmELLO, G. (2015), «Transduction of DNA
information through water and electromagnetic waves », Electromagnetic Bio/ogy and
Medicine, 34 : 106-112.
SEN, S.; GuPrA, K. S.; CoEY, J. M. D. (2015), « Mesoscopic structure formation in condensed
matter due to vacuum fluctuations », Phys. Rev. B, 92 : 155115.
TEDESCHI, A. (2010), « ls the living dynamics able to change the properties of water?», /nt. J.
Design Nat. Eco., 5: 60-67.
VoIEKov, V. L. ; Do MING HA ; MuKHITOVA, O. G. ; VILENSKAYA, N. D. ; MALISHENKO, S. 1. ;
BOGACHUK, A. S. (2010), « Activated bicarbonate solutions as models of confined ontic open
system and prototypes ofliving systems», /nt. J. Design Nat. Eco., 5 : 30-38.

286
Conclusion

Nous voici arrivés au terme de notre voyage à la découverte de l'eau,


périple démarré en soulignant les mystères de cette substance et achevé sur
ses capacités à mémoriser de l'information. Pour résumer, quatre images très
différentes peuvent être données concernant cette substance.

La première image, c'est l'eau vue comme un élément créateur de toute


chose, une substance sans laquelle il est impossible de concevoir la vie. Il
est évidemment très satisfaisant de voir la tradition et la science s'accorder
à ce propos en soulignant le rôle médiateur indispensable de l'argile et de
la boue. La notion d'eau morphogénique, se présentant sous la forme d'une
fine pellicule d'eau épaisse d'environ 1 milliardième de mètre (1 nm) à la
surface de toute chose solide, renforce encore l'idée que sans eau le monde
dans lequel nous vivons serait bien différent. Il est donc particulièrement
regrettable que l'on oublie systématiquement d'inclure cette pellicule d'eau
inévitable dès que l'on parle des propriétés d'une substance. C'est un travers
que l'on rencontre dans toutes les disciplines scientifiques depuis l'astronomie
jusqu'à la biologie. Pour ce qui concerne les objets macroscopiques, cela
n'est pas très gênant puisque la pellicule d'eau est nanométrique. Le problème
devient beaucoup plus gênant lorsqu'on parle d'espèces portant une charge
électrique positive ou négative. En général, si une telle séparation de charges
électriques est possible, c'est que les couches d'hydratation empêchent les
recombinaisons entre ions de signes opposés. Parfois même, la présence de
la couche d'eau est vitale pour l'existence même de la substance. C'est par
exemple le cas de la double hélice d' ADN qui explose dans le vide si on ne
la recouvre pas d'eau ... Donc impossible de parler d' ADN sans parler d'eau.
Et c'est à ce niveau que l'on peut passer sans s'en rendre compte de la réalité
(ADN hydraté) au mythe (ADN déshydraté). Or, il se trouve que le cancer est
une maladie liée à des dégâts au niveau de l 'ADN. Toute la recherche sur les
traitements anti-cancéreux devrait donc porter sur l'ensemble ADN plus eau
(réalité). Hélas, la très grande majorité des chercheurs, s'ils sont inconscients
du problème, raisonnent donc sur un mythe avec tous les dangers que cela
suppose. Quant aux chercheurs conscients du problème, ils ont du mal à voir
en quoi une substance triatomique banale pourrait jouer un quelconque rôle
dans la genèse d'un cancer.

Ceci nous amène à la deuxième image, l'eau vue comme une substance
formée d'un atome d'oxygène lié à deux atomes d'hydrogène. C'est ici

287
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

l'image classique, la bonne vieille tête de Mickey si l'on pense en volume,


où le V de la victoire si l'on pense en termes de liaisons chimiques. Ce fut
l'une des grandes fiertés de la science occidentale que de mettre à bas la
sagesse ancestrale qui voyait l'eau comme un principe premier, un élément
indécomposable par les moyens de l'analyse. L'enjeu était d'ailleurs tellement
immense que les historiens des sciences continuent encore de nos jours à se
demander qui était le véritable exécuteur de l'eau : Lavoisier, Cavendish,
Watt? Des tonnes de livres ont été écrits sur le sujet et probablement d'autres
viendront, vu l'importance du sujet. Or, comme je l'ai expliqué, cette formule
Hp, pourtant rassurante, nous conduit droit dans une impasse intellectuelle
quel' on nomme pudiquement la« liaison hydrogène». En fait, personne n'est
vraiment capable de donner une définition claire et concise de ce concept qui
est une véritable hydre de Lerne, avec des têtes qui repoussent aussitôt que
l'on croit les avoir coupées. Tout le monde pourra constater en téléchargeant
la définition officielle qu'il faut pas moins de cinq pages A4 pour expliquer
de quoi on parle. Ce qui est incroyable, c'est que tout le monde semble
trouver cela parfaitement normal, alors que la simple application du rasoir
d'Occam nous dit qu'une définition aussi monstrueuse est le signe d'une
ignorance complète et totale concernant la nature réelle d'une telle liaison.
Ce qui est inquiétant, c'est que cette « liaison hydrogène », est responsable
du repliement des protéines, assure la réplication de la molécule d' ADN et
gouverne la solvatation des espèces polaires ou apolaires dans la cellule.
Bref, des stratégies entières de traitements médicaux utilisent en arrière-plan
une notion que personne ne comprend vraiment bien. Là encore, il ne faut pas
être très surpris si les résultats obtenus ne sont pas à la hauteur des espérances
mises, voire même que l'on imagine parfois des traitements plus nuisibles
que le mal que l'on souhaite traiter.

La troisième image de l'eau est celle qui se dégage de la mécanique


quantique de première quantification. Ici, la simplicités' efface au profit d'une
image énergétique extrêmement riche qui fait le bonheur des théoriciens de
tout poil. L'image qu'il faut retenir à ce niveau, c'est la forme que prend le
nuage électronique dans le dernier niveau occupé (HOMO 1bJ On y voit une
double haltère centrée sur l'atome d'oxygène, appelée« doublet non liant»,
perpendiculaire au plan de la molécule et totalement incapable d'interagir
avec les atomes d'hydrogène. Pour obtenir la forme tétraédrique si convoitée,
il faut bidouiller en jouant sur la linéarité de la mécanique quantique, qui
vous assure qu'une fois trouvé un jeu de solutions, toute combinaison
linéaire de solutions sera aussi une solution. Parmi cette infinité de solutions
possibles, il s'en trouve effectivement une qui possède quatre lobes de densité
électronique à peu près orientés vers les sommets d'un tétraèdre centré sur
l'atome d'oxygène. Mais pourquoi choisir cette solution compatible avec
l'expérience et toutes les autres équivalentes mais non observées ? On
préfère évidemment jeter un voile pudique sur ce problème, plutôt que d'oser

288
CONCLUSION

imaginer que l'équation de Schrôdinger, n'étant après tout que l'équation de


Newton affublée de nombres complexes, n'est pas vraiment l'outil adapté au
problème.

Puis, l'image se complexifie encore plus quand on associe deux molécules


d'eau, car le calcul théorique de l'énergie gagnée en fabriquant une« liaison
hydrogène» dans un simple dimère d'eau est un véritable cauchemar dans le
cadre d'une mécanique quantique de première quantification. Que dire alors
des grappes avec trois, puis quatre molécules et ainsi de suite pour générer
toute une gamme de clusters qui font le bonheur de toute la faune interlope
rôdant dans le domaine de la structuration de l'eau, où le meilleur côtoie le
pire ... Ces fameux clusters ou grappes, icônes incontournables de tout livre sur
l'eau, n'existent en fait qu'à l'état gazeux lors d'une expansion supersonique
d'un pulse de vapeur d'eau, ou encore sous forme d'amas isolés sur des
surfaces, ou bien alors soigneusement encapsulés dans des écrins protecteurs
organiques ou minéraux. Pour espérer les observer dans le liquide, il faut
utiliser des méthodes expérimentales permettant d'obtenir une image du
liquide avec une résolution temporelle inférieure à la picoseconde ou bien
sûr des simulations numériques. Toutefois, puisque les simulations de l'eau
sont basées sur les principes de la mécanique statistique, les modèles tendent
généralement à donner une image continue de la structure du liquide. De plus,
comme nous savons que la mécanique statistique échoue à décrire le monde
réel, il faut prendre les résultats de ces modélisations avec des pincettes.

Pour la plupart des livres traitant del' eau, on s'arrête à ce niveau d'analyse de
première quantification, alors qu'on sait qu'il existe une mécanique quantique
de seconde quantification où l'on quantifie le champ électromagnétique. Si le
rôle de la première quantification est de définir les différents états d'énergie
électroniques stationnaires associés à la formule Hp, la seconde quantification
utilise cette structure énergétique pour se coupler au vide quantique et souder
les molécules entre elles au sein d'un gap de cohérence via l'échange incessant
de photons virtuels et massifs entre toutes les molécules appartenant au même
domaine de cohérence. La seconde quantification permet ainsi de ranger au
placard des accessoires inutiles, les concepts de « liaison hydrogène » et
de « liaison de van der Waals ». Plutôt que de s'encombrer de ces termes
chargés d'un lourd passé, on pourra leur substituer avec bonheur les termes
plus précis de« liaison cohérente» et« liaison incohérente». La figure 140
permet en un seul coup d'œil de comprendre la différence.

289
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Lignes de champ = photons virtuels

~(~){~) -~
A
f - ô.p
- Ô. t Ô. X Ô. X - (ô.x)2

T T,
Loi de Coulomb Liaison de cohérence • quasi-particule
de masse µ,• 0.465 eV, À, • 4,8 µm

l!utexci~

·~

+</ . . . .:+ J
. . .*. ... .
~ta~ta1 ita~tal
j 11\'îh
~:;~
~i!
ë
f
\
l'fi
8"'
.,.Jf
i~
9

Liaison covalente Liaison incohé rente Liaison cohérente

Condensation de Bose-Einstein

Figure 140 : Les trois types de liaison chimique dans le cadre d'une mécanique
quantique de seconde quantification.

Tout d'abord, on constate qu'il est très facile de justifier la loi de Coulomb en
seconde quantification, puisqu'elle découle de manière triviale del' application
du principe d'indétermination d'Heisenberg. Ceci est parfaitement logique
dans la mesure où l'on a vu que les équations de Maxwell sont en fait inutiles
et peuvent être dérivées directement des lois quantiques. Ce que l'on appelle
la liaison « covalente » ne concerne qu'une molécule isolée pour laquelle
le formalisme de première quantification est parfaitement adapté. La clé
pour avoir ce type de liaison est que les électrons soient tous indiscernables.
La liaison incohérente, ou liaison de van der Waals, est une liaison où l'on
peut distinguer les électrons d'une molécule 1 par rapport aux électrons
d'une molécule 2, identique en tout point, hormis la position spatiale qui
est différente. Chacune des deux molécules 1 et 2 échangent des photons
virtuels avec le vide commun qui les sépare, mais ces photons n'ont aucune
cohérence de phase entre eux. Le résultat est une attraction entre les deux
molécules, car dans l'espace entre les deux molécules les photons virtuels
émis par l'une peuvent être absorbés par l'autre, alors que les photons émis
vers la droite ou vers la gauche de la paire, ne trouvant que du vide, sont
simplement réabsorbés. C'est cette brisure de symétrie du vide qui génère la
force de van der Waals, universelle, qui rend la matière collante quoi qu'il
arrive.

290
CONCLUSION

La liaison de cohérence apparaît dès qu'il y a corrélation de phase entre les


photons virtuels absorbés par les deux molécules. Cette cohérence de phase
se traduit par l'apparition d'un gap de cohérence qui renforce l'interaction
par rapport à la situation incohérente. Les chimistes appellent cela une
«liaison hydrogène», mais il doit être bien clair que cela n'a rien à voir avec
l'hydrogène et que tous les atomes sont susceptibles de former des liaisons
de cohérence. Si cela est particulièrement évident et fort avec l'hydrogène,
c'est tout simplement qu'il ne possède en tout et pour tout qu'un seul électron
et que tous les photons virtuels échangés concernent le même électron. C'est
cette focalisation des échanges de photons sur un seul électron qui facilite
l'émergence de la cohérence de phase. De même, l'effet est maximum avec
les éléments utilisant des états 2p car ces derniers sont dépourvus de plan
nodal interne à l'atome pouvant faire écran aux photons virtuels émis par les
protons des noyaux en interaction. La liaison de cohérence trouve bien sûr son
origine, comme la liaison incohérente, dans une brisure de symétrie du vide.
Mais alors que la liaison incohérente brise la symétrie du vide quantique pour
donner naissance au vide physique, la liaison de cohérence brise la symétrie
du vide physique pour donner le vide cohérent.

En fait, cette nouvelle brisure de symétrie peut être vue comme une
condensation des bosons vecteurs de seconde quantification associés aux
liaisons hydrogène dont on connaît la masse et la portée. Si l'on applique
la théorie des condensats de Bose-Einstein, il est donc possible d'associer à
cette masse et cette portée une température critique, au-delà de laquelle il ne
peut plus y avoir de cohérence. Si l'on considère la figure 121, on trouve une
masse moyenne de 0,465 eV pour un gap de cohérence moyen de 0,26 eV
correspondant à une longueur d'onde (portée) de 4,8 µm. On en déduit une
température critique de 687 K, tout à fait compatible avec la température
critique de l'eau (Tc= 647 K). Selon cette interprétation, l'eau liquide serait
un condensat de Bose-Einstein photonique à haute température critique,
l'analogue de la phase à réseau de vortex magnétiques de type Abrikosov
dans les supraconducteurs ou bien encore de la phase à torsion de joints
de grains (TGB) dans les cristaux liquides. Le caractère haute température
vient évidemment du fait que ce sont des photons piégés de masse très faible
qui condensent et non des particules de matière comme dans les condensats
étudiées en physique des très basses températures.

De manière plus générale, on peut probablement ranger dans cette catégorie


de liaison de cohérence toutes les interactions de la chimie qui se font avec
des molécules ayant des orbitales atomiques pleines et où les seules forces
de van der Waals n'arrivent pas à rendre compte des interactions observées.
On peut ainsi citer les interactions entre groupes aromatiques (n-n stacking),
les interactions métal-métal, les interactions impliquant des halogènes, etc.
La chimie se simplifie donc considérablement en seconde quantification

291
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

puisqu'il ne reste en fin de compte que la loi de Coulomb, la liaison covalente


responsable de la formation des molécules et les liaisons de cohérence ou
d'incohérence responsables des états condensés (liquide et solides) et des
écarts à l'idéalité pour les gaz réels.

Comme je l'ai expliqué, la formation de la liaison de cohérence se fait via


la phase quantique qui est commune à tout le domaine et inobservable par
principe. La cohérence ne se situe ni dans l'espace, ni dans le temps mais dans
la phase d'un nombre complexe. C'est peut-être pour cela que les preuves
expérimentales de l'existence des domaines de cohérence dans l'eau liquide
ne sont pas si faciles à obtenir, car généralement la phase est perdue lors de
toute mesure qui ne peut s'exprimer qu'au moyen de nombres réels. En fait,
on a beaucoup de preuves, mais elles sont malheureusement indirectes. Dans
une certaine mesure, cela n'est pas très gênant puisque des sommes d'argent
gigantesques sont actuellement investies dans les accélérateurs de particules
en vue de valider certaines théories des cordes, sans que l'on ait l'ombre
d'une preuve que ce type d'approche soit pertinent. Quand la théorie est belle
et explique plein de choses, on pense qu'elle ne peut qu'être juste, même si
la preuve expérimentale définitive se fait attendre. On se dit que demain, lors
de la prochaine expérience, tout rentrera dans l'ordre et sera enfin validé.
Quoi qu'il en soit, pour autant que j'aie pu le vérifier, il n'y a pas de lézard
caché et l'hypothèse des domaines de cohérence permet d'expliquer tant de
propriétés de l'eau, difficilement compréhensibles autrement, que le mieux
est de continuer les expériences pour voir jusqu'à quel point on peut aller.
L'avantage avec l'eau, c'est que les expériences coûtent infiniment moins
cher qu'avec les accélérateurs de particules élémentaires. De plus, si l'on
peut émettre des doutes légitimes pour l'eau liquide, les preuves directes pour
l'eau morphogénique adsorbées sur différentes surfaces abondent. Comme
le corps humain est constitué uniquement d'eau morphogénique, on a tout à
gagner à miser sur l'existence de ces domaines de cohérence.

Mais, si l'on dépasse le cadre très particulier de l'eau, il devient urgent de


reconnaître que la plupart des problèmes de fond qui plombent la mécanique
quantique de première quantification (dualité onde/corpuscule, paradoxe
EPR, chat de Schrôdinger) s'évanouissent en seconde quantification. À
une certaine époque de ma vie, j'ai d'ailleurs fait partie de cette masse de
scientifiques qui en restaient à la première quantification malgré tous ses
défauts évidents. Tout d'abord, personne ne pose d'emblée le principe
fondateur et commun à toutes les formes de mécanique quantique, pourtant
énoncé dès 1946 par le couple de mathématiciens Jean-Louis Destouches et
Paulette Février. Rappelons ce principe qui est étonnamment bref quand on
songe qu'il suffit à lui tout seul pour entraîner tous les principes énumérés
péniblement par la théorie des transformations de Jordan-Dirac en 1927 et
formalisés sous une forme mathématiquement correcte en 1929 par John

292
CONCLUSION

von Neumann : « Il n'existe pas dans l'univers de grandeur d'état ». Ce


principe simple et clair place donc la mécanique quantique au même niveau
que la mécanique relativiste qui stipule pour sa part que : « La vitesse de
propagation de l'énergie dans l'univers ne peut jamais dépasser la vitesse de
la lumière dans le vide. » Voilà, tout est dit en quelques mots et tout le reste
est une affaire de mathématiciens : Henri Poincaré pour la relativité restreinte
et John von Neumann pour la mécanique quantique.

De plus, on sait très bien que les phénomènes collectifs comme le


ferromagnétisme, la supraconductivité ou la superfluidité sont impossibles
dans le cadre de la physique classique. Or, qui n'a pas manipulé un aimant dans
sa vie? Si les aimants existent, c'est donc bien que le monde est quantique,
y compris à notre échelle. Une autre raison qui met d'emblée hors jeu la
physique classique en tant que mode de description réaliste de la nature est
liée à l'interprétation statistique de l'entropie comme étant proportionnelle au
logarithme du nombre de micro-états compatibles avec un macro-état donné.
Selon la physique classique, lorsqu'on se trouve au zéro absolu, il ne peut
exister qu'un seul micro-état, d'où une entropie qui s'annule. Toutefois, si à
partir de cet état d'entropie nulle, on augmente la température d'une quantité
finie, alors le nombre de micro-états augmente d'une quantité infinie. C'est tout
le problème des singularités. On peut facilement éviter une telle singularité en
posant que l'entropie ne peut jamais être rendue plus petite que la constante
de Boltzmann, ou, ce qui revient au même, qu'il existe une énergie de point
zéro finie. Dans ce cas, l'entropie comme la température peuvent tendre
vers zéro, mais ce point ne peut jamais être physiquement atteint. Donc, de
nouveau, il apparaît que la physique classique n'est pas la bonne manière de
voir le monde, y compris à l'échelle macroscopique. Dans ces conditions,
qu'est-ce qui empêche les scientifiques de passer à la seconde quantification,
où tous les phénomènes macroscopiques déterministes peuvent être rattachés
à des états cohérents vecteurs propres d'un opérateur d'annihilation ?
Sûrement le fait que l'on comprend mal le mot « annihilation » qui signifie
simplement changer la phase pour faire disparaître la manifestation de l'être
et non l'anéantir purement et simplement. En jouant sur la phase, on peut
rendre observable ou inobservable la manifestation physique de l'être, mais
en aucun cas on ne remet en cause son existence. Si tout être aussi vil soit-
il a le droit de vivre et d'exister, il est souhaitable et désirable de pouvoir
contrôler la manière dont il se manifeste. Ne jamais confondre l'existence et
la manifestation, telle est la grande leçon que l'on doit retenir de la seconde
quantification.

La grande originalité de la seconde quantification est donc d'utiliser des


opérateurs de création et d'annihilation des quanta, ainsi qu'un opérateur de
dénombrement ne faisant pas varier ce nombre. L'opérateur d'annihilation
est particulièrement intéressant car c'est lui qui permet d'aller vers le vide

293
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

en annihilant un à un les quanta. Lorsque le dernier quantum a été détruit,


il ne reste plus que le vide, qui lui ne peut pas être annihilé. Autrement dit,
l'opérateur d'annihilation agissant sur le vide redonne comme nouvel état le
même vide. On est arrivé en bout de course, où toute manifestation matérielle
a disparu, ne laissant que le vide qui lui se manifestera toujours quoi qu'il
arrive. Tout en ce bas monde peut être réduit à l'état de non-manifestation,
sauf une seule chose : le vide. Ici les lecteurs férus de philosophie auront
peut-être l'impression d'avoir déjà entendu cette histoire quelque part, mais
dans un contexte très différent.

Figure 141 : La Trimurti hindouiste avec le dieu créateur Brahma (à gauche), dieu
destructeur Shiva (au milieu) et le dieu ordonnateur Vishnu (à droite) semble tout
droit sortie d'un traité de mécanique quantique relativiste.

De fait, pour la doctrine hindoue, tous les êtres ne sont que des manifestations
diverses d'un Être unique et infini, appelé Brahman. Il existe également une
Substance universelle et unique, dont toutes choses sont faites et qui demeure
indivisible et immuable malgré la multiplicité des formes de l'existence. C'est
ici que l'on trouve l'eau comme mer immense de la Substance impersonnelle
et ténébreuse, sans attributs ni formes, indistincte et non distinguable, dont
sont formés tous les êtres et dans laquelle ils doivent tous rentrer, s'absorber
et s'anéantir un jour ou l'autre. Le principe de ces apparentes existences,
c'est Maya, l'illusion de la dualité dans l'univers phénoménal dont le pouvoir
de séduction est énorme. De l'union de Brahman et de Maya résulte une
triple manifestation divine, la Trimurti, selon un principe créateur, Brahma,
un principe ordonnateur, Vishnou et un principe destructeur et régénérateur,
Shiva.

294
CONCLUSION

Il est frappant de constater que tout ceci semble sorti d'un traité de mécanique
quantique relativiste (figure 141), puisqu'on y trouve Brahman (le champ),
l'eau (les fermions), Maya (les bosons), Brahma, le dieu créateur, Shiva, le
dieu destructeur et Vishnu, le dieu qui conserve. Remplacez le mot « dieu »,
par le mot « opérateur » et la Trimurti définit en fait les trois opérateurs de
base de la mécanique quantique de seconde quantification. Leurs multiples
bras indiquent d'ailleurs comment chacun opère sur le monde naturel. Dans
cette Trimurti, Shiva joue évidemment un rôle de premier plan, car c'est le
seul qui peut vous amener au vide afin de vous régénérer.

L·M·m'• h'/2G
Gravitation
(O, h, G),,..q~u_an_ti~·q~ue_ _ _ _ _ _q_uan
Troisième
__,,ti(;;~: h, G ) 0
!.,' = c'·T,' = h ·G/c3
M, L,=h/c

h,
(oPremière
, o ) --------<,....___ _ _.----<,
quantification Masse m, M
Espace L U•h·c/L
Tempst h·c • 297 eV·nm Quanta virtuels
Vitesse v e2/(4•te.,) • a ·hc âU·ât < h
• 1,44eV·nm
J-(_o_, o_ ,_G_)-+------J (1/ c, o , G)
Relativité générale
dE/dt ,;; c3/ 4G • 9·105' W
Densité p =M/L' L2: 2G·m/c'
p·G = f' A= 4nG·pufc' • 20·54 m"

Mé . Vitesse de la lumière c Relativité restreinte: U = m ·c'


can1que ( ) (E' 1 . )
classique O, O, 0 ms em (1/C, O, 0 ) v = dL/dt ,;; c = 299 792 258 m·s·•
Quantité de mouvement: p = m·v tnergie U = p' /2m e0 µ 0 c' = l; µ0 = 4:71'. ·lO" J ·m"·A"

Figure 142: Le cube d'Okun-Gamow-Jvanenko-Landau qui résume le cheminement


de la science depuis le développement de la mécanique classique vers la troisième
quantification.

Tout ce qui a été gagné en passant de la première quantification à la seconde


amène à se poser la question d'une éventuelle troisième quantification. De
fait, en seconde quantification, on traite sur un pied d'égalité les champs de
matière de type fermions ou bosons et le champ électromagnétique, mais on
laisse de côté le champ gravitationnel. La troisième quantification consiste
donc à quantifier aussi ce dernier, c'est-à-dire qu'après avoir enlevé tout
contenu physique au temps lors de la première quantification, puis fait de
même avec l'espace lors de la deuxième quantification, le programme de la
troisième quantification est d'ôter tout contenu physique au concept de masse.
De fait, la seconde quantification ne touche pas à la masse, mais s'autorise
seulement à faire varier le nombre de quanta, la masse de ces quanta étant un
paramètre non calculable par la théorie. En fait, en seconde quantification, on
joue sur la phase pour rendre la masse non observable (annihilation) ou au

295
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

contraire observable (création), mais à aucun moment on ne remet en cause


son existence. La troisième quantification consiste donc à franchir un nouveau
pas décisif en transformant le concept de masse en une simple étiquette, c'est-
à-dire en le vidant de son contenu physique.

Pour résumer le chemin parcouru dans ce livre, le mieux est de se référer


au cube de Gamow-Ivanenko-Landau-Okun (figure 142). Ce cube a été
imaginé en 1928 comme une théorie du « tout » exprimé au moyen des
trois constantes fondamentales que sont la constante d'Einstein c, base de
la théorie de la relativité, la constante de Planck h, base de la mécanique
quantique et la constante de Newton G, base de la théorie de la gravitation
(Gamow & al. 2002). Landau qui avait 20 ans et Gamow et Ivanenko qui
en avaient 24 avaient rédigé un papier qui présentait cette théorie du tout
comme un cadeau d'anniversaire humoristique à une jeune étudiante qu'ils
courtisaient tous les trois (Okun 2002). Pour les trois compères, ceci n'était
qu'une plaisanterie puisqu'ils ne firent plus jamais référence à ce cube dans
leurs travaux postérieurs. Mais en fait, ce cube permet de saisir d'un seul
coup d'œil tout le chemin parcouru par la science depuis le xv1• siècle.

La mécanique classique se trouve ainsi à l'origine du cube en (0,0,0)


puisque pour elle il n'existe aucune limite de vitesse, aucune limite à l'action
qui peut tendre vers zéro et où les masses, si elles ont une inertie, n'ont en
revanche aucun poids. Puis, il y eut la mécanique newtonienne qui consista à
aller vers le point noté (0,0,G) en mariant la mécanique classique et la théorie
de la gravitation universelle de Newton. On s'aperçut alors qu'il y avait
coïncidence entre masse inerte et masse pesante. L'avènement de la théorie
de la relativité restreinte consista à aller vers le point (1/c,0,0) en réalisant la
finitude de la vitesse de la lumière, tandis qu'avec la mécanique quantique
de première quantification de Schrôdinger on s'est déplacé vers le point
(O,h,O) en comprenant que toute évolution mettait enjeu une action minimale.
Puis, Albert Einstein explora le point (1/c,O,G) pour fonder la théorie de la
relativité générale, afin de justifier l'égalité de la masse inerte et de la masse
pesante. Dirac développa pour sa part la mécanique quantique de seconde
quantification au niveau du point (1/c,h,O) afin de justifier l'existence du spin.
Wheeler, DeWitt et Hawking explorèrent dans les années 1960 le pôle de
gravitation quantique (O,h,G) quand ils eurent découvert l'univers fascinant
des trous noirs. Reste donc en 2016 à réaliser la troisième quantification en
allant vers le pôle (1/c,h,G) en mariant la mécanique quantique et la théorie
de la relativité générale. Bref, une science valable aussi bien pour le vide
dépourvu de matière que les trous noirs où la matière se retrouve à son point
de compression maximal.
Pour comprendre la difficulté du problème, il faut réaliser que lorsqu'on va
du pôle (0,0,0) vers le pôle (1/c,0,0) on établit une équivalence entre l'espace
et le temps, puisqu'on passe d'un temps à une longueur en multipliant par la

296
CONCLUSION

vitesse de la lumière. Mais si la vitesse de la lumière est la même pour tous


les observateurs, alors on peut la poser égale à l'unité par un simple choix
d'unité, et de fait il n'y a plus lieu de faire la distinction entre espace et temps,
ni entre toutes quantités physiques dont le contenu dimensionnel diffère par
une puissance entière d'une vitesse. Ainsi, la quantité de mouvement étant
homogène au produit d'une masse par une vitesse, il n'y a plus lieu de
différencier ces deux notions. De même, l'énergie devient une forme de masse
puisqu'il s'agit d'une qualité homogène au produit d'une masse par le carré
d'une vitesse. Il n'y a plus lieu non plus de distinguer le champ électrique de
l'induction magnétique puisque le rapport de ces deux qualités est homogène
à une vitesse. Enfin, les notions de force et de puissance fusionnent également,
puisque le rapport d'une puissance et d'une force est aussi homogène à une
vitesse. Bref, on se simplifie la vie, et tout le monde s'en porte mieux.

La première quantification, qui nous amène du pôle mécanique classique au


pôle mécanique quantique, n'amène rien de bien extraordinaire, etc' est normal
puisque, comme on l'a vu, il n'y a aucune différence de fond entre les deux
approches qui ne diffèrent que par le type de nombres employés : nombres
réels pour la mécanique classique et nombres complexes pour la mécanique
quantique. Considérer la constante de Planck comme étant égale à l'unité
permet juste d'identifier l'action au produit d'une masse par une longueur,
concept sans grande utilité à première vue. Par contre, le passage à la seconde
quantification qui nous amène du pôle (O,h,O) au pôle (1/c,h,O) est beaucoup
plus intéressant, car il en découle que le produit de la masse par une longueur
peut être rendu égal à l'unité via un nouveau changement d'unités. Ceci
signifie donc que masse et longueur varient en sens inverse l'une de l'autre.
Plus la longueur est petite, plus l'énergie sera grande et réciproquement. C'est
précisément ce phénomène que traduisent les relations d'indétermination
d'Heisenberg, aussi bien celle liant la quantité de mouvement et la position,
puisque masse et quantité de mouvement coïncident en théorie relativiste, que
celle liant l'énergie au temps, puisque masse et énergie se confondent aussi.
Autrement dit, en mécanique quantique, masse, vecteur d'onde et fréquence
fusionnent en une seule réalité qui est le vide quantique.

Mais au lieu de passer par la case seconde quantification (l/c,h,O) depuis


la case relativité restreinte (1/c,0,0), essayons de nous déplacer vers le pôle
relativité générale (l/c,O,G). En raison de l'équivalence espace-temps acquise
au pôle (l/c,0,0), la constante de gravitation universelle, qui est homogène au
carré d'une fréquence que divise une densité, devient une longueur par unité
de masse. Dans ces conditions, poser que cette constante soit égale à l'unité
via un changement d'unité signifie que masse et longueur deviennent des
notions foncièrement équivalentes. C'est précisément le sens des équations
d'Einstein où toute masse courbe l'espace et tout espace courbé agit sur la
masse et où tout champ de gravitation affecte les horloges. Autrement dit,

297
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

masse, espace et temps fusionnent en une seule réalité qui est le champ
gravitationnel.
Les ennuis arrivent lorsqu'on essaye de passer au pôle de troisième
quantification (1/c,h,G) soit en venant du pôle relativité générale via la
gravitation quantique à boucles, soit du pôle seconde quantification via les
théories des cordes. Car en relativité générale, il y a équivalence entre masse
et temps, alors qu'en seconde quantification la même notion de masse est
homogène à une fréquence, c'est-à-dire à l'inverse d'un temps. Comment une
même chose peut-elle être elle-même et son inverse? Il n'y a en fait qu'une
seule possibilité, c'est qu'elle soit vide ! ! ! En effet, si je prends une portion de
vide et que je la dilate, elle reste vide ... De même si je la contracte, d'ailleurs.
Dans le vide, je peux intervertir les notions de petit et de grand sans changer
l'apparence de ce vide. On rencontre ici des symétries dites conformes qui
établissent une connexion directe entre le monde des atomes et l'univers tout
entier.

Cela ne vous rappelle rien ? Pour ceux qui ne connaissent pas encore ce
court texte tiré de la Tabula Smaragdina, je cite :

Il est vrai sans mensonge, certain et très véritable. Ce qui est en bas, est
comme ce qui est en haut : et ce qui est en haut, est comme ce qui est en bas,
pour faire les miracles d'une seule chose. Et comme toutes les choses ont
été, et sont venues d'un, par la méditation d'un : ainsi toutes les choses ont
été nées de cette chose unique, par adaptation.

Une bien belle allégorie de la symétrie conforme du champ dans son état
fondamental. Mais si tout est vide, comment construire une réalité physique ?
Ici aussi, il n'y a qu'une seule réponse possible: mettre de l'information dans
ce vide et laisser cette information créer l'illusion de la masse, de l'espace et
du temps. La troisième quantification nous entraîne irrémédiablement vers le
concept de vacuité bouddhique ou sur le Brahman hindouiste.

Mais si l'on veut rester occidental, il est possible de lever un petit coin
du voile en réalisant que si la masse coïncide avec son inverse, c'est qu'il
existe dans la nature une combinaison des trois constantes du cube d'Okun
homogène au carré d'une masse. Une telle combinaison existe de fait bel
et bien et s'obtient en multipliant la constante de Planck par la constante
d'Einstein et en divisant le résultat obtenu par la constante de Newton.
Numériquement parlant, cela donne une masse dite de Planck MP ::::; 22 µg,
masse au-delà de laquelle on ne sait plus si l'on se trouve dans le vide ou
dans un trou noir infiniment massif... Pour la même raison, il doit aussi
exister dans la nature une combinaison des trois constantes du cube d'Okun
homogène au carré d'une longueur. Cette combinaison s'obtient de fait en
multipliant la constante de Planck par la constante de Newton et en divisant le

298
CONCLUSION

résultat obtenu par le cube de la constante d'Einstein. Sur le plan numérique,


on trouve une longueur dite de Planck LP ::::: 10-35 m, échelle de taille en dessus
de laquelle l'illusion spatiale apparaît. Enfin, si je divise le carré de la longueur
précédente par le carré de la constante d'Einstein, on obtient le carré d'un
temps. Sur le plan numérique, on trouve un temps dit de Planck ~ ::::: 5 · 10-44 s,
durée au-dessus de laquelle c'est l'illusion temporelle qui apparaît.

Compte tenu de l'âge de l'univers qui est voisin de 1u::::: 0,43 10 18 secondes,
on peut découper l'univers quadridimensionnel actuel en un réseau de petits
hypercubes ayant la taille d'une longueur de Planck. Comme l'espace et le
temps sont équivalents en troisième quantification, le nombre total de cellules
spatio-temporelles est égal à la puissance quatrième du produit de la constante
d'Einstein par le temps 1u divisé par la longueur de Planck, soit tout calcul fait
environ 10244 cellules. Si l'on imagine que chaque cellule peut mémoriser 0
ou 1, on arrive quand même à 10244 bits !!! Chaque être vivant pourrait donc
avoir son empreinte informationnelle mémorisée dans ce vide quantique,
et comme ni le temps, ni l'espace, ni la masse n'ont de réalité tangible en
troisième quantification, cette empreinte couvrirait tout le vécu d'un être dans
tous les lieux où il a pu vivre et à toutes les époques de son existence depuis
que l'univers existe. Le mécanisme exact par lequel on pourrait écrire et lire
sur ce vide quantique de troisième quantification reste bien sûr un complet
mystère, mais il me semble que le concept de mousse de spin développé
dans le cadre de la gravité quantique à boucles (Rovelli 2003) aura un rôle
important à jouer en ce domaine.

Tout ceci démontre que nous vivons dans un monde qui est profondément
quantique depuis la plus petite échelle jusqu'à la plus grande. Ceux qui sont
férus de philosophie comprendront aisément le saut conceptuel énorme que
cela représente que de voir l'eau sous l'angle entièrement neuf de la seconde
quantification, puis de sauter directement dans la troisième quantification.
Pour ceux qui ont du mal à percevoir l'enjeu, disons que c'est un peu comme
sauter dans le vide sans parachute et faire confiance au vide au lieu de
chercher désespérément un peu de matière pour se raccrocher. Car si vous y
réfléchissez bien, quel problème y a-t-il à chuter dans le vide, s'il est vraiment
vide ? Absolument aucun, car en fait vous auriez l'impression d'être au
repos ... De fait, en relativité générale, l'état de repos, celui où aucune force
ne vient vous perturber, correspond précisément à une chute dans le vide.

Joseph Willimam Kittinger le sait mieux que quiconque, lui qui, en


août 1960, sauta de la capsule d'un ballon à une hauteur record de 31,3 km. À
cette altitude, l'air est si raréfié que, pendant la première minute de sa chute
libre, il se sentit complètement au repos, comme s'il était en train de flotter.
Bien qu'étant parachutiste expérimenté, il fut si étonné qu'il dut se tourner
vers le haut afin de se convaincre qu'il était vraiment en train de s'éloigner

299
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de son ballon ! Malgré son manque flagrant de sensation de mouvement, il


était en train de chuter à 274 m s- 1 ou 988 km h- 1 en direction de la surface de
la Terre. Il ne commença à ressentir quelque chose que lorsqu'il rencontra les
premières couches d'air substantielles, ce qui se produisit lorsque sa chute
libre commença à être perturbée. En fait, tous les observateurs en chute libre,
comme les cosmonautes qui gravitent autour de la Terre ou les passagers
des vols aériens paraboliques, font la même observation, à savoir qu'il est
impossible de distinguer quoi que ce soit survenant en chute libre de ce qui
surviendrait au repos. Le problème avec la chute libre, c'est que si la matière
est là, cela va faire mal. Mais, tant qu'il n'y a pas de matière, tout va bien.
La présence de matière génère peur et angoisse, alors que le vide génère
apaisement et sérénité. Pour les Orientaux, tout ceci est absolument trivial
car ils pensent en cercle et non en droite.

Donc, la prochaine fois que vous verrez une pomme tomber de l'arbre,
au lieu de penser bêtement, comme Newton, que la Terre attire la pomme,
changez votre point de vue et songez que les choses tombent parce que la
surface de la Terre accélère dans leur direction. Par conséquent, le poids d'un
objet résulte de l'accélération de la surface de la Terre qui chute dans le vide
sidéral situé en haut de nos têtes et qui plaque au sol tout objet qui n'est pas
directement relié à la Terre. C'est pour cette raison que les objets en chute
libre n'ont pas de poids. La surface de la Terre rattrape ainsi assez vite une
pierre jetée en l'air, parce cette pierre détachée de la Terre n'est plus accélérée
vers le haut. Ainsi, à l'instant où la pomme se détache de l'arbre, elle cesse
d'être accélérée vers le haut par la branche liée à l'arbre, enraciné dans la
Terre qui chute vers le vide en haut. La pomme peut dorénavant jouir de la
sérénité du véritable repos. À cause de notre perception humaine limitée,
nous appelons cet état de repos la chute libre vers le bas. Mais, si la pomme
détachée de l'arbre est maintenant au repos, la Terre qui porte l'arbre continue
sa chute dans le vide en direction de la pomme et la collision sera d'autant
plus violente que la branche était haute. Si je prends cet exemple, c'est
qu'il nous permet de nous familiariser avec la relativité générale et montre
qu'il y a plusieurs manières d'interpréter un même phénomène, comme
la chute d'une pomme.

Personnellement, j'adore cette vision d'une Terre chutant vers le haut


pour expliquer la gravitation et qui consiste à prendre au sérieux l'arcane
n° 12 du tarot de Marseille (le Pendu). En effet, j'ai toujours eu beaucoup de
mal à comprendre par quel mécanisme physique le centre de la Terre situé
à 6 371 km sous mes pieds pouvait m'attirer à lui avec autant d'ardeur! Car
c'est bien ce qu'affirme le grand Newton, à savoir que tous les centres de
masse s'attirent. Je fus ainsi très heureux d'apprendre que le centre de la Terre
se fichait pas mal de moi et que c'était simplement le fait d'avoir les pieds sur
une Terre en chute libre vers le haut qui me plaquait au sol. Et peu importe

300
CONCLUSION

que l'on soit une plume ou un éléphant, la chute de la Terre vers le haut est
la même pour tous les habitants de cette planète. C'est précisément cet état
d'esprit du Pendu qu'il convient d'avoir, lorsqu'on essaye de comprendre
le monde avec une pensée quantique. Changer sa perspective d'analyse
quotidienne pour voir les mêmes choses sous un autre angle. On est souvent
surpris du résultat.

Ceux qui souhaiteraient aller plus loin dans l'application de la mécanique


quantique à la vie de tous les jours doivent donc commencer par observer
attentivement la nature et en particulier le mouvement de l'eau liquide. Il faut
arriver à comprendre que l'eau, même lorsqu'on ne la voit pas, est toujours là
sous sa forme morphogénique. On peut aussi travailler avec les sons, car en
raison de la chiralité de nos molécules, nous sommes des êtres piézoélectriques,
c'est-à-dire que notre corps peut convertir des ondes de pression en ondes
électromagnétiques qui vont agir sur les domaines de cohérence de notre
eau corporelle qui mémorise quand même plusieurs centaines de pétaoctets
d'information. Il y a même plus, car en raison de l'effetAharonov-Bohm, ces
champs électromagnétiques induits par les sons peuvent changer les phases
quantiques des domaines de cohérence et donc faire apparaître des choses qui
étaient auparavant inobservables ou réciproquement.

Privilégier la topologie et w Intégrité


l'harmonie Prendre son l'it ::: h/t.E w Partage
temps
w Respect
5 clés Intemporalité
w Excellence
quantiques --- w Cohérence
contrôle 5 masques de

'trahison SOUf::llC~
e ~~%. Accepter
Préciser sa
\ '?> le vide
position
~ t.E ::: h/t;t

5 Blessures
Élargir son point
de vue
a = n-h/2 l'ix ::: h/l'ip

Inverser les
rôles

Figure 143 : Les cinq blessures qui empêchent d'être soi-même et les cinq clés
quantiques qui peuvent aider à les guérir.

301
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Enfin, d'un point de vue plus général, on pourra appliquer les cinq
principes de base de la théorie quantique pour passer les caps difficiles de
notre vie. Je donne ainsi en figure 143 la grille de décodage quantique que
j'ai mise en relation avec l'approche de Lise Bourbeau concernant les cinq
blessures qui empêchent d'être soi-même (Bourbeau 2000). Car la mécanique
quantique, ce n'est pas seulement des mathématiques, mais bien des principes
fondamentaux qui font que le monde est ce qu'il est, aussi bien du point de
vue matériel que du point de vue psychique ou psychologique. On peut donc
et même on devrait les appliquer en permanence dans nos comportements
sociaux, qui sont actuellement plombés par une vision enracinée dans une
vision classique qui n'a rien de naturel. Les choses naturelles obéissent en
effet aux lois de la mécanique quantique et seules ces dernières devraient
guider nos comportements, aussi bien sur le plan personnel que sur le plan
socio-professionnel en entreprise.

Voilà, il est temps de refermer ce livre qui a essayé de vous présenter un


panorama de ce qui se discute âprement dans des revues scientifiques de haut
niveau, dites à « comité de lecture ». Il a fallu à cette occasion trier le bon
grain de l'ivraie et surtout dégraisser le formalisme mathématique qui colle
à la peau de toute mécanique quantique. Dernier point, je vous ai présenté la
mécanique quantique et l'eau comme je les ai vécues et comprises. Il ne s'agit
donc que d'un point de vue strictement personnel, qui n'a jamais été validé
par mes pairs, ni par mon employeur actuel. J'aime travailler avec l'eau parce
que le suspense est permanent et que j'en apprends chaque jour davantage.
J'aime la mécanique quantique, car je réalise que sans elle le monde serait
réduit à un point mathématique dépourvu de volume. Je terminerai sur cette
belle phrase de Giordano Bruno qui fut brûlé en place publique pour avoir
osé avancer des idées légèrement décalées par rapport aux dogmes en vigueur
dans son livre intitulé Le Chandelier :

Gutta cavat lapidem, non bis sed saepe cadendo, Sic homo fit sapiens non
bis, sed saepe legendo.

Ce qui signifie :

Une goutte creuse la pierre en tombant, non pas deux fois, mais de multiples
fois ; de même une personne ne peut acquérir la sagesse en lisant seulement
deux livres, elle doit lire de nombreux livres.

Inutile de vous dire combien de livres et d'articles originaux j'ai dû lire


pour arriver à produire ce livre. En espérant que vous y trouviez beaucoup
de sagesse.

302
Bibliographie
BouRBEAU, L. (2000), Les Cinq Blessures qui empêchent d'être soi-même, E. T. C. Inc. Éditions,
Saint-Jérôme, Québec.
GAMOW, G. ; lvANENKO, D. ; LANDAU, L. (2002), « World Constants and Limiting Transition»,
Phys. Atomic Nuclei, 65: 1373-1375.
0KUN, L. B. (2002), « On the Article of G. Gamow, D. Ivanenko, and L. Landau "World
Constants and Limiting Transition"», Phys. Atomic Nuclei, 65: 1370-1372.
RovELLI, C. (2003), « Loop quantum gravity », Physics World, novembre, p. 1-5.

De manière plus générale, voici une liste de livres qui pourront être consultés
pour aller plus loin. Le classement est par année de parution, les livres les
plus anciens n'étant pas forcément les moins intéressants :

Jean PERRIN (1913), Les Atomes, réédité en 1991 par Flammarion, Paris.
Werner HEISENBERG (1930), The Physical Princip/es ofthe Quantum Theory, Dover, New York.
Marcel BoLL ( 1932), L 'Idée générale de la mécanique ondulatoire, Hermann, Paris.
Hans REICHENBACH (1932), La Philosophie scientifique : vues nouvelles sur ses buts et ses
méthodes, Hermann, Paris.
Gustave JuvET (1933), La Structure des nouvelles théories physiques, Félix Alcan, Paris.
Émile MEYERSON ( 1933), Réel et déterminisme dans la physique quantique, Hermann, Paris.
Victor HENRI (1933), Matière et énergie, Hermann, Paris.
Gaston BACHELARD (1934), Le Nouvel Esprit scientifique, PUF, Paris.
Louis de BROGLIE (1937), La Physique nouvelle et les quanta, Flammarion, Paris.
Erwin ScHRôDINGER (1944), What Js Life ?, Cambridge University Press, Cambrige UK.
John von NEUMANN (1946), Les Fondements mathématiques de la physique quantique, Félix
Alcan, Paris.
Erwin ScHRôDINGER ( 1958), Mind and Matter ?, Cambridge University Press, Cambrige UK.
Paul A. M. DIRAC (1958), The Princip/es of Quantum Mechanics, 4• éd., Clarendon Press,
Oxford.
Werner HEISENBERG (1961 ), Physique et philosophie, Albin Michel, Paris.
Max JAMMER (1966), The Conceptual Development of Quantum Mechanics, McGraw-Hill,
New York.
Banesh HOFFMANN (1967) & Michel PATY (1981), L 'Étrange Histoire des quanta, Seuil, Paris.
Richard FEYNMAN (1970), Mécanique quantique, Le cours de physique de Feynman, vol. III,
Addison-Wesley, Londres.
Werner HEISENBERG (1972), La Partie et le Tout : le monde de la physique atomique,
Flammarion, Paris.
Richard FEYNMAN (1980), La Nature de la physique, Seuil, Paris.
Abraham PAIS ( 1986), Inward Round: of malter and forces in the physical world, Clarendon
Press, Oxford.
Gilles CoHEN-TANNOUDJI & Michel SPIRO (1986), La Matière-Espace-Temps, Fayard, Paris.
Richard FEYNMAN (1987), Lumière et matière, une étrange histoire, InterEditions, Paris.
Paul CARO (1992), De l'eau, Hachette, Paris.
Henry P. SrAPP ( 1993 ), Mind, Malter and Quantum Mechanics, Springer Verlag, Berlin.

303
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Giuliano PREPARATA (1995), QED Coherence in Matter, World Scientific, Singapour.


Gilles CouEN-TANNounn (1995), Les Constantes universelles, Hachette, Paris.
Pascale MENTRÉ (1995), L 'Eau dans la cellule, Masson, Paris.
Emilio DEL G1urncE & Giuliano PREPARATA (1998), Macroscopic Quantum Coherence,
E. Sassaroli, Y. Srivatava, J. Swain, A. Widom (éd.), World Scientific, Singapour.
Philip BALL (1999), Hp: a Biography of Water, Phoenix, Londres.
Anatole ABRAGAM (2000), De la physique avant toute chose, Odile Jacob, Paris.
Gerald H. POLLACK (2001 ), Cel/s, Gels and the Engines ofLife, Ebner & Sons, Seattle.
Giuliano PREPARATA (2002), An Introduction to a Rea/istic Quantum Physics, World Scientific,
Singapour.
Edwin T. ]AYNES (2003), Probability Theory. the Logic of Science, Cambridge University
Press, Cambridge.
Kenneth LIBBRECHT & Patricia RASMUSSEN (2003), The Snowflalœ : Winters Secret Beauty,
Voyageur Press, Stillwater MN, États-Unis.
Roger PENROSE (2004), The Road to Reality, Vintage Books, New York.
Yolène THOMAS, Larbi KAHHAK & Jamal AlssA (2006), in G. H. Pollack, 1. L. Cameron, D. N.
Wheatley (éd.), Water and the Cel/, Springer, Dordrecht.
Yann ÜLIVAUX (2007), La Nature de l'eau, Marco Pietteur, Embourg.
Rodolphe FoRGET, Marc HENRY (2015), L'eau qui nous relie, disponible sur Amazon.
Marc HENRY (2015), L 'Eau, ses mystères, sa mémoire, Éditions Natur'Eau Quant, Strasbourg*.
Marc HENRY (2015), Eau, musique, protéodies et santé, Éditions Natur'Eau Quant, Strasbourg*.
Marc HENRY (2015), Le Vide. Néant, Être, Vacuité, Éther; Matière et mouvement, Éditions
Natur'Eau Quant, Strasbourg*.
Marc HENRY (2015), De /'information à /'exformation, une histoire de vide, d'eau ou d'ADN,
Éditions Natur'Eau Quant, Strasbourg*.

(*)Commande sur le site http://natureauquant.blogspot.fr/p/livret.html

304
Annexe technique

Accélération a : taux de variation du vecteur vitesse v dans le temps t : a= dv/


dt. Selon le principe fondamental de la mécanique newtonienne, toute masse m
accélérée subit une force f = m a.

Activité:enraisondelastatistiquedeMaxwell-Boltzmann,N=N°exp(-E/R0),le
potentiel chimique d'une substance à une température 0, une pression pet pour
un nombre d'entités N donné peut s'écrire: µ(0,p,N) = µ 0 (0,p) + R 0 ln a, où
a= N/N° représente l'activité de la substance et R la constante des gaz parfaits.
Pour une substance pure (N = N° ou a= 1), on a µ(0,p,N°) = µ 0 (0,p), potentiel
chimique standard.

AEC : acronyme signifiant « avant ère chrétienne », c'est-à-dire avant la


naissance de Jésus-Christ.

Atome : concept introduit par les philosophes grecs Leucippe de Milet (480-
370 AEC) Démocrite d'Abdère (460-370 AEC) puis repris par Épicure (341-
269 AEC) et surtout Lucrèce (99-55 AEC). Le chimiste et physicien britannique
John Dalton (1766-1834) explique en 1803 la loi des proportions définies
de Proust en supposant que la matière est constituée d'atomes minuscules
et inaltérables. Il propose ainsi qu'à chaque élément chimique différent
correspond un type différent d'atomes et que tous les atomes d'un même
élément (hydrogène, oxygène ... ) soient identiques. Cette hypothèse permettait
d'expliquer la loi de Proust puisque les atomes s'assemblaient toujours dans
les mêmes proportions. En 1911, le physicien néo-zélandais Ernest Rutherford
(1871-1937) envoie des noyaux d'hélium, He2+ (rayons a) sur une feuille d'or
épaisse de 6 µm. La majorité des particules a traversent la feuille d'or, sans
être déviées comme s'il n'y avait que du vide. Toutefois, une fraction infime
(0,01 %) est déviée, démontrant que toute la masse d'un atome d'or se trouve
concentrée dans une sphère ayant un rayon de 3 10- 14 m. Par comparaison, la
taille d'un atome neutre que l'on peut déterminer via la théorie cinétique des
~ou via des expériences de diffraction des rayons X est de l'ordre de 10- 10 m.
Suite à cette expérience, Ernest Rutherford proposa un modèle planétaire de
l'atome : les électrons, portant les charges négatives, étaient satellisés autour
d'un noyau positif très petit. Il découle de cette crucis experimentum qu'un
atome est constitué à 99,99999999 % de vide. Toutefois, dans le cadre de la
physique classique, la durée de vie d'un tel assemblage sera estimée à 400 ps,
l'électron devant finir par s'écraser sur le noyau en émettant du rayonnement

305
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

électromagnétique de manière continue. La mécanique quantique fut ainsi


développée pour expliquer la stabilité des atomes et le fait qu'ils émettent de la
lumière de manière discontinue.
LUCRÈCE, De rerum natura, GF Flammarion, Paris, 1997.
DALTON, J. (1803), « On the absorption of gases by water and other liquids », Memoirs of the
Literary and Philosophica/ Society of Manchester, Second Series, 1 : 271-87 (1805). Lu le
21 octobre 1803.
DALTON, J. (1808), A New System ofChemica/ Philosophy, vol. 1, Manchester.
DALTON, J. (1827), A New System ofChemical Philosophy, vol. 2, part. 1, Manchester, p. 296.
PROUST, J. L. (1794), «Recherches sur le bleu de Prusse», J. de Physique., 45 : 334-341.
RUTHERFORD, E. ( 1911 ), « The scattering of a and ~ partieles by Matter and the Structure of the
Atorn », Phil. Mag., 21 : 669-688.

. • 1 u = - -1!.~U=U
Théorème d u vine U U
+u =_e_~f dU l dU
=- - =- -.:::::..t.. = m ·a
loi de Newton c 2 c " 2 dr 2 dr '
e2 dU e2
U = ---~-P =--~a=
P 41rE0 r dr 41rE0 r 2

=>

Figure144

io d
T
t=-
48 2 2 2
7r êo ·m, ·c
e4
3
f r ·dr=:!> T = J6
O

R
2
2 2 2
7r êo ·m, ·c
e4
3
R3 "' 41020
· · ·
R3

Atome de Bohr : le physicien danois Niels Bohr (1885-1962) partit du


constat que l'atome était essentiellement rempli de vide (99,99999999 vol%)
pour une taille voisine de 0, 1 nm. Il chercha alors à combiner les concepts de
charge électrique Q et de masse M de l'électron avec les propriétés du vide
aptes à propager la lumière avec une vitesse c = L T 1 ainsi que les interactions
électriques via sa permittivité diélectrique e0 = M- 1 L- 3 T2 Q2 afin d'obtenir une
longueur caractéristique. La seule solution possible étant L = Q2/M c2 e0 , il
trouva L::::: 6 10- 13 m pour une charge Q= e::::: 0, 16 ac et une masse électronique
M = m. ::::: 10-30 kg. Cette valeur étant 1 000 fois trop petite par rapport à ce
que donnait la théorie cinétique des gaz, il essaya de faire intervenir la toute
nouvelle constante de Planck h = M L2 T 1, conduisant à une autre solution
L = h2 e/m. e2 ::::: 0,1 nm, cette fois en parfait accord avec l'expérience.

306
ANNEXE TECHNIQUE

La constante de Planck étant homogène à un moment cinétique, Bohr empêcha


l'atome d'imploser en imposant que le moment cinétique des électrons soit
un multiple entier de la constante de Planck.
BoHR, N. (1913), «On the Constitution of Atorns and Mo1ecules »,Phil. Mag., 26 : 1-25.

Adénosine Mono-Phosphate cyclique (cAMP): messager secondaire pour


ce qui concerne l'action des hormones et des neurotransmetteurs et formé
par hydrolyse de la molécule d 'ATP pour former un ion pyrophosphate
MgAPp/ 8 +HP-+ MgPp/ 8 + AHl0 3. La molécule d'adénosine mono-
phosphate formée étant neutre, elle va se retrouver en milieu lipophile où
elle va subir une déshydratation intramoléculaire spontanée selon le bilan :
AHl0 3 -+ AP0 2 + H20 . Voici la formule développée de Lewis du cAMP.

Adénosine monophosphate cyclique

C10 H 12N5 0l0 2

cAMP = APO 2
..
N
//

'\..
X:
1
NH2
~N
)
••

ca,:••n: ,t..~)
=(37,4,18) N. N
••
=o ·a·
HQ. . jœ 329Da

:é:
.. e .............,_O:
.. :OH
.. Figure 145

Adénosine Di-Phosphate (ADP) : le fait d'écrire MgAPp 92e pour la


formule de l'ATP implique aussi que l'ADP doit s'écrire MgHAPp6 • On
remarquera alors qu'il n'y a plus de charges négatives, ce qui signifie que
I'ADP recherchera plutôt les milieux lipophiles par contraste avec I' ATP qui
ne peut exister que dans un milieu aqueux. Ceci nous montre que lors de la
transformation de I'ATP en ADP, il y a non seulement création d'énergie mais
surtout perte d'un grand nombre de molécules d'eau et migration du résidu
ADP depuis un milieu hydraté vers un milieu plus lipophile. Toute poche
protéique où se produit une transformation d' ADP enATP ou réciproquement
devra donc se déformer très fortement, ce qui provoquera un ébranlement
complet de toutes les protéines en contact avec la protéine où se produit la
transformation. Cette simple observation qui découle d'une écriture correcte
des espèces chimiques mises en jeu devient fondamentale dans le cas du
moteur actine-myosine, par exemple.

Adénosine Tri-Phosphate (ATP): sur un plan structural, l'ATP est formée


par la condensation de trois unités chimiques. Une base azotée hétérocyclique
qui est l'adénine. Un sucre à cinq atomes de carbone qui est le D-ribose. Un

307
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

condensat entre trois groupements phosphate. La dénomination ATP est en


fait infiniment regrettable car il se trouve qu'en milieu intracellulaire, l 'ATP
est toujours fortement associée à un atome de magnésium. Il convient donc
d'écrire l'ATP dans les bilans chimiques sous la forme MgAPp 928 , faisant
clairement apparaître qu'il s'agit d'une espèce de charge négative dont la
charge est partiellement neutralisée par un ion Mg2œet qui ne peut donc exister
en tant que telle qu'en présence d'eau. Munie de cette convention, la réaction
de formation de l 'ATP devient : MgHAPp 6 + HPO/8--+ MgAP p/e + Hp,
réaction équilibrée aussi bien en masse qu'en charge électrique. Ceci est
évidemment correct si l'on raisonne de manière classique. En physique
quantique, il faudrait également rajouter l'information de spin et l'on devrait
donc en toute rigueur écrire: 1MgHAPp 6 + 1HPO/-+ 1MgAPp/ + 1Hp,
faisant clairement apparaître que la réaction ne fait intervenir que des singulets
de spin, c'est-à-dire des espèces non radicalaires, et se trouve donc être
autorisée de spin. Voici maintenant, sous une forme encore plus développée,
la structure chimique de cette molécule qui joue un rôle crucial en biologie et
qui ne peut exister que dans l'eau en raison de sa charge électrique non nulle :

(o,:rc,À) = (45,4,38)
e
••
•o•
• •
e
••
•o•
• •
e [MgAP3cr'ee
••
•o•
• •
0 i 2e
ATP

N . . 'N
:(:2NH
. . . ••
· •• le•• ls •• le•• ~
e:o-P-O-P- O-P- 0 (. 1 1
••1••1••1••~••.N
:o: :o: :o: 0 N~
••
••
e ••
e~g e
•• Ad'enme
.

Triphosphate :oH :oH 528 Da


•• ••
D-ribose Figure 146

On remarquera que, toujours dans un souci de rigueur quantique, je n'ai pas


fait apparaître de doubles liaisons entre les atomes de phosphore et d'oxygène,
qui, sur un plan quantique, n'existent pas. Si d'aventure on annihilait chaque
charge négative (doublet non liant) sur l'atome d'oxygène avec la charge
positive correspondante sur les atomes de phosphore centraux afin de faire
apparaître une double liaison P = 0, comme on le voit trop souvent écrit,
on pourrait croire qu'il existe trois liaisons phosphore-oxygène beaucoup
plus stables que les autres liaisons, ce qui n'est pas le cas. En effet, suite
au phénomène de résonance quantique entre structures indiscernables,
il se trouve que dans l' ATP, toutes les liaisons P-0 sont de même nature
et qu'il n'y en a pas certaines plus stables que les autres. Enfin, l'ATP qui
se trouve à la concentration 1-10 mM dans la cellule est utilisée par toutes
les formes de vie comme réservoir d'énergie. La valeur la plus souvent
citée dans les livres de biologie pour l'énergie libre G libérée lors de la
réaction d'hydrolyse de l' ATP qui correspond à l'inverse de sa synthèse :

308
ANNEXE TECHNIQUE

MgAPp/e + Hp---+ MgHAPp6 + HP0/8 est L\G = -30,5 kJ mol 1. Le


problème est que cette valeur ne tient pas compte de la chaleur de neutralisation
de l'ion phosphate libéré, qui fait que l'énergie libre disponible par hydrolyse
de l 'ATP n'est en fait que de -25 kJ mol· 1•
BE1s, 1. ; NEWSHOLME, E. A. (1975), « The contents of adenine nucleotides, phosphagens
and some glycolytic intennediates in resting muscles from vertebrates and invertebrates »,
Biochem. J., 152: 23-32.
SroRER, A. ; CoRNJSH-BowoEN, A. (1976), « Concentration of MgATP2- and other ions in
solution. Calculation of the true concentrations of species present in mixtures of associating
ions», Biochem. J., 159: 1-5.
PoooLSKY, R. J. ; MORALES, M.F. (1995), «The enthalpy change of adenosine triphosphate
hydrolysis », J. Biol. Chem., 218: 945-959.

Affinité : en 1745, le mathématicien français Pierre Louis Moreau de


Maupertuis (1698-1759) présente l'hypothèse que la gravitation préside à
la formation du corps des animaux dans son roman érotico-physiologique
intitulé La Vénus physique publié en 1745. Le poète allemand Johann
Wolfgang von Goethe (1749-1832) complète le système en l'appliquant aux
relations humaines, dans un roman intitulé Les Affinités électives paru en
1809 et inspiré du traité de chimie De attractionibus electivis de Torbem
Bergman publié en latin en 1775. Il y explique que l'amour entre un homme
et une femme est une attraction inexplicable, comparable à l'attraction des
substances physiques. Mais Goethe se garde bien de faire référence à Newton,
car il est violemment opposé à la conception de la nature de la lumière prônée
par ce dernier dans son traité d'optique. Goethe préfère donc replacer les
affinités chimiques dans le cadre plus général de l'alchimie et du magnétisme,
considéré comme relevant de la chimie bien plus que de la physique jusqu'au
x1x• siècle.

•a
Boson : objet quantique de spin entier dont l'angle de phase reste invariant
(<p = 0 ou 21t) lors de toute rotation de 360°. En seconde quantification, les
bosons sont les corpuscules qui véhiculent une interaction, comme le photon
de spin 1. Comme ils ne sont pas soumis au principe d'exclusion de Pauli,
ils peuvent se retrouver en nombre arbitrairement grand dans le même état
quantique, formant ce que l'on appelle un condensat de Bose-Einstein (BEC).

Bose-Einstein (Condensat) : état de la matière où les lois quantiques


apparaissent à l'échelle macroscopique. Un condensat de Bose-Einstein fait
de particules de matière ne peut généralement être observé qu'au voisinage du
zéro absolu, où l'énergie thermique ne peut plus jouer le rôle de trouble-fête
en raison de la quantification de l'énergie. L'impossibilité d'accéder au niveau

309
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

immédiatement supérieur au niveau d'énergie de l'état fondamental en raison


d'un gap d'énergie trop grand devant le produit~T permet à ce comportement
quantique« grégaire» des bosons de se manifester de la manière la plus évidente
qui soit. Dès 1924, le physicien allemand Albert Einstein et le physicien indien
Satyendra Bose avaient ainsi prévu qu'à une température suffisamment basse, un
ensemble de bosons non distinguables devaient coalescer pour former une entité
se comportant comme un objet unique, état de la matière purement quantique
connu de nos jours sous l'appellation de « condensat de Bose-Einstein » ou
BEC. Par exemple, les atomes d'hélium étant des bosons, la formation d'un
BEC est possible en dessous d'une température T = 2 K et dans cet état, tous les
atomes forment un seul« super-atome» dont la taille peut dépasser largement
l'échelle atomique(:::::: 1 A= 10- 10 m) proprement dite. Bosons et fermions sont
capables de faire des BECs. Lorsque des électrons forment un BEC, apparaît
le phénomène de supraconductivité, c'est-à-dire que le fluide électronique
(courant électrique) est alors capable de s'écouler sans perdre d'énergie, ce
qui se traduit par une résistance électrique qui devient rigoureusement nulle.
Tout comme un superfluide mis en rotation tourne pour l'éternité, un courant
électrique qui circule dans un supraconducteur ne s'arrête jamais et ne produit
donc aucun effet Joule. Une autre propriété des supraconducteurs est que si
l'on place un objet supraconducteur au-dessus d'un aimant permanent, ce
dernier va entrer en lévitation permanente et ne sera plus soumis à l'action
de la gravité (effet Meissner). Ceci provient du fait que l'aimant induit des
courants électriques dans le supraconducteur qui créent leur propre champ
magnétique qui s'oppose au champ permanent de l'aimant (loi de Lenz). C'est
cette répulsion mutuelle via des courants induits qui s'oppose à la force de
gravité et permet à l'objet de léviter. Les électrons étant des fermions, particules
impossibles à mettre dans le même état quantique, comment est-il donc possible
de former un BEC ? En 1956, le physicien américain Leon Cooper imagina que
les électrons, par couplage avec les vibrations du réseau cationique supportant
le fluide, étaient capables de former des paires de manière à ce que ces paires
acquièrent les caractéristiques des bosons. Si tous les électrons sont capables de
former de telles paires dites de Cooper, ces paires de fermions étant des bosons
peuvent se retrouver toutes dans le même état quantique, formant un BEC se
comportant comme une seule particule géante. La principale conséquence de
la formation de paires de Cooper est une résistance électrique rigoureusement
nulle. En effet, dans des métaux normaux, la résistance électrique provient des
collisions que subissent les électrons avec les cations du réseau qui s'agitent
dans tous les sens. Une fois devenus supraconducteur, les paires d'électrons se
condensent tous dans l'état de plus basse énergie, ce qui empêche la dissipation
de l'énergie. Par conséquent, une fois mise en mouvement dans un courant
électrique, la paire de Cooper ne peut tout simplement plus s'arrêter. Ici le
seul moyen de perturber la supraconductivité sans augmenter la température
consiste à amener l'énergie, par exemple de l'énergie magnétique.

310
ANNEXE TECHNIQUE

•c
Calcaire : ou carbonate de calcium CaCOr Sur Terre, le calcaire a commencé
à être recyclé à l'intérieur du manteau par subduction depuis environ 4,4-
4,3 milliards d'années via une activité tectonique impliquant les roches
silicatées :
Dissolution du calcium: CaSi03 + 2 co2 +HP- Ca2œ + 2 HC03 8 + Si02
Précipitation du calcaire Ca2œ+ 2 HCQ38-+ CaC03+ C02 + Hp
Bilan total : CaSi03 + C02 -+ CaC03 + Si02 (absorption du dioxyde de
carbone).

Calorie : le mot calorie a été forgé entre 1787 et 1824 suite aux travaux de
Lavoisier sur le calorique.
HARGROVE, J. L. (2006), « History of the calorie in nutrition», J. Nutr., 136: 2957-2961.

Capacitance C : quantité de charge électrique par unité de potentiel. Contenu


dimensionnel C = [M- 1 L-2T2 Q2]. Unité SI : farad (F). La capacitance de tout
prisme droit de section A et de longueur d mesurée dans la direction du flux
électrique s'écrit C = e·A/d, où E est la permittivité diélectrique.

Capacité calorifique Cv ou CP : grandeur thermodynamique qui indique


comment varie l'énergie interne U d'un système lorsqu'on fait varier sa
température 0. Si la variation a lieu à volume V et nombre d'entités N
constant, on la note Cv = (8U/ô0)vw Comme 1/0 = (ôS/ôU)vN' on a aussi
Cv = 0·(8S/80)v,w D'un point de vuè microscopique, cette grandeur est reliée
aux fluctuations quadratiques moyennes de la température <(o0)2> = ~·02/
Cv ou de l'énergie interne <(oU) 2> = ~·0 2 CV' où ~ est la constante de
Boltzmann. Si la variation a lieu à pression pet nombre d'entités N constant,
on la note Cp = (ôH/80) p,N' où H = U + p V est la fonction enthalpie.
Comme 1/0 = (ôS/ôH) p,N' on a aussi Cf = 0·(8S/80)p,w D'un point de vue
microscopique, cette grandeur est re iée aux fluctuations quadratiques
moyennes de l'entropie <(oS) 2> =~CP.
Contenu dimensionnel identique à l'entropie.

Carreau (pétanque) : soit Met V la masse et la vitesse de la boule incidente


et m et v la masse et la vitesse de la boule chassée. Avant le carreau, j'ai
P= MV +m x O= MV, tandis qu'après le carreau,j'aip= Mx 0 + m v=m v.
Le principe de conservation de la quantité de mouvement impose que p = P,
soit m v = M V. Si les deux boules ont la même masse, la collision ne change
pas les vitesses (v = V). Mais si l'objet chassé est le cochonnet, sa vitesse
v = (M/m) V est d'autant plus grande que sa masse m est plus faible.

311
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Ceinture de Kuiper : ceinture d'astéroïdes située au-delà de la planète


Neptune et où l'on trouve les planètes naines comme Pluton ou Charon, ainsi
qu'une grande réserve d'objets extraterrestres.

Chaleur spécifique : aussi appelée capacité thermique massique et qui est


déterminée par la quantité d'énergie à apporter par échange thermique pour
élever d'un degré la température de l'unité de masse d'une substance.

Champ : pour les physiciens anglais Michael Faraday (1791-1867) et


James Clerk Maxwell (1831-1879), un champ se visualisait au moyen d'un
ensemble de lignes qui remplissaient tout l'espace. Ces lignes qui débutaient
et se terminaient au niveau des charges électriques pouvaient aussi avoir leur
propre dynamique indépendante et être là même en l'absence de charges
électriques, auquel cas, n'ayant aucune terminaison, elles devaient se
refermer sur elles-mêmes, formant des boucles. Un champ peut être scalaire
(température), vectoriel (vitesse) ou tensoriel (courbure).

Champ de gravitation (pesanteur) : voir gravitation universelle.

Champ électrique E : vecteur pouvant varier dans le temps et existant en tout


point de l'espace, y compris en l'absence de matière. Tout champ électrique
exerce une force f sur toute charge électrique q, selon la loi de Coulomb
f = q E. Contenu dimensionnel E = [M L 1'2 Q- 1], Unité SI= N C- 1 ou V m- 1•

Champ magnétique H : pseudo-vecteur dérivant de la densité de flux


magnétique pouvant varier dans le temps et existant en tout point de l'espace,
uniquement en présence de matière. La densité de flux magnétique est égale à
la somme du champ magnétique produit par les courants libres augmenté de
la magnétisation induite M (courants liés): B = µ0 ·(H + M), où µ0 représente
la perméabilité magnétique du vide. Comme la magnétisation trouve son
origine dans le champ magnétique extérieur, on a l'habitude d'écrire que
M = x.,, H => µr = 1 + X.,, => B = µr µ 0 • H = µ H, où x.,, et µr sont des nombres
sans dimension caractérisant le comportement magnétique d'une substance
matérielle appelés respectivement susceptibilité magnétique et perméabilité
magnétique relative. Contenu dimensionnel [Q 1' 1 L- 1], Unité SI= A m- 1•

Charge électrique Q : quantité physique qui peut être positive ou négative


et susceptible de produire des champs électriques ou magnétiques. L'unité
internationale de charge électrique est le coulomb (C) en honneur au
physicien français Charles de Coulomb (1736-1806) qui trouva que deux
charges électriques s'attirent ou se repoussent selon le produit des charges
que divise le carré de la distance qui les séparent. Produit de la capacitance C
par le potentiel électrique V (Q = CV).

312
ANNEXE TECHNIQUE

Coefficient de dilatation thermique isobare a,. , coefficient gouvernant


la variation de volume V à pression p constante suite à une augmentation
ou une diminution de température 0 : V a,.= (8V/80)P. Pour un système
à l'équilibre, mesure les fluctuations croisées d'entropie et de volume
<oS oV> = kB 0 V a,..

Complexe (nombre) : nombre bidimensionnel, généralement noté z, qui peut


être considéré comme une flèche de longueur r pointant dans une direction
donnée du plan et faisant un angle de phase 0 avec l'axe des abscisses, x,
qualifié de réel. L'axe des ordonnées est pour sa part qualifié d'imaginaire
car la projection de la flèche le long de cet axe se trouve affectée d'un
nombre i, ayant la propriété étrange de devenir son opposé lorsqu'on le
multiplie par lui-même : i x i = i2 = -1. On a donc l'équivalence suivante :
z = x + i y= r exp(i·0), puisque x = r cos 0 et y= r sin 0.

En fait, le choix du terme « imaginaire » fait par les mathématiciens au


xvme siècle est très malheureux, car le nombre i (pour imaginaire) représente
en fait une chose bien réelle, à savoir une rotation de l'axe réel de 90° dans
le sens inverse des aiguilles d'une montre. De fait, si j'effectue deux fois
une telle rotation, je me retrouve à nouveau sur l'axe réel mais avec un signe
opposé puisque l'axe se trouve maintenant orienté vers la gauche s'il était
orienté vers la droite avant rotation. Donc, si d'aventure vous voyez un
nombre complexe quelque part, l'image qui doit vous venir en tête sera celle
du cercle, alors que si vous voyez un nombre réel, ce dernier symbolise une
droite. Ceci étant acquis, il devrait être facile de comprendre que la physique
classique qui ne considère que des nombres réels est un mode de pensée
typiquement occidental où l'on s'obstine à vouloir tout analyser en termes
de droites. Bref, au lieu de prendre le monde tel qu'il est, on cherche à le
rectifier, ou si vous préférez on l'empêche de s'exprimer dans une direction
orthogonale. C'est la raison pour laquelle ce mode de pensée classique est une
aberration purement intellectuelle qui marche à une certaine échelle et échoue
lamentablement dès que l'on va vers l'infiniment grand ou l'infiniment petit.
Par opposition, en physique quantique et en physique relativiste, on s'autorise
à penser en cercles et non en droite. Ces deux théories peuvent donc a priori
s'appliquer à toutes les échelles.

313
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

ei"l = cos q + i·sin q


eO =eï·:vt = 1
j2 = eï·n/2.ei-1</2 = eï·n = -1

Leonhard Euler
(1707-1783)

./f.
ILLJ
œ'

Axe réel Figure 147

Conductivité électrique a : aptitude d'une substance à conduire le courant


électrique. Inverse de la résistivité électrique p. Contenu dimensionnel
n-
cr= [M- 1 L-3 T·Q 2]. Unité SI: siemens par mètre (S m- 1 = 1 m· 1). Le siemens
est l'unité de conductance électrique G, définie comme l'inverse de la
résistance électrique G = 1/R. La conductance électrique de tout prisme droit
de section A et de longueur d est égale à G = cr·A/d, où d est mesurée dans
la direction du flux de courant. La conductivité électrique de l'eau ultra-pure
est cr= 0,055 µS cm- 1• Pour les eaux minérales, une conductivité de 2 µS cm- 1
correspond à 1 ppm (parties par millions) de minéraux dissous.

Constante d' Avogadro : il y a plusieurs manières d'estimer la constante


d' Avogadro. La première méthode se basa sur la théorie cinétique des
gg (nombre de Loschmidt). En 1890, le physicien anglais John William
Strutt Rayleigh ( 1842-1919) et le physicien allemand Wilhelm Rontgen
( 1845-1929) reprirent une expérience réalisée en 17 62 par le naturaliste
Benjamin Franklin ( 1706-1790) qui décide, au bord de l'étang de Clapham
en Angleterre, de verser une cuillère d'huile dans l'eau du lac. Il observe
alors qu'une tache se forme à la surface, et s'étend rapidement jusqu'à
couvrir presque un quart de la superficie du plan d'eau (à peu près 2 000 m 2).
Reprenant cette expérience avec de l'huile d'olive, Rayleigh constate que
0,81 mg suffisent à stopper totalement le mouvement de particules de camphre
dispersées à la surface d'un récipient de 84 cm de diamètre et rempli d'eau
(Rayleigh 1890). L'huile d'olive ayant une densité de 0,9, cela correspond à
un film unimoléculaire d'une épaisseur:

d = 0,81·10-3/(0,9 x 7t x 42 2) = 1,6 10-7 cm.

314
ANNEXE TECHNIQUE

Sachant que l'acide oléique possède une masse molaire de 282,5 g mol-1, on a :
NA;::;(xx42 2 xM)/(d2 0,8110-3);::;7,51022 mol- 1•

Rontgen trouve pour sa part que 0,5 mg d'huile étalée sur une surface de 1 m2
forme une monocouche de 0,56 nm d'épaisseur (Rôntgen 1890).
Soit d = 5,6 10-s cm, d'où:

N ;:::; (104 x 282 5)/(d2 0 5 10-3);:::; 1 8 1024 mo1- 1


A ' ' ' •

La méthode sera peaufinée par le physicien Pierre Lecomte Du Nouy (1883-


1947) qui arrive en 1924 à« peser» une molécule d'oléate de sodium, en
partant d'une solution concentrée à 1 %0. Lors de dilutions successives,
il trouve trois minima de tension superficielle aux taux de 1/750 000,
1/1 220 000 et 1/1 390 000 (Du Nouy 1924a). Il attribue ces minima aux
trois différentes orientations de la molécule dans une couche de surface, le
premier minimum correspondant à une orientation verticale, le deuxième
minimum à une orientation horizontale et le troisième à une rotation de 90°
de ces molécules autour de l'axe horizontal. Il calcula alors l'épaisseur des
monocouches correspondant à ces trois dilutions critiques et en déduisit la
valeur du nombre d'Avogadro. Il trouva ainsi que la molécule d'oléate de
sodium devait être un parallélépipède de dimension 12,3 10-s, 7,56 10-s et
6,64 1o-s cm. Le produit de ces trois nombres donne le volume de la molécule
qui multiplié par 0,821, densité de l'oléate de sodium, donne une masse de
507 10-24 g. La masse molaire de l'oléate de sodium étant 304,35 g mol- 1
conduit à:

N = 6 003 1023 mol- 1


A '

CH 3 (~) 7CH=CH(C~) 7COONa

Oléate de sodium V ·c
p = 0 ,821 g·cm-3 M = 304,55 Da L=-
ONa A-p

1:
~ 70 V=IL
..... A= 13,21 cm2
~
ü 60 Co= 1 g·L"I
'y
'E
8. 50
~ i -..... L1 = 12,3· 10·10 m
c L2 = 7 ,56· 10·10 m
0 I // L z
__.
·~ L 3 = 6,64·10·10 m
~ m =p ·L1-L2-L1
200 100 20 10 1 xlO"' Figure 148
Concentration c I g- L- 1

315
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Puis, il y eut le calcul du physicien anglais Lord Rayleigh (1842-191) en 1899


à partir de la visibilité d'un ciel clair. La loi de diffusion de Rayleigh stipule
en effet que le nombre de Loschmidt vaut L = 32 x 3(n-1 )2/(3 p 1..4), où n est
l'indice de réfraction du gaz, À la longueur d'onde de la lumière diffusée et
p le coefficient de diffusion de la lumière, que l'on peut estimer à partir de la
distance maximale de vision d'un objet noir sur fond bleu avec un contraste
de 2 % en plein jour Ry =-ln (0,02)/p (Pesic 2005). Pour l'air, on a:

(n - 1) = 3 10-4, Ry:::::: 330 km pour À= 520 nm, soit L:::::: 3 10 19 cm-3

Max Planck le calculera en 1901 à partir du spectre du corps noir où la valeur


de la constante de Boltzmann est aussi déterminée pour la première fois
(Planck 1901a), ce qui permet de calculer le nombre de Loschmidt (Planck
1901b). Planck trouva ainsi la valeur:

L:::::: 2,76 10 19 cm-3

Albert Einstein calcula pour sa part le nombre d' Avogadro à partir des lois du
mouvement brownien: NA= t R 0/(3x <x>2 TJ a), où ·<x>2 est le déplacement
quadratique moyen d'une particule de rayon a pendant un temps t à la
température 0 dans un milieu de viscosité TJ et R la constante des gaz parfaits
(Einstein 1905). Il trouva tout d'abord (Einstein 1906):

NA= 4,15 1023 qu'il rectifia plus tard en NA= 6,56 1023 (Einstein 1911)

L'hypothèse moléculaire prévoyant que des grains identiques agités par


le mouvement brownien se distribuaient en fonction de la hauteur comme
un gaz parfait sous l'action de la pesanteur, Jean Perrin vérifia la loi et put
estimer le nombre d'Avogadro (Perrin & Dabrowski 1908). Soit RE> ln (ni
n 0) =NA v (Li - ô) g h, où net n 0 sont les concentrations en grains de volume v
et de densité apparente (Li - ô) en deux niveaux séparés d'une distance h à la
température 0 et R la constante des gaz parfaits. Ils trouvèrent :

N = 7 05 1023
A '

Le physicien néo-zélandais Ernest Rutherford (1871-193 7) calcula ce


nombre dès 1908 en étudiant les désintégrations alpha du radium-226
(Rutherford & Geiger 1908). Avec NA= (M/À m)"[-dN/dt], où m = 0,055 mg
est la masse de radium de masse molaire M = 226 g mol- 1 qui se désintègre
avec une constante À= 1,079 10-6 j- 1 et un taux -dN/dt = 1, 13 108 min- 1• Ceci
conduit à:

NA:::::: 6,2 1023 mol- 1 (Sturm 2000)

316
ANNEXE TECHNIQUE

En 1913, le physicien américain Robert Andrews Millikan (1868-1953) le


dériva à partir de la constante de Faraday et de la charge électrique élémentaire
mesurée au moyen de gouttes d'huile (Millikan 1913). Afin de déterminer
la charge électrique élémentaire, Millikan pulvérise de minuscules gouttes
d'huile électrisées entre les deux électrodes horizontales d'un condensateur
plan chargé. Les gouttes subissent trois forces (gravité, poussée d'Archimède
et force électrostatique) qui s'équilibrent rapidement. La force constante
résultante est très rapidement compensée par le frottement avec l'air, ce qui
conduit à observer un mouvement de la gouttelette à vitesse limite constante.
Le rapport de la distance parcourue sur le temps mis pour la parcourir sur
une gouttelette d'huile ionisée par des rayons X montre que les valeurs
d'ionisation sont toutes multiples entières de e = 4,474 10- 10 esu. La constante
de Faraday mesurée par électrolyse valant F = 9650 emu, il en découle :

N = 3· 10 10 x Fie= 6 062 1023 mol- 1


A '

La même année, le physicien anglais William Henry Bragg (1862-1942) et


son fils William Lawrence Bragg (1890-1971) utilisent cette valeur pour
calculer par diffraction des rayons X le volume de maille du sel de cuisine
NaCl sachant que NA = (Z M)/(p V), où Z est le nombre de motifs NaCl par
maille élémentaire, M la masse molaire, p la densité du cristal et V le volume
de la maille (Bragg & Bragg 1913). La méthode sera raffinée durant tout le
xx• siècle, passant d'une précision relative de 6 10-3 en 1929 pour arriver à la
valeur moderne connue avec une précision relative de 5 10-s (Andreas & al.
2011): NA= 6.022 140 82(18) x 1023 mo1- 1
ANDREAS, B. & al. (2011 ), « Counting the atoms in a 28Si crystal for a new kilogram definition »,
Metrologia, 48: Sl-813.
BRAGG, W. H. (1913), «The reftectionofX-rays byCrystals »,Proc. Roy. Soc. A, 88: 428-438.
BRAGG, W. H.; BRAGG W. L. (1913), «The reflection ofX-rays by Crystals », Proc. Roy. Soc.
A, 89 : 246-248.
Du Noüv, P. L. (1924a), «A new determination of the constant N of avogadro, based on its
definition »,Phil. Mag., 48: 664-672.
Du Noüv, P. L. (1924b), «The surface equilibrium of colloidal solutions and the dimensions
of some colloidal molecules », Science, 59 : 580-582.
EINSTEIN, A. (1905), « Über di von molekularkinetischen Theorie der Wlirme geforderte
Bewegung von in ruhenden Flüssigkeiten suespendierten Teilchen », Ann. Phys. Lpz., 17 :
549-560.
EINSTEIN, A. ( 1911 ), « Berichtigung zu meiner Arbeit : Eine neue Bestimmung der Molekül-
dimensionen », Ann. Phys. Lpz., 34: 591-592.
PERRIN, J. B. ; DABROWSKI, M. (1909), «Mouvement brownien et constantes moléculaires»,
C. R. Acad. Sei., 149: 477-479.
MILLIKAN, R. E. (1913), «On the elementary electrical charge and the Avogadro constant»,
Phys. Rev., 2: 109-143.
PEs1c, P. (2005), « Estimating Avogadro's number from skylight and airlight », Eur. J. Phys.,
26: 183-187.

317
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

PLANCK, M. (1901a), « Ueber das Gesetz der Energieverteilung in Normalspectrum », Ann.


Phys. Lpz., 4 : 553-563.
PLANCK, M. (190lb), « Ueber die Elementarquanta der Materie und de Elektricitlit », Ann.
Phys. Lpz., 4: 564-566.
RAYLEIGH, Lord (1890), « Measurements of the Amount of Oil Necessary in Ortler to Check the
Motions ofCamphor upon Water», Proc. Roy. Soc. Lond., 47: 364-367.
RAYLEIGH, Lord (1899), « On the Transmission ofLight through an Atmosphere containing
Small Particles in Suspension, and on the Origin of the Blue of the Sky », Phil. Mag., 47 :
375-384.
RôNTGEN, W. C. ( 1890), « Ueber die Dicke von chiirenten Oelschichten auf der Oberfliiche des
Wassers », Ann. Phys. Lpz., 277 : 321-329.
RurHERFORD, E. ; GEIGER, H. (1908), «The charge an nature od the a-particle », Proc. Roy. Soc.
Lond. A, 81: 162-173.
SruRM, J. E. (2000), «Ernest Rutrherford, Avogadro 's number and chemical kinetics revisited »,
J. Chem. Educ., 77 : 1278.

Constante de Boltzmann ~ : constante introduite par Max Planck en 1900


qui possède la dimension d'une entropie : k8 = 1,38 10-23 J K- 1• Selon le
physicien autrichien Ludwig Boltzmann ( 1844-1906) : constante universelle
de proportionnalité entre le nombre de micro-états Q(U,V,N) disponibles pour
une énergie U, un volume V et un nombre d'entités N donné et l'entropie
(Boltzmann 1877) : S(U,V,N) = k8 ln Q(U,V,N). De manière assez étrange,
Boltzmann ne se soucia jamais de déterminer la valeur de cette constante qui
porte aujourd'hui son nom.

Constante de Planck h ou h : constante introduite en 1900 par le physicien


allemand Max Planck (1858-1947) et ayant pour valeur h = 4,14 eV fs ou
h = h/21t = 0,66 eV fs. Cette constante de Planck est homogène à une action
[M L2 T'] et joue, en théorie quantique, le rôle de la constante d'Einstein c
en relativité restreinte ou de la constante de Newton G en relativité générale.
Pour cette raison, elle est également appelée quantum d'action (Bohr 1928).
L'absence de grandeur d'état, postulat fondateur de la mécanique quantique,
fait qu'aucun phénomène naturel observable ne peut mettre enjeu une action
inférieure à h ou h.
BOHR, N. (1928), «The Quantum Postulate and the Recent Development of Atomic Theory »,
Nature, 121 : 580-590.
PLANCK, M. (1900), « On the theory of the energy distribution law of the normal spectrum »,
Verhandl. Dtsch. Phys. Ges., 2: 237-244.

Courbure spatiale : soit U = M c2 l'énergie cinétique de répulsion, l'équilibre


entre répulsion et attraction gravitationnelle sera donc tel que M c2 = G M2/L,
soit M L- 1 = c2/G. Si Gest comme c, un invariant d'échelle, on peut choisir un
système d'unités où c = G = 1, d'où il s'ensuit que M L- 1 = 1, soit M = L = T,
c'est-à-dire que masse et espace-temps se confondent en relativité générale. Il
en découle donc que si L' = À.L et T' = À.L alors M' = À.M, assurant que G = 1
lors de tout changement d'échelle À..

318
ANNEXE TECHNIQUE

Courant électrique 1 : quantité de charge électrique passant dans un


conducteur électrique par unité de temps. Contenu dimensionnel 1 = [Q T'].
Unité SI : ampère (A= C s·').

Covariance : propriété d'invariance qui s'applique à une équation, à savoir


que si l'on transforme un système caractérisé par une certaine équation f(x)
en un autre système différent, on conservera la forme de cette équation.

Crucis experimentum ou expérience cruciale qui va permettre un


changement de paradigme.

Cytochrome c oxydase : l'enzyme cytochrome c oxydase est la dernière


enzyme de la chaîne de transport d'électrons (complexe IV) lors de la
respiration cellulaire bactérienne ou mitochondriale. Elle reçoit un électron
de chacun des quatre molécules cytochromes c afin de les transférer sur une
molécule de dioxygène pour produire deux molécules d'eau qui pourront soit
participer à l'hydratation intracellulaire, soit être évacuées par les poumons
sous forme d'haleine. Pour ce faire, quatre protons doivent être pris dans le
milieu intracellulaire pour former l'eau et quatre autres protons doivent être
transportés à travers la membrane vers le milieu extracellulaire afin de pouvoir
créer le potentiel électrochimique qu'utilisera l'enzyme ATP-synthase pour
fabriquer les molécules d' ATP. Voici le bilan : 4 Cyt-Fe2+ + 8 Wintra + 0 2 -+
4 Cyt-Fe3++ 2 H 20 + 4 H+extra

Degrés de liberté : variables dynamiques indépendantes permettant, à un


moment donné, de préciser l'état de mouvement d'un système matériel. Ainsi,
une masse soumise à une force de rappel proportionnelle à son déplacement
(oscillateur harmonique) se caractérise par 2 degrés de liberté : position
de la masse et vitesse au point où elle se trouve. Une molécule diatomique
A-B possède 7 degrés de liberté : 3 coordonnées (x,y,z) pour le centre de
masse, 2 vitesses de rotation autour du centre de masse, et 2 degrés de liberté
pour l'oscillation le long de la liaison A-B. Un gaz monoatomique formé de
N atomes possède 6 N degrés de liberté, puisqu'il faut préciser la position (x,
y, z) et la quantité de mouvement (px, Py' p,) de chaque atome. Enfin, un solide
formé de N atomes, possède aussi 6 N degrés de liberté, puisqu'il peut vibrer
selon 3 directions indépendantes et que chaque vibration se comporte comme
un oscillateur à 2 degrés de liberté.

Densité de flux électrique D : vecteur dérivant du champ électrique E


pouvant varier dans le temps et existant en tout point de l'espace, uniquement

319
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

en présence de matière. Somme de la polarisation électrique provenant


des charges libres (champ électrique E) et des charges liées (polarisation
induite P): D = B0 E + P, où B0 représente la permittivité du vide. Comme le
champ de polarisation trouve son origine dans le champ électrique extérieur,
on a l'habitude d'écrire que P = x., B0 E => B, = 1 + x., => D = B, B0 • E = B E,
où x., et B, sont des nombres sans dimension caractérisant le comportement
diélectrique d'une substance matérielle appelés respectivement susceptibilité
diélectrique et constante diélectrique relative. Contenu dimensionnel [Q L-2],
Unité SI = C m-2 •

Densité de flux ou induction magnétique B : pseudo-vecteur pouvant varier


dans le temps et existant en tout point de l'espace, y compris en l'absence de
matière. Toute densité de flux magnétique exerce une force f sur toute charge
électrique q se déplaçant avec une vitesse v: f = q v B sin 0 où 0 est l'angle
entre le vecteur v et le pseudo-vecteur B. Contenu dimensionnel [M T 1 Q- 1],
Unité SI = tesla (T).

Diamagnétisme : propriété de la matière qui provoque une raréfaction


des lignes de champ magnétique en raison d'une perméabilité magnétique
relative inférieure à celle du vide (µ, < 1).

Dulong et Petit (loi de) : loi empirique énoncée par les physiciens français
Pierre Louis Dulong (1785-1838) et Alexis Thérèse Petit (1791-1820)
stipulant que le produit de la masse molaire par la chaleur spécifique des
solides est à peu près constant. Le chimiste italien Stanislao Cannizzaro
(1826-1910) utilisera cette loi de manière intensive afin d'établirun ensemble
de poids atomiques cohérents entre eux qui n'est valable toutefois que pour
des températures suffisamment hautes.

Eau juvénile: eau terrestre qui n'existe que sous forme hydroxylée Mg-OH,
Fe-OH ou Si-OH au sein des pores de roches de type (Mg,Fe) 2Si04• La surface
terrestre à sa naissance était donc parfaitement« sèche» et il n'y avait encore
aucune atmosphère. Cette forme d'eau pétrifiée, sous la forme de minéraux de
type wadsleyite ou de ringwoodite, existe toujours au sein de la zone de transition
entre le manteau supérieur et inférieur terrestre situé à une profondeur allant de
410 à 660 km. Très récemment, beaucoup de sites internet ont ainsi évoqué la
présence d'une« masse d'eau» sous nos pieds équivalente à près de trois fois
la quantité d'eau dans tous les océans réunis. Ce chiffre est douteux, car si l'on
suppose une densité de 3,3 g cm-3 pour le manteau supérieur, la masse de roche
comprise entre une profondeur allant de 410 km à 660 km est de l'ordre de

320
ANNEXE TECHNIQUE

3 102 1 kg. Si l'on admet un taux d'hydratation des roches de 1,5 pds % retenu
dans l'article original, on trouve une masse d'eau de 4,5 1019 kg, soit à peine
3 % de la masse d'eau terrestre. On a vu ainsi fleurir sur le net de belles images
évoquant des océans souterrains parfaitement inexistants. Il s'agit en fait d'une
eau existant à l'état potentiel, et ne pouvant apparaître sous forme 8i0 vapeur
que lors de la disparition des pores lors de la fusion de ces roches poreuses.
Fermeture des pores selon la réaction : M-OH + HO-M - M-0-M + HPî,
avec M = Mg, Fe ou Si.

Eau primordiale : la molécule d'eau Hp ne peut pas exister en tant que


telle dans le vide interstellaire, où elle se trouve complètement dissociée en
deux atomes d'hydrogène et un atome d'oxygène. Toutefois, en présence de
poussières, un atome d'oxygène peut s'unir à un atome d'hydrogène pour
former le radical •OH. Ce radical •OH peut à nouveau réagir avec un autre
atome d'hydrogène pour former ce que l'on appelle de l'eau primordiale.
Vu le froid intense qui règne dans l'espace, cette eau primordiale ne peut
exister qu'à l'état solide sous forme de glace amorphe (LDA, HOA, VHDA),
enfouie au plus profond des comètes. L'eau peut également entrer en réaction
avec les ions métalliques présents dans les roches sous forme d'oxydes
pour former des roches poreuses emprisonnant les gaz primordiaux. Selon
la réaction : M-0-M + Hp - M-OH + HO-M. Les gaz piégés dans les
pores sont essentiellement de l'hydrogène, des gaz nobles comme l'hélium
(He), le néon (Ne), l'argon (Ar), le krypton (Kr) ou le xénon (Xe) ainsi que
du diazote N 2 ou du dioxyde de carbone C02 • Les groupements hydroxyles
M-OH formés lors de cette hydratation intime des roches permettent ainsi
à l'eau de traverser les espaces sidéraux intergalactiques sous forme de
météorites. Les principaux cations métalliques transporteurs d'eau entre les
galaxies, les étoiles et les planètes sont le magnésium (Mg2+), le fer (Fe 2+) ou
le silicium (Si4+) interagissant au sein d'une roche météoritique de formule
brute (Mg,Fe)2Si04 existant sous trois principales formes cristallines :
olivine, wadsleyite et ringwoodite. Si les olivines, formes basse pression, ne
s'hydratent pas au-delà de 1 pds %, la wadsleyite (pauvre en magnésium)
ou la ringwoodite (riche en magnésium), formes haute pression, peuvent
contenir jusqu'à 3 pds % d'eau dans leurs pores.

Échelle de Planck : considérons une fluctuation du vide d'énergie AE = ~ c 2


sur une région d'extension spatiale AR = c At. Pour qu'une telle masse
devienne observable, il faut que la condition AE At ~ h/2 soit satisfaite, soit
Am ~ h/(2c AR). Exigeons maintenant que cette même masse Am ne soit
pas un trou noir, ce qui impose une extension spatiale supérieure au rayon
de Schwarzschild associé, soit AR~ 2G Am/c 2, ou de manière équivalente
Am :5 c2 AR/2G. Toute masse observable dans l'univers doit donc satisfaire à
la double inégalité h/(2c AR) :5 Am :5 c2 AR/2G. Ce raisonnement montre qu'il
sera physiquement impossible de distinguer entre vide et trou noir dès que

321
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE REVOLUTION DE LA MÉDECINE

h/(2c·~R) = c2 ~R/2G, soit (~R) 2 = LP 2 = h G/c 3 (LP ~ 1,7 10·35 m). L'échelle
de temps associée à une telle longueur est bien sûr 1r2 = L//c 2 = h G/c 5,
soit 1r ~ 5,5 I0-44 s. La masse associée s'obtient en écrivant MP = 2 ~m =
h/(c LP)= LPc 2/G, d'oùM/=hc/G, soitMP~22 µg. Enfin, la charge électrique
s'obtient en écrivant que QP2/(4m:0 LP) = MP c 2, d'où Q/ = 4m;0 h c = e2/a,
soit QP ~ 1,9 aC. La taille de Planck LP et le temps de Planck 1r fixent
respectivement l'échelle spatiale et temporelle à partir de laquelle il devient
impossible de distinguer entre du vide ne contenant aucune matière et un
trou noir infiniment massif. La masse de Planck est la masse maximale que
pourra avoir une particule élémentaire pour ne pas être un trou noir. Enfin, la
charge de Planck QP est la charge électrique maximale que peut posséder une
particule élémentaire, au-delà de laquelle elle devient un trou noir.

Eau« para»: la mécanique quantique impose que la fonction d'onde totale


de la molécule d'eau soit antisymétrique lors de la permutation des deux
atomes d'hydrogène en raison du spin demi-entier 1 = h/2 des noyaux des
deux atomes d'hydrogène. Or, il se trouve que les états quantiques de spin
total 1 = h/2 - h/2 = 0 (singulet de spin) sont antisymétriques par rapport à
la permutation des deux atomes d'hydrogène puisque la projection des deux
moments pointe dans des directions opposées. Il en découle que tous les états
quantiques ayant des fonctions d'onde rotationnelles de type antisymétrique,
c'est-à-dire où la somme (K. + K 0 + v 3) est impaire, ne peuvent décrire
correctement les états singulets car ils conduiraient de nouveau à une fonction
d'onde totalement symétrique.

A BC/ -1= h-10-2 2, 7993·10~ Énergie/ cnr'IJ K K > (v = o)


' a' c 3
' , cm 2 2
- 285,21933 1331 >
8.n; c·/ A.B.c I A.B.c I kg·m

200 -206,301401322>

_142 ,27846 1313 >


- 136,16390 220 >

1OO - 95,17591 1211 >


Eau "para" -70,09079 1202 >
singulet de spin - 37,13711 1111>
K a + Kc + v3 pair 0 -01000>
Figure 149

Eau« ortho »:la mécanique quantique impose que la fonction d'onde totale
de la molécule d'eau soit antisymétrique lors de la permutation des deux
atomes d'hydrogène en raison du spin demi-entier 1 = h/2 des noyaux des
deux atomes d'hydrogène. Or il se trouve que les états quantiques de spin
total 1 = h = h/2 + h/2 (triplets de spin) sont symétriques par rapport à la

322
ANNEXE TECHNIQUE

permutation des deux atomes d'hydrogène puisque la projection des deux


moments pointe dans la même direction. L'eau de type « ortho » correspond
à une situation où les deux spins li/2 portés par les atomes d'hydrogène
s'ajoutent pour donner un état quantique de spin nucléaire total 1=li (triplet de
spin avec trois états m5 = 0 ou ±li). Il en découle que tous les états quantiques
ayant des fonctions d'onde rotationnelles de type symétrique, c'est-à-dire où
la somme (K. + Kc + v3) est paire, ne peuvent décrire les états triplets car ils
conduiraient à une fonction d'onde totalement symétrique.

Énergie/ cnr• IJ ,K.,K.> (v3 = o) _1 h·I0-2 2, 7993·10-46


-285,418581330 > A,B,C /cm = 2 •
8.7r C f A. B.C I A.n.c / kg·m2

- 212,15636 1321>
200
-173,36580 1312>
_136,76166 1303 >
134,90163 1221>
100
- 79,49639 1212> Eau "mtho"
- 42,37174 1110> tripler de spin
- 23 ,79436 1101> Ka + Kc + v3 impair
0 Figure 150

Efficacité lumineuse K : rapport entre le flux lumineux mesuré en lumen


(lm) et le flux d'énergie mesuré en watts (W). Le maximum de sensibilité
de l'œil humain se situant dans le vert-jaune pour une fréquence de 540 THz
(soit une longueur d'onde de 555 nm), on fixe que K(540 THz) = 683 lm W- 1•

Électron: particule élémentaire de masse me= 9,109 382 91(40) 10-31 kg et


de charge électrique -e = -1,602 176 565(35) 10-19 C s'associant aux protons
dans un atome. L'électron semble ne pas avoir de taille propre et se trouve
être la particule quantique par excellence. L'électron fut découvert par le
physicien anglais Joseph John Thomson ( 1856-1940) qui montra en 1897 que
les rayons cathodiques émis par les tubes de Crookes (voir rayons X) étaient
déviés par un champ électrique. Cela signifiait que les atomes contenaient
des corpuscules de charge négative 1 800 fois plus légers que l'atome
d'hydrogène. Suite aux travaux antérieurs du physicien irlandais George
Johnstone Stoney (1826-1911) qui avait désigné dès 1874 par le terme
électron l'atome d'électricité, ces nouveaux corpuscules furent identifiés aux
électrons responsables des phénomènes électriques. Thomson pensait que ces
corpuscules étaient émis par les atomes de gaz résiduels restant dans le tube.
Il en conclut que les atomes étaient divisibles, et pour expliquer la neutralité
électrique de l'atome, il proposa que les électrons se déplacent dans une
mer uniforme de charges positives, donnant naissance au modèle du plum

323
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

pudding. Les électrons étaient ainsi libres de tourner dans le gel ou nuage
de substance positive. Ces orbites étaient stabilisées dans le modèle par le
fait que lorsqu'un électron se déplaçait loin du centre du nuage de matière
positive, il était« rattrapé »par une force d'attraction positive, car il y aurait
plus de matériau de charge opposé dans son orbite en accord avec le théorème
de Gauss.

~
Joseph John Thomson
William Crookes (1832-1919) (1856-1940) ~
Figure 151

ELF (ondes) : acronyme pour Extremely Low Frequency, signifiant onde à


fréquence extrêmement basse, c'est-à-dire typiquement inférieure à 1 000 Hz.

Énergie cinétique : l'énergie cinétique Uc se définit comme l'intégrale


de la différentielle dU = m v dv depuis v = 0 jusqu'à la vitesse v =V, soit
Ve= Ylm V2. Si p = m V est la quantité de mouvement, on peut aussi écrire
que Uc = Y2 p2/m.

Énergie interne : somme U de produits entre une grandeur extensive comme


l'entropie S, le volume total V, l'aire totale A, la charge électrique totale
Q, le moment dipolaire total d'origine électrique pe ou magnétique m, la
masse totale M ainsi que le nombre de particules total (n1, n2, ... ), et une
autre grandeur dite conjuguée car intensive comme la pression p, l'énergie
interfaciale y, le potentiel électrique <p, le champ électrique E, le champ
magnétique B, le potentiel gravitationnel g ou les potentiels chimiques
µk indiquant comment l'énergie se concentre par rapport à la propriété de
nature extensive. Pour de petites variations des variables extensives on peut
écrire:

dU = E>·dS - p·dV + y-dA + cp·dq + E·dpe + H-dm + g·dM + µ1 ·dn1 + µ2·<lni + ...

Le signe négatifaffecté au terme p·dV provient du fait que toute augmentation


de volume est associée à une pression plus faible, alors que pour les autres
variables, toute augmentation du paramètre extensif se trouve associée à une
grandeur conjuguée plus intense. Voir aussi relation de Gibbs-Duhem.

Énergie potentielle: la variation d'énergie potentielle d'un corps lorsqu'il se


déplace d'une distance dx est définie comme l'opposé du travail W fourni par
la force F, soit dUp = -dW = -F dx.

324
ANNEXE TECHNIQUE

Énergie U : lorsqu'une masse m de vitesse v augmente sa vitesse d'une


petite quantité dv, son énergie U augmente d'une petite quantité dU = m v dv.
L'énergie est donc homogène au produit d'une masse par le carré d'une
vitesse. Une énergie de 1 joule correspond donc à une masse de 1 kg se
déplaçant à une vitesse de 1 m s· 1• Contenu dimensionnel U = [M L2 1'2].
Unité SI : N m appelé joule (J). Quantité toujours conservée selon le premier
principe de la thermodynamique.

Enthalpie H : potentiel thermodynamique intervenant dès qu'un système


doit évoluer à pression p et entropie S constante. Se définit à partir de
l'énergie interne U(S,V,N) au moyen d'une transformée de Legendre
H(S,p,N) = U(S,V,N) + p V, où V est le volume et N le nombre d'entités.

Entropie S : selon Clausius (1854, 1864) qualité extensive S qui se trouve


être la variable conjuguée de la température 0 absolue mesurée sur l'échelle
de Kelvin et qui ne peut qu'augmenter lors de toute transformation spontanée
(second principe) : dS ~ ôQ/0, où dS et ôQ désignent respectivement
des variations d'entropie et de chaleur arbitrairement petites. Contenu
dimensionnel: [M L21'2 0- 1] =J K 1 (atomes) ou [M L21'2 ·0· 1 N· 1] =J K 1 mol· 1
(substances). Il est toujours possible d'écrire la variation d'entropie
sous la forme : dS = dis + des avec dis ~ 0 et des = ôq/0. Ici dis est la
variation d'entropie provenant de tous les processus de nature irréversible
qui se produisent à l'intérieur du système, tandis que deS est la variation
d'entropie provenant de processus d'échange de matière et de chaleur q avec
l'environnement. La seule loi pertinente pour connaître la direction d'un
changement est que l'entropie totale du système doit augmenter de manière
irréversible, soit d.S
1
> O.

Entropie résiduelle : l'entropie à une température T se calcule en intégrant la


fonction Cp d(Ln T) entre zéro et T, ce qui nécessite de connaître la variation
de la capacité molaire calorifique à pression constante Cp en fonction de la
température (Giauque & Stout 1936). La surprise fut ainsi grande de constater
qu'à T =OK, l'entropie de la glace n'était pas nulle, comme cela devrait être le
cas en vertu du troisième principe de la thermodynamique établi par Walther
Nernst, mais prenait la valeur S0 = 3,408 ± 0,19 J mol· 1 K 1• Pour justifier
cette valeur, Linus Pauling invoqua le fait que sur le réseau de glace, chaque
atome d'hydrogène pouvait adopter deux positions distinctes indiscernables
physiquement : 0-H ... O ou O ... H-0 en raison de l'asymétrie de la liaison
hydrogène (Pauling 1937). Si l'on considère que l'atome d'hydrogène peut
occuper indifféremment chaque position d'une liaison à l'autre, il existe une
entropie résiduelle liée à ce degré de liberté dans le positionnement des atomes
d'hydrogène. D'une part, il existe six possibilités d'arrangement autour de
chaque atome d'oxygène: DDAA, DADA, DAAD, ADDA, AADD etADAD,
où comme d'habitude A désigne un doublet libre accepteur de proton et Dune

325
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

liaison 0-H donneuse de protons, ce qui fait 6N arrangements possibles pour un


réseau de N molécules. D'autre part, chacun des deux atomes d'hydrogène de
la molécule peut être engagé dans une liaison hydrogène avec une probabilité
Y2 d'être à gauche ou à droite de l'axe 0 ... 0, soit pour N molécules une
probabilité de (1/i) 2Npour couvrir tout le réseau. Il est donc possible de calculer
le nombre total de configurations accessibles n, et par voie de conséquence
l'entropie qui selon la relation de Boltzmann s'exprime selon S = ~ ln Q :
n = 6N·(Yi)2N= (3/2) N=> so =NA~ ln(3/2) = 3,371 J mol- 1 K- 1•
GIAUQUE, W. F. ; STOUT, J. W. ( 1936), «The entropy of water and the third law ofthennodynamics.
The heat capacity of ice from 15 to 273 K », J. Am. Chem. Soc., 58 : 1144-1150.

Épistémologie : le mot« épistémologie »a été forgé en 1856 par le philosophe


écossais James Frederik Ferrier (1808-1864) en combinant les notions de se
tenir debout (histasthai en grec), d'être au-dessus (épi en grec) et de raison
(logos en grec). Le caractère commun à tout énoncé d'ordre épistémologique
est la non-réversibilité des choses car si A => B on ne peut que déduire
que Ac B, d'où une relation d'inégalité ou d'indétermination. Le second
principe de la thermodynamique, dS 2'. 0, énoncé par Rudolf Clausius, est un
bon exemple d'énoncé à caractère épistémologique.

Équations de Maxwell (électromagnétisme) : théorie qui unifie les lois de


l'électricité, du magnétisme et de l'optique avancée en 1864 par le physicien
écossais James Clerk Maxwell ( 1831-1879). Maxwell traduisit les idées
intuitives de Faraday en équations, les lignes et les boucles de Faraday
devenant le champ électrique et le champ magnétique obéissant à un système
de 20 équations à 20 variables de champs (6 champs vectoriels et 2 champs
scalaires).

Si l'on se place dans le vide avec le champ électrique E orienté selon


l'axe y et l'induction magnétique B orientée selon la direction z, il ne reste
que deux équations sur les 20 de départ. La première équation traduit la loi
d'induction de Faraday et impose que le gradient spatial du champ électrique
soit l'opposé du taux de variation dans le temps de l'induction magnétique
B (dE = -v dB, avec v = dx/dt). La deuxième équation a été« devinée» par
Maxwell par analogie avec la première et il posa donc que le gradient spatial
de l'induction magnétique soit l'opposé du taux de variation dans le temps
du champ électrique (dB= -e0 ·µ 0 v dE, avec v = dx/dt). Grâce à ce couplage
astucieux, Maxwell put écrire : dE = -v dB = -e0 µ0 v2 dE, soit e0 µ0 v2 = 1.
Lorsqu'il calcula cette vitesse v en injectant des valeurs numériques pour e0
et µ 0 , il fut très surpris de trouver v ::::: c ::::: 0,3 Gm s- 1, vitesse de la lumière
dans le vide mesurée avec précision vers le milieu du x1x• siècle par les
physiciens français Hippolyte Fizeau (1819-1896) et Léon Foucault (1819-
1868). Il écrivit alors le gradient spatial du taux de variation dans le temps de
B soit à partir de la relation Faraday : d2B/(dx·dt) = -v d2E/dx 2, soit à partir

326
ANNEXE TECHNIQUE

de sa nouvelle relation : d2B/(dx dt)= -E0 µ 0 v d2E/dt2• En égalant ces deux


expressions, il trouva avec satisfaction que d2E/dx2 = (1/c 2)'(d2E/dt2), ayant
comme solution une onde monochromatique E(x,t) = E0 sin(k x - m·t + cp)
avec k = ±m/c se propageant avec une vitesse de phase c = m/k selon ±z.
Maxwell nota aussi que le produit du champ électrique E par le champ
magnétique H était homogène à un flux d'énergie par unité d'aire et de temps
(d3U/dz2 dt= [M T 3] = E·H). Ceci signifiait que la lumière était une onde
transversale de nature électromagnétique émise dès qu'une charge électrique
se trouve accélérée ou ralentie. Par superposition d'ondes monochromatiques,
on peut définir des paquets d'onde ayant une étendue spatiale autour d'un
maximum qui se propage avec une vitesse de groupe v égale au taux de
variation de la pulsation men fonction du nombre d'onde Dans la matière, k.
l'onde acquiert une vitesse de phase vp < c d'autant plus lente que l'indice de
réfraction n est plus élevé.

Accélération de charges électriques


Champ électromagnétique Y

dE dB Vecteur d'onde
Faraday
dx dt X k= 2X/À
dB 1 dE
Maxwell -=--·-
dx c 2 dt
Période T .. Fréquence v = 1/T (Hz)
Pulsation Ct> = 2:n:·v IEI =c·IBI
Impédance du vide c = 299 792 458 m·s-•
Vitesse de groupe
.....,__ _ v, • dw/dk
{& = - 1-
e0 ·µ 0 ·c2 = 1 => Z0 = µ 0 ·c =
ve: E:'o'C
:::; J20 ·n Q
Flux d'énergie
Indice de réfraction n
c c d(n·m ) Flux d'amplitude
n= - =>- = - - u(J·m.,) = 'h(e0 E' + B•/µ.)
vP v8 dm = e0 E• = B' /µ 0
Figure 152

Équation de van der Waals : pour un gaz parfait, cas considéré par Maxwell
et Clausius, les atomes n'avaient aucun volume propre et se comportaient
comme des boules de billard impénétrables et non déformables. Le physicien
hollandais Johannes Diderick van der Waals (1837-1923) réalisa que des gaz
réels occupaient un certain volume et que les atomes pouvaient interagir les
uns avec les autres en s'attirant au moyen de forces électriques. Il modifia
donc l'équation des gaz parfaits de la manière suivante :
(p + a/V2)'(V - b) = RT
où le paramètre a dépend de la nature des forces interatomiques et où le
paramètre b rend compte du volume propre de chaque atome (van der Waals
1873). Si Loschmidt donna le premier un ordre de grandeur du nombre

327
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

d'Avogadro en 1865, on put grâce à l'équation de van der Waals avoir une
idée du volume occupé par une molécule, ce qui permit d'estimer le nombre
d' Avogadro à 111023 au moyen de la théorie cinétique des gaz (Becker 2001).
BECKER, P. (2001), « History and progress in the accurate detennination of the Avogadro
constant», Rep. Prog. Phys., 64: 1945-2008.
VAN DER WAALS, J. D. ( 1873), « Over de Continuiteit van den Gas- en Vloeistoftoestand (on the
continuity of the gas and liquid state) »,Thèse, Leiden, Pays-Bas, p. 55-56.

Équivalence relativiste : si la vitesse de la lumière dans le vide c prend


la même valeur universelle pour tous les observateurs quels que soient
leurs états de mouvement relatifs, alors on peut choisir un système d'unités
de mesure tel que c = L T' = 1. L'équivalence entre les notions de temps
et d'espace (L = T) en découle logiquement. De même, la quantité de
mouvement p =ML T' étant homogène au produit d'une masse M par une
vitesse (L T 1), il vient que p =M. Or, l'énergie U = M L2 T 2 est homogène à
une quantité de mouvement (ML T') que multiplie une vitesse (L T 1), d'où
U = p = M. Enfin, un champ électrique E (M L2 T' Q·') étant homogène
au produit d'un champ magnétique B (ML Q· 1) par une vitesse v (L T'), il
vient aussi que E = B. On notera toutefois que l'équivalence entre électricité
et magnétisme est de type réciproque au niveau des grandeurs, puisque la
théorie de Maxwell impose que, dans le vide, E 0 µ 0 c2 = 1. Mais, si c = 1, alors
E 0 µ 0 = 1 signifiant qu'électricité et magnétisme fonctionnent à l'inverse l'un

de l'autre. Ceci explique qu'il existe deux systèmes d'unités de mesure, l'un
où l'on pose E 0 = 1, ce qui fixe µ 0 (système UES) et l'autre où l'on pose µ 0 = 1,
ce qui fixe E0 (système UEM). Mais à l'inverse, si je choisis un système tel
que E0 µ 0 = 1, alors c2 = 1, soit c = c· 1. Il est donc clair que la constance de
la vitesse de la lumière pour tout observateur a quelque chose à voir avec la
symétrie par inversion.

Espace L : unité SI= mètre (m). L'espace de la physique est à trois dimensions
car tout objet possède une longueur, une largeur et une hauteur. Pour les
vecteurs, l'espace est ce qui permet de définir une direction en plus d'une
grandeur.

Espace de Fock : empilement infini d'espaces de Hilbert nécessaire au


formalisme de seconde quantification de la théorie quantique des champs.

Espace de Hilbert : afin d'asseoir la rigueur mathématique du problème


aux valeurs propres des matrices hermitiques, les mathématiciens allemands
David Hilbert (1862-1943) et Lothar Nordheim (1899-1985) accompagnés
du mathématicien hongrois John von Neumann (1903-1957) développèrent
un calcul fonctionnel basé sur l'emploi d'opérateurs intégraux utilisant de
manière massive la distribution ô(x) de Dirac. Les vecteurs d'un espace de
Hilbert décrivent les configurations possibles d'un système à une particule. La

328
ANNEXE TECHNIQUE

représentation dans l'espace des coordonnées d'une configuration correspond


ici à la fonction d'onde 'l'(x,t) de Schrôdinger et s'interprète comme une
amplitude de probabilité. Un espace de Hilbert se définit au moyen d'un
produit scalaire permettant de transformer deux vecteurs ayant chacun N
composantes en une grandeur scalaire.
HILBERT, D. ; VON NEUMANN, J. ; NORDHEIM, L. (1927), « Über die Grundlagen der
Quantenrnechanik »,Math. Ann., 98: 1-30.

Espace des configurations : espace abstrait ayant un nombre de dimensions égal


au nombre de degrés de liberté du système et permettant de définir un lagrangien.

Espace des phases : espace abstrait ayant un nombre de dimensions égal au


double du nombre de degrés de liberté du système et permettant de définir un
hamiltonien. L'espace des phases peut subir des transformations canoniques.

Espace-temps de Minkowski : fusion de l'espace réel tridimensionnel et


du temps réel unidimensionnel pour former une entité quadridimensionnelle,
appelée espace-temps, où l'espace est pensé en termes de droites et le temps
en termes de cercle (nombre complexe), ce qui apparaît somme toute assez
logique dès que l'on prend la peine de regarder une montre, une horloge ou un
pendule. Cet espace-temps n'existe qu'en relativité restreinte là où la densité
de matière est suffisamment faible pour ne pas courber l'espace.

Estérification : réaction chimique entre un acide A-OH et un alcool R-OH


conduisant à un ester A-0-R et de l'eau H-0-H.

Éther: auxx" siècle, substratum pour la propagation du champ électromagnétique


(équations de Maxwell) et état limite de la matière ayant sa place dans la
classification périodique des éléments du chimiste russe Dmitri Mendeleïev
(1834-1907) comme élément zéro appelé newtonium (Henry 2015). Cet éther
physique, supposé remplir le vide, devait être à la fois extrêmement ténu mais
aussi plus rigide que l'acier pour justifier la vitesse de propagation extrêmement
élevée de la lumière dans le vide. L'éther est rayé de la carte des concepts
physiques par Albert Einstein dans le cadre de la théorie de la relativité restreinte
après le résultat négatif de l'expérience de Michelson-Morley. Toutefois, dans
une conférence de 1920, Einstein va expliquer que si le principe de relativité
restreinte interdit de considérer l'éther comme constitué de particules qu'on
peut suivre dans le temps, il ne contredit en rien l'hypothèse de l'éther en lui-
même, car il faut seulement se garder d'attribuer à l'éther un état de mouvement
(Einstein 1920). En effet, si l'on dépasse la relativité restreinte, l'espace devient
défini par les potentiels de gravitation, sans lesquels il ne saurait être conçu et
d'où il tient ses propriétés métriques. Il est donc doué de propriétés physiques
et dans ce sens un éther existe, car sinon il serait impossible de définir des
distances spatiotemporelles au moyen de règles d'horloges et la propagation

329
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de la lumière y serait également impossible. Cet éther ne doit cependant pas


être conçu comme étant constitué de parties pouvant être suivies dans le temps,
c'est-à-dire que la notion de mouvement ne doit pas lui être appliquée. Vide et
éther se confondent donc en relativité générale. devenant un simple état de la
matière.
EINSTEIN, A. (1920), « L'éther et la théorie de la relativité », in Œuvres choisies, éd. par
F. Balibar et al., Paris, Seuil (1989-1993), vol. 5, p. 81-88.
HENRY, M. (2015), Le Vide : Néant, Être, Vacuité, Éther; Matière et Mouvement, Éditions
Natur'Eau Quant, Strasbourg.

Facteur de forme: nombre permettant d'expliquer toutes les formes d'auto-


assemblage par interaction hydrophobe en milieu aqueux. L'idée générale
est d'appliquer ce que l'on appelle un critère de fluidité au regroupement
des queux hydrophobes au sein d'un même volume. En effet, pour qu'un
tel assemblage soit viable sur le plan entropique, il faut que ces chaînes
puissent explorer via des fluctuations thermiques tout le volume de type
«huile». Cela n'est possible que si la longueur moyenne de ces chaînes De est
inférieure à la longueur maximale Dm que la chaîne peut adopter en s'étirant
complètement. Dans cet état complètement étiré Dm = De, la chaîne ne peut
en effet exister que sous une seule et unique conformation toute «trans», ce
qui selon la formule de Boltzmann confère à cette situation une entropie
extrêmement basse. Aussi plutôt que de trop perdre en entropie, le système
micellaire préférera se structurer vers une forme moins contrainte, libérant à
nouveau les chaînes et augmentant donc leur entropie. Il suffit donc d'avoir
une idée des tailles géométriques des molécules amphiphiles, c'est-à-dire du
volume VL des chaînes hydrocarbonées, de la longueur de chaîne étirée Dm
et de l'aire balayée par la tête polaire <A> pour définir un facteur de forme
PF = VJ(<A>·Dm). Par exemple, si l'on souhaite former un objet sphérique
(micelle), on aura un volume VM ::::: 41tDe3/3 pour une aire AM ::::: 41tDe2•
Si l'on égalise maintenant le nombre de molécules calculées via le volume
des queues hydrocarbonées (Nv = VMNL) au nombre de molécules calculées
via l'aire de chaque tête polaire (Ns = AM/<A>), on trouve en appliquant le
critère de fluidité (De< Dm) que PF < YJ. Que se passe-t-il maintenant si j'ai
une molécule telle que pF > YJ ? Dans ce cas la forme sphérique impliquerait
que toutes les chaînes soient étirées à leur valeur maximale, et qu'il aurait
donc à l'intérieur de la micelle un milieu rigide et non un milieu fluide. Pour
éviter cela, le système va donc chercher une nouvelle topologie, qui sera de
nature cylindrique et non plus sphérique. Dans ces conditions, le volume est
maintenant pour un cylindre de longueur L: VM::::: 1tDe2 • L, tandis que l'aire
devient AM::::: 21tDe·L. Si l'on égalise de nouveau le nombre de molécules
calculées via le volume des queues hydrocarbonées au nombre de molécules

330
ANNEXE TECHNIQUE

calculées via l'aire de chaque tête polaire, on trouve en appliquant le critère


de fluidité que Yl < PF < Y2. Bien évidemment, il existe des molécules telles
que PF > Yi pour lesquelles le système va donc encore changer de topologie
en créant des bicouches lipidiques d'épaisseur 2Dc qui peuvent être soit
vésiculaires ou soit lamellaires. Pour une vésicule, si j'appelle R le rayon
interne de la petite cavité sphérique, on peut écrire que VM ~ [47t(R+2Dc)3 -
47tR3]/3 et que AM~ 47t(R+2Dc)2 + 47tR2• En égalisant toujours le nombre de
molécules calculées via le volume des queues hydrocarbonées au nombre de
molécules calculées via l'aire de chaque tête polaire, on trouve en appliquant
le critère de fluidité De< Dm et en supposant que R << 2Dc que Yi< PF < 7S
pour une vésicule. À l'inverse si l'on a R >> 2Dc, il vient 7S < PF < 1, domaine
des bicouches planes.

Fermion : objet quantique de spin demi-entier dont l'angle de phase tourne


de 180° (<p = 7t) après toute rotation de 360°. En seconde quantification,
les fermions représentent des particules de matière impénétrables, comme
l'électron de spin Y2. Les fermions obéissent au principe d'exclusion de Pauli
et définissent des objets appelés spineurs.

Fluctuation (probabilité) : lorsqu'un système est dans un état d'équilibre, les


variables thermodynamiques comme l'énergie U, l'entropie S, le volume V,
le nombre de particules N, la température E>, la pression p ou le potentiel
chimique µpeuvent fluctuer autour de valeurs moyennes. Dans ces conditions,
on peut montrer que la probabilité de ces fluctuations pour une température
donnée varie de manière exponentielle avec le produit de la fluctuation en
pression par la fluctuation en volume diminué du produit de la fluctuation
en température par la fluctuation en entropie (Landau & Lifshitz 1969). Si
l'on note os, oV, oE> et op les fluctuations en entropie, volume, température
et pression, la probabilité d'observer une telle fluctuation varie de manière
exponentielle avec l'inverse de la température : w = exp[(op·oV - oE>·oS)/
(2k8 ·E>)] où~ est la constante de Boltzmann.
LANDAU, L. D.; LIFSHITZ, E. M. (1969), « Statistical Physics », 2<éd., Pergamon Press, Oxford,
p. 348-353.

Fluctuation quadratique (V, E>) :


(ôS/ôV)8 = (ôp/ôE>)v = -(ôV/ôE>)P·(ôp/ôV)0 =a/KT
op(V,E>) = (ôp/ôE>)v·oE> + (ôp/ôV) 0 ·oV = (<y'J<T)·oE> - oV/(V·is)
oS(V,E>) = (ôS/ôE>)v·oE> + (ôS/ôV) 0 ·0V = (CjE>)·oE> + (<y'J<T)·oV
2k8 ·E>· ln w = -(OV)2/(V ·is) - (CjE>)·(o8)2
Conclusion: <(08)2> = k8 ·E>2/Cv et <(oV) 2> = k8 ·E>·V·is
<oE>·oV> = 0 et <oE>·oS> = -<oV·op> = ~-8, <oE>·op> = (yN)·k8 ·82,
<oS·oV> = ~-E>·V·«p

331
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Fluctuation quadratique (p, S) :


ôV(p,S) = (aV/àp)s·ôp + (av;as)p·ôS = - V·Kg·Ôp + (aV/aS)p·ôS
ô0(p,S) = (a0/àp)5 ·ôp + (a®/aS)P·ôS = (a0/àp)5 ·ôp - 0·ôS/CP
(av;as)p = (a0/àp)5 => 2~·0·ln w = - V·Kg·(ôp) 2 -0·(&S)2/Cp
Conclusion: <(ôp)2> = ~-0/(V·Kg) et <(ôS)2> =~-@·CP
<ôS·ôp> = 0 et <ô0·ôS> = - <ôV·ôp> = ~-0

Flux magnétique Cl> m : produit de l'inductance par le courant électrique.


Contenu dimensionnel Cl>m = [M·L2 ·1'1.Q- 1]. Unité: weber (Wb= V·s).

Flux lumineux Cl>. : quantité de lumière émise par unité de temps et visible
par un être humain. Produit de l'intensité lumineuse (cd) par l'angle solide
d'observation (sr). Unité SI: lumen (lm).

Force F : toute variation dans le temps t du vecteur quantité de mouvement


traduit l'existence d'un vecteur force F = dp/dt. Si la masse ne varie pas au cours
du temps, on peut écrire que F = dp/dt = m dv/dt =ma, où a= dv/dt est le vecteur
accélération, c'est-à-dire le taux de variation dans le temps du vecteur vitesse.
L'unité de force est le newton, abrégé en N, défini comme la force nécessaire pour
augmenter la vitesse d'une masse de 1 kg de 1 m s· 1 en une seconde.

Fréquence f: nombre de périodes d'une onde par unité de temps en un point


donné. En mécanique quantique, il est possible d'associer à toute énergie U,
une fréquence f, selon la relation de Planck-Einstein : U = h f, où h est la
constante de Planck.

Gaz parfait (équation): un gaz parfait est un système de volume V contenant


N entités d'énergie U avec une entropie S(U,V,N) = ~ ln [(cste)·VN lJ3N12], où
~ est la constante de Boltzmann. Si p est la pression et 0 la température, on a
(aS/aV)u.N = p/0 = ~ NN, soit p V= N ~ 0 (loi des gaz parfaits). Si l'on dispose
d'un baromètre pour mesurer la pression p, et d'un thermomètre pour mesurer la
température 0, on peut compter le nombre d'entités N constituantes en mesurant
le volume occupé (loi d'Avogadro). Si NA désigne la constante d'Avogadro, on
appelle« constante des gaz parfaits» le produit R =NA·~= 8,314 J mol· 1 K- 1 et
la loi s'écrit p V= n R 0, où n est le nombre de moles.

Glace RDA : forme amorphe de glace de masse volumique 1, 17 g cm·3• Cet


acronyme signifie « High-Density Amorphous ice », ce qui signifie glace
amorphe haute densité.

332
ANNEXE TECHNIQUE

Glace LDA: forme amorphe de glace de masse volumique 0,94 g cm-3 • Cet
acronyme signifie « Low-Density Amorphous ice », ce qui signifie « glace
amorphe basse densité ».

Glace VHDA : forme amorphe de glace de masse volumique 1,26 g cm-3 •


Cet acronyme signifie« Very-High-Density Amorphous ice »,ce qui signifie
«glace amorphe de très haute densité».

Grandeur d'état : grandeur dont toutes les autres dérivent. Ainsi, à toute
valeur d'une grandeur d'état, correspond une valeur déterminée pour tout
autre grandeur et une certaine multiplicité linéaire définie sur les conditions
initiales. L'énergie interne, l'entropie et la fonction de Hamilton sont de bons
exemples de grandeurs d'état pour la thermodynamique et la mécanique
respectivement. Si une grandeur d'état existe, toute multiplicité linéaire
associée au résultat d'une grandeur quelconque est alors formée par une
somme directe de multiplicités associées à un résultat de la grandeur d'état.
Un résultat de mesure de la grandeur d'état peut être représenté par un point
d'un espace à n dimensions si cette grandeur est de rang n et tout résultat
de mesure d'une grandeur quelconque sera alors représenté par une certaine
hypersurface dans l'espace des états. Le théorème de Paulette Février impose
que si une théorie physique est telle que les systèmes observables possèdent
une grandeur d'état, les énoncés de résultats de mesure doivent suivre la
logique booléenne classique aristotélicienne : c'est-à-dire, principe identité
(A est A en acte), de contradiction (A et -.A existent en puissance) et de tiers
exclu (-.[A A -.A] en acte). On peut alors démontrer qu'il y a grandeur d'état,
s'il y a déterminisme ou si toutes les grandeurs sont en droit simultanément
mesurables. C'est la situation rencontrée en physique classique newtonienne
ou relativiste.

Gravitation universelle : loi trouvée par le physicien anglais Isaac Newton


(1642-1747), stipulant que toute masse m se trouve attirée par une autre
masse M via une force proportionnelle au produit des masses et inversement
proportionnelle au carré de la distance qui les sépare : f = G m M/L2, où Gest la
constante de gravitation universelle qui se trouve être homogène au carré d'une
fréquence que divise une densité volumique (G = 6,672 10- 11 m3 kg- 1 s- 2). Il
découle de cela que le rapport g = G M/L2 est homogène à une accélération
valant 9,81 m s- 2 car la Terre possède une masse M = 5,976 1024 kg pour un
rayon L = 6 378 km. C'est cette force f d'attraction que l'on appelle le poids
qui se mesure avec une balance, la masse étant alors le rapport m = fig. Si
m = M, on peut définir une énergie potentielle d'attraction entre masses qui
vaut Up = G·M2/L.

Gravitation quantique: la gravitation quantique oblige à voir l'espace comme


ayant une nature granulaire fluctuante, ce qui peut poser de graves problèmes

333
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de visualisation. On considère ici que la nature serait constituée de champs


quantiques matériels et d'un champ électromagnétique se superposant à un
autre champ quantique de nature gravitationnelle sans qu'il y ait aucune place
pour la notion d'arrière-plan fixe. La théorie quantique des champs exprime
la double invariance relativiste de la vitesse de la lumière dans le vide et
du quantum d'action, ce qui entraîne d'une part l'équivalence espace-temps
d'une part (c = 1) et d'autre part la dualité onde-corpuscule (h = 1) où toute
matière est assimilable à un couple de l'espace-temps réciproque (vecteur
d'onde, fréquence). De son côté, la relativité générale exprime l'invariance
relativiste de la constante de gravitation universelle (G = 1), auquel cas
la matière s'identifie à l'espace-temps lui-même et non à l'espace-temps
réciproque. Par conséquent, si l'on impose une triple invariance relativiste
(c = h = G = 1), il en découle logiquement que si l'on élève au carré une
longueur L, un temps T ou une masse M, on tombe sur un invariant relativiste
(M 2 = L2 = T2 = 1). En effet, selon la théorie quantique M = L- 1, tandis que
pour la relativité générale M = L. Si l'on élimine la masse, il vient que L= L- 1
ou L2 = T2 = 1, puisque L = T en théorie relativiste. De même, on aurait pu
éliminer la longueur, L= M- 1 = M, soitM2 = L2 =T2=1. Or, il existe également
un nombre pur a, appelé constante de structure fine, qui relie l'énergie
électrique à l'énergie du vide. Si on voit cette constante comme un invariant
relativiste, il en découle que le carré de toute charge électrique est aussi un
invariant relativiste. De fait, si e désigne la charge électrique élémentaire,
la constante de structure fine peut s'écrire e2/41tE0 = µ 0 ·c2 ·e2/41t =a hc. Par
conséquent, dans un système d'unité où h = c = 1 et 41tE0 = 1/a, il vient e2 = 1,
ou encore e = e- 1• On retrouve ici l'invariance par inversion déjà notée pour
la vitesse de la lumière. D'où une symétrie parfaite L2 = T2 = M2 = Q2 = 1,
traduisant l'existence de symétries miroir et de symétries conformes. Une
première manière de satisfaire aux égalités L2 = T2 = M2 = Q2 = 1 est d'avoir
L = T = M = Q = ± 1, avec équivalence par parité (L = ± 1), par réversibilité
(T= ±1), par conjugaison de charge (Q = ±1) et symétrie matière/anti-matière
(M = ± 1). Le couplage obligatoire existant entre espace (L ), temps (T), masse
(M) et charge électrique (Q) fait que la symétrie miroirn' est a priori rigoureuse
qui si l'on applique les trois symétries de parité (P), de conjugaison de charge
électrique (C) et de renversement du temps (T) en même temps (symétrie dite
PCT). On notera aussi une autre solution à l'exigence L2 = T2 = M2 = Q2 = 1
qui est : L = L- 1 = T = T 1 = M = M- 1 = Q = Q- 1 = 1, signifiant symétrie
conforme, c'est-à-dire inversion et non miroir.

Gravitation quantique à boucles : approche essayant de marier la relativité


générale avec la mécanique quantique qui se base sur le concept de lignes de
champ introduites par Michaël Faraday (Rovelli 2003). Champ et matière
fusionnent ici pour devenir de l'information qui est évidemment pensée en
termes de cercles (nombres complexes). En l'absence de matière, les lignes
de champ peuvent revenir sur elles-mêmes, formant ainsi une boucle. L'idée

334
ANNEXE TECHNIQUE

est donc de décrire le vide, c'est-à-dire la géométrie de l'espace-temps au


moyen de telles boucles, d'où une théorie qui peut se développer sans aucun
arrière-plan fixe comme l'exige la relativité générale. Or, il se trouve que l'on
peut décrire tout champ de type Yang-Mills au moyen du concept de« lignes
de force » de Faraday. Il suffit de considérer toute ligne de Faraday comme
un quantum élémentaire d'excitation du champ, ces lignes se refermant sur
elles-mêmes en l'absence de charges électriques pour devenir des boucles. La
gravité quantique à boucles est donc la description mathématique du champ
quantique gravitationnel au moyen de telles boucles. Lorsque l'énergie est
suffisamment basse, ces boucles qui sont les excitations quantiques du champ
gravitationnel apparaissent comme des gravitons, un peu comme les phonons
apparaissent lorsqu'on fait vibrer un solide. Les gravitons ne sont donc pas
les particules fondamentales qui véhiculent la force gravitationnelle comme en
théorie des cordes, mais plutôt apparaissent comme des excitations collectives
à grande échelle du champ gravitationnel. D'un point de vue technique, le
champ gravitationnel d'Einstein est ainsi remplacé par un champ de connexion
topologique d' Ashtekar, tout comme le potentiel électromagnétique peut se
substituer au champ électromagnétique dans les équations de Maxwell.

Figure 153
Espace-temps

Réseaux de spin

Le point clé est de réaliser que les boucles ne sont plongées dans aucun espace,
puisqu'il n'y a pas d'espace. En fait, les boucles sont l'espace car elles sont les
quanta d'excitation du champ gravitationnel qui est lui-même l'espace. Cela
n'a donc aucun sens de parler du déplacement d'une boucle, comme on parle
du déplacement d'une corde en théorie des cordes. Le seul moyen de se repérer
est de nature topologique en considérant les intersections d'une boucle avec
d'autres boucles voisines. Un réseau de boucles enchevêtrées permet donc de
définir un certain état de l'espace. Les boucles interagissent avec les particules

335
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

de la même manière qu'un photon interagit avec un électron, sauf que ceci se
déroule hors de toute notion d'espace.

Il émerge ainsi des équations de la théorie que les réseaux de boucles décrivent
des éléments finis spatiaux et que rien n'existe à une échelle inférieure à celle des
boucles. Ceci est bien conforme au théorème de Banach-Tarski qui montre que le
volume peut être créé et non donné a priori. Il en découle que les surfaces ou les
volumes deviennent des observables quantiques. Lorsqu'on associe un opérateur
convenable à la nouvelle observable « volume » et que l'on recherche ses valeurs
propres, on trouve alors un spectre discret, ce qui signifie que le volume, tout
comme l'énergie en mécanique quantique, est quantifié et qu'à chaque nœud du
réseau de boucles correspond un quantum de volume. La portion de boucle entre
deux nœuds définit un lien qui relie les nœuds adjacents, chaque lien définissant
une surface également quantifiée séparant un nœud d'un autre nœud adjacent.
Ainsi, il est possible d'associer aux nœuds des nombres quantiques de volume
tandis que les liens possèdent des nombres quantiques d'aire. Comme ces
nombres quantiques et leur algèbre se comportent comme le moment angulaire
de spin des particules élémentaires, ces réseaux de boucles peuvent aussi être
qualifiés de réseaux de spin, objets étudiés de manière indépendante et sans lien
avec la gravitation quantique par le mathématicien Roger Penrose.

La visualisation de l'espace-temps comme un réseau de spins est ainsi


mathématiquement précise et fascinante. Les nœuds du réseau de spins
représentent les grains élémentaires d'espace ayant un volume fixé par un nombre
quantique associé au nœud qui est un multiple du volume élémentaire de Planck
VP = L/ Deux nœuds sont adjacents s'il existe une portion de boucle, appelée
lien, reliant un nœud à l'autre. Ce lien entre deux nœuds définit une surface
élémentaire séparant les deux nœuds, dont l'aire est quantifiée par un nombre
quantique j, associé à chaque lien. L'aire du lien est celle d'une sphère ayant un
rayon égal à la longueur de Planck, multiplié par la racine carrée d'un nombre de
la forme jG+ l ), d'où l'appellation « réseau de spins ». Une région physique de
l'espace est ainsi constituée d'une superposition quantique d'états de tels réseaux
de spin, la dynamique étant assurée par une équation dite de Wheeler-DeWitt qui
joue pour le champ gravitationnel un rôle similaire à l'équation de Schrooinger
ou de Dirac pour les champs de matière. Tout ceci découle logiquement de
l'application directe des techniques quantiques à la relativité générale.

La gravité quantique à boucles permet aussi de démontrer qu'un trou noir


possède une température et par voie de conséquence une entropie, qui rapportée
à la constante de Boltzmann est égale à l'aire du trou noir divisée par le carré du
double de la longueur de Planck, résultat qui n'avait été obtenu auparavant qu'au
moyen d'arguments semi-classiques. En cosmologie, le volume en expansion de
l'univers joue le rôle du paramètre temps. Comme le volume est quantifié en
gravité quantique à boucles, il en découle que l'évolution de l'univers se déroule

336
ANNEXE TECHNIQUE

selon des intervalles de temps discrets. Ceci permet donc d'éviter la singularité
initiale de la théorie du Big-Bang à très petite échelle et de montrer que
l'expansion inflationniste pourrait avoir été pilotée par des effets gravitationnels
quantiques. La structure granulaire de l'espace permet aussi de se débarrasser des
quantités infinies omniprésentes en physique quantique des champs, car il n'est
plus possible d'intégrer les diagrammes de Feynman sur des régions d'espace-
temps arbitrairement petites.

Mais la conséquence la plus remarquable de la gravité quantique à boucles


est que l'espace-temps peut être analysé comme une succession temporelle
de séquences spatiales qui possède donc une histoire. Or, le concept d'histoire
peut être associé au phénomène de mémoire qui caractérise tout système vivant.
La gravité quantique à boucles présente donc l'espace-temps comme une entité
intrinsèquement vivante, dotée d'une mémoire spatiale prenant la forme d'un
réseau à spin avec un historique appelé mousse de spin possédant une structure
géométrique particulièrement simple. Ainsi, l'histoire d'un point définit une
ligne, tandis que l'histoire d'une ligne engendre une surface. Une mousse de
spin est donc constituée de faces qui représentent l'histoire des liens du réseau
de spins, et ces liens ou arêtes résultent eux-mêmes de l'histoire des nœuds du
réseau à spin. Les faces se rencontrent au niveau des arêtes, qui relient deux
sommets représentant les interactions élémentaires entre les nœuds, c'est-à-dire
entre les grains d'espace. Ces nœuds sont ainsi très similaires aux nœuds dans les
diagrammes de Feynman, qui représentent les interactions entre les particules en
théorie quantique des champs. En gravité quantique à boucles, l'espace-temps
peut être vu comme un diagramme de Feynman qui représente les interactions
entre grains d'espace. Une mousse de spin est cependant plus complexe qu'un
diagramme de Feynman car elle est formée de points, de lignes et de surfaces,
alors qu'un diagramme de Feynman ne possède que des points et des lignes. En
théorie quantique des champs, on somme sur tous les diagrammes de Feynman
possibles qui représentent les histoires des particules en interaction. En gravité
quantique à boucles, on somme sur toutes les mousses de spin qui sont les
histoires des grains d'espace en interaction.
RoVELLI, C. (2003), « Loop quantum gravity », Physics World, novembre, p. 1-5.

Hamiltonien notion introduite par le mathématicien anglais William


Rowan Hamilton (1805-1865) défini comme la transformée de Legendre
du lagrangien: H(q, p, t)=p ·q-L(q, q ,t)lci p est le moment conjugué au
degré de liberté q via le lagrangien: p = aL/iJq, avec q = dq/dt.
Par exemple, pour un corpuscule soumis à aucune force et caractérisé
par sa position x et sa vitesse associée i = dx/dt, le lagrangien s'écrit

337
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

L = 1hm.t => ai;a.t = m · .t = p montrant que le moment conjugué


de la position x est ici simplement la quantité de mouvement Px· Cette
transformation permet de remplacer une équation différentielle du second
ordre (équation de Lagrange) par deux équations du premier ordre (équations
d'Hamilton) impliquant une fonction, appelée hamiltonien, H(q,p) = Uc + UP,
somme de l'énergie cinétique Uc et de l'énergie potentielle UP. L'hamiltonien
décrit l'évolution d'un système mécanique dans l'espace des phases et non
plus dans l'espace des configurations comme avec le lagrangien .

••
Inductance : inertie par rapport aux changements de courants électriques
ou facteur de proportionnalité entre le flux magnétique <I> m et le courant
électrique 1 : <I> m = L ·1. Contenu dimensionnel L = [M L2 Q-2]. Unité SI : henry
(H =Vs A 1). L'inductance de tout prisme droit de section A et de longueur d
mesurée dans la direction du flux magnétique s'écrit L = µ A/d, oùµ est la
perméabilité magnétique.

Intemporalité (quantique) : en mécanique quantique, il existe un opérateur


positiontelque XjX >=X· jx > associéàunopérateurquantitédemouvement
tel que fJ = = li/i·(d/dx) et ayant un commutateur non nul [x,p) =in à
l'origine d'une relation d'indétermination Ax·Ap ~ h/2. Or, la représentation
de Schrôdinger possède également pour décrire l'évolution dans le temps
d'un opérateur hamiltonien fi== n/i·(d/dt). Mais étrangement, il n'existe
ici aucun opérateur associé tel que i lt > = t· lt > ne commutant pas avec
l'hamiltonien pour justifier l'existence d'une relation d'indétermination
pourtant bien réelle, AE At ~ h/2, liant temps t et énergie E. En fait, cette
relation n'est qu'une simple reformulation de la relation Ax Ap ~ h/2. En
effet, si j'exprime l'énergie non relativiste d'une particule de masse m comme
E = p2/2m, où p est sa quantité de mouvement, p = m·(Ax/At), il est clair que
l'on doit avoir AE = p· Ap/m, soit AE = Ap Ax/At, c'est-à-dire AE At= Ap Ax.
La chose est encore plus évidente pour une particule relativiste d'énergie
E = p c, soit AE = c Ap, qui avec Ax = c At conduit à nouveau à l'égalité
AE At = Ax Ap. En seconde quantification, la relation d'indétermination
temps/énergie est une conséquence directe de la relation d'indétermination
impliquant le nombre de quanta N et l'angle de phase <p, AN· Acp ~ Yi. En effet,
si chaque quanta amène une énergie h·ffi, où ffi = Acp/At, on a pour N quanta
AE = AN·h·ffi, soit AN·Acp = AE·At/h.

Intensité lumineuse I. : pouvoir éclairant d'une source lumineuse. Unité SI :


candela (cd) : flux lumineux par stéradian d'angle solide pour une source
émettant à 540 THz avec une intensité énergétique de 1/683 W sr 1•

338
ANNEXE TECHNIQUE

Intrication : situation où deux parties d'un système interagissent entre elles


à toutes les échelles. De tels systèmes ne sont pas séparables au sens de la
physique classique.

Invariance : propriété qui s'applique à un nombre, à savoir que si l'on


transforme un système caractérisé par une certaine variable V prenant une
valeur a (V= a) en un autre système différent, on aura V'= a également dans
le nouveau système.

Kant (Emmanuel) : pour le philosophe allemand Emmanuel Kant ( 1724-1804),


nous rencontrons via l'expérimentation toujours des phénomènes, mais jamais
les choses en soi, qu'il nomme des noumènes. Selon Kant, la mécanique est une
science naturelle « propre » car elle traite son objet dans son ensemble selon
des principes définis a priori. La chimie est pour sa part une science rationnelle
puisqu'elle utilise le raisonnement logique, mais elle est aussi« impropre» car
elle tire ses lois de l'expérience en recherchant des régularités conduisant à des
principes donnés a posteriori. Pour Kant, la psychologie est évidemment une
science encore moins propre que la chimie. Vers la fin de sa vie, Kant arriva à
la conclusion que la réalité, c'est-à-dire le monde des expériences, n'était qu'en
partie déterminée par la mécanique newtonienne. Il existait en effet aussi tout
un monde de substances dotées de propriétés variées qui restait complètement
étranger à toute explication de nature mécanique. Au XVIIf siècle, il existait
deux théories en compétition pour expliquer le comportement de la matière.
D'une part, il y avait la théorie corpusculaire qui était une forme d'atomisme
où tous les objets physiques étaient supposés constitués de minuscules parties
discrètes séparées par du vide. Il y avait aussi une théorie dynamique qui
considérait les substances comme constituées de forces attractives ou répulsives
en mouvement et où les propriétés étaient uniquement dues aux relations et à
l'activité des ces forces fondamentales. Parmi toutes les propriétés, la densité
des choses était le principal problème pour la théorie dynamique de Kant. Dans
ce cadre, le concept d'éther, vu comme un continuum de forces dynamiques,
véhicule de tous les phénomènes calorifiques ou lumineux, jouait un rôle
central dans la vision kantienne. L'éther est ainsi la mère de toute matière
source de sa cohésion selon la proportion interne d'éther, ce qui permettait
d'expliquer pourquoi des volumes égaux de matières différentes pouvaient ne
pas avoir la même densité. Entre 1785 et 1790, Kant va découvrir les travaux de
Lavoisier qui sont en train de révolutionner la chimie et accorder à cette science
le statut d'être propre au sens faible du terme. Kant comprend alors que les
mathématiques et la physique sont parfaitement incapables de rendre compte
de l'incroyable diversité des substances chimiques.

339
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

VAN BRAKEL, J. (2006), « Kant's Legacy for the Philosophy of Chemistry », Boston Studies
Phil. Sei., 242: 69-91.

Lagrangien : afin de s'affranchir des forces internes responsables de la


cohésion interne des systèmes corpusculaires, le physicien français Louis-
Joseph Lagrange (1736-1813) montra que la loi de Newton F = m a
pouvait s'écrire au moyen d'une équation différentielle du deuxième ordre
impliquant un lagrangien L = Uc - UP, défini comme la différence entre une
énergie potentielle Up fonction des seuls degrés de liberté q et une énergie
cinétique Uc, fonction des vitesses associées L'espace absolu de Newton se
trouve ainsi remplacé par un espace des configurations.

Figure 154
Espace cartésien
3 dimensions (x,y,z)
Lagrangien
p=m·v ______.
L = U0 - UP

Isaac Newton Louis-Joseph Lagrange


(1643-1727) (1736-1813)
René Descartes f= dp éJL _ !!:_( éJL) = O
(1596-1650) dt aq dt aq
Espace relatif Espace absolu Espace des configurations

Liaison chimique si l'on est ainsi capable de calculer l'énergie ou la


longueur de toute liaison chimique de manière extrêmement précise, personne
ne sait de quoi il s'agit exactement. Un peu de réflexion montre que la liaison
chimique n'a jamais été réellement expliquée dans le cadre de la mécanique
quantique (Woodyard 2006). Le concept même d'ailleurs de liaison chimique
est en fait une abstraction dénuée de toute réalité, mais d'une telle utilité qu'il
faut faire un grand effort pour ne pas s'illusionner, comme l'avoue le chimiste
théoricien anglais Charles Alfred Coulson (1910-1974) (Coulson 1955):

Pouvez-vous réfléchir un moment sur certaines choses que je viens de dire ?


J'ai décrit une liaison, simple liaison chimique normale ; et j'ai donné
beaucoup de détails sur son caractère (et j'aurais pu d'ailleurs en donner
beaucoup plus). Quelquefois, il m'apparaît qu'une liaison entre deux atomes
est devenue si réelle, si tangible, si familière que je peux presque la voir.
Mais alors je m'éveille avec un petit choc : car la liaison chimique n'est pas
une chose réelle, elle n'existe pas et personne n'en a jamais vu ni n'en verra
jamais. C'est un fragment de notre imagination.

340
ANNEXE TECHNIQUE

La notion de liaison chimique est donc plus proche de la notion d'espèces en


biologie que de la notion de force en physique (Bunge 1982).
BUNGE, M. (1982), « ls Chemistry a Branch of Physics? », J. Gen. Phil. Sei., 13 : 209-223.
CouLSON, C.A. (1955), «The contributions ofwave mechanics to chemistry », J. Chem. Soc.
2069-2084.
WooDYARD, J. R. (2006), «A new paradigm for Schrôdinger and Kohn »,Boston Studies Phil.
Sei., 242 : 245-269.

Liaison hydrogène (IUPAC) : concept introduit en 1920 par Maurice Loyal


Huggins ( 1897-1981 ). Voici la définition officielle de la liaison hydrogène
adoptée par les chimistes de l 'IUPAC en 2011 (Elangannan & al. 2011) :

La liaison hydrogène est une interaction attractive entre un atome


d'hydrogène d'une molécule ou d'un fragment X-H dans lequel X désigne
un atome plus électronégatif que l'atome d'hydrogène, et un atome ou un
groupement d'atomes Y-Z dans la même ou une molécule différente, et au
sein duquel il y a évidence de formation d'une liaison, notée X-H ... Y-Z.
L'évidence de liaison peut être de nature expérimentale ou théorique, ou de
manière idéale une combinaison des deux.

Suit une liste de pas moins de 12 critères séparés en deux groupes:

(El) Les forces impliquées dans la formation d'une liaison hydrogène


incluent celles d'origine électrostatique (multipôles permanents, induits ou
dispersifs), celles provenant d'un transfert de charge entre le groupement
X-H et le groupement accepteur Y-Z autorisant la formation d'une liaison
covalente partielle entre les atomes H et Y, ainsi que celles provenant de la
dispersion.

(E2) Les atomes X et H sont liés de manière covalente l'un à l'autre et la


liaison X-H se trouve polarisée, la force de liaison H... Y augmentant avec
l' électronégativité de X.

(E3) L'angle X-H ... Y est généralement linéaire (préférablement avec un angle
X-H ... Y supérieur à 110°) et plus l'angle s'approche de 180°, plus la liaison
hydrogène est forte et plus la distance H... Y est courte.

(E4) La longueur de la liaison X-H augmente de manière générale lors de


l'établissement de la liaison hydrogène conduisant à un déplacement vers les
.basses fréquences de la fréquence d'étirement X-H et une augmentation de
section efficace d'absorption du rayonnement infrarouge pour la vibration
X-H. Plus la liaison X-H se trouve étirée, plus la liaison H ... Y est forte.
Simultanément, de nouveaux modes de vibration associés à la formation de
la liaison H ... Y sont générés.

341
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

(E5) La liaison hydrogène X-H ... Y-Z conduit à des signatures RMN
caractéristiques incluant de manière typique un déblindage significatif du
proton, à l'apparition de couplages spin-spin entre les atomes X et Y, et à des
augmentations de polarisation nucléaire de type Overhauser.

(E6) L'énergie libre de formation de Gibbs de la liaison hydrogène doit être


plus grande que l'énergie thermique du système afin que cette dernière puisse
être détectée de manière expérimentale.

(Cl) Le pK. du groupe X-H et lep~ du groupe Y-Z dans un solvant donné,
doivent être fortement corrélés avec l'énergie de la liaison hydrogène formée
entre les deux groupes.

(C2) Les liaisons hydrogène sont impliquées dans les réactions de transfert
de protons (X-H ... Y ~ X... H-Y) et peuvent être considérées comme les
précurseurs partiellement activés de telles réactions.

(C3) Les réseaux de liaisons hydrogène peuvent montrer des phénomènes


de coopérativité, conduisant à des déviations dans l'additivité par paires des
propriétés liées à la liaison hydrogène.

(C4) Les liaisons hydrogène conduisent à des préférences directionnelles et


influencent le mode d'empilement dans les structures cristallines.

(C5) L'estimation du transfert de charge dans les liaisons hydrogène montre


que l'énergie d'interaction se corrèle bien avec l'amplitude du transfert de
charge entre le donneur et l'accepteur.

(C6) L'analyse de la topologie de la densité électronique des systèmes


associés par liaison hydrogène montre habituellement un chemin de liaison
connectant les atomes H et Y associés à un point critique (3,-1) entre H et Y.

Notons que la plupart de ces critères (E3 à E6etC1 à C6) sont de nature purement
empirique et ne nous apprennent absolument rien sur les causes à l'origine du
rapprochement observé entre les atomes X et Y. Il s'agit de critères techniques
purement opérationnels basés sur des méthodes d'observation variées et
indépendantes. Seuls les critères E1 et E2 pourraient permettre de lever un voile
sur la physique sous-jacente à la formation de la liaison hydrogène. Hélas, ces
deux critères font appel à la notion classique de force qui ne peut être définie
que pour des systèmes macroscopiques se déplaçant à des vitesses très faibles
par rapport à la vitesse de la lumière. Le fait qu'il faille une définition aussi
longue pour définir un seul concept démontre très clairement que ce concept est
somme toute très douteux, servant de fourre-tout.

342
ANNEXE TECHNIQUE

ELANGANNAN, A.; DESIRAJU, R. G.; KLEIN, R. A.; SADLEJ, J.; ScHEINER, S.;
ALKORTA, 1.; CLARY, D. C.; CRABTREE, R. H.; DANNENBERG, J. J.; HOBZA, P.;
K.JAERGAARD, H. G. ; LEGON, A. C. ; MENNUCCI, B. ; NESBITT, D. J. (2011),
« Definition of the hydrogen bond (IUPAC Recommendations 2011) »,Pure
App/. Chem., 83: 1637-1641.

Loi d'inertie: voir mécanique.

Longueur capillaire : longueur L pour laquelle la pression hydrostatique


p g L due à la densité p et à la pesanteur g devient égale à la pression de
Laplace y/L, où y est la tension superficielle. Pour l'eau à 20 °C y::::: 72 mN m· 1,
p ::::: 1 000 kg m·3, ce qui donne sur la planète Terre (g ::::: 10 m s·2) une longueur
Le ::::: 2,7 mm. On peut aussi définir le nombre d'Eôtvôs ou de Bond sans
dimension comme Eo =Bo= p g L2/y qui gouverne la déformation d'une
goutte d'un liquide. Lorsque Bo< 1, la goutte reste sphérique car la tension
superficielle l'emporte sur la gravité. À l'inverse, si Bo> 1, la goutte s'aplatit
sous l'effet de la gravité.

Luminol : ou 5-amino-2,3-dihydrophtalazine-1,4-dione. Molécule organique


de formule brute C8H7Np 2 chimio-luminescente qui est utilisée en
criminalistique pour révéler des traces de sang sur les scènes de crime. On
utilise pour cela des solutions d'eau oxygénée Hp 2 qui libèrent dudioxyène 0 2
en présence de tout catalyseur contenant du fer comme l'hémoglobine selon
la réaction :

2 C8H7Np2 (aq) + 7 Hp 2 (aq) + 4 OH 8 (aq) ~ 2 N2 î + 2 C8Hp/8 (aq) + 14


Hp(l)

Matrice hermitique : une matrice hermitique est une matrice constituée de


nombres complexes A(ij) qui se trouve être identique à la matrice obtenue en
prenant le complexe conjugué de chaque élément de la matrice transposée,
soit A(ij) =A*(j,i). Cette propriété assure que les valeurs propres obtenues en
diagonalisant ces matrices seront toujours réelles.

Masse M : Unité SI = kilogramme (kg). La masse est une grandeur scalaire


qui n'existe qu'en mécanique non relativiste. Se confond avec l'énergie et la
quantité de mouvement en mécanique relativiste. La masse inerte m1 est le
coefficient de proportionnalité entre la force et l'accélération a communiquée
par la force : f = m1 a. La masse grave mP est le coefficient de proportionnalité
entre la force f et le champ de pesanteur g à l'origine de cette force : f = ~ g.

343
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Si tous les corps chutent dans le vide avec la même accélération (a= g), on
peut écrire m1 = ~ et utiliser des balances pour mesurer des masses.

Mécanique (classique) : science basée sur trois principes énoncés pour la


première fois par Isaac Newton. Le premier principe newtonien est la loi
d'inertie stipulant qu'en l'absence de forces tout corps est soit au repos,
soit en mouvement rectiligne uniforme. Le deuxième principe est que toute
modification de l'état de mouvement d'un corps provient d'une force, qui,
contrairement à l'inertie, ne subsiste plus dans le corps dès qu'elle cesse
de s'appliquer. Le troisième principe est que toute force imprimée dans
une certaine direction provoquera une réaction égale mais dans la direction
opposée (.principe d'action et de réaction), de manière à ce que la quantité
de mouvement vectorielle reste à tout moment inchangée (principe de
conservation de la quantité de mouvement).

Mécanique des matrices (Heisenberg) : forme de mécanique quantique


construite par le physicien allemand Werner Heisenberg (1901-1976) se
basant sur la correspondance existant entre le crochet de Poisson {u,H} de
la physique classique et le commutateur de deux matrices . Il s'agit d'un
formalisme de première quantification, qui consiste à remplacer la position x
d'un corpuscule et sa quantité de mouvement associée Px par des opérateurs
agissant sur un espace vectoriel complexe (espace de Hilbert) avec la règle
de non-commutation canonique : [û, H] = ûH - Hû = ih. Ainsi, le fait que
les opérateurs position et quantité de mouvement ne commutent pas entraîne
l'existence d'une relation d'indétermination ~x ~p '.'.:'.: h/2, où~ et ~p sont
les précisions avec lesquelles il est possible de mesurer ces quantités. De
manière plus générale, si la quantité Â prend en moyenne la valeur <Â> avec
un écart type (M)2 = <Â2> - <Â>2 et si [Â,Û] = iÔ, alors M·~U '.'.:'.: <Ô>/2.

Mécanique ondulatoire (Schrôdinger) : forme de mécanique quantique


construite par le physicien autrichien Erwin Schrôdinger (1887-1961) par
analogie avec les lois de l'optique dans le cadre de la théorie de Jacobi-
Hamilton. Schrôdinger s'est basé sur une analyse détaillée de Louis de Broglie
des principes de Maupertuis et Fermat utilisés en mécanique classique et en
optique géométrique, en comparaison avec la relation de Planck-Einstein
liant l'énergie et la fréquence de la lumière, ~E = h·f, et la relation de
Poincaré-Einstein liant énergie et masse, E = m c2• Cette rencontre théorique
entre la lumière et la matière a conduit de Broglie à introduire ses ondes de
matière, À.a = h/mv, où m et v désignent la masse et la vitesse du corpuscule
matériel et Schrôdinger se chargea de trouver leur équation d'onde. Le fait
que la position du corpuscule ne soit connue qu'avec une certaine erreur
~q s'interprète du point de vue ondulatoire, comme une fonction d'onde
'l'(q) dont l'amplitude n'est différente de zéro que dans un petit intervalle
ayant approximativement la dimension ~q. Sur le plan mathématique, une

344
ANNEXE TECHNIQUE

telle fonction peut être imaginée comme une somme d'ondes élémentaires
qui, par interférence, s'ajoutent dans le petit intervalle ~q et se détruisent
mutuellement à l'extérieur. Cette méthode revient à construire le corpuscule
en le considérant comme un paquet d'ondes à peu près comme la théorie
cinétique des gaz construit la pression en la considérant comme un faisceau
de chocs. Les ondes qui construisent le corpuscule ont à satisfaire des
conditions aux limites qui proviennent de régions bien éloignées du point
où le corpuscule matériel se trouve. En fait, le corpuscule se trouve bien
dispersé dans l'espace tout entier, ce qui fait que l'on ne peut plus le suivre à
la trace et sa trajectoire disparaît dans un nuage de probabilités. Pris comme
une somme de phénomènes vibratoires, le corpuscule est plutôt reconstruit en
permanence que conservé. Là où Heisenberg utilise des opérateurs matriciels,
Schrôdinger utilise des opérateurs différentiels, tels que la multiplication x
pour l'opérateur position et la dérivée par rapport à x pour l'opérateur quantité
de mouvement. L'équation de Schrôdinger s'obtient alors en écrivant un
opérateur hamiltonien au moyen de ces opérateurs :

Mécanique quantique : science basée sur le principe de contextualité


stipulant qu'il n'existe pas de grandeur d'état, c'est-à-dire que les résultats
de mesures ne peuvent être considérés comme des propriétés intrinsèques
des systèmes observés. Le postulat d'absence de grandeur d'état pour
l'observation joue donc pour la mécanique quantique le rôle de principe
fondateur, tout comme l'absence d'observateur privilégié pour le mouvement
fonde la théorie relativiste. Ceci implique qu'il n'existe aucune distinction
fondamentale entre système observé et observateur, système quantique ou
classique, système physique conscient ou dépourvu de conscience. Le monde
peut donc être découpé d'une infinité de manières totalement équivalentes
en un ensemble de systèmes, chacun d'entre eux pouvant être considéré soit
comme un système « observateur », soit comme un système « observé ».
L'absence de grandeur d'état signifiant qu'il existe, en droit, deux grandeurs
non simultanément mesurables (position et quantité de mouvement associée),
il en découle l'indéterminisme, le principe de décomposition spectrale
en termes d'amplitudes de probabilité et donc la nécessité de substituer à
l'espace réel des phases d'Hamilton de la mécanique classique un espace
complexe de Hilbert adapté à la formulation choisie : mécanique des matrices
d'Heisenberg ou mécanique ondulatoire de Schrôdinger, pour ne citer que les
deux formulations les plus employées à l'heure actuelle.

Mécanique quantique relationnelle : théorie qui part du point de vue que


l'information est nécessairement une quantité discrète, c'est-à-dire qu'il
existe une quantité minimale d'information correspondant à une valeur de
1 bit, permettant juste de distinguer entre deux alternatives. Dans ce contexte,

345
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

toute mesure se ramène à une question posée par le système observateur à


un autre système observé et tout système S peut se définir par le nombre
de questions oui/non pertinentes que l'on peut lui poser pour acquérir de
l'information. Un tel ensemble de questions correspond aux différentes
variables physiques de la mécanique classique ou a~x différentes observables
de la mécanique quantique standard. Dans ce cadre, une question oui/non se
trouve représentée par un opérateur de projection sur un sous-système linéaire
d'un espace de Hilbert, ou par le sous-système linéaire lui-même. Cette idée
n'a rien de quantique mais découle simplement de la structure logique de la
théorie de l'information. On substitue donc à la notion d'état qui n'a qu'un
caractère relatif la notion d'information qu'un système peut avoir sur tout
autre système. Sur un plan quantitatif, l'information que l'on peut acquérir
sur tout système est soumise à une contrainte, de la même manière que toute
vitesse physique est naturellement contrainte en mécanique relativiste. Cette
contrainte est qu'il existe une quantité maximale d'information pertinente
pouvant être extraite d'un système donné (Rovelli 1996). Il s'agit ici d'une
contrainte permettant d'obtenir une description complète du système
considéré dans un temps fini. Tout système se caractérise donc par une
quantité finie N d'information et c'est l'essence même de la constante de
Planck que de traduire de manière quantitative notre finitude essentielle vis-
à-vis de l'acquisition de l'information.

Mécanique statistique : en mécanique statistique, on considère que le


nombre de micro-états compatibles avec un macro-état macroscopique
donné, noté n, dépend a priori de trois variables de nature extensive qui
sont l'énergie totale disponible U, le volume total accessible V et le nombre
total de particules constituantes N, soit ü(U,V,N). Cette manière de voir les
choses a conduit le physicien autrichien Ludwig Boltzmann ( 1844-1906) à
une définition statistique de l'entropie S(U,V,N): S(U,V,N) =~ln ü(U,V,N)
(Boltzmann 1877). De manière assez étrange, Boltzmann ne se soucia jamais
de déterminer la valeur de la constante de proportionnalité ~, liant l'entropie
au logarithme du nombre de micro-états et qui porte aujourd'hui son nom.
Lors de sa dérivation de la loi d'émission du corps noir, le physicien allemand
Max Planck fut ainsi très ennuyé de ne pas disposer de valeur précise pour
cette constante ayant la dimension d'une entropie. Ce fut donc Planck et non
Boltzmann qui fut le premier à proposer une valeur numérique pour cette
constante de proportionnalité.

Micro-état et macro-état : deux notions de base de la mécanique statistique.


Imaginez que je jette deux dés à six faces sur un table de jeu et que j'observe
que le premier dé affiche un 2 et le deuxième un 5, pour un résultat total de
5+2 = 7. La paire (2,5) définit un micro-état, alors que le résultat obtenu,
7, définit un macro-état. L'idée est que l'observateur possédant une taille
gigantesque par rapport aux molécules le constituant ne peut pas avoir

346
ANNEXE TECHNIQUE

accès aux micro-états et doit donc se contenter des macro-états. Autrement


dit, dans l'exemple précédent, je n'ai accès en tant qu'être humain qu'au
résultat final 7 et non au micro-état (2,5) qui lui a donné naissance. Tout ce
que je peux donc dire du macro-état 7, c'est qu'il correspond à 6 micro-états
possibles: (1,6); (2,5); (3,4); (4,3); (5,2) et (6,1). Par contre, derrière le
macro-état 2, je n'ai qu'un seul micro-état possible : la paire (1,1). On dira
donc que le macro-état 7' est de plus haute entropie que le macro-état 2',
car la probabilité d'obtenir le résultat 7 est de 6/36, alors que la probabilité
d'obtenir le résultat 2 n'est que de 1/36. Par conséquent, quand on dit que
l'entropie ne peut qu'augmenter, on signifie que la nature évolue toujours
vers les macro-états de plus haute probabilité, les macro-états de moindre
probabilité étant simplement plus rarement observés. Il existe évidemment
beaucoup de micro-états qui correspondent à un macro-état donné. La
réunion de tous ces micro-états s'appelle un « ensemble ». Il est important
de réaliser qu'un ensemble est une collection de systèmes macroscopiques
sur laquelle on effectue les moyennes statistiques et non une collection de
particules formant un système macroscopique. L'ensemble des micro-états
possibles pour un système mécanique à N degrés de liberté définit l'espace
des phases de dimension 2N.

Module de compressibilité K, coefficient gouvernant la variation de volume V


à température 0 (Ky) ou entropie (K8) constante suite à une augmentation ou
une diminution de pression p : V Ky= (oV!ôp\~ et V K 8 = (8V/ôp)8 • Pour un
système à l'équilibre, Ky mesure les fluctuations quadratiques de volume :
<(oV)2> = ~ 0 V Kr tandis que K 8 mesure les fluctuations quadratiques de
pression : <(op )2> = ~ 0/(V K 8).

Moment angulaire ou moment cinétique j : pseudo-vecteur associé à


tout mouvement rotatif. Le moment angulaire j suppose de se donner trois
choses : une certaine quantité de mouvement p = m v, où m est la masse et v la
vitesse, une certaine distance L par rapport à un point fixe et un angle a entre
le vecteur vitesse et le vecteur joignant la masse au point fixe : j = p L sin a.
La conservation de la quantité de mouvement p assure donc également la
conservation du moment angulaire j dès que L et a ne varient pas dans le
temps. Contenu dimensionnel: [M L2 T 1 rad- 1].

Nombre de Reynolds : nombre sans dimension fixant dans un fluide la


transition entre un régime laminaire et un régime turbulent. Si L est une
dimension caractéristique du fluide se déplaçant avec une vitesse laminaire V,
le temps caractéristique pour parcourir le fluide sera îM = LN. Le fluide étant

347
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

par essence de nature mobile, toute énergie quelle que soit son origine sera
condamnée à être transformée en chaleur via la friction entre les molécules.
Pour un fluide donné, l'efficacité de ce « frottement » moléculaire est mesurée
par la viscosité cinématique du fluide v = T}/p, où Tl est la viscosité dynamique
mesurant l'aptitude du fluide à transférer la quantité de mouvement et p la
densité du fluide. Ceci définit une autre échelle de temps caractéristique
tv = L2/v, représentant le temps nécessaire pour dissiper toute l'énergie
emmagasinée dans la dimension L. Bien évidemment il n'y a aucune raison
pour que ces deux temps tM et tv coïncident, le premier étant de nature
purement spatiale et le second de nature énergétique. C'est précisément
cette indépendance temporelle qui nous permet de définir une condition
d'écoulement laminaire stable et non turbulente comme étant celle où l'on a
tM::::: tv, soit LN::::: L2/v et donc Re= L·V/v::::: 1. Ainsi apparaît le fil d'Ariane
indispensable pour définir les conditions macroscopiques conduisant à
l'apparition de la turbulence (Re >> 1) sous la forme d'un nombre sans
dimension aisément calculable, appelé nombre de Reynolds (Re).

Nombre de Weber : on peut attacher à tout objet de taille d et de tension


superficielle y se déplaçant dans un fluide de densité Pr à une vitesse u un nombre
sans dimension de Weber, We, mesurant l'importance relative des forces d'inertie
par rapport aux forces chimiques de cohésion interne selon We = Pr·u2 d/y = (d L)2
où Le est la longueur capillaire L de l'objet. Pour les gouttes d'eau, si l'on égalise
le stress hydrodynamique Pr·u2 = We·(y/d) exercé par l'air au rapport entre
l'énergie de surface y 1t d2 et le volume 1t d3/6 de la goutte, on trouve que We = 6
et donc d::::: 6-7 mm.

Notation de Dirac : les physiciens quantiques ont pris l'habitude d'utiliser une
notation en termes de « bras » et de « kets » introduite par P. A. M. Dirac pour
manipuler les états quantiques sans se soucier de leur représentation concrète.
Selon la notation introduite par Dirac, l'état est représenté par un label placé dans
un demi-crochet la>, l'opérateur associé au processus de mesure est noté Â et l'on
écrit que Âla> = a·la>, où 'a' est le résultat de la mesure.
- .. Première quantification => Espace de Hilbert complexe
État (ket) B.eaultat (valeur propre)
\ / Espace dual
Mesure
(opérateur)
A 1
XX )
= "J ) <=> (xd
Xl X i X t = ( X 1·x*(valeur
A ResuJtat
propre:

Etat (!;ra) ~esure (opérateur)


Op&ateur self-adjoint - Mesures

X = Xt <=>x=x*=>x e lR
DMl- Op&ateurs unitaires - ll.volution, transformation
[111113-111431

xxt = xtx = î <=> xl rp) =I VF) => (VFIVF) = ('P l'P )


Inégalité de Schwarz's 1('PlV' t
~ ('Pl'P )-{V' 1V')

348
ANNEXE TECHNIQUE

•o
Ondes de matière : le physicien français Louis de Broglie (1892-1987)
chercha à voir quelles seraient les conséquences d'une combinaison de la
relation de Planck, E = h f, liant énergie E et fréquence f, avec la relation
d'Einstein, E = m c2 , liant énergie E et masse m. La conclusion fut qu'il
devait exister des ondes de matière de longueur d'onde À= h/p, où p désigne
la quantité de mouvement p. Cette prédiction faite en 1923 fut confirmée
expérimentalement en 1927 par les physiciens américains Clinton J.
Davisson (1881-1958) et Lester H. Germer (1896-1971), ce qui permit à
Louis de Broglie de recevoir le prix Nobel de physique en 1929, pour un
travail jugé seulement « très honorable » lors de la soutenance de son doctorat
en 1924 à l'université de Paris.

Ontologie : mot introduit en 1692 par le théologien protestant français Jean


Le Clerc (1637-1756) afin de combiner la notion d'être (ontos en grec) avec la
notion de raison (logos en grec). Un énoncé à caractère ontologique est donc
quelque chose qui peut être exprimé verbalement comme une affirmation,
indépendante de tout observateur, et pouvant aboutir à une équation
mathématique utilisant le signe d'égalité afin de se faire une idée de la raison
pour laquelle une chose existe et se transforme. Le caractère commun à toutes
les ontologies est la réversibilité des choses, car si A= B, alors A => B et B =>
A. Le premier principe de la thermodynamique, énoncé par Rudolf Clausius,
est un bon exemple d'énoncé à caractère ontologique.

Opérateur : entité mathématique permettant de modifier l'état d'une variable


mécanique ou dynamique et pouvant s'exprimer comme des matrices de
nombres agissant sur des vecteurs (formalisme d'Heisenberg) ou comme
des opérateurs différentiels agissant sur des fonctions d'onde (Schrôdinger).
L'ensemble de tous les états possibles de la variable forme un espace de
Hilbert. Voir aussi Notation de Dirac.
HEISENBERG, W. (1925), « Über quantentheoretische Umdeutung kinematischer und
mechanischer Beziehungen », Z. Phys., 33 : 879-893.
HEISENBERG, W. (1927), «Über den anschaulichen Inhalt der quantentheoretischen Kinematik
und Mechanik », Z. Phys., 43 : 172-198.

Osmolalité : 1 osmole (Osm) est la quantité de matière qui se dissocie en


solution pour former une mole de particules capables de créer une pression
osmotique.

349
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Paradigme: selon l'historien américain Thomas S. Kuhn, la science apparaît


comme une succession sans fin de longues périodes calmes de science
« normale » où les scientifiques sont guidés par un ensemble de théories,
de standards et de méthodes appelé « paradigme », entrecoupé de manière
violente par de brefs épisodes de révolution intellectuelle au cours de laquelle
l'ancien paradigme se trouve renversé au profit d'un autre plus performant.
Il en découle que le but de la science ne peut être de savoir distinguer ce qui
est vrai ou réel, car ceci ne peut être décidé que dans le cadre du paradigme
en vogue, qui ne possède qu'un caractère éphémère et jetable à tout moment.
Ainsi, les théories scientifiques s'inscrivent dans de grands paradigmes qui
résultent de l'accord implicite et subjectif de la communauté scientifique.
Kuhn, T. S. (1983), La Structure des révolutions scientifiques, Flammarion, Paris.

Paramagnétisme : propriété de la matière qui provoque une densification


des lignes de champ magnétique en raison d'une perméabilité magnétique
relative supérieure à celle du vide (µ, > 1).

Paramètre de Grüneisen y : paramètre sans dimension indiquant comment


varie la pression p lorsqu'on fait varier l'énergie interne U à volume V
constant: y= V·(8p/8U)v Peut aussi s'écrire y= (V °'J,)/(KT Cv), où °'r est le
coefficient de dilatation thermique isobare, KT le module de compressibilité
isotherme et Cv la capacité calorifique à volume constant. Pour un système à
l'équilibre, y mesure les fluctuations croisées de pression et de température
e: <oE>·op> = (yN)·k0 ·02•

Particule élémentaire : une particule de masse m est dite élémentaire lorsque


son extension spatiale est du même ordre de grandeur que sa longueur d'onde
de Compton: À= h/(m c), où h est la constante de Planck etc la vitesse de la
lumière. Selon ce critère, l'électron (m.~ 10·30 kg) est bien élémentaire car
sa taille est nettement inférieure à À= h/m0 ·c ~ 2,4 pm. De même, un proton
(mp ~ 1,7 10·27 kg) est une particule élémentaire car sa taille (0,88 fm) est
proche À= h/mp ·c ~ 1,3 fm. En revanche, l'atome d'hydrogène (mH ~ m) p
avec une taille voisine de 0, 1 nm ne peut pas être considéré comme une
particule élémentaire.

Perméabilité magnétique du vide µ 0 : constante universelle de


proportionnalité scalaire entre le champ magnétique H et la densité de flux
magnétique dans le vide B : B = µ 0 H. Contenu dimensionnel µ 0 = [M L Q· 2].
Unité SI : henry par mètre (H m- 1).

350
ANNEXE TECHNIQUE

Permittivité diélectrique du vide e0 , constante universelle de proportionnalité


scalaire entre le champ électrique et la densité de flux électrique dans le vide :
D = e0 E. Contenu dimensionnel e0 = [M- 1 L-3T2 Q2]. Unité SI : farad par mètre
(F m- 1).

pH (potentiel hydrogène) : le pH mesure l'aptitude de la molécule d'eau


à se couper de manière ionique en deux ions de charges opposées : Hp ~
Hal+ OH 8 . Le pH intervient dans tous les processus où il y a échange d'une
particule élémentaire appelée proton Hal. Un milieu tel que 0 < pH < 7 à
température ambiante est qualifié d'acide, tandis que si le 7 <pH < 14, on
parle de milieu basique. Dans l'océan, le pH est contrôlé au moyen des
équilibres suivants :
CaSi03 + Hp ~ Ca2al + 2 HC03e + Si02
Ca2al + 2 HC03e ~ CaC03 + C02 + Hp
co2 + 2 H20 ~ H2C03 + Hp ~ HC038 + Hpal

Dans le sang, c'est l'ion bicarbonate en équilibre avec le dioxyde de carbone


qui régule le pH dans une gamme très étroite.

[Hco-]
3
PH =6 l+log 10
sang ' 0 ' 03·Psang (CO2 )

7,35 < normal < 7,45 { 7,7 (mort)

0 14

1 <pH( estomac)< 3

Phase (quantique) : angle caractérisant un nombre complexe. La phase


intervient dans tout problème de nature ondulatoire. Elle permet de renforcer
un phénomène donné en cas de coïncidence de phase. En cas d'opposition
de phase, on peut faire taire la manifestation physique d'un phénomène sans
faire disparaître ce dernier. La phase joue un rôle négligeable en première
quantification, mais devient une chose cruciale en seconde quantification et
en gravitation quantique en associant à l'état de vide deux états physiques
identiques en tout point se trouvant à tout instant en opposition de phase.

351
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Figure 157
Interférence constructive Interférence destructive
Oumière) Oumière)

Coïncidence de phase Opposition de phase

Poids : force f qui s'exerce sur une masse grave mP dans un champ de
pesanteur g donné : f = mP g. Pour une masse M de rayon R, on définit
l'accélération de la pesanteur due à cette masse selon: g = G MIV où Gest
la constante de gravitation universelle. En conséquence, la balance n'affiche
plus le même poids f = m g pour une même masse m.

Potentiel chimique : grandeur thermodynamique scalaire qui gouverne les


flux de matière en termes de nombre d'entités N tout comme la température
gouverne les flux de chaleur et la pression les variations de volume. Il peut être
aussi défini comme le taux de variation de l'énergie interne lorsqu'on ajoute
ou retire des particules à entropie Set volume V constant:µ= (élU/8N)8 v
Selon la mécanique statistique, la condition d'équilibre chimique entre deÙX
systèmes A et B pouvant échanger de la matière s'écrit élSA/élNA = élSiélN8 .
Comme le potentiel chimique est une énergie par entité et que oS/aN est
homogène à une énergie par entité et par unité de température, il en résulte que
élS/élN est homogène au rapport d'un potentiel chimique et d'une température,
soit:-µ= 0·(élS/élN)u,N avec une condition d'équilibre: E>A = 0 8 et PA= p8
et µA= µ 8 . De manière très générale, on peut écrireµ= µ 0 +RE> ln a, où a
est l'activité de la substance, Rest la constante des gaz parfaits et µ 0 est le
potentiel chimique lorsque la substance est pure (a= 1).

Potentiel électrique v. :
champ scalaire mesurant l'énergie potentielle u.
qu'acquiert une charge électrique q : u.
= q V0 Contenu dimensionnel
V.= [M L21' Q- ]. Unité SI: volt (V). Rapport de la charge électrique Q à la
2 1

capacitance C.

Potentiel rédox Eh ou rH 2 : le potentiel rédox Eh mesure l'aptitude de la


molécule d'eau à se couper de manière covalente en deux molécules,
l'une réductrice (dihydrogène) et l'autre oxydante (dioxygène) : 2 Hp ~
2 H2 + Or Formellement, cela signifie que des électrons ont été échangés.
Comme l'électron et le proton possèdent la même charge électrique en valeur
absolue, le potentiel rédox varie indifféremment dès que des électrons ou des

352
ANNEXE TECHNIQUE

protons viennent à être échangés. Pour cette raison, il est préférable d'utiliser
la notion de rH 2(20°C):::: 34·(EhN) + 2 pH. Un milieu tel que 0 < rH2 < 28
sera qualifié de réducteur, alors qu'un milieu tel que 28 < rH2 < 42 sera au
contraire oxydant.

Poussée de Lorentz : le physicien néerlandais Hendrik:Antoon Lorentz ( 1853-


1928) démontra la covariance des équations de Maxwell par changement de
référentiel en 1892. On peut voir une poussée de Lorentz comme une rotation
hyperbolique spatio-temporelle d'un angle a tel que tan a= v/c = p, où v est
la vitesse de translation uniforme d'un repère galiléen. Ainsi, si la translation
se fait dans la direction x, on aura x' = x cha - et sha et et'= et cha - x sha,
où ch(a) et sh(a) désignent les fonctions cosinus et sinus hyperbolique, telles
que 1 - tan2a = 1/ch2a et ch2a - sh2a = 1. On remarquera que les poussées de
Lorentz se confondent avec les transformations de Galilée pour des vitesses
petites devant la vitesse de la lumière (v << c => cha ~ 1 et sha ~ v/c).

Premier principe (thermodynamique) : principe énoncé par Rudolf


Clausius stipulant que l'énergie U d'un système isolé est toujours conservée
(dU/dt = 0). Si l'on utilise le second principe qui introduit la fonction entropie
S(U,V,N), le premier principe s'écrit pour toute matière gazeuse: dU = E> dS
-p dV, où U est l'énergie dite interne, E> la température, p la pression et V le
volume. Voir aussi Ontologie.

Première quantification : opération consistant à associer à chaque observable


mécanique comme la position, la quantité de mouvement, l'énergie, le
moment cinétique, un opérateur matriciel ou différentiel dont le spectre de
valeurs propres permet de rendre compte de tous les résultats de mesure. En
première quantification, les champs sont traités de manière classique, tandis
que chaque corpuscule possède un espace interne appelé espace de Hilbert.
En mécanique quantique de première quantification, l'espace est pensé en
termes de droites et la matière est pensée en termes de cercles (nombres
complexes), ce qui détruit le temps.

Pression p : grandeur thermodynamique scalaire gouvernant les variations


de volume et qui peut être définie comme le taux de variation de l'énergie
interne lorsqu'on augmente ou diminue le volume V à entropie S et nombre
d'entités N constant : p = (8U/8V)8 N' Selon la mécanique statistique, la
condition d'équilibre mécanique entre deux systèmes A et B pouvant changer
0

de volume s'écrit 8SA/8VA = 8S 8 /8V 8 . Comme la pression est une énergie


par unité de volume et que 8S/8V est homogène à une énergie par unité de
volume et de température, il en résulte que 8S/8V est homogène au rapport
d'une pression et d'une température, soit: p = 0·(8S/8V)uN et une condition
d'équilibre: E> A= 0 8 et PA= P8 • •

353
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Pression osmotique II : pression associée à tout système constitué de


N particules. Pour toute pression p, potentiel chimique µ, activité a et
température0,onademanièretrèsgénérale: (8p/8a) 0 ~ =-(8p/8µ) 0 ~ ·(8µ/8a) 0 ~ •
Comme µ(0,p,N) = µ 0 (0,p) + R 0 ln a, où Rest la constante des gaz parfaits,
il vient que (8µ/8a) 0 ,p =lia. De même, on peut montrer que V m = (8µ/8p) 0 •• est
le volume molaire de la substance, d'où il vient que (8p/aa) 0 ,µ = -R·0/(Vm a),
soit après intégration entre p et (p+II), où II est la presion osmotique
recherchée, on a II V m = -R 0 ln a. Avec un volume molaire V m ::::: 18 cm3 mol· 1,
l'eau présente une constante piézoscopique R/Vm ::::: 0,46 MPa K- 1, ce qui
permet de convertir toute activité a en pression osmotique II.

Pression de vapeur saturante : considérons de l'eau pure à l'état liquide


mise en contact avec une phase gazeuse comme l'air. Dans le liquide, il existe
des forces intermoléculaires qui empêchent les molécules d'eau présentes à
la surface de s'échapper dans la phase gazeuse. Toutefois, suite à l'agitation
thermique, il peut arriver qu'une molécule de surface possède une énergie
cinétique suffisante pour vaincre l'énergie potentielle associée aux différentes
forces intermoléculaires de la phase condensée. À l'inverse, une molécule
d'eau gazeuse, proche de la surface, peut se voir happée par cette dernière si
son énergie cinétique est inférieure à l'énergie potentielle de condensation.
Lorsque l'équilibre thermodynamique est atteint, le nombre de molécules
d'eau qui passent vers la phase gaz est égal au nombre de molécules d'eau qui
se collent à la surface et la pression de vapeur générée par les molécules d'eau
dans la phase gaz définit ce que l'on appelle la pression de vapeur saturante Ps
du liquide pur. Cette pression de vapeur saturante dépend uniquement de
la température. Pour une pression extérieure p donnée, il y aura ébullition
lorsque la pression de vapeur Pv est telle que Ps > p > pV' évaporation si
p > Ps > Pv et condensation lorsque p > Pv > Ps· Le point d'ébullition 8 0b
est la température pour laquelle p = Ps• tandis qu'une situation d'équilibre
se caractérise par Pv = Ps· Pour un équilibre solide ~ gaz ou liquide ~
gaz, la relation de Clausius-Clapeyron permet d'exprimer cette variation
de la pression de vapeur saturante avec la température 0 en fonction de
la chaleur latente de vaporisation Lv et de la constante des gaz parfaits R :
dp = (LvN)·(d0/0) => ln (p/p 0 ) = (L/R)·(l/80b - 1/0). Par exemple, pour
l'eau on a Lv(25 °C) = 41,8 kJ.mol· 1, soit Ps::::: 3,2 kPa pour p 0 = 101,325 kPa.
Si maintenant une partie des molécules d'eau présentes en surface sont
remplacées par une substance de nature chimique différente (soluté ou
surface solide non hydratée), on s'attend à ce que la pression de vapeur Pv
de l'eau pour une même température T soit plus faible puisqu'une partie de
la surface occupée par le soluté n'est plus accessible à l'eau. L'activité de
l'eau correspond ainsi à ce rapport entre la pression de vapeur d'eau Pvdans
toute substance contenant de l'eau et la pression de vapeur saturante de l'eau
pure Ps à la même température : 0 :5 llw = pJps :5 1.

354
ANNEXE TECHNIQUE

Principe d'action et de réaction : voir mécanique.

Principe d'indétermination d'Heisenberg : soit N particules de masse m


évoluant dans un cube d'arête L mis en contact avec un thermostat T de
manière à fixer le nombre de micro-états (position q, quantité de mouvement p)
accessibles à cet ensemble. En raison du mouvement brownien, toute particule
se trouve de manière équiprobable en n'importe quel point du volume V= L3
avec une incertitude Aq = L selon les directions x, y ou z, correspondant à un
nombre de micro-états positionnels n 0( yN = (Aq)3N. D'autre part, la théorie
cinétique des gaz nous indique la densité de probabilité d'observer une
certaine vitesse v à une température 0 avec une largeur à mi-hauteur qui est
une bonne mesure de l'incertitude sur les vitesses Av, et donc sur la quantité
de mouvement Ap = m ·Av. D'où un nombre de micro-états dynamiques Q p
oc (Ap) 3N. Le nombre total de micro-états concernés dans l'espace des phases
sera donc Q oc Q q Q p oc (Aq ·Ap )3N, à une constante de proportionnalité près qui
doit être homogène à une action afin que Q soit un nombre pur. On retrouve
ici de nouveau de manière très naturelle la constante de Planck h, et si l'on
applique le deuxième et le troisième principe de la thermodynamique S : '.'.: 0,
on retrouve bien la relation d'indétermination d'Heisenberg:

S = ~ Ln(Aq Ap/h)3N ::'.'.: 0 => 3N k8 Ln(Aq Ap/h) : '.'.: 0 => Aq Ap/h : '.'.: 1 <=>
AqAp::'.'.:h

On notera qu'il n'y a donc nul besoin de faire appel à la théorie quantique
pour introduire cette relation fondamentale. En fait, c'est exactement
l'inverse !!! La formulation statistique de la notion d'entropie implique la
relation d'incertitude entre position et quantité de mouvement. Cette dernière
implique qu'il existe deux grandeurs non simultanément en droit et donc il
ne peut y avoir de grandeur d'état. Selon le théorème de Paulette Février, il
en découle qu'il faut faire appel à la logique de complémentarité, base du
formalisme de la mécanique quantique, et non à la logique booléenne, base
de la physique classique.

Principe de relativité : principe clairement énoncé par deux physiciens


français, Jean-Louis Destouches (1909-1980) et son épouse Paulette Février
( 1915-2013 ), dans un contexte qui dépasse très largement le cadre de la théorie
de la relativité d'Einstein et que je reprends ici. Voir mécanique quantique.

Principe d'exclusion de Pauli afin de rendre compte des spectres


d'émission des atomes poly-électroniques, le physicien autrichien Wolfgang
Pauli (1900-1958), qui aimait se faire appeler « le courroux des dieux »,
formula un principe d'exclusion selon lequel deux électrons ne pouvaient
pas avoir exactement le même jeu de nombres quantiques. Ceci conduisit les
physiciens néerlandais George Uhlenbeck ( 1900-1988) et Samuel Goudsmit

355
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

(1902-1978) à émettre l'hypothèse de l'existence d'un moment angulaire


intrinsèque, ou spin, pouvant prendre des valeurs entières ou demi-entières de
la constante h. Il en découle que la constante de Planck permet aussi de fixer
l'unité de spin, ou, en vertu du principe d'homomorphisme, laisse arbitraire
le choix de l'unité d'énergie une fois l'unité de temps fixée. Pour comprendre
l'origine physique du principe d'exclusion de Pauli, il est crucial d'avoir
compris que l'échange de position ou la rotation de particules de spin Yi sont
des processus similaires (voir spineurs).

Le principe d'exclusion de Pauli est la raison pour laquelle la matière nous


apparaît comme impénétrable, justifiant l'existence d'un principe d'action et
de réaction. C'est aussi la raison pour laquelle je ne traverse pas le plancher
sur lequel je marche bien que le centre de la Terre m'attire avec force par
gravité. De même, si le sol terrestre ne s'effondre pas sur lui-même, c'est
parce que la matière terrestre est impénétrable et se trouve déjà dans un état
de compression maximal compte tenu de la force de gravité. Le principe
d'exclusion de Pauli m'interdit de compresser les atomes par gravité. Au-delà
d'un certain taux de compression, une pression de Pauli apparaît qui empêche
l'effondrement gravitationnel de l'objet sur lui-même. C'est ainsi que les
planètes et les étoiles peuvent exister. Le principe d'exclusion de Pauli est
aussi la raison pour laquelle les atomes ont des nuages électroniques très
étalés, car il oblige les électrons à former des couches. Lorsque les noyaux
s'habillent d'électrons et qu'une couche devient pleine, une nouvelle couche
plus éloignée du noyau doit être utilisée. Le principe d'exclusion de Pauli
est donc à l'origine de la classification périodique des éléments découverte
par Dimitri Mendeleïev. La taille d'un atome correspond à la taille de la
dernière couche occupée. Sans le principe d'exclusion de Pauli, tous les
atomes seraient de la même taille que l'atome d'hydrogène. Ceci s'applique
aussi au noyau : leur taille est fixée par la taille de la dernière couche de
nucléons. Sans le principe d'exclusion de Pauli, les noyaux auraient tous la
même taille qu'un proton isolé. En exagérant un petit peu, c'est le principe
d'exclusion de Pauli qui donne une forme à la matière car sans lui il n'y aurait
pas de volume. Seul ce principe permet d'éviter que les nuages électroniques
des atomes coalescent, créant la liaison chimique qui oblige les atomes à
être séparés. Cette répulsion permet que toutes choses aient un volume fini.
Toutes les formes des solides et des fluides sont une conséquence directe du
principe d'exclusion de Pauli. Autrement dit, chaque fois que je frappe sur
une table ou une porte, je prouve de manière expérimentale que les objets sont
fabriqués à partir de fermions. Les systèmes de spin supérieur à Yi peuvent
être vus comme étant composés d'un nombre impair d'entités de spin Yi. Il
est impossible d'avoir des valeurs de spin inférieures à Yi. Ceci est lié au
fait que l'angle solide le plus grand qui puisse être mesuré dans un espace
à 3 dimensions est 41t. Comme il est impossible de mesurer un angle plus
grand, il en découle que suite à l'existence du quantum d'action, il ne peut

356
ANNEXE TECHNIQUE

y avoir dans la nature de valeurs de spin strictement comprises entre 0 et Yi.


PAULI, W. ( 1925), «On the Connection between the Completion of Electron Groups in an Atom
with the Complex Structure ofSpectra », Z. Phys., 31 : 765-783.

Probabilité : La science des probabilités est née en 1654 d'une correspondance


entre les mathématiciens français Pierre Simon de Fermat (1601-1655) et
Blaise Pascal (1623-1662) traitant de l'analyse combinatoire en relation
avec le triangle arithmétique de Pascal. Ainsi, lorsqu'on jette un dé sur
la table plusieurs centaines de fois, on trouve que le rapport min que l'on
appelle la fréquence relative entre le nombre de jets m donnant un certain
résultat (fréquence) et le nombre total de jets n tend vers 1/6. On peut donc
définir la probabilité P qui est un nombre sans dimension compris entre zéro
et un, comme la limite du rapport min quand n tend vers l'infini, et l'on
parle d'équiprobabilité lorsque cette probabilité est la même pour tous les
événements possibles. Tout l'intérêt de l'approche statistique réside donc dans
la sélection de populations homogènes. Or, si cette condition est parfaitement
remplie dans le cas d'un gaz, où toutes les molécules sont rigoureusement
identiques, ou d'une usine produisant des boulons, voire même des obus,
elle ne s'applique en aucun cas à un cabinet médical, où, pour un groupe
de personnes partageant la même pathologie, chaque individu reste un cas
unique. En fait, même si la condition d'homogénéité se trouve remplie, il est
encore possible de se tromper en toute bonne foi, par paresse intellectuelle.
Pour fixer les idées, soit une pathologie M ayant une fréquence p(M) pour
un ensemble d'individus n'ayant aucune prédisposition particulière pour ce
type de maladie et soit T, un test visant à détecter cette maladie avant qu'elle
ne soit déclarée dans cette même population. Une donnée cruciale du test est
sa sensibilité qui mesure sa capacité à donner un résultat positif lorsqu'une
hypothèse est vérifiée. Pour cela, on sélectionne des gens vraiment malades et
l'on regarde si le test donne un résultat positif ou négatif. Si une personne est
malade et que le test est positif, on parle de « vrai positif (VP) » car le test a
bien fonctionné, alors que si le test est négatif, on parle de« faux négatif (FN) »
car le test a échoué à détecter la maladie bien déclarée. Dans ces conditions, la
sensibilité du test correspond au rapport p( EB IM) = VP/(VP+FN). La sensibilité
est un exemple de probabilité conditionnelle, que l'on note de manière très
générale p(BIA) signifiant« probabilité d'avoir l'événement B si l'événement
A est survenu ». Dans notre exemple, p(ffilM) se traduit par « probabilité
d'avoir un test positif si la personne est malade », ce qui correspond à la
sensibilité. La sensibilité s'oppose à la spécificité, qui mesure la capacité d'un
test à donner un résultat négatif lorsque l'hypothèse n'est pas vérifiée. Ici
aussi, on obtiendra un résultat positif ou négatif avec soit un « faux positif
(FP) » si le test s'est trompé, soit un « vrai négatif (VN) » si le test a donné
une réponse correcte. Dans ces conditions, la spécificité du test correspond
au rapport p(81-,M) = VN/(VN+FP), qui se traduit par« probabilité d'avoir

357
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

un test négatif si la personne n'est pas malade», le symbole'-,' représentant


l'opérateur logique niant la propriété à laquelle il s'applique. Ensemble, la
sensibilité et la spécificité d'un test donnent une appréciation de sa validité
intrinsèque. Prises séparément, elles ne veulent rien dire. Par exemple, un
test avec une sensibilité de 95 % n'a aucune valeur si sa spécificité n'est que
de 5 % car cela signifie que le test est positif chez 95 % des individus sans
aucune corrélation avec la maladie. Muni de ces données, on peut également
définir la précision du test comme le rapport VP/(VP+FP) et son exactitude
comme le rapport (VP+VN)/(VP+FN+VN+FP). Que se passe-t-il maintenant
si je cherche à inverser la probabilité conditionnelle de sensibilité, p(MIE9),
c'est-à-dire si je m'intéresse à la« probabilité d'être malade sachant que le
test s'est révélé être positif». Tout le monde devrait intuitivement sentir,
en tant que malade en puissance, que c'est la seule chose qui compte pour
prendre une décision ou se projeter dans le futur. C'est bien évidemment à
ce niveau qu'il faut être vigilant et ne pas supposer bêtement, comme le font
certains médecins, que les deux probabilités conditionnelles sont simplement
égales, p(E91M) = p(MIE9). C'est ici qu'intervient le théorème de Bayes que
l'on peut écrire sous la forme suivante :

p(A) X p(BIA) = p(B) X p(AIB)

La clé est donc de bien penser à pondérer chaque probabilité conditionnelle


par la probabilité de l'événement qui vient de se produire. Dans notre cas, le
théorème de Bayes s'écrit: p(E9) x p(MIE9) = p(M) x p(E91M). C'est-à-dire
que connaissant la fréquence p(M) et la sensibilité du test p(E91M), il me faut
aussi connaître la probabilité d'avoir un test positif p(E9) afin de pouvoir
inverser la probabilité conditionnelle. Cette dernière probabilité concerne
malades (M) et non-malades (_,M) et s'obtient en additionnant le produit des
fréquences par les probabilités conditionnelles correspondantes :

p(E9) = p(M) X p(E91M) + p(-,M) X p(E91-,M)

Or, on est évidemment malade ou non-malade, soit: p(-,M) = l - p(M). De


même, si je ne suis pas malade le test sera nécessairement positif ou négatif,
soit p(E91-,M) = l - p(81-,M), ce qui introduit la spécificité. Si on prend
l'exemple concernant les mammographies (voir théorème de Bayes), nous
avons p(M) = 0,008 soit p(-,M) = 0,992, une sensibilité p(E91M) = 0,9 et
une spécificité p(81-,M) = 0,93, soit p(E91-,M) = 0,07. La probabilité d'avoir
une mammographie positive est donc p(E9) = 0,008 x 0,9 + 0,992 x 0,07 =
0,072 + 0,06944 = 0,07664. Par conséquent, la probabilité d'avoir le cancer
sachant que ma mammographie est positive est de p(MIE9) = 0,072/0,7664 =
0,09, soit seulement 9 chances sur 100 comme vu précédemment. Que penser
dans ces conditions de ces médecins qui prescrivent des biopsies au vu d'une
mammographie positive? Bien sûr, le théorème de Bayes s'applique à toutes

358
ANNEXE TECHNIQUE

les méthodes de diagnostic médical, même les plus sûres. Prenons par exemple
le cas du test ELISA pour détecter le virus du HIV qui présente une sensibilité
SS= p(EBIHIV) = 99,9 % pour une spécificité SP = p(81_,HIV) = 99,99 %
sachant que le SIDA touche une proportion PP= p(HIV) = 0,01 % de la
population. Vous faites partie de cette catégorie de personnes à faible risque
et votre test ELISA se trouve être positif. Que faut-il faire ? Se suicider,
hausser les épaules ou appliquer le théorème de Bayes ? Bien évidemment,
c'est la dernière solution qui est la bonne, ce qui reformulé au moyen des trois
pourcentages pertinents (PP, SS et SP) donne :

100 100
p(HNIEB)= (100 ){100-SP)= ( 100 )(100-99,99)= 50%
1+ - - 1 1+ - - 1
PP SS 0,01 99,9

Comme il n'y a qu'une chance sur deux que vous ayez contracté le SIDA, il
est parfaitement inutile de se suicider ou de paniquer. Pour bien comprendre
le mécanisme à l 'œuvre, imaginons que le SIDA touche une proportion plus
élevée de la population, par exemple PP= 1 %. La relation ci-dessus montre
qu'avec le même test positif la probabilité d'avoir le SIDA passe à 99 %,
une quasi-certitude... Imaginons aussi que le test soit légèrement moins
spécifique avec SP = 99 %, ce qui reste quand même très honorable. Pour une
incidence PP= 0,01 %, la probabilité d'avoir le SIDA avec un ELISA positif
chute à 1 % et le bon réflexe est de hausser les épaules. D'où l'importance de
disposer de tests très spécifiques si la maladie que l'on cherche à détecter est
relativement peu fréquente. Si l'on a bien compris le mécanisme du théorème
de Bayes, les tests ne sont vraiment utiles que si la maladie n'est pas trop
rare. En effet, imaginons une maladie qui touche une personne sur deux, soit
PP = 50 % et un test de spécificité assez faible, SP = 90 %, ne donnant pour
simplifier aucun faux négatif, soit SS= 100 %. Le fait d'avoir une réponse
positive au test signifie ici qu'il y a 91 chances sur 100 d'avoir contracté la
maladie.

Protérozoïque: dernier éon du Précambriens' étendant de 2 500 à 541 millions


d'années qui a débuté avec la grande vague oxydative suite à l'épuisement
du fer(II) marin par le dioxygène libéré par l'activité photosynthétique des
cyanobactéries.

Pseudo-vecteur : entité tensorielle de rang 2 antisymétrique dans un


espace tridimensionnel. Comme il suffit de trois nombres (Txy' T xz' TY,) pour
caractériser complètement un tel tenseur, on peut considérer cette entité
comme un pseudo-vecteur à trois composantes. On reconnaît le pseudo-
vecteur au fait qu'il pointe toujours dans la même direction après passage
d'un repère droit à un repère gauche.

359
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Quantité de matière : il existe trois manières principales d'exprimer la


quantité de matière : volume, masse ou nombre de moles. La question se
pose donc de savoir s'il n'y en a pas une qui est plus fondamentale que les
autres. La réponse à cette question dépend du but que l'on recherche. Si l'on
s'intéresse à l'aspect expérimental et pratique des choses, il est évident que les
unités de volume et de masse sont de loin les mieux adaptées. En effet, dans
tout laboratoire scientifique qui se respecte, on trouve des fioles, des pipettes
et des seringues pour manipuler des liquides et des balances pour régler les
proportions des matières solides. Travailler en moles ne correspond donc à rien
de tangible lorsque l'on s'intéresse uniquement à l'aspect pratique des choses.
Une personne qui a pris l'habitude de raisonner en masse ou en volume ne peut
donc que constater des phénomènes et non comprendre ce qui se passe. Dès que
se pose la question de la compréhension ou de la modélisation des phénomènes,
il est clair que l'unité de masse est de loin préférable à l'unité de volume. En
effet, suite aux phénomènes de dilatation thermique et de compressibilité
isotherme, les volumes peuvent varier pour une même quantité de matière
donnée dès que la température ou la pression changent. Dès lors, raisonner en
volume suppose que l'on a pris le soin de s'assurer que température et pression
restent rigoureusement constantes durant toute la durée de l'expérience, ce
qui complique considérablement la pratique expérimentale de laboratoire. La
masse, étant une quantité qui reste toujours la même quelles que soient les
conditions de température et de pression, est donc une chose beaucoup plus
fondamentale que le volume. Ceci explique que la toute première étape de
compréhension du mode de fonctionnement de la nature passe toujours par
une conversion des volumes en masses, via la notion de densité ou de masse
volumique. Ayant converti tous les volumes en masses, il reste le problème du
passage de l'aspect macroscopique des choses (masses) à l'aspect atomique
ou moléculaire (moles). Le problème est ici que dans tout processus physique,
chimique ou biologique il y a des objets en mouvement qui se rencontrent à
un moment crucial de leur existence. Or ce fut l'un des progrès décisifs du
xixe siècle d'arriver à comprendre qu'à une échelle suffisamment petite, voisine
du milliardième de mètre, la matière ne pouvait plus être divisée en parties
équivalentes du point de vue de la masse. À cette échelle extraordinairement
petite qui échappe à nos sens, nous entrons dans le royaume des molécules,
toutes constituées à partir d'une centaine de briques fondamentales appelées
atomes. Raisonner en masse n'est ici plus d'aucune utilité et pour avoir une
bonne compréhension des raisons qui poussent la matière à se déplacer ou à se
transformer, il faut impérativement convertir toutes les masses en moles.

Qualité extensive : les quantités extensives caractérisent un échantillon de taille


donnée. Exemple : énergie, masse, volume, entropie et nombre de particules.

360
ANNEXE TECHNIQUE

Qualité intensive : les quantités intensives sont caractéristiques de la


substance et indépendantes de la taille del' échantillon. Exemple : température,
pression, densité volumique ou concentrations.

Quantité de mouvement p: si v désigne le vecteur vitesse d'une masse m,


on peut définir sa quantité de mouvement vectorielle p comme le produit
de la masse par le vecteur vitesse : p = m v. Comme l'énergie, la quantité
de mouvement totale d'un système mécanique isolé est toujours conservée.
Contenu dimensionnel: [ML T 1).

Radical (hydroxyle, superoxyde): espèce chimique très réactive possédant


un ou plusieurs électrons non appareillés. Dans l'eau, il peut s'agir du radical
neutre extrêmement oxydant OH• formé lors d'une radiolyse Hp + y --+
OH•+ •H, où y représente un photon absorbé par la molécule d'eau. C'est
l'espèce active en photocatalyse. De plus, comme le dioxygène est omniprésent
sur Terre, on peut aussi former l'ion superoxyde 0 2• 8 lors de la capture d'un
électron : 0 2 + e8 --+ 0 2• 8 • Il s'agit d'un acide faible (pKa = 4,8) : HO/
~ 0 2°8 + HEll. Si pH > 5, cet ion s'entoure de quatre molécules d'eau et
reste donc peu toxique. Par contre, si pH < 5, il devient lipophile et donc
extrêmement toxique pour les cellules en raison de la réaction H02 • + Hp--+
Hp 2 +HO•, deux espèces très oxydantes et surtout lipophiles. C'est la raison
pour laquelle il convient d'éviter toute acidité intracellulaire.
BIELSKJ, B. H. J. ; CABELLI, D. E. ; ARUD!, R. L. (1985), « Reactivity of H02/02- radicals
in aqueous solutions », J. Phys. Chem. Rej Data, 14 : 1041-11 OO.
JANIK, 1.; TRIPATHI, G. N. R. (2013), «The nature of the superoxide radical anion in water»,
J. Chem. Phys., 139: 014302.

Radioactivité (désintégration) : phénomène découvert par le physicien


français Henri Becquerel (1852-1908), lequel avait publié une courte note
de quelques lignes au sujet d'un rayonnement mystérieux et nouveau qui
traversait le papier noir le plus opaque et qui était capable de réduire les sels
d'argent des plaques photo même protégés par une plaque de verre. Il savait
que ces rayons mystérieux n'étaient pas des rayons X découverts un petit
peu plus tôt par son ami Wilhem Rontgen, car la fluorescence X s'arrête
dès que l'on coupe la source. Ici la source était un sel phosphorescent, mais
il n'y avait aucun moyen d'arrêter l'émission qui se produisait de manière
continue. Dès que le physicien néo-zélandais Ernest Rutherford ( 1871-
1937), qui travaillait dans le laboratoire de J. J. Thomson, apprit l'existence
de ces nouveaux rayons, il se mit à les étudier afin d'en déterminer leur
nature. En effet, suite aux travaux des chimistes français Pierre et Marie
Curie qui identifièrent et isolèrent les éléments hautement radioactifs

361
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

que sont l'uranium, le polonium et le radium, on disposait de sources


radioactives nombreuses et variées.

Pierre Curie (1859-1906) Figure 158

Pechblende ou Uraninite
Marie Curie (1867-1934)
uo2+x

En 1898, Rutherford découvre qu'une feuille de papier est capable d'arrêter


certains rayons qu'il baptisa (a) d'autres rayons dits W). Il constata ensuite
que les rayons ~ étaient attirés par une électrode positivement chargée et très
facilement déviés par un champ magnétique. Par opposition, les rayons a
étaient attirés par une électrode négativement chargée et il était très difficile
de les faire dévier dans un champ magnétique. Il mesura alors la masse des
particules constituant ces deux types de rayons et trouva que le rayonnement ~
contenait en fait des électrons, tandis que la masse des particules responsables
des rayons a correspondait à la masse d'un atome d'hélium ayant perdu ses
deux électrons. Rutherford étudia aussi un autre type de rayons découverts
en 1900 par le physicien français Paul Villard et baptisés rayons y et constata
qu'ils étaient neutres sur le plan électrique et se comportaient en fait comme
de simples ondes électromagnétiques, mais de fréquence beaucoup plus
courte que celle des rayons X.

Rasoir d'Occam : Au x1e siècle, le philosophe scolastique français


Roscelin de Compiègne ( 1050-1121) affirme que les universaux abstraits
platoniciens ou les dix catégories abstraites d'Aristote (la substance,
la quantité, la qualité, la relation, le lieu, le temps, la position, la possession,
l'action et la passion) n'ont pas d'existence propre en dehors de l'individu
réel qui les imaginent. Le nominalisme qui soutient que les universaux ne
sont que des noms, de simples étiquettes posées sur les choses, culminera
avec le philosophe anglais Guillaume d'Occam (1285-1347) sous la forme
d'un principe d'économie appelé rasoir d'Occam basé sur l'apophtegme :
«La pluralité ne doit pas être posée sans nécessité.» Ceci signifie qu'il ne faut
pas utiliser de nouvelles hypothèses tant que celles déjà énoncées suffisent.
D'un point de vue moderne, ce principe de parcimonie est équivalent au
théorème de Bayes.

Rayon de Schwarzschild : toute augmentation de masse dM entraîne une


augmentation d'énergie gravitationnelle dE = 2G M dM/L qui ne pourra

362
ANNEXE TECHNIQUE

jamais être plus grande que l'énergie totale dE = dM c2 : 2G M dM/L:::; dM·c2 ,


soit L :'.'.: 2G M/c 2 = Rs.

Rayons X : en 1870, le physicien et chimiste anglais William Crookes


s'intéresse aux rayons cathodiques émis par des tubes où l'on a réalisé un
vide poussé et qui sont munis de deux électrodes auxquelles on applique un
fort potentiel électrique. Crookes découvre que ces rayons provoquent des
phénomènes de phosphorescence sur les objets qui sont irradiés.

Rayons X
William Crookes Wilhelm Conrad
(1832-1919) Figure 159

Le soir du 8 novembre 1895, le physicien allemand Wilhelm Rontgen observe


qu'à la décharge d'un tube de Crookes, complètement enrobé de carton noir,
scellé pour en exclure toute lumière et ceci dans une chambre noire, un
carton couvert d'un côté de platinocyanure de baryum devient fluorescent
lorsqu'il est frappé par les rayons émis du tube, et ce jusqu'à une distance
de deux mètres. Lors d'expériences subséquentes, il place divers objets entre
une plaque photographique et la source de rayonnement et il se rend compte
qu'ils ont une transparence variable. Il expérimente ensuite avec la main de
son épouse placée sur le parcours des rayons. Au développement, il s'aperçoit
que l'image est en fait l'ombre des os de la main de son épouse, son alliance y
étant visible. Les os sont entourés d'une pénombre qui représente la chair de
la main, la chair est donc plus perméable aux rayons que la matière osseuse.
À la suite d'autres expériences, Rôntgen constate que les nouveaux rayons
sont produits par l'impact des rayons cathodiques sur un objet matériel. Parce
que leur nature est encore inconnue, il leur donne le nom de rayons X. Plus
tard, on démontrera qu'ils sont de nature électromagnétique, tout comme la
lumière, et diffèrent seulement par une plus haute fréquence. De nos jours
les rayons X sont couramment employés pour faire du diagnostic médical
ou pour déterminer les structures cristallines par diffraction. En effet, tous
les atomes ayant une taille voisine de 0, 1 nm, un faisceau de rayons X ayant
une longueur d'onde de cet ordre de grandeur sera diffracté dans plusieurs
directions par tout empilement régulier d'atomes comme on en trouve dans
un cristal.

Réaction en chaîne par polymérase (PCR) : ou Polymerase Chain Reaction


en anglais, est une technique de réplication ciblée in vitro imaginée par le
biochimiste américain Kary Bank Mollis en 1985 (Prix Nobel 1993), qui

363
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

connaît un essor considérable suite à la commercialisation, vers 1988, d'une


ADN polymérase résistante aux températures élevées (la Taq polymérase),
ce qui a permis d'automatiser la technique. La PCR permet d'obtenir en
moins d'une heure, à partir d'un échantillon complexe et peu abondant, plus
d'un milliard de copies d'un fragment d' ADN spécifique et de longueur
définie. Il s'agit de réaliser une succession de réactions de réplication d'une
matrice double brin d' ADN. Chaque réaction met en œuvre deux amorces
oligonucléotidiques dont les extrémités 3-prime pointent l'une vers l'autre.
Les amorces ou « primers » en anglais définissent alors, en la bornant, la
séquence à amplifier. L'astuce consiste à utiliser les produits de chaque
étape de synthèse comme matrices pour les étapes suivantes, au lieu de les
séparer afin de ne réutiliser que la matrice originale. Au lieu d'être linéaire,
l'amplification obtenue est exponentielle.

Relativité (galiléenne) : si on peut associer à toute accélération a une


force réelle f = m a dans un certain référentiel d'inertie, on aura la même
accélération a et donc la même force f pour un repère se déplaçant en ligne
droite avec une vitesse v constante par rapport au premier puisque dans ce
cas dv/dt = O.

Relativité (restreinte) : théorie formulée par le physicien allemand Albert


Einstein qui place une limite supérieure absolue sur la vitesse de déplacement
de l'énergie ou de la masse. La qualification restreinte ajoutée au terme
relativité signifie que les repères accélérés, en particulier ceux où se manifeste
la force de gravitation entre masses, sont exclus du principe. Sic= L T 1 = 1,
alors L = T. De même, la quantité de mouvement p = M L T 1 étant homogène
au produit d'une masse M par une vitesse (L-1' 1), il vient que p =M. Or,
l'énergie U = M L2 T 2 est homogène à une quantité de mouvement (ML T 1)
que multiplie une vitesse (L T 1), d'où U = p =M. Enfin, un champ électrique E
(M L2 T 1 Q- 1) étant homogène au produit d'un champ magnétique B (ML Q- 1)
par une vitesse v (L T 1), il vient aussi que E = B. Lorsque la vitesse des
objets se trouve être petite devant la vitesse de propagation de la lumière
dans le vide, le principe de relativité restreinte se confond avec le principe de
relativité galiléenne.

Relativité (générale) : théorie proposée par le physicien allemand


Albert Einstein où c'est le champ gravitationnel qui définit un continuum
quadridimensionnel, sorte d'espace-temps de Minkowski obéissant aux
équations du champ et capable de se plier et d'osciller (courbure spatiale).
La mécanique quantique vient briser cette vision des choses, car les champs
quantiques ont une structure granulaire et sont animés de fluctuations
probabilistes. D'où de graves problèmes qui sont encore loin d'être résolus.

364
ANNEXE TECHNIQUE

Relation de Gibbs-Dohem: la différentielle de l'énergie interne U présente


une propriété remarquable, à savoir que toutes les quantités différentielles
impliquent une grandeur de nature extensive. De même, chaque différentielle
est affectée d'un coefficient de proportionnalité de nature intensive. Imaginons
maintenant que l'on prélève une fraction infinitésimale dx du système, ce qui
permet d'écrire que dU = U dx. L'énergie interne étant une qualité extensive,
somme de plusieurs contributions, on aura: U dx = (0· S-p V+µ N) dx, soit :
U = 0 S - p V+µ N. Ceci constitue la forme intégrée combinant le premier
principe et le second principe pour un système ouvert. On peut donc écrire :
G=U +p V-0 S= µ N, ouencoredG= µ dn +ndµ=-S·d0+ V·dp+ µ dn,
puisque dU = 0 dS - p dV. On en déduit ainsi l'équation Gibbs-Duhem :
-S d0 + V dp = N dµ. Ceci nous montre que les différentes qualités intensives
ne sont pas indépendantes les unes des autres. Si, de plus, la température et la
pression restent constantes, il vient pour un système à deux composants que
n1 dµ 1 = -n2 dµ 2 montrant que toute variation de µ 2 provoquera une variation
de µ 1 en proportion avec le rapport n/n 1• De même, pour un corps pur, on a
-S dT +V dp = n dµ, ce qui peut être réécrit: dµ = -(S/N)·dT +(VIN) dp,
ce qui indique que le potentiel chimique d'un corps pur ne dépend que
de la température et de la pression. On a donc (8S/ON)0 ,p = (8µ/80) p,N et
(8Vl8N\.p = (8µ/8p)T,N' relations permettant de savoir comment le potentiel
chimique dépend de la température et de la pression.

Référentiel d'inertie : donnée d'un repère cartésien tridimensionnel pour


situer un point dans l'espace à l'aide de règles et d'une horloge pour mesurer
des différences de temps.

Repère cartésien : système d'axes orthogonaux avec une origine permettant


de se repérer dans un espace donné.

Réseau de spins : visualisation de l'espace-temps en gravitation quantique


à boucles. Les nœuds du réseau de spin représentent les grains élémentaires
d'espace ayant un volume fixé par un nombre quantique associé au nœud
qui est un multiple du volume élémentaire de Planck VP = LP3 (échelle de
Planck). Deux nœuds sont adjacents s'il existe une portion de boucle, appelée
lien, reliant un nœud à l'autre. Ce lien entre deux nœuds définit une surface
élémentaire séparant les deux nœuds, dont l'aire est quantifiée par un nombre
quantique j, associé à chaque lien, dont l'aire vaut A= 161t L/ [jQ+l)]\ d'où
l'appellation « réseau de spin ». Une région physique de l'espace est ainsi
constituée d'une superposition quantique d'états de tels réseaux de spin, la
dynamique étant assurée par une équation dite de Wheeler-DeWitt qui joue
pour le champ gravitationnel un rôle similaire à l'équation de Schrôdinger
ou de Dirac pour les champs de matière. Tout ceci découle logiquement
de l'application directe des techniques quantiques à la relativité générale.
Le problème est que l'équation de Wheeler-DeWitt existe sous plusieurs

365
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

versions et que l'on ne sait pas encore laquelle est correcte. La connexion
avec la physique à basse énergie n'est aussi pas très claire car il n'existe pas
de moyen de calculer les amplitudes de diffusion et les sections efficaces
associées comme on le fait au moyen du calcul des perturbations en théorie
quantique des champs. Il existe aussi dans la théorie un paramètre ajustable
dit de Immirzi nécessaire pour s'accorder avec l'entropie d'un trou noir. Si
l'aspect mathématique de la théorie est bien défini, cela ne signifie pas qu'il
est possible de tout calculer.

Résistivité électrique p : aptitude à laisser passer le courant électrique.


Contenu dimensionnel p = [M L 1' 1 Q·2]. Unité SI : ohm- mètre (Q m). La
résistivité de l'eau ultra-pure est p = 18 MQ cm.

Respiration cellulaire : dans la respiration cellulaire, la cellule utilise le


fait qu'il existe toujours un potentiel membranaire /!!..V qui provient de la
répartition inégale du potassium de part et d'autre de la membrane lipidique.
En établissant une différence de concentration en protons de part et d'autre
d'une bicouche lipidique, puis en autorisant les protons à traverser cette
membrane, on peut ainsi trouver l'énergie nécessaire pour fabriquer l 'ATP,
selon la relation: llG(kJ mol- 1) = 96,5 /lV(mV). Pour une valeur moyenne
/lV = -60 mV, on récupère donc environ 6 kJ mo1· 1 par proton transféré.
Comme l'énergie libre récupérée par hydrolyse de l' ATP est de -25 kJ mol·t,
il faut donc faire passer quatre protons pour obtenir une molécule d' ATP:

Les indices« extra» et« intra »font ici référence à l'existence d'une membrane
étanche au passage spontané des protons, ce qui empêche de les simplifier à
droite et à gauche, comme ce serait évidemment le cas en solution.

Résonance stochastique : dans tout système fonctionnant de manière linéaire,


on maximise le rapport signal/bruit en minimisant le bruit. Par opposition
aux systèmes linéaires, on peut avec les systèmes non linéaires maximiser le
rapport signal/bruit en ajoutant une quantité optimale de bruit. La résonance
stochastique est un phénomène naturel qui a été mis en évidence dans de
multiples situations.
McDoNNELL, M. D. ; Aeeorr, D. (2009), « What is stochastic resonance ? definitions,
misconceptions, debates, and its relevance to biology », PloS Comput. Bio/., 5(5): el000348.

Rotation : pour un corps en rotation sur lui-même avec un mouvement


circulaire uniforme, on a une vitesse linéaire v = L co où co = d0/dt est la
vitesse angulaire (pulsation), d'où un moment angulaire soitj = m L2co=1 co
(a= 90°). Ceci montre que le moment angulaire est le produit d'un moment
d'inertie (produit d'une masse par une aire) et d'une vitesse angulaire.

366
ANNEXE TECHNIQUE

Comme le moment angulaire total de tout système isolé ne peut jamais varier,
toute altération du moment d'inertie (aire balayée par la masse) changera la
vitesse de rotation ro. Il est facile de montrer que toute rotation d'un angle a
est équivalente à deux réflexions dans deux plans miroirs faisant entre eux un
angle aJ2. Si l'angle a est nul (miroirs parallèles), on génère une translation
et non une rotation. Lors de toute rotation d'angle a dans le sens inverse
des aiguilles d'une montre, un point (x,y) du plan perpendiculaire à l'axe
de rotation est envoyé en (x' = x·cos a - y·sin a, y'= x·sin a+ y·cos a).
Une rotation hyperbolique d'angle a enverra pour sa part le point (x,y) en
(x' = x·ch a+ y·sh a, y'= x·sh 0 + y·ch 0), où ch x = Yi(ex + e-x) et sh x =
Yi( ex - e-x). Les rotations hyperboliques sont à la base des poussées de Lorentz.

•s
Scalaire : quantité physique qui ne dépend pas de la direction. Toute grandeur
scalaire se caractérise par la donnée d'un seul nombre positif ou négatif.

Second principe (thermodynamique) : énoncé par le physicien allemand


Rudolf Clausius qui affirme que les systèmes macroscopiques sont
caractérisés par une qualité extensive S appelée entropie qui se trouve être la
variable conjuguée de la température 0 et qui ne peut qu'augmenter ou rester
stationnaire (transformation réversible) lors de toute transformation spontanée
(Clausius 1854). Soit dS 2: oQ/0, où dS et oQ désignent respectivement des
variations d'entropie et de chaleur arbitrairement petites et 0, la température
absolue mesurée sur l'échelle de Kelvin. Mais écoutons Clausius expliquer
lui-même les raisons qui l'ont poussé à choisir le terme« entropie» dans l'un
de ses nombreux mémoires sur la chaleur (Clausius 1865):

Je préfère emprunter aux langues anciennes les noms des quantités


scientifiques importantes, afin qu'ils puissent rester les mêmes dans toutes
les langues vivantes ; je proposerai donc d'appeler la quantité S l'entropie
du corps, d'après le mot grec Ell tpom) en transformation. C'est à dessein
que j'ai formé ce mot entropie, de manière qu'il se rapproche autant que
possible du mot énergie ; car ces deux quantités ont une telle analogie dans
leur signification physique qu'une analogie de dénomination m'a paru
utile... Je me bornerai pour le moment à indiquer le résultat suivant : si l' on
imagine que l'on ait formé d'une manière conséquente pour l'univers entier,
en tenant compte de toutes les circonstances la quantité que j'ai nommée
entropie pour un corps particulier, ainsi que la quantité désignée sous le
nom d'énergie et dont le sens est plus facile à saisir, on pourra expliquer
très simplement, sous la forme suivante, les lois fondamentales de l'univers
qui correspondent aux deux principes essentiels de la théorie mécanique de

367
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

la chaleur :

1) Die Energie der Welt bleibt konstant (L'énergie de l'univers est constante).

2) Die Entropie der Welt strebt einem Maximum zu (L'entropie de l'univers


tend vers un maximum).

Voir aussi Epistémologie.

CLAUSIUS, R. ( 1854), « Ueber eine veriinderte F onn des zweiten Hauptsatzes der mechanischen
Wlinnetheoriein »,Anna/en der Physik und Chemie, 93: 481-506.
CLAUSIUS, R. (1865), « Sur diverses fonnes des équations fondamentales de la théorie
mécanique de la chaleur qui sont commodes dans l'application», Ann. Poggendorff, t. CXXV,
p. 353, traduction française de F. Folie in Théorie mécanique de la chaleur, Eugène Lacroix
éd., Paris ( 1868), Mémoire IX, p. 411-420.

Seconde quantification (physique quantique des champs): l'idée de base


de la théorie quantique des champs est de traiter un système une première
fois quantifié non plus comme une fonction d'onde mais comme un opérateur
quantique. On parle ainsi de seconde quantification, processus où les
coordonnées spatiales deviennent comme la coordonnée de temps de simples
indices continus du nouvel opérateur de champ. Ceci permet d'avoir une
symétrie totale entre les coordonnées d'espace et de temps, chose impossible
en première quantification. De plus, les corpuscules deviennent des excitations
du champ quantique selon un certain mode qui se manifeste uniquement
sous forme de quanta ayant une certaine énergie/fréquence et une certaine
quantité de mouvement/vecteur d'onde. Chaque point de l'espace-temps se
voit donc doté d'une paire d'opérateurs permettant de créer ou d'annihiler
n'importe quel quantum. Ainsi, toute fonction d'onde 'l'{x,y,z,t) est promue
au rang d'opérateur du champ 'P{x,y,z,t). Tout mode d'excitation du champ se
propage avec une longueur d'onde À.p = h/p et une fréquence f p = Ep/h associée
à l'énergie Ep transportée, où p est un simple label de l'espace réciproque.
Les excitations du •champ ont donc également une phase •
<p = 21t f t qui se
p p
propage avec une vitesse de phase v = À.P fP. En tout pomt (x,y,z,t) de l'espace-
temps, on dispose d'un opérateur âpt de création, âptinp> = ln+ p
l>, faisant
apparaître un quantum de quantité de mouvement p = h k où np est le nombre
de quanta partageant le même vecteur d'onde ken ce point. De même, il existe
un autre opérateur â d'annihilation diminuant d'une unité ce même nombre
de quanta: âpln>=
p
fn p-1>. Ces deux opérateurs de création et d'annihilation
obéissent aux relations de commutation canoniques [âp(t),âp 't(t)] = ôpp ., avec
ô . = 0 si p f p' et ô . = 1 si p = p', qui se substituent au commutateur
c~onique de la premrère quantification. Comme le nombre de quanta ne
peut plus être connu avec certitude, il existe aussi un opérateur permettant de
compter les quanta. Si l'on souhaite connaître le nombre de quanta n,p il suffit
d'en annihiler un et de le recréer aussitôt : âptâp ln>=
p
np ·in>,
p
ce qui définit

368
ANNEXE TECHNIQUE

une nouvelle observable Np = âptâp, permettant de compter les quanta en tout


point de l'espace-temps. Pour un système constitué de N p quanta, on aura une
énergie E = N p hfp et toute fluctuation du nombre de quanta LlNp durant un laps
de temps Llt = Ll<pp12nfp fera fluctuer l'énergie selon LlE = LlNp hfp. Comme
l'opérateur« nombre de particules »ne commute pas avec l'opérateur donnant
la valeur de la phase, on peut écrire : LlNP Ll<pP 2".: Yi, ou encore LlE Llt 2".: h/2.
On voit donc que la relation d'incertitude temps/énergie est une conséquence
logique de la relation d'incertitude fondamentale nombre de quanta/angle de
phase. On remarquera que l'énergie apparaît ici non comme la valeur propre
de l'opérateur hamiltonien mais comme une énergie totale associée à un
ensemble de quanta indistinguables. Remarquons que si l'on considère un
seul quantum (N = l) de quantité de mouvement p = m·v, on peut écrire que
v = p/m = Llx!Llt et E = p2/2m, soit LlE = p·Llp/m. Dans ces conditions, la
relation d'incertitude LlE·Llt 2".: h/2 devient Llp·Llx 2".: h/2.

Une seule réalité: le champ quantique


'Î'(x,y ,z, t) oc exp(i·cpP)
Excitation: \ = h/p = 2n/kP

Création: âPtlnP> = lnP+l>


Annihilation: âPI~> = lnP-1>
Comptage: âP.âPlnP> = nPlnP>

Non commuation: [âP(t),â/(t)] = liPP.

En physique quantique des champs de seconde quantification, le champ


se trouve pensé en termes de cercles (nombres complexes), ce qui détruit
l'espace et le temps pour ne laisser que le champ et la matière, pensée aussi
en termes de cercles comme en première quantification.

Sensualisme : philosophie développée par Étienne Bonnot de Condillac


(1714-1780), écrivain français qui place la sensation à l'origine de toutes
les connaissances réelles car elle modifie l'âme qui en tire toutes ses
connaissances et toutes ses facultés. Selon Condillac, l'homme originel est
une « statue » dépourvue d'idées, attentive à toute sensation présente afin
de la mémoriser pour pouvoir la comparer aux sensations passées. C'est
donc le langage qui permet de fixer les idées, car il est une représentation
abstraite des idées générales produites à partir des données particulières des
sens. Toute langue bien faite exprime ainsi une connaissance exacte de la
réalité. Cette philosophie inspirera Lavoisier pour réaliser sa révolution de la
nomenclature chimique.

Serpentinisation : réaction chimique qui se produit dès que l'eau de mer entre
en contact avec la croûte océanique au niveau de bouches hydrothermales

369
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

dont la température est comprise entre 100° C et 400° C via des fissures et
des crevasses. Les constituants chimiques de l'eau de mer impliqués dans
cette sepentinisation sont l'eau et le dioxyde de carbone dissous sous forme
d'ion bicarbonate, tandis que les constituants de la croûte terrestre sont
les ions ferreux contenus dans des olivines de composition approximative
Mg1,6Feo,4Sio4. Les données sismiques indiquent que les fluides peuvent
percoler jusqu'à des profondeurs de 500 m en dessous du sol marin pour
atteindre une température comprise entre 150°C et 200°C. Dans ces
conditions, l'ion ferreux des roches est capable de réduire l'eau pour produire
des ions ferriques et du dihydrogène autorisant la formation d'hydrocarbures
par réduction du dioxyde de carbone avec production de magnétite fe3Ü4,
de brucite Mg(OH)2 et d'un silicate hydroxylé de magnésium appelé
«serpentine» Mg2,ssFeo,1sS;2Üs(OH)4 qui donne le nom à ce processus. On a
ainsi pu estimer qu'un mètre cube d'olivine pouvait délivrer environ 500
moles de dihydrogène durant la serpentinisation, sachant que la plupart de
la croûte océanique terrestre consiste d'olivine ou de pyroxène, minéral qui
peut lui aussi participer à la réaction de serpentinisation. Cette réaction de
serpentinisation s'est donc très probablement produite dès qu'il y a eu des
océans sur Terre. De plus, on a pu estimer que le volume total des océans
terrestres passe à travers les bouches hydrothermales du globe terrestre tous
les 100 000 ans environ. Ainsi la grande quantité d'ions ferreux qui constitue
le réservoir d'électrons de la terre pour produire du dihydrogène via la
serpentinisation ne présente aucun risque d'être épuisé. La serpentinisation
délivre et a toujours délivré une quantité non négligeable de dihydrogène
pouvant servir de source d'électrons pour la production primaire de matière
organique dans les écosystèmes sous-marins.Avec les bouches hydrothermales,
on sait que la serpentinisation peut aussi réduire de manière géochimique
le dioxyde de carbone en méthane. Ce même processus géochimique aurait
donc parfaitement pu favoriser un métabolisme énergétique basé sur des
réactions chimiques impliquant des composés carbonés et libérant une grande
quantité d'énergie comme on le trouve dans les bactéries méthanogènes ou
acétogènes, réactions qui auraient pu éventuellement être accélérée par des
cofacteurs et des enzymes. La serpentinisation peut se produire aussi bien
au niveau des fumeurs noirs chauds et acides qu'au niveau des bouches plus
froides et alcalines. Ces deux types de bouches hydrothermales auraient pu
donc offrir des gradient de pH qui sont qui étaient tout à fait similaires à ceux
présents dans les océans hadéens, la température plus basse au voisinage des
bouches pouvant fournir des conditions favorables pour soutenir une synthèse
abiotique et une accumulation de composés carbonés réduits.

Spectroscopie (e,e): Méthode de caractérisation de la matière où l'on envoie


un rayonnement électromagnétique de fréquence variable et où l'on regarde
quelles sont les fréquences caractéristiques qui se trouvent absorbées par
l'échantillon, soit par absorption directe (spectroscopie d'absorption résonante)

370
ANNEXE TECHNIQUE

soit par diffusion inélastique (spectroscopie Raman). La spectroscopie


couvre tout le domaine de fréquence allant des rayons gamma (spectroscopie
Môssbauer) aux ondes radio (résonances magnétiques nucléaires ou RMN)
en passant par les rayons X (EXAFS, XANES), la lumière UV, visible
ou infrarouge ainsi que les rayonnements microondes (spectroscopies
de vibration-rotatio et résonance paramagnétique électronique ou RPE).

Spin: la notion de spin fut introduite pour expliquer l'interaction de la matière


avec les champs magnétiques. Le premier physicien qui anticipa un effet
possible des forces magnétiques sur les raies spectrales émises par les atomes fut
Michael Faraday. Sa philosophie de l'unité essentielle de toutes les forces de la
nature jointe à sa découverte de la rotation magnétique du plan de polarisation de
la lumière en 1845 le persuada de l'existence d'un lien intime entre phénomènes
optiques et magnétiques. En 1862, soit cinq ans avant sa mort, Faraday utilisa
un électroaimant et un spectroscope pour étudier les spectres du sodium,
du barium, du strontium et du lithium. À sa grande déception, bien qu'il soit
capable de générer un très fort champ magnétique, il n'observa aucun effet sur
les raies d'émission de ces atomes. Après divers essais, eux aussi infructueux,
ce fut au tour du physicien hollandais Peter Zeeman d'essayer de voir si
la lumière d'une flamme soumise à l'action d'un champ magnétique pouvait
subir un quelconque changement. En utilisant une flamme de sodium, il constata
lui aussi que rien ne se passait, mais était convaincu que si un personnage aussi
illustre que Faraday suspectait un lien entre optique et magnétisme et s'était
intéressé à ce problème, cela valait le coup de persévérer. Aussi, en août 1896,
dans son laboratoire de l'université de Leide, il répéta l'expérience avec un
électroaimant parcouru par un courant de 27 A et une flamme de bec Bunsen
alimentée par de petites quantités de sodium provenant d'un morceau d'amiante
imprégné avec du sel de cuisine et placé entre les pôles de l'électroaimant.
Il observa alors que chaque fois qu'il faisait passer le courant, les deux raies D
se trouvaient significativement élargies. La conclusion de Zeeman était qu'il
apparaissait extrêmement probable que la période de la lumière du sodium fût
modifiée par la présence d'un champ magnétique. C'est ainsi que dix ans après
que Hertz eut démontré le rôle fondamental joué par les champs électrique
et magnétique dans la propagation de la lumière, Zeeman venait d'établir
de manière quasi certaine leur rôle non moins fondamental dans la production
de cette même lumière.

Dès 1897, le physicien hollandais Hendrik Lorentz comprit comment interpréter


les résultats de Zeeman sur la base de sa théorie électronique où l'électron
était considéré comme étant lié élastiquement au noyau. Il décomposa alors
le mouvement de l'électron en une vibration linéaire dans la direction du champ
magnétique appliqué et donc non affectée par ce champ et en deux mouvements
circulaires de directions opposées exécutés dans le plan perpendiculaire
à la direction du champ. Avec ce modèle, Lorentz prédit que la lumière vue de

371
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

manière longitudinale, c'est-à-dire dans la direction des lignes de force, devait


être circulairement polarisée et que celle observée de manière transverse, c'est-
à-dire à angle droit du champ, devait être polarisée de manière plane. Cette
prédiction fut aussitôt confirmée expérimentalement par Zeeman.
Lorentz publia son interprétation en 1897, époque où Zeeman avait déjà
réussi à résoudre la raie large du cadmium à 4800 A en deux raies (doublets)
pour l'observation longitudinale et en trois raies (triplets) pour l'observation
transversale en employant un puissant aimant de 3,2 T. Selon cette théorie,
on voit qu'il est possible de mesurer le rapport e/m via l'action d'un champ
magnétique sur les fréquences d'émission. En conséquence, lorsque J. J.
Thomson mesura en cette même année 1897 le rapport charge sur masse des
rayons cathodiques et des rayons ~ et que l'on constata un bon accord avec
les mesures de Zeeman sur les atomes, l'hypothèse selon laquelle les atomes
étaient constitués en partie d'électrons, responsables de l'émission de lumière,
se transforma en certitude. De plus, en constatant que la composante de courte
longueur d'onde était polarisée circulairement avec le même sens de rotation
que le courant dans un électroaimant, on prouvait que l'électron (ou électricité
résineuse) avait une charge électrique négative. Alors que tout semblait aller
pour le mieux, on s'aperçut en cette fin d'année 1897 que les deux raies du
sodium et que la raie bleue à 4800 A du cadmium ne donnaient pas naissance
à des triplets et se comportaient donc de manière anormale par rapport à la
théorie de Lorentz.

Le problème de l'effet Zeeman anormal fut de suite considéré comme étant


intimement lié à l'origine des structures en multiplets des raies spectrales.
Comme Sommerfeld l'avait montré, les orbites stationnaires des électrons dans
les atomes pouvaient être classifiées à l'aide de deux nombres quantiques :
le nombre quantique principal n qui pouvait prendre toute valeur strictement
positive et le nombre quantique azimutal k qui était soumis à la contrainte
0 < k ~ n avec une règle de sélection IAfcl = 1, le rapport k/n mesurant le rapport
qui existait entre le demi-axe mineur et le demi-axe majeur de l'ellipse orbitale.
L'orbite ayant la plus d'excentricité était caractérisée par k = 1 (états) les autres
valeurs de k définissant les états p (k = 2), d (k = 3), f (k = 4), etc. La question
se posa donc de savoir si les deux nombres quantiques n et k suffisaient pour
classifier toutes les raies spectrales. L'effet Zeeman montrait clairement que tel
n'était pas le cas et qu'il fallait au moins un troisième nombre quantique pour
décrire les états atomiques en présence d'un champ magnétique. Jusqu'en 1922,
on ne connaissait que des singulets, des doublets ou des triplets pour les termes
spectraux atomiques, mais à partir de 1923, on savait que les multiplicités
pouvaient aller jusqu'à des octets. Cela conduisit Sommerfeld à utiliser trois
nombres quantiques (n, k, j) afin de classifier les états singulets (j = 0), triplets
(j = 1), quintuplets (j = 2), etc. On constata alors que tous les états tels que j f. 0
présentaient un effet Zeeman anormal. Le problème est que cette attribution
des nombres quantiques par Sommerfeld était purement empirique. C'est dans

372
ANNEXE TECHNIQUE

ce contexte qu'Otto Stern proposa en 1921 une expérience importante afin


de tester la validité des nombres quantiques de Sommerfeld. L'idée était de
produire un faisceau étroit d'atomes d'argent par évaporation dans un four et
de diriger ce faisceau sous un vide poussé de 104 à 1o-s mmHg à travers un
gradient de champ magnétique.
Grâce à cette expérience, il fut clairement démontré que le faisceau atomique
se séparait en exactement deux sous-faisceaux et que le moment magnétique
de chaque atome d'argent valait exactement 1 magnéton de Bohr, soit
µ 8 = e h/2m0 = 9,2740154 10-27 J T'. L'absence d'atomes d'argent au centre de
la cible démontrait très clairement la quantification spatiale, car classiquement
on aurait dû obtenir une courbe de Gauss présentant un maximum au centre de
la cible. Le problème était que comme l'on n'obtenait que deux faisceaux, il
allait attribuer aux atomes d'argent un nombre quantique j = Yi, car le nombre
de raies sous champ magnétique devait être (2j + l) dans le cadre de la théorie
de Sommerfeld. C'est ici qu'intervient le physicien Wolfgang Pauli qui va
remettre en cause la théorie de Sommerfeld. Via des arguments de nature
relativiste, Pauli va travailler avec un jeu de quatre nombres quantiques (n,
k 1, ~ et m 1) et énoncer son fameux principe d'exclusion stipulant qu'il ne
peut exister dans un atome deux électrons partageant le même jeu de nombres
quantiques en présence d'un champ magnétique fort. Le modèle de Pauli fut
finalement affiné par Uhlenbeck et Goudsmit via l'hypothèse de l'existence
d'un moment cinétique intrinsèque S pouvant prendre des valeurs entières
ou demi-entières du quantum d'action h et qu'ils dénommèrent « spin » en
référence à la possibilité qu'avait l'électron de tourner sur lui-même en plus de
son mouvement orbital autour du noyau qui lui conférait un moment cinétique
orbital L ne pouvant prendre que des valeurs entières du quantum d'action h.
La composition vectorielle du moment cinétique orbital avec le moment
cinétique de spin permet alors de rendre pleinement compte de l'effet Zeeman
anormal et de sa disparition en présence d'un fort champ magnétique,
phénomène connu sous le nom d'effet Paschen-Back.

z1
B

Champ
magnétique
faible 'S.,,
.
Champ

TI
B =O
1111 111111
Effet Zeeman
îti
Effet Zeeman
magnétique
fort
ano<mal nonnal
CD ~
Friedrich Paschen EmstBack t.Ms = 0
(186S-1947) (1881 -1959) Figure 161 t.ML = 0, ±1

373
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

En théorie quantique, les corpuscules peuvent être répartis en deux grandes


classes selon la valeur que prend un moment cinétique intrinsèque appelé
«spin». L'une des conséquences de l'existence du spin est qu'il est impossible
de mettre deux fermions (spin demi-entier) dans le même état quantique alors
que deux bosons (spin entier) acceptent parfaitement cette situation (effets
MASER et LASER). Ainsi, pour la mécanique quantique, matière (fermions)
et lumière ou rayonnement (bosons) sont donc les deux manières dont l'énergie
se révèle à notre perception selon l'état de spin des vecteurs de l'énergie dans
l'espace-temps. Dans les atomes, le moment cinétique de spin des électrons qui
est demi-entier (S = h/2) se combine au moment cinétique orbital qui lui est
entier (L = m·li) pour donner naissance à des états quantiques qui obéissent au
principe d'exclusion de Pauli (voir aussi spineurs).
ZEEMAN, P. (1897), « On the influence of magnetism on the nature of light emitted by a
substance», Phli. Mag., 43 : 226-239.

Spineur : un résultat crucial de la mécanique quantique est la possibilité de


rencontrer dans la nature des particules de spin Y2, ce qui signifie que pour de
tels systèmes il faut faire une rotation de 720° pour retrouver une situation
équivalente à pas de rotation du tout. En particulier, les systèmes de spin Y:z
ne sont pas invariants après rotation de 360°. S'il est rare de rencontrer de tels
systèmes dans la vie de tous les jours, beaucoup de systèmes microscopiques
ont un spin de Y:z (électron, proton, neutron, neutrino, radicaux, etc.). Une
observable mathématique qui se comporte comme une particule de spin Y:z ne
peut évidemment pas être représentée par un scalaire, un vecteur ni même un
tenseur. Un nouveau concept est donc nécessaire, qui porte le nom de « spineur».
Le mythe de l'impossibilité de rotation de la particule sur elle-même dans le cas
des spins Y:z est aussi basé sur la pensée classique que tout objet en rotation doit
posséder un spin entier. Comme le spin demi-entier est impossible en physique
classique, on pourrait argumenter que des valeurs de spin demi-entières ne
soient pas dues à un phénomène de rotation. C'est ici que l'expérience de la
ceinture vient à la rescousse en nous rappelant que pour les spins demi-entiers
ou entiers, la rotation d'un corps autour d'un autre peut être vue comme une
fraction ou un multiple d'un processus d'échange de positions. En effet, lorsque
dans la vie de tous les jours on voit un objet en rotation, on peut aussi voir un
corps qui échange de manière continue les positions des différentes parties qui
le constituent. Rotation et échange sont bien de même nature. Comme nous
venons de le voir, le spin permet de prévoir le comportement de la particule vis-
à-vis d'un processus d'échange. Comme échange et rotation sont synonymes
et que le spin est de l'échange, il en découle une équivalence entre spin et
rotation. Cette dérivation du spin à partir de l'invariance par rotation, introduite
par Eugène Wigner, et le modèle de la ceinture nous montrent donc qu'une
particule peut tournoyer continuellement sur elle-même sans friction ni gêne
et qu'il possible de calculer une valeur de son moment magnétique correcte en
appliquant les lois de la relativité restreinte. Le spin est donc lié à la possibilité

374
ANNEXE TECHNIQUE

qu'a la particule de tournoyer sur elle-même autour d'un axe même pour un
spin \12. Le modèle de la ceinture pour expliquer le lien entre spin Y2 et rotation
n'est pas en contradiction avec l'expérience si nous supposons que seules les
boucles peuvent être observées, la ceinture demeurant hors d'atteinte, ce qui
entraîne que la charge électrique est bien quantifiée, c'est-à-dire ne se distribue
pas de manière continue dans l'espace comme la masse.

Température E> : grandeur thermodynamique scalaire gouvernant les flux


de chaleur et qui peut être définie comme le taux de variation de l'énergie
interne lorsqu'on ajoute ou retire de l'entropie S à volume V et nombre
d'entités N constant : E> = (8U/8S)vw Selon la mécanique statistique,
la condition d'équilibre thermique entre deux systèmes A et B pouvant
échanger de la chaleur s'écrit asA;auA = asB;auB. Or, pour un gaz parfait
on a S(U,V,N) =~ln [(este) VN U 3N12], où~ est la constante de Boltzmann,
soit 8S/8U = 3N ki2U et donc as;au diminue lorsque U augmente. Si
8SA/aUA = 8S 8/8U8 , Oil peut donc écrire: 1/E)A = 1/08 avec E) = (8U/aS) V,N"
On a donc bien E>A = 0 8 comme condition d'équilibre thermique. Si l'on
fixe la pression au lieu de fixer le volume, la température peut aussi être
définie comme le taux de variation de l'enthalpie lorsqu'on ajoute ou retire
de l'entropie S à pression pet nombre d'entités N constant: E> = (8H/8S)p,N"

Temps T : unité SI= seconde (s). Le temps est une grandeur scalaire qui
permet de parler d'un mouvement ou d'une évolution.

Tenseur : objet mathématique définit par la donnée de 3N nombres pour


un espace de dimension 3 qui doivent pris en bloc lors de toute action.
L'exposant N s'appelle le rang du tenseur. Une grandeur scalaire peut être
ainsi vue comme un tenseur de rang 0, tandis qu'un vecteur forme un tenseur
de rang 1. On parle de tenseur à partir d'un rang supérieur ou égal à 2. Par
exemple si je souhaite transformer un vecteur a pointant dans une certaine
direction en un autre vecteur b pointant dans une autre direction, il me faudra
utiliser un tenseur de rang 1+1 = 2 à 32 = 9 composantes disposés selon une
matrice 3x3. Si un scalaire peut se visualiser par un point et un vecteur par une
flèche, un tenseur de rang 2 se visualise comme un ellipsoïde. La courbure
d'une surface est un exemple de tenseur de rang 2. Dans le phénomène de
piézoélectricité, une contrainte (tenseur de rang 2) qui fait apparaître une
polarisation électrique (vecteur de rang 1) se décrira au moyen d'un tenseur
de rang 1+2 = 3 à 33 = 27 composantes. De même si j'applique une contrainte
(tenseur de rang 2) entraînant la déformation (tenseur de rang 2) d'un solide,
il me faudra utiliser un tenseur de rang 2+2 = 4 à 34 = 81 composantes. De
manière plus générale, toute cause décrite par un tenseur de rang n produisant

375
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

un effet décrit par un tenseur de rang m dans un espace de dimension d fera


appel à un tenseur de rang N = n+m, à dN composantes. Les tenseurs jouent
une rôle crucial aussi en relativité générale qu'en physique des matériaux.

Tension superficielle y : la tension superficielle est l'énergie qu'il faut


dépenser pour créer un mètre carré de surface d'une substance donnée. Pour
l'eau pure à 20 °C, on a y= 72 mJ m-2•

Théorème de Banach-Tarski : théorème formulé par les mathématiciens


polonais Stefan Banach (1892-1945) et Alfred Tarski (1901-1983) stipulant
que dans un espace euclidien à n 2: 3 dimensions, deux boules de rayons
différents sont équivalentes par décomposition finie. Ceci signifie que la
notion de volume spatial L3 perd toute signification physique puisqu'à partir
d'une seule boule de matière, on peut à l'aide d'un couteau infiniment tordu
à toutes les échelles, créer deux boules de matière ayant exactement le même
volume et la même densité que la boule de départ. Le volume des choses est
donc une pure illusion liée encore une fois au caractère grossier de nos sens,
la nature étant fractale ou invariante d'échelle à l'échelle de Planck. Deux
approches concurrentes existent (théorie des cordes et gravitation quantique
à boucles) prenant en compte le fait que les excitations pertinentes à l'échelle
de Planck sont nécessairement des objets unidimensionnels.
BANACH, S. ; TARSKI, A. (1924), «Sur la décomposition des ensembles de points en parties
respectivement congruentes», Fund. Math., 6: 244--277.

Théorème de Bayes : il existe un certain danger à manier des probabilités sans


bien en avoir compris la subtilité. Voici un exemple réel concernant le cancer du
sein qui concerne 0,8 % d'une population féminine normale n'ayant eu aucun
antécédent familial. On sait d'autre part que la sensibilité (taux de malades
avérés positifs au test) d'une mammographie pour la détection du cancer du sein
est de 90 % avec une spécificité de 93 % (taux de non-malades avérés négatifs
au test). Muni de ces données, le psychologue allemand Gert Gigerenzer a
demandé à des médecins allemands ou américains d'estimer la probabilité
qu'une femme non à risque présentant une mammographie positive ait un
cancer du sein. Parmi les 24 médecins allemands interrogés, 8 ont répondu que
cette probabilité était inférieure à 10 %, 8 autres ont répondu que la probabilité
était « évidemment » de 90 %, les 8 derniers donnant des réponses comprises
entre 50 et 80 %. Seriez-vous rassurée par une telle dispersion si vous étiez
cette femme ayant eu une mammographie positive ? Pour ce qui concerne les
médecins américains, 95 sur 100 répondirent que la probabilité d'avoir un
cancer du sein dans ces conditions était voisine de 75 %. Beau tir groupé, mais
hélas réponse incorrecte car la bonne réponse est 9 %. Si nos médecins avaient
été sérieux, ils auraient traduit le problème de la manière suivante :

376
ANNEXE TECHNIQUE

On sait que sur un total de 1 000 femmes normales, 8 auront un cancer


du sein. Sur ces 8 femmes ayant un cancer du sein, 7 : : : 8 x 0,9 auront une
mammographie positive puisque la sensibilité du test n'est que de 90 %
(soit 10 % de faux négatifs). Pour les 992 autres femmes qui n'ont pas le
cancer du sein, environ 70 auront également une mammographie positive
puisque la spécificité du test n'est que de 93 % (soit 7 % de faux positifs).
Donc sur un total de 7 + 70 = 77 femmes ayant une mammographie positive,
7 seulement ayant vraiment un cancer du sein auront été détectées. La
probabilité d'avoir un cancer du sein en cas de mammographie positive est
donc de 1n1 = 1/11 : : : 9%.

Cela signifie donc clairement que sur 1OO mammographies positives, 91 sont
des faux ! ! ! Si ce résultat vous semble absurde, c'est tout simplement que
vous ne savez pas raisonner correctement sur un plan purement statistique.
Techniquement, cela s'appelle le « théorème de Bayes » qui doit être
utilisé dès que l'on cherche à inverser une probabilité conditionnelle. Voir
« probabilité » pour une analyse plus formelle.

Théorie cinétique des gaz : théorie de la fin du XIX" siècle qui contribuera à
faire accepter la notion d'atome et de molécule. Le premier pas est franchi par
le physicien écossais James Clerk Maxwell (1831-1879) qui montre comment
évaluer la distance moyenne À que parcourt une molécule d'air en ligne droite
entre deux chocs successifs moyennant la connaissance de la pression p qui
détermine la vitesse moyenne des molécules, de la viscosité et de la densité de
l'air. La fréquence des collisions moléculaires est alors donnée par le rapport
entre la vitesse moyenne et la distance moyenne parcourue. Compte tenu des
propriétés physiques bien connues de l'air, Maxwell va ainsi montrer que si les
molécules évoquées par John Dalton etAmedeoAvogadro existent, elles doivent,
dans un air calme à température ambiante, parcourir une distance d'environ
0, 1 µm entre deux chocs successifs et donc se heurter environ 4 milliards de
fois par seconde (Maxwell 1860). Le physicien autrichien Josef Loschmidt
( 1821-1895) va en 1865 se baser sur ce résultat pour en déduire que le diamètre
d'une molécule d'air est de l'ordre de 0,5 nm et qu'un mètre cube d'air contient
donc environ 1025 molécules (Loschmidt 1865). Il suppose pour cela que les
molécules se comportent comme des sphères dures de diamètre d s'empilant
de manière aléatoire dans un liquide avec un coefficient de remplissage
du volume disponible ~ = 0,63, d'où un volume moléculaire vL = nd3/(6~).
De même, il estime qu'entre deux collisions, chaque molécule d'air définit lors
de son mouvement un cylindre de volume v0 = 2y, À nd2, ce qui donne un rapport
vJv0 :::::: 0,2 d/À. Comme un liquide est environ 1 000 fois plus dense qu'un
gaz, on a pL = 1000 p0 et comme vL pL = v0 pG' il vient vJv0 = PiPL:::::: 10-3,
soit d : : : N'0,0002 : : : 5 10- 10 m, puisque À:::::: 0,1 µm. Connaissant d et À, il en
découle que n = 11(2Y' À nd2):::::: 1025 m-3 (nombre de Loschmidt).

377
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

LoscHMIDT, J. (1865), «On the Size of the Air Molecules », Proc. Acad. Sei. Vienna, 52: 395-413.
MAxWELL, J. C. (1860), «Illustrations of the dynamical theory of gases »,Phil. Mag., 20: 19-37.

Théorie cinétique des gaz (1859)

James Clerk Maxwe11 (183 1-1879)

Théorie des cordes : les théories des cordes visent à unifier toutes les particules
et toutes les forces de la nature en postulant que toutes les particules élémentaires
apparaissent comme les vibrations d'une seule entité, une corde, qui se propage
à travers l'espace-temps de façon à occuper une aire spatio-temporelle minimale,
puisqu'il n'existe aucun volume à l'échelle de Planck. Ainsi, le graviton qui
est la particule véhiculant la force gravitationnelle est associé à des vibrations
de cordes fermées sur elles-mêmes, tandis que le photon, véhiculant la force
électromagnétique, émerge des vibrations d'une corde pouvant être fermée ou
ouverte. Les théories des cordes prédisent aussi l'existence de champs de jauge
similaires à ceux utilisés dans les modèles des interactions nucléaires fortes et
faibles, ce qui unifie les quatre forces fondamentales de Dame Nature en tant
que vibrations d'un seul objet fondamental, la corde. Si l'on rajoute la condition
de super-symétrie faisant correspondre à chaque boson de spin entier un fermion
de spin demi-entier et réciproquement, on obtient la corde super-symétrique qui
unifie tous les types de particules connues, bosons et fermions. Le problème des
théories des cordes est que l'on n'en connaît pas les principes fondamentaux,
ce qui empêche d'avoir une formulation mathématique précise, d'où l'existence
d'au moins 10500 théories des cordes différentes, toutes compatibles avec les faits
expérimentaux actuellement connus (Smolin 2007). Le principal problème est
que toutes les théories se formulent au moyen de cordes qui se déplacent sur
des fonds géométriques spatiaux classiques et fixes, qui n'évoluent pas dans le
temps. Le fait que l'espace-temps soit une entité dynamique comme l'impose la
théorie de la relativité générale n'est donc pas pris en compte dans les théories
des cordes. Enfin, il n'existe aucune confirmation expérimentale directe de
l'existence de cordes. Ainsi, la théorie de Maxwell fut validée lorsqu'on observa
les ondes radio. La relativité générale fut acceptée dès que l'on fut capable de
mesurer la déflexion de la lumière par le soleil et confirmée lorsqu'on constata
que les horloges atomiques du système GPS étaient plus rapides que les horloges
terrestres. Le modèle standard de la physique des particules devient crédible
lorsque les bosons vecteurs Z et W de l'interaction faible furent observés avec
toutes les caractéristiques prévues par la théorie. Les autres prédictions théoriques
de la physique des particules n'ont par contre toujours pas été confirmées

378
ANNEXE TECHNIQUE

expérimentalement. Ainsi, le proton ne se désintègre pas comme prévu par


certaines théories, la super-symétrie n'a pas été trouvée là où l'on l'attendait.
De plus, le nombre minimal de dimensions spatiales nécessaire à l'unification
est égal à 10, ce qui oblige d'enrouler un minimum de 7 dimensions sur elles-
mêmes de manière à les rendre inobservables. Il faudrait donc que ces dimensions
supplémentaires pour que la théorie des cordes s'applique soient détectées, ce qui
est virtuellement impossible en raison du fait que l'enroulement se fait à l'échelle
de Planck, soit LP ::::: 1,7 10-35 m.
SMOLIN, L. (2007), Rien ne va plus en physique, Dunod, Paris.

Thermodynamique : science du XIXe siècle basée sur la notion de température ..


Le principe zéro de la thermodynamique stipule que deux systèmes
thermodynamiques en équilibre avec un troisième sont également en équilibre
entre eux. Leur propriété commune est la température. Cela veut dire que pour
qu'il y ait transfert d'énergie, il faut une différence de température.

Transformation canonique : transformation permettant de passer dans


l'espace des phases de Hamilton d'un jeu de variables (q,p) à un autre jeu
(q',p'). Le mathématicien français Siméon Denis Poisson (1781-1840)
montra alors que la connaissance de la fonction de Hamilton H(q,p,t) suffisait
à prévoir l'évolution dans le temps de n'importe quelle autre fonction u(q,p,t)
selon l'équation du/dt= {u,H}+ auJat où {u,H} = 8u/8q 8H/8p-8u/8p·8H/8q
est un invariant canonique appelé crochet de Poisson. Dans ces conditions,
toute fonction ne dépendant pas explicitement du temps (auJat = 0) et telle
que {u,H} = 0 reste constante dans le temps, puisque du/dt= O.

Translation : action de faire passer un objet d'un point A à d'autres points


tous séparés d'une même distance d en suivant une ligne droite. Action
générée par deux miroirs parallèle séparés d'une distance d/2 comme on
pourra le constater avec une armoire à glace de salle de bains munis de trois
volets dont deux peuvent effectuer un mouvement de rotation.

Travail: lorsqu'une force F s'applique sur une distance dx, il faut fournir un
travail dW = F dx. Une énergie de 1 joule correspond dans ce cas à une force
de 1 newton travaillant sur une distance de 1 m.

Troisième principe (thermodynamique): principe énoncé par le physicien


allemand Walther Nernst stipulant que l'entropie de tout système tend vers
zéro lorsque la température tend vers zéro.
NERNST,W. (1906a), « Ueber die Berechnung chemischer Gleichgewichte aus thermischen
Messungen », Nachr. Kg/. Ges. Wiss. Gott., l : 1-40.
NERNST, W. (1906b), « Über die Beziehung zwischen Wii.rmeentwicklung und maximaler
Arbeit bei kondensierten Systemen », Ber. Kg/. Pr. Akad. Wiss., 52 : 933-94.

379
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Trou noir : le terme trou noir a été introduit par le physicien américain John
Archibald Wheeler ( 1911-2008). Soit .M = AD/c le temps mis par un photon
pour parcourir une distance égale au diamètre AD = 2AR d'un objet changeant
son énergie d'une quantité AE =AM c2• Comme AR= c At/2?: 2G·AM/
c2 = 2G AE/c 4 , il vient que AE/At :S c5/4G ~ 9,1 1051 W. Ainsi, il existe dans
l'univers une puissance maximale de dissipation de l'énergie qui est atteinte
lorsqu'on se trouve sur un horizon de type trou noir. On peut aussi dire
qu'il existe dans la nature un frein universel au mouvement qui s'appelle
la gravitation. Un trou noir possède une entropie donnée par la formule de
Bekenstein-Hawking S =A k8 c3/4hG, où A est l'aire du trou noir et~ la
constante de Boltzmann.

Troyen: un troyen est un astéroïde qui partage la même orbite qu'une planète
ou un autre satellite plus massif mais qui n'entre pas en collision avec celui-ci
en raison de sa position sur un des deux points stables de Lagrange L4 ou L5•
Pour deux corps en orbite circulaire, les points de Lagrange représentent les
endroits où un troisième corps de masse négligeable resterait immobile par
rapport aux deux autres. Au nombre de cinq, ces points se scindent en deux
points stables dénommés L4 et L5 situés sur les sommets des deux triangles
équilatéraux dont la base est formée par les deux masses en orbite, et en trois
points instables notés L1 à Lr Ces trois derniers points sont situés sur l'axe
reliant les deux corps. Dans le cas d'une grande dissymétrie de masse entre
ceux-ci, deux points sont situés proches et de part et d'autre du corps peu
massif (L 1 et Lz), alors que le troisième est quasiment situé à l'opposé du
corps peu massif par rapport au corps massif (anti-Terre dans le cas du couple
Terre-Soleil).

Turbulence : mécanisme par lequel la nature préserve la cohésion d'un


système matériel soumis à un flux d'énergie via l'apparition de tourbillons.

•v
Vecteur : quantité physique caractérisée par une grandeur et une direction.
Dans un espace à trois dimensions, tout vecteur possède trois composantes
v = (v ,vy,v ), d'où une grandeur ou norme v2 = (v 2 + vy2 + v 2) et une direction
X Z X Z

e = (v/v, v/v, v/v). Tout symbole en gras doit être considéré comme un
vecteur. On reconnaît un vecteur au fait qu'il inverse sa direction lorsqu'on
passe d'un repère droit à un repère gauche. Toute onde qui se propage dans une
certaine direction possède ainsi un vecteur d'onde k dont la norme vaut 21r/A,
où Àdésigne la longueur d'onde reliée à la fréquence f via la vitesse de phase
v =À· f. Les vecteurs peuvent être transformés entre eux au moyen d'opérateurs.
Dans la notation de Dirac, lorsqu'un vecteur lv> ne change pas de direction

380
ANNEXE TECHNIQUE

après application d'un opérateur Ô, soit Ôlv> = alv>, on parle de vecteur


propre pour la valeur propre a.

Vibration : mouvement périodique de va et vient entre deux points séparés


d'une distance d. Par exemple pour tout ressort exerçant sur une masse m
une force de rappel f = -k·x, où x est l'élongation du ressort , on aura une
pulsation co 2 = k/m et donc de période T = 1/f = 27t/co, où f est la fréquence
du mouvement. Si le mouvement périodique se fait selon un cercle, on parle
de libration.

Vitesse : grandeur vectorielle permettant de définir l'espace si on la considère


comme une donnée primaire : dL = v dT (relativité). Taux de variation de
la position dans le temps si l'on considère l'espace comme une entité
primaire: v = dL/dT (mécanique classique). On remarquera que la vitesse est
naturellement invariante d'échelle car si L' = ÀL et T' = ÀL et v =LIT, alors
v' = L'/T' =LIT= v.

Vitesse turbulente vitesse vr observée dans les systèmes matériels


prenant en compte l'existence de tourbillons. Par exemple, pour une rivière
de profondeur p coulant avec un angle d'inclinaison 0, une masse d'eau m
parcourt dans un tourbillon une distance égale à deux fois la profondeur.
Le temps de résidence t de cette masse d'eau dans le tourbillon sera donc
t = 2p/vr correspondant à un taux de dissipation Wr de l'énergie cinétique tel
que Wr = Yi·m·vr2!t. Bien évidemment cette énergie cinétique est entretenue
par un flux d'énergie potentielle U qui apparaît avec un taux Wa = m·g·0·vr.
En égalant le taux de production Wa au taux de dissipation Wr, il est alors
très facile de trouver que vr2 = 4g·0·p, valeur considérablement plus faible
que la vitesse laminaire VL = g· 0 ·p2/2v, où v = 10-2 cm2 .s- 1, est la viscosité
cinématique de l'eau.

381
Table des matières
À PROPOS DE L'AUTEUR ................................................................................... 7

INTRODUCTION •..........••.•••••••••••.......................................•••••••........................•• 9
L'eau est-elle vivante? ............................................................................. 13
Auto-organisation et autopoïèse ............................................................... 17
Une soupe primitive .................................................................................. 19
Un monde bactérien .................................................................................. 22
Mythologie ................................................................................................ 26
À la découverte de l'eau ........................................................................... 30
CHAPITRE 1 : L'EAU, LA SUBSTANCE ............................................................... 35
La planète bleue ........................................................................................ 35
Cycle de l'eau ........................................................................................... 38
Le cas Masaru Emoto ............................................................................... 43
Mystères de l'eau ...................................................................................... 46
Anomalie de densité ................................................................................. 53
Le saut à la congélation ............................................................................ 55
Capacités calorifiques ............................................................................... 59
Benjamin Thompson, comte Rumford ..................................................... 61
Tension superficielle ................................................................................. 68
Propriétés électriques et magnétiques ....................................................... 73
L'eau et la lumière .................................................................................... 75
Propriétés de transport .............................................................................. 77
Vortex et turbulence .................................................................................. 78
Le cas Viktor Schauberger ........................................................................ 81
Cascade de Richardson-Kolmogorov ....................................................... 83
Vortex d'eau .............................................................................................. 86
CHAPITRE II : L'EAU MORPHOGÉNIQUE .......................................................... 91
Préambule ................................................................................................. 91
La cellule .................................................................................................. 93
L'eau intracellulaire .................................................................................. 94
Eau, protéines et ADN .............................................................................. 98
Les ions dans la cellule ........................................................................... 102
L'eau fonctionnelle ................................................................................. 105
Aquaporines ............................................................................................ 108
Propriétés de l'eau morphogénique ........................................................ 114
CHAPITRE III : UNE IMPASSE NOMMÉE H 20 ................................................ 117
Préambule ............................................................................................... 117
Un monde atomique ................................................................................ 119
Un monde moléculaire ............................................................................ 122

383
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Réalité atomique ..................................................................................... 125


La liaison hydrogène ............................................................................... 126
Aspects structuraux ................................................................................. 130
Clusters ou grappes d'eau ....................................................................... 133
Clusters gazeux ....................................................................................... 135
Glace hexagonale .................................................................................... 138
Polymorphes de la glace ......................................................................... 141
Fusion ..................................................................................................... 143
«Structure» de l'eau liquide .................................................................. 145
CHAPITRE IV: RELATIVITÉ ET QUANTA •.•••...•...•••••..••••.•.••••••••••••••.....••.•.•.•.• 153
Préambule ............................................................................................... 153
Un monde mécanique ............................................................................. 154
Un monde massif .................................................................................... 157
Un monde chiral ..................................................................................... 158
Un monde électrique et magnétique ....................................................... 160
Un monde thermique .............................................................................. 162
Un monde en évolution ........................................................................... 165
Un monde probabiliste ............................................................................ 168
Un monde lumineux ............................................................................... 171
Électromagnétisme ................................................................................. 174
Théorie de la relativité ............................................................................ 176
Mécanique quantique .............................................................................. 178
Catastrophe ultraviolette ......................................................................... 181
Implosion atomique ................................................................................ 184
Première quantification ........................................................................... 187
Un monde quantique ............................................................................... 190
Principe d'intemporalité ......................................................................... 191
Principe d'indétermination ..................................................................... 193
Principe d'indivisibilité .......................................................................... 194
Principe d'indiscemabilité ...................................................................... 196
Principe d'intrication .............................................................................. 199
Nombres complexes ................................................................................ 201
Intégrale des chemins ............................................................................. 202
Dualité onde/corpuscule ......................................................................... 206

CHAPITRE V: L'EAU QUANTIQUE ..........•.....••••.•••••...•.••••.•..•...•.................•••• 213


Préambule ............................................................................................... 213
L'eau en première quantification ............................................................ 214
L'eau vue comme une énergie ................................................................ 219
Eau« para» et eau« ortho » .................................................................. 222
Biologie quantique .................................................................................. 224
Insuffisances de la première quantification ............................................. 228
Seconde quantification ............................................................................ 231

384
TABLE DES MATIÈRES

Résolution du paradoxe EPR .................................................................. 233


Le vide quantique ................................................................................... 235
Spin, rotation et échange ......................................................................... 242
Cohérence ............................................................................................... 245
Domaines de cohérence aqueux (DCs) ................................................... 248
La liaison de cohérence .......................................................................... 254
Conséquences ......................................................................................... 263
CHAPITRE VI: MÉMOIRE DE L'EAU ............................................................. 271
Préambule ............................................................................................... 271
Eau et information .................................................................................. 272
L'expérience de Luc Montagnier ............................................................ 276
CONCLUSION ................................................................................................ 287

ANNEXE TECHNIQUE ..................................................................................... 305

385
Iconographie
Toutes les illustrations sont de l'auteur, à l'exception de la liste ci-après.

Introduction - figure 1 : Chapitre 1 - figure 8 :


Platon d'Athènes : domaine public, Siddharta Terre : ©Howard Perlman, USGS /Jack Cook,
Gautama: CC BY-SA 3.0 Sacca, Lao Tseu : Woods Hole Oceanographic Institution (©) /
CC BY-SA 2.0 Tom@HK, Aristote de Adam Nieman.
Stagire : CC BY-SA 2.5 Eric Gaba.
Chapitre 1 - figure 9 :
Introduction - figure 2 : tableau et graphique : adaptés de Pinti,
Aristote : CC BY-SA 2.5 Eric Gaba, Ym Daniele L. (2005), Chondrite carbonée : CC
Yang Feu/eau : CC BY-SA 3.0 Miissln, terre BY-SA 3.0 H.Raab, Wadsleyite : Takaaki
craquelée : CC BY 2.0 Axel Kristinsson Kawazoe, Johannes Buchen, and Hauke
from Reykjavik, lceland. Marquardt (2015), Synthesis of large
wadsleyite single crystals by solid-state
Introduction - figure 3 : recrystalliz.ation, American Mineralogist,
Albert Szent-Gyorgyi : domaine public, 100 (10), 2336-2339, 001: 10.2138/am-
illustration : Avec l'aimable autorisation de 2015-5400. http://ammin.geoscienceworld.
John Grant Watterson (The Living Pixel, org/content/100/10/2336, Ringwoodite : CC
2006, livre non publié). BY-SA Jasperbox, Cliché zircon : CC BY-
SA 3.0 Nkansah Rexford.
Introduction - figure 4 :
Deux mains acides aminés : domaine Chapitre 1 - figure 10 :
public, Montmorillonite : CC BY-SA 3 graphiques : adaptés de Pinti, Daniele L.
2.5 Andreas Trepte, Phospholipide : CC (2005), Diagramme concentration minéraux
BY-SA 3.0 OpenStax.College, Structures océan et 02 atmosphère : avec l'aimable
phospholipides : domaine public. autorisation de Sue Selkirk. Diagramme paru
dans «Elements and Evolution>> by Ariel
Introduction - figure 5 : D. Anbar, Science, 05 Dec 2008, Vol. 322,
Hammerhead ribozyme : Avec l'aimable Issue 5907, pp. 1481-1483 (DOi: 10.1126/
autorisation de Kalju Kahn, Montmorillonite : science.11631 OO) .
CC BY-SA 3.0 Meterialscientist - retouchée
par Marc Henry. Chapitre 1 - figure 11 :
Cycle eau: CC BY-SA3.0 Valentin de Bruyn
Introduction - figure 6 : - adaptation de Marc Henry, fonne gouttes :
Spirale évolution : domaine public. CC BY-SA 3.0 Pbroksl3.
Introduction - figure 7 : Chapitre 1 - figure 12 :
frise verticale bleu à orange : domaine public graphique : avec l'aimable autorisation de
- traduction de Marc Henry, ARN : CC BY- http://sptnkne.ws/bywf, neige, grésil. ..
SA 3.0 Wgscott, cellule : CC BY-SA 3.0 domaine public.
Mediran, retour en arrière : CC BY-SA 2.0
stangal.

387
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Chapitre 1 - figure 13 : graphique pluie : Pumphrey & al. « sound


Flocons de neige : ©Tim Garrett, University produced by drops and rainfall », J. Acoust.
of Utah. Soc. Am., 1518 (1989) figure. 9, graphique
eau propre/+détergent : Pumphrey & al.
Chapitre 1 - figure 15 : « sound produced by drops and rainfall », J.
Graphique états de l'eau : Adapté de José Acoust. Soc. Am., 1518 (1989) figure 14.
Teixeira, Pour la Science, n° 285 Guillet
Chapitre 1 - figure 27 :
2001) p. 91, diagramme états de l'eau :
Adapté de P. De Benedetti a E. Stanley, Eau couronne : domaine public, Eau jet
Physics Today, June 2003 p. 42. Rayleigh : domaine public, Couronne : CC
BY-SA 3.0 r Nonolapero, goutte (nib) :
Chapitre 1 - figure 17 : Detlef Lohse, « Bubble puzzles », Physics
schéma coefficient de compressibilité Today, February 2003, p. 36, figure 1,
isothenne : Adapté de La structure de la goutte sous surface : Elmore, P.A., Chahine,
matière, A. Guinier, Hachette (1980) figure G.L., and Ogz, H.N. « Cavity and Flow
II.3, p. 43. Measurements of Reproducible Bubble
Entrainment Following Drop Impacts »,
Chapitre 1- figure 19: Experiments in Fluids, Vol. 31, pp. 664-673,
Marteau : domaine public, graphique onde : December 2001. Voir égalenent Chahine,
domaine public - retouchée par Marc Henry. G.L., Wenk, K., Gupta, S., and Elmore, P.,
« Bubble Formation Following Drop Impact
Chapitre 1- figure 21 : at a Free Surface », ASME Cavitation &
Galileo Galilei : domaine public. Multiphase Flow Forum, Portland, OR,
January 1, 1991., éclaboussures: R. Rioboo
Chapitre 1 - figure 22 : & al., « Experimental investigation of splash
Pierre Louis Dulong domaine public, and crown formation during single drop
Alexis Thérèse Petit : domaine public, impact on wetted surfaces», Experiments in
tableau : Tableau tiré de l'article de PETIT, Fluids, 35 (2003) 648-652, figure 1.
A.T., DULONG, P. L. (1819), «Recherches
sur quelques points importants de la théorie Chapitre 1- figure 28 :
de la chaleur », Ann. Chim. Phys., 10 : 395- Champs EO/El : Charles Kittel, «Physique
413., Cp Cu. de l'état solide», Dunod, Lignes de champ
électrique : CC BY-SA 3.0 Brews ohare.
Chapitre 1 - figure 24 :
Benjamin Thompson : domaine public, Chapitre 1 - figure 29 :
experiment density of water : domaine Paul Langevin : CC BY-SA 2.0 Cambridge
public, Thomas Charles Hope : CC BY- University photographer.
SA 4.0 Mezzotint by T. Hodgetts after H.
Raeburn. Chapitre 1 - figure 30 :
Pennéabilités magnétiques ©Zureks -
Chapitre 1 - figure 25 : domaine public.
Araignée d'eau : CC BY-SA 3.0 PD, goutte
sur feuilles : Fotolia ©vencav. Chapitre 1- figure 31 :
Photo verre : CCO Domaine public.
Chapitre 1 - figure 26 :
Changxi Zheng & Doug L. James, Chapitre 1 - figure 32 :
« Harmonie fluids », (2009), ACM, Flux J : domaine public.

388
lcONOGRAPHIE

Chapitre 1 - figure 33 : Chapitre 2 - figure 41 :


Diagramme : d'après A. Guinier, HiJChette Surfaces hydrophiles : N. Israelachvili,
(1980) figure III.10 p. 72. « Forces between surfaces intracellulaire
liquids »,Science, 241, 795 (1988), figure 4,
Chapitre 1 - figure 34 : ADN hydraté : avec l'aimable autorisation
Trajectoires spiralées : Le chaos sensible, d'Alexey Savelyev.
Th. Schwenk, Triades (1982), p. 42, pierre
gravée : Le chaos sensible, Th. Schwenk, Chapitre 2 - figure 42 :
Triades (1982), photo 81, stèle : Le chaos Graphique transfert énergie : S.V. Ruffie
sensible, Th. Schwenk, Triades (1982), & al., « Inelastic Incoherent Neutron
photo 83, méandres : CC BY-SA 2.5 Scattering Studies of Water Interacting
Riksantikvarieambetet / Pâl-Nils Nilsson, with Biological Macromolecules », J. Am.
Estampe Hiroshige : domaine public, vortex Chem. Soc., 124, 565 (2002), figure 1,ARN
sous l'eau: Le chaos sensible, Th. Schwenk, ADN : CC BY-SA 3.0 Sponk (talk), ADN
Triades (1982), photo 41, vortex surface : hydraté : avec l'aimable autorisation de
Le chaos sensible, Th. Schwenk, Triades Bill Smith, www.ccp5.ac.uk/DL - POLY -
(1982), photo 39. CLASSIC/, graphique distance radiale: Yoo
& al. « Competitive Binding of Cations to
Chapitre 1 - figure 35 : Duplex DNA Revealed through Molecular
Nuages : domaine public, L.F. Richardson : Dynamics Simulations », J. Phys. Chem. B,
domaine public, AN. Kolmogorov : CC BY- 116, 12946 (2012), figure 3C.
SA 4.0 lgorzurbenko.
Chapitre 2 - figure 44 :
Chapitre 2 - figure 36 : Diagramme : DeWayne H. Ashmead &H.
Robert Hooke : Licence Art Libre 1.2, Liège : Zuzino, The role of arninoacid chelates in
domaine public, Anton Van Leeuwenhoek : animal nutrition, Noyes Pub!.: Westwood,
domaine public, Infusoires : CC BY-SA 3.0 New-Jersey, 1993, figure 1, p. 26.
Jeroen Rouwkema, Ludolf Trevinarius :
domaine public, Henri Dutrochet : domaine Chapitre 2 - figure 45 :
public, Theodor Schwann : domaine public, Homme et tique : domaine public.
Matthias Jakob Schleiden : domaine public,
Robert Remak : domaine public, Rudolf Chapitre 2 - figure 46 :
Vrrchow : domaine public, Moritz Traube : 2 diagrammes protéines : avec l'aimable
domaine public, Ernst Overton : domaine autorisation de Martin Chaplin.
public, Georg Quincke : domaine public,
Membrane cellulaire : domaine public. Chapitre 2 - figure 47 :
Diagramme : D'après Rockland L. B.
Chapitre 2 - figure 38 : Beuchat L. R. (1987), in «Water activity:
Inspiré de D. S. Goodsell, The Machinery of theory and application to food>>, Marcel
Life, 2nd Ed., Springer, New-York (2009). Dekker, New-York, Introduction, figure
p. VII.
Chapitre 2 - figure 40 :
Domaine public. Chapitre 2 - figure 48 :
D'après C.M. Krane & al., « Aquaporins:
the membrane water channels of the
biological world », Biologist, 50, 81 (2003),
figure 1 et 2.

389
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Chapitre 2 - figure 50 : Chapitre 3 - figure SS :


Structure aquaporine : D'après C.M. Kra.ne John Dalton : domaine public, hydrogène,
& al., « Aquaporins: the membrane water tableau ancien des éléments : domaine
channels of the biological world », Biologist, public.
50, SI (2003), figure 3.
Chapitre 3 - figure 56 :
Chapitre 2 - figure Sl : Louis Joseph Gay-Lussac : domaine public.
Blocage proton : M. Murata & al.,« Structural
determinants of water permeation through Chapitre 3 - figure S7 :
aquaporin-1 », Nature, 407, 599 (2000), Amedeo Avogadro : domaine public.
figure 5, AQPI pore : G. Soveral & al.,
« Aquaporin water channels », canalBQ, Chapitre 3 - figure SS :
n°S, JULHO 2011, traduction figure 3, pore Amedeo Avogadro : domaine public, Jan
(droite): G. Soveral & al., «Aquaporin water Perrin : domaine public.
channels », canalBQ, n°S, JULHO 2011,
traduction figure 3. Chapitre 3 - figure S9 :
Maurice L. Huggins : AIP Emilio Segre
Chapitre 2 - figure S2 : Visual Archives, croquis : M.L. Huggins,
HsAQP4 : Y. Cui & al., « Water transport in «Sorne speculations regarding molecular
human aquaporin-4: Molecular dynamics structure», May 1919, manuscrit non publié
(MD) simulations », Biochem. Biophys. (tiré de l'article de D. Quane), Gilbert N.
Res. Comm., 412, 654 (2011), figure 3, Lewis : AIP Emilio Segre Visual Archives,
HsAQP5 - BtAQPl - OaAQPO - EcAQPZ : Wendell M. Latimer : domaine public, Henry
Horsefield & al., « High-resolution x-ray E. Armstrong : CC BY-SA 2.5 Rezpa.
structure of human aquaporin 5 », PNAS,
105, 13327 (200S), EcGipF : Tajkhorshid Chapitre 3 - figure 60 :
& al., « Control of the Selectivity of the Linus Carl Pauling : domaine public, chaîne
Aquaporin Water Channel Family by Global à main levée : avec l'aimable autorisation
Orientational Tuning », Science, 296, 525 de Oregon State University Libraries, photo
(2002) figure 2. maquette : avec l'aimable autorisation de
Oregon State University Libraries.
Chapitre 3 - figure S3 :
Pierre Joseph Macquer : domaine public, Chapitre 3 - figure 62 :
Illustration expérience : extrait de Louis Willem Hendrik Keesom : Photograph by
Figuier, Les merveilles de /'industrie ou Francis Simon, courtesy AIP Emilio Segre
Description des principales industries Visual Archives, Francis Simon Collection,
modernes, Furne&Jouvet, 1S77,p. 5, Sigaud Peter Debye : CC BY-SA 3.0 Schmelhaus/
De La Fond: avec l'aimable autorisation de ETH Zûrich, Fritz London : AIP Emilio
M. le Conservateur du musée Sigaud de La Segre Visual Archives, Physics Today
Fond. Collection.

Chapitre 3 - figure 54 : Chapitre 3 - figure 63 :


Joseph Louis Proust : domaine public, D'après Scheider & al., « Comparison of
balance à plateau : CC BY-SA 3.0 AntonyB . Various Types of Hydrogen Bonds Involving
Aromatic Arnino Acids », J. Am. Chem. Soc.,
124, 13257 (2002), figure 2.

390
lcONOGRAPHIE

Chapitre 3 - figure 64 : Chapitre 3 - figure 71 :


D'après Michaelides &al.« Ice nanoclusters D'après Isgro & al., «Case Study: Water and
at hydrophobie metal surfaces », Nature lce », figure 13, consultable sur http://www.
Materials, 6: 597 (2007), figures 1, 2 et 3. ks. ui uc. edu/Training/CaseStudies/pdfs/
water-1.pdf.
Chapitre 3 - figure 65 :
laser : Paul & al., « Direct Measurement Chapitre 3 - figure 72 :
of Water Cluster Conclusionentrations by Saut proton : d'après Laage & al., « A
Infrared Cavity Ringdown Laser Absorption molecular jump messianisme of water
Spectroscopy », J. Phys. Chem. A, 101, reorientation », Science, 311, 832 (2006),
5211, figure 1, Clusters : Keutsch & al. figure 3, 2 graphiques distance et angles :
«Water clusters: Untangling the mysteries of Modig & al., « Temperature-Dependent
the liquid, one molecule at a time », PNAS, Hydrogen-Bond Geometry in Liquid
98; 10533 (2001), figures 3, 4, 5, 6, 8, 9, 10, Water», Phys. Rev. Lett., 90, 075502 (2003),
12., Molécule d'eau CPK. figure 3, tableau : d'après J. Teixeira & al.,
« Experimental determination of the nature
Chapitre 3 - figure 66 : of diffilsive motions of water molecules at
D'après Debenedetti & al. « Supercooled low temperature », Phys. Rev. A, 31, 1913
and glassy water », Phys. Today, June 2003, (185), Table 1.
figure 2, p.41.
Chapitre 3 - figure 73 :
Chapitre 3 - figure 67 : Déformation angulaire : John, L. Finney,
Pentamètre eau : domaine public. « Water? What's so special about it? », Phil.
Trans. R. Soc. Lond., 359, 1145 (2004),
Chapitre 3 - figure 68 : figure 20.
Thermomètres : domaine public.
Chapitre 4 - figure 74 :
Chapitre 3 - figure 70 : Isaac Newton : domaine public, fusée
Plateau continental domaine public, domaine public, Soleil/planète : CC BY-
image billes vert rouge bleu : CC BY 2.0 SA 2.0 Austria - retouchée par Marc
Masakazu Matsumoto, Hydrate de méthane Henry, Johannes Kepler : domaine public,
ordonné et dissocié : CC BY 2.0 Masakazu Illustration canon : CC BY-SA 3.0 Savant-
Matsumoto, Hydrate de méthane vitreux : fou, Sopoforic.
CC BY 2.0 Masakazu Matsumoto, Glace
amorphe nébuleuse cheval: CC BY-SA 3.0 Chapitre 4 - figure 75 :
Ken Crawford, Diagrammes diffraction : D'après Hayasaka & al., « Anomalous
Kim & al., « Pressure-induced high- Weight Reduction on a Gyroscope's Right
density amorphous ice in protein crystals », Rotations around the Vertical Axis on the
J. Appl. Cryst., 41, 1 (2008), figure 1, Earth », Phys. Rev. Lett., 63, 2701 (1989),
Structures : Suter & al. « Argon collisions figures 1 et 2.
with amorphous water ice surfaces », Chem.
Whys., 326, 281 (2006), figure 3. Chapitre 4 - figure 76 :
Champ électrique (2 photos) : Copyleft
Ludovica Battista, Champ magnétique : CC
BY-SA 3.0 Bemdt Meyer, Fil courant : extrait
de https://www.youtube.com/watch?v=V-
M07N4a6-Y.

391
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Chapitre 4 - figure 77 : Chapitre 4 - figure 85 :


William Thomson : domaine public, John Archibald Wheeler : AIP Emilio Segre
thennomètres celsius/kelvin : domaine Visual Archives, Physics Today Collection.
public, James Prescott Joule : domaine
public, Illustration canon : CC BY-SA 3.0 Chapitre 4 - figure 86 :
Savant-fou, Sopoforic, effet joule (verre) : Joz:ef Stefan : domaine public, Ludwig
CC BY-SA3.0 Simon A. Eugster. Boltzmann : domaine public, Wilhelm
Wien : domaine public, Gustav Kirchhoff :
Chapitre 4 - figure 78 : domaine public, James H. Jeans : domaine
Nicolas Leonard Sadi Carnot : domaine public, John William Strutt (Lord Rayleigh) :
public, Rudolf Clausius : domaine public, domaine public, Max Karl Ernst Ludwig
Josiah Willard Gibbs : domaine public. Planck : domaine public.

Chapitre 4 - figure 79 : Chapitre 4 - figure 87 :


Ludwig Boltzmann : domaine public, Ernest Mardsen domaine public,
Walther Nernst : domaine public, graphique Expérience, Hans Geiger : domaine public.
Troisième principe : D'après W. Nernst,
Experimental and theoretical applications of Chapitre 4 - figure 88 :
thennodynamics to chemistry, Scribner sons, Niels Bohr : domaine public, raies
New York (1907), p. 46. R. Eisberg et R. Resnik, Quantum physics
of Atoms, Molecules, Solids, Nuclei and
Chapitre 4 - figure 80 : Particles, Wiley & Sons (1974), figure 4.12,
Joseph Liouville : CC BY-SA 3.3 p. 114.
Desinteresado 31415, Edwin Thompson
Jaynes : domaine public. Chapitre 4 - figure 89 :
Otto Stem : AIP Emilio Segre Visual
Chapitre 4 - figure 81 : Archives, Segre Collection, diagramme
Pied à coulisse : domaine public, planimètre : expenence spin D'après L. Pauling,
CC BY-SA 3.0 Nol Aders, cylindre gradué : «General Chemistry», Dover (1988), figure
CC BY-SA 2.5 Hannes Grobe, sablier : CC 3.28, p. 76 et R. Eisberg et R. Resnik,
BY-SA 3.0 Martin Olsson, chronomètre : CC Quantum physics of Atoms, Molecules,
BY-SA 3.0 PHGCOM, balance à plateaux : Solids, Nuclei and Particles, Wiley & Sons
CC BY-SA 3.0 Mauro Cateb, thennomètre : (1974), figure 8.6, p.297, Walther Gerlach :
libre de droits, ampèremètre : CC BY-SA Photo courtesy of Max Planck Institute,
3.0 Adamantios, voltmètre : CC BY-SA courtesy AIP Emilio Segrè Visual Archives,
3.0 Hannes Grobe, bougie: CC BY-SA 3.0 Goudsmit Collection, George Uhlenbeck :
Bangin, doigts : domaine public, œil : CC domaine public (détail), Samuel Goudsmit :
BY-SA 3.0 Laitr Keiows. Photo courtesy Brookhaven National
Laboratory. For Publication Permission
Chapitre 4 - figure 82 : Request contact Jane Koropsak, BNL-Media
Galileo Galilei domaine public, Isaac and Communications, jane@bnl.gov, Tel:
Newton : domaine public, Henri Poincaré : 631-344-4909, Pieter Zeeman : CC BY-SA
domaine public, même origine : domaine 3.0 PD by age, Photo effet z:eeman: domaine
public, Hendrik Antoon Lorentz : domaine public.
public.

392
lcONOGRAPHIE

Chapitre 4 - figure 91 : Chapitre S - figure 103 :


Illustrations poissons rouges Fotolia Adapté de Gurtler & al., « Rydberg Series
©johann35micronature. intracellulaire the Absorption spectra of
H20, D20 intracellulaire the vacuum
Chapitre 4 - figure 94 : ultraviolet », Chem. Phys. Lett., 51, 386
Rubik's cube : CC-BY-SA 3.0 Hellbus. (1977), figure 3 p. 390.

Chapitre 4 - figure 95 : Chapitre S - figure 104 :


Rubik's cube: CC-BY-SA 3.0 Hellbus. Adapté de Chan & al., « The electronic
spectrum of water in the discrete and
Chapitre 4 1- figure 96 : continuum regions. Absolute optical
Intrication photons : Site Creative commons, oscillator strengths for photoabsorption (6-
voir: http://physicsopenlab.org/tenns-of-use'. 200 eV)», Chem. Phys., 178, 387 (1993),
figures 1 et 4.
Chapitre 4 - figure 97 :
Richard Feynman : CC BY-SA 3.0 Tamiko Chapitre S - figure 105 :
Thiel 1984, plusieurs diagrammes : R. Adapté de Bunkin & al., « Four-photon
Feynman, « Lumière et matière, une étrange spectroscopy of ortho/para spin-isomer HiO
histoire», InterEditions, (1987), figures 7, 8, molecule in liquid water in sub-millirneter
9, 24et32. range », Laser Phys. Lett., 3, 275 (2006),
figures 1 et 2.
Chapitre 4 - figure 98 :
Diffraction électrons (1 diagramme et 5 Chapitre S - figure 106 :
images) : C. Jônsson & al., « Electron ADN : Potekhin & al., « Spin-dependent
diffraction at multiple slits », AJP, 42, absorption of water molecules », Biophys.
4 (1974), figure ures 6, 7, 8, 9, 10 et 11, Chem., 118, 84 (2005), figure 1., alfa-
Franges interférences (fentes) : Tonomura chymotrypsine : Bunkin & al.,« Four-photon
& al., « Demonstration of single-electron spectroscopy of ortho/para spin-isomer H20
buildup of an interference pattern », Am. J. molecule in liquid water in sub-millirneter
Phys. 57, 117 (1989), figure 5, Interférences range », Laser Phys. Lett., 3, 275 (2006), fig. 3.
C60 (2 diagrammes et 2 graphiques): Nairz
& al., « Quantum interference experiments Chapitre S - figure 107 :
with large molecules »,Am. J. Phys., 71, 319 Adapté de Wang & a., http://www.ks.uiuc.
(2003), figures 2, 3, 6 et 7. edu/Training/CaseS tudies/pdfs/aqp. pdf,
figure 3c.
ChapitreS-figure 100: CC BY-SA3.0.
Chapitre S - figure 108 :
Chapitre S - figure 101 :
Adapté de Gerlich & al., « Quantum
Diagramme Eh/pH : Baas Becking & al. interference of large organic molecules »,
« Limits ofthe Natural Environment in Terms Nature Comm., 2, 1 (2011 ), figures 2 et 3.
of pH and Oxidation-Reduction Potentials »,
J. Geology, 68, 243 (1960), figure 31, p. 276. Chapitre S- figure 110 :
Bader, R.F. W. (1990) «Atoms in Molecules:
Chapitre S- figure 102 :
A Quantum Theory » Int. Ser. Monographs
Adapté de Sarsour & al., « Redox Control Chem., 22 : 293-299.
of the Cell Cycle in Health and Disease »,
Antioxidants and Redox Signaling, 11, 2985
(2009), figure 1, p. 2986.

393
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Chapitre S- figure 111 : Chapitre S - figure 125 :


Spectres : Nilsson & al. «The hydrogen bond Adapté de E. Del Giudice & al. « A new
in ice probed by soft x-ray spectroscopy and QED picture of water: Understanding a few
density functional theory », J. Chem. Phys., fascinating phenomena », in « Macroscopic
122: 154505 (2005), figures 1 et2. Quantum Coherence », E. Sassaroli et al.
Eds, World Scientific, Singapore (1998), p.
Chapitre S - figure 116 : 116, figure 4.
Yakir Aharonov : cc BY-SA 3.0 !lio KJHI,
David Bohm: avec la permission de http:// Chapitre S - figure 126 :
www.theosophy-nw.org. Domaine de cohérence : adapté de E. Del
Giudice & al., « On the "Unreasonable"
Chapitre S - figure 117 : Effects of ELF Magnetic Fields Upon a
Satyendranath Bose : Akira Tonomura & System of Ions », Bioelectromagnetics, 23,
Franco Nori, Albert Einstein : Enrico Fermi : 522 (2002), figure 2, p. 526, Texture du spin :
Nature 452, 298-299(20 March 2008), avec l'aimable autorisation de C.G. Ruben,
Wolfgang Pauli : CC BY-SA 3.0 Bettina Univ. ofMelboume.
Katzenstein / ETH Zürich, Paul Dirac
domaine public. Chapitre S - figure 128 :
Graphique rH2 Chan & al., « The
Chapitre S - figure 118 : electronic spectrum of water in the discrete
Nuée d'étoumeaux : CC BY-SA 2.0 Brian and continuum regions. Absolute optical
Robert Marshall, étourneaux Écosse : oscillator strengths for photoabsorption (6-
domaine public, figure de chladni : CC 200 eV)», Chem. Phys., 178, 387 (1993),
BY-SA 2.0 Stephen Morris, banc poissons : figure 5, p.395, Louis-Claude Vincent: avec
Fotolia ©naturepics. l'aimable autorisation de Pierre Vincent,
mesure résistivité : ©Marc Henry, graphique
Chapitre S - figure 121 : pH : Chan & al., «The electronic spectrum of
Chan & al., « The electronic spectrum of water in the discrete and continuum regions.
water in the discrete and continuum regions. Absolute optical oscillator strengths for
Absolute optical oscillator strengths for photoabsorption (6-200 eV)», Chem. Phys.,
photoabsorption (6-200 eV)», Chem. Phys., 178, 387 (1993), figure 7, p. 399, Potentiel
178, 387 (1993), figure 4. redox : Sarsour & al., « Redox Control of
the Cel! Cycle in Health and Disease »,
Chapitre S- figure 123 :
Antioxidants and Redox Signaling, 11,
Adaptés de G. Preparata, « QED Coherence 2985 (2009), figure 1, p. 2986., graphique
intracellulaire Matter », World Scientific, rhô : Chan & al., « The electronic spectrum
Singapore(l 995), Chapitre3,figure 3.1, p. 57. of water in the discrete and continuum
regions. Absolute optical oscillator strengths
Chapitre S - figure 124 : for photoabsorption (6-200 eV) », Chem.
Adaptés de G. Preparata, « QED Coherence Phys., 178, 387 (1993), figure 6, p.397, pH
intracellulaire Matter », World Scientific, couleurs : domaine public.
Singapore (1995), Chapitre 310, figure 10.4, Chapitre 6 - figure 129 :
p. 209 ; figure 10.5, p. 210 et figure 10.6,
p. 212. Eau liquide : domaine public.

Chapitre 6 - figure 130 :


Coeur : domaine public.

394
lcONOGRAPHIE

Chapitre 6- figure 131 : Conclusion - figure 141 :


D'après L. Montagnier, «DNA Information Tenture : domaine public.
Carried by EMS: Experimental Evidence and
Medical Applications», in Seventh Annual Conclusion - figure 142 :
Conference on the Physics, Chemistry and Espace-temps à l'échelle de Planck: Même
Biology of Water, West Dover, Vermont image que figure 112.
Water Journal, 5 (2012) supplement.
Conclusion - figure 143 :
Chapitre 6 - figure 132 : Montres molles, accepter le vide : Site
Même référence que figure 131. Creative commons, voir :
http ://physicsopenlab.org/terms-of-
Chapitre 6 - figure 133 : use/, masques : https://pixabay.com/fr/
Signaux : d'après L. Montagnier & al., th%C3%A9%C3%A2tre-masque-visage-
« Electromagnetic Detection of HIV DNA promotion-4ll189/, homme centre
in the Blood of AIDS Patients Treated by domaine public.
Antiretroviral Therapy », Interdiscip Sei Conclusion - figure 147 : Leonhard Euler :
Comput Life Sei, 1, 245 (2009), figure 1, domaine public.
p.246 , transmission sans contact : d'après
L. Montagnier & al., « DNA waves and Conclusion - figure 148 : Adapté de P.
water », J. Phys: Conf. ser., 306, 012007 Lecomte du Noüy, Surface Equilibria of
(2011), figure 3, p. 4. Biological and Organic Colloids, The
Chemical Catalog Company, 1926, figure
Chapitre 6 - figure 134 : 38, p. 91.
Même référence que figure 131.
Conclusion - figure 152 : William Crookes :
Chapitre 6 - figure 136 : domaine public, tube de Crookes : CC BY
Même référence que figure 131. 2.0 D-Kuru, Joseph John Thomson : CC-
BY-SA-3.0-AT D-Kuru, schéma tube Gl :
Chapitre 6 - figure 138 : gravitation quantique à boucles.
D'aprèsA. Tedeschi, « ls the living dynamics
Conclusion - figure 154 : René Descartes :
able to change the properties of water», Int.
domaine public, Isaac Newton : domaine
J. Design & Nature and Ecodynamics, 5, 60
public, Louis-Joseph Lagrange : domaine
(2010), figures 2, 3 et 4.
public.
Chapitre 6 - figure 139 :
Conclusion - figure 155 : David Hilbert :
Luminol : CC-BY 2.5 David Muelheims, CC BY-SA 2.0 DE.
2 graphiques : d'après V.L. Voeikov & al.,
« Activated bicarbonate solutions as models Conclusion - figure 158 : Uraninite : CC
of confined ontic open system and prototypes BY-SA-3.0 Rob Lavinsky, iRocks.com,
of living respiring systems », Int. J. Design Pierre Curie : domaine public, Torbemite :
& Nature and Ecodynamics, 5, 60 (2010), CC BY-SA 4.0 Didier Descouens.
figures 2 et3.
Conclusion - figure 159 : William Crookes:
Conclusion - figure 140: domaine public, tube de Crookes : CC BY
3D : Même image que figure 112. 2.0 D-Kuru, Radio! : domaine public,
Radio2 : domaine public, Wilhelm Conrad
Rôntgen : domaine public.

395
L'EAU ET LA PHYSIQUE QUANTIQUE - VERS UNE RÉVOLUTION DE LA MÉDECINE

Conclusion - figure 160 : Espace de


Fock : ©R Walser et al., «Semifluxons in
superconductivity and cold atomic gases»,
New Journal of Physics, Volume 10, April
2008, figure 4.

Conclusion - figure 161 : Friedrich


Paschen : domaine public, Ernst Back :
Photograph by Samuel Goudsmit, courtesy
AlP Emilio Segre Visual Archives, Goudsmit
Collection.
Conclusion - figure 162 : James Clerlc
Maxwell : domaine public.

396
Achevé d'imprimer par Graficas Lizarra - Espagne: Septembre 2016
Marc Henry est ingénieur chimiste, docteur ès sciences, habilité
à diriger des recherches et professeur d'université dispensant
un enseignement sur la chimie, la science des matériaux, la phy-
sique quantique et la symétrie moléculaire et cristalline. Marc
Henry est aussi président de l'association Natur'Eau Quant qui
milite pour une approche quantique de la nature utilisant l'eau
comme vecteur d'information.
L'eau reste une substance mystérieuse pour la science et chaque jour amène son
lot de publications tentant d'expliquer ses surprenantes propriétés. Parmi elles,
l'aptitude de l'eau à procurer la vie est certainement la plus fascinante. C'est pour
résoudre l'énigme de ce lien intime entre l'eau et la vie que des scientifiques ont
émis l'idée que l'eau est capable de véhiculer et de transmettre des informations.
0
0:
Cette hypothèse expliquerait l'omniprésence de l'eau dans les cellules (sur 3
100 molécules constitutives d'une cellule, 99 sont des molécules d'eau) et donnerait ·~
également une base théorique à l'efficacité de l'homéopathie. Les travaux ~
très controversés de Jacques Benveniste, repris depuis 2004 par le professeur ~
E
Luc Montagnier, en mettant au-devant de la scène médiatique la théorie de la ~
«mémoire de l'eau», ont suscité une vive polémique au sein des cercles scientifiques. !
~
g
Pour résoudre la crise, certains chercheurs, dont l'auteur, proposent une vision 0
u
quantique du monde biologique. La physique quantique des champs voit dans le 2
vide quantique la source de toute matière et de toute énergie, et serait en mesure ~
d'expliquer comment l'eau, via la formation de« domaines de cohérence», pourrait ~
~
effectivement être un vecteur d'information biologique. ig

Dans cet ouvrage, Marc Henry, conférencier apprécié pour sa pédagogie et sa i


1'

capacité à présenter les choses complexes dans un langage clair, livre toutes les ~
bases scientifiques nécessaires pour appréhender cette révolution quantique qui ~
réinventera la médecine. Les lecteurs de tous horizons trouveront dans ces pages :Z
une source d'information précieuse. *
g
~

~0
@

Pl~lQê
ô
ë
.c
o.

www.piktos .fr 32 €

Vous aimerez peut-être aussi