Vous êtes sur la page 1sur 565

Le déterminisme étendu

pour mieux comprendre et prévoir


Une contribution à la pensée rationnelle
entre science et philosophie
Cinquième édition, mise à jour le 20/08/2016

Daniel MARTIN
http://www.danielmartin.eu/contact.htm

1
Remerciements

A Renée Bouveresse, dont la remarquable synthèse de l'œuvre de Karl Popper sur


le rationalisme critique m'a fait gagner un temps précieux, et dont la sympathie m'a
soutenu dans les périodes de doute.

A Hervé Barreau, dont les critiques et suggestions m'ont permis d'éviter bien des
erreurs.

A André Comte-Sponville, dont les textes et les objections m'ont beaucoup fait
réfléchir.

2
Objectifs de ce texte
Ce livre montre d’abord que le déterminisme philosophique ne tient pas ses promesses
lorsqu’il affirme la possibilité de prédire l’avenir et de reconstituer en pensée le passé.

Il montre ensuite comment les principes de causalité et du déterminisme scientifique


se déduisent par induction de propriétés fondamentales de l’Univers.

Il précise ensuite ces principes, et en étend la définition pour qu’ils régissent les
propriétés d’évolution de toutes les lois de la physique. Ces lois relèvent alors du
déterminisme étendu, que sa définition constructive structure comme une axiomatique.

Le livre montre, après, comment le hasard et le chaos n’interviennent dans la nature


que dans des cas précis, tous pris en compte dans le déterminisme étendu, et
comment les limites de prédictibilité proviennent aussi d’imprécisions, de complexités,
d'indéterminations, d'instabilités et de refus de précision de la nature.

La pensée rationnelle ayant besoin de comprendre et de prévoir pour décider, a donc


besoin de connaître le déterminisme étendu. A partir d’avancées scientifiques récentes
en physique quantique et en génétique, le livre montre alors les limites de la possibilité
de prédire des résultats d’évolution et d’obtenir la précision souhaitée.

Le livre définit ensuite le déterminisme humain à partir des connaissances récentes de


psychologie cognitive comme la Théorie informationnelle du psychisme. La pensée
rationnelle est décrite à l'aide des principes de l'axiomatique, les comportements
irrationnels à partir des processus de l'inconscient. Malgré son libre arbitre, l’homme
reste dominé par des désirs imposés par son inné, son acquis et son contexte de vie.
Le texte montre aussi l’absurdité des démonstrations logiques de l'existence de Dieu,
notamment celle basée sur le « principe anthropique ».

Le texte présente aussi deux solutions au vieux problème philosophique de la « cause


première ». L'une basée sur le Big Bang, l'autre sur une conjecture restreignant des
contraintes des définitions du déterminisme et de la causalité.
Ce livre est une contribution à la pensée rationnelle qui se veut aussi facile à lire que
possible. Il est destiné aux intellectuels de culture scientifique ou littéraire qui
souhaitent profiter de connaissances à jour en matière de physique quantique, de
cosmologie, d’informatique, de psychologie cognitive et de génétique.

Le texte complet étant long, environ 570 pages [Livre], il est conseillé de lire d’abord
le texte d'introduction "Principes de logique", repris au début de la 3e partie et qu'on
pourra alors sauter.

Livre : "Le déterminisme étendu pour mieux comprendre et prévoir


Une contribution à la pensée rationnelle entre science et philosophie " (564 pages)
http://www.danielmartin.eu/Philo/Determinisme.pdf (gratuit)

Introduction :"Principes de logique : causalité, homogénéité, raison suffisante, etc."


(25 pages + références) http://www.danielmartin.eu/Philo/CausalitePPS.pdf (gratuit)

3
Conseils de lecture

Sur les formules mathématiques


Ce texte contient beaucoup de formules mathématiques pour être aussi précis que
possible ; le lecteur qui a les connaissances scientifiques nécessaires y trouvera les
justifications de certaines affirmations concernant le déterminisme. Mais la lecture et la
compréhension de ces formules ne sont pas indispensables à celle du texte ; le lecteur
qui n'a pas les connaissances nécessaires ou simplement pas envie de lire ces formules
peut les ignorer.

Sur le style du texte et sa structure


Les textes philosophiques sont souvent structurés comme un roman, avec peu de sous-
titres intermédiaires, laissant au lecteur le soin de comprendre où il en est dans
l'enchaînement des idées. Ce texte-ci, au contraire, est fait de paragraphes courts ; il est
fortement structuré sous forme de hiérarchie de titres et sous-titres, comme un rapport ou
un cours. Cela permet au lecteur de bien comprendre le sujet d'un paragraphe donné et
de retrouver rapidement un passage déjà lu.

Sur la lecture à l'écran


En format PDF, ce texte est fait pour pouvoir aussi être lu sur un écran d'ordinateur en
profitant des nombreux hyperliens donnant accès par simple clic à une explication de
terme, un complément d'information ou une référence bibliographique sur Internet ; un
autre clic permettra ensuite de revenir au point de départ. La table des matières elle-même
est un ensemble d'hyperliens permettant d'atteindre directement un paragraphe. Enfin, la
recherche d'un mot sur écran est bien plus facile et rapide que sur du papier, et l'extraction
de passages du texte pour insertion dans un autre texte est possible, alors qu'un texte sur
papier exige un recopiage ou une numérisation.
Les références dont le nom commence par un D comme [D1] sont à la fin de la 1re partie ;
celles dont le nom commence par un M comme [M4] sont à la fin de la 2e partie ; celles
qui sont des nombres entiers comme [5] sont à la fin de la 3e partie.

Pour éviter de lire ce que vous savez déjà


Le déterminisme étendu sujet de ce livre fait l'objet de la 3 e partie de l'ouvrage. Comme le
déterminisme s'appuie sur la doctrine matérialiste, la définition et les implications du
matérialisme et de son opposé, l'idéalisme, sont résumées dans la 2 e partie. Et comme le
débat entre matérialistes et idéalistes aborde l'existence de Dieu, les 3 types d'arguments
logiques en faveur de cette existence apportés au cours des siècles sont dans la 1 re partie.
Donc :
 Si vous connaissez les 3 types d'arguments logiques invoqués au cours des siècles
pour prouver l'existence de Dieu - ou simplement si ce problème ne vous intéresse
pas - sautez sans hésiter la 1re partie de l'ouvrage ; elle ne fait que rappeler ces
« preuves » et en montrer l'absence de valeur.
 Si vous connaissez les définitions du matérialisme et de l'idéalisme, ainsi que les
arguments invoqués par les partisans de chacune de ces deux doctrines, sautez
sans hésiter la 2e partie de l'ouvrage, qui ne fait que rappeler ces définitions et
arguments avant d'introduire le déterminisme.

4
Table des matières
1. Où en sont les preuves de l'existence de Dieu ? ......................... 16
1.1 Définitions de Dieu et de la religion ................................................................16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité .....................17
1.3 L'homme conçoit Dieu à son image ................................................................19
1.4 Comment prouver l'existence de Dieu ? .........................................................20
1.5 Les preuves logiques de l'existence de Dieu .................................................21
1.5.1 Croire en Dieu ou en la science : il faut choisir ! ............................................... 21
1.5.1.1 Définitions : Univers, phénomène, représentation, Monde ....................21
1.5.1.2 Critique scientifique du concept de créateur de l'Univers ......................24
1.5.1.3 Critique de Kant de la possibilité de création transcendante .................24
1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique ......................25
1.5.1.5 Théologie proposée par Kant ................................................................25
1.5.2 Les 3 preuves possibles de l'existence de Dieu ................................................ 26
1.5.2.1 Preuve ontologique de l'existence de Dieu............................................27
1.5.2.2 Preuve cosmologique de l'existence de Dieu ........................................28
1.5.2.3 Preuve physico-théologique de l'existence de Dieu ..............................29
1.5.3 Raisons de croire en un Dieu transcendantal.................................................... 31
1.6 Compléments philosophiques des tentatives de prouver Dieu ....................31
1.6.1 La notion d'un Dieu créateur intelligent est contradictoire .............................. 31
1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique ........ 33
1.6.2.1 Notion d'entropie ...................................................................................33
1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information ...34
1.6.2.3 Comprendre le deuxième principe de la thermodynamique ..................36
1.6.2.4 Etre vivant et thermodynamique ............................................................37
1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de
Prigogine ...............................................................................................37
1.6.3 Agnosticisme et athéisme ................................................................................... 39
1.6.3.1 Le malheureux pari de Pascal ...............................................................39
1.6.3.2 Athéisme, positivisme et altruisme ........................................................40
1.6.3.3 Existe, n'existe pas ou existe autrement ? ............................................40
1.7 Conclusions sur les preuves logiques de l'existence de Dieu .....................41
1.8 Références ........................................................................................................41
2. Matérialisme et idéalisme ............................................................... 44
2.1 Matérialisme et idéalisme : définitions ...........................................................44
2.1.1 Définition succincte du matérialisme ................................................................. 44
2.1.2 Définition succincte de l'idéalisme ..................................................................... 45
2.1.3 Ce qui oppose matérialistes et idéalistes .......................................................... 45
2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ? ...................................... 47

5
2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni infirmés ...........48
2.3 La critique nietzschéenne ................................................................................48
2.4 Références ........................................................................................................51
3. Le déterminisme étendu - une contribution pour la pensée
rationnelle ......................................................................................... 53
3.1 Prédictions d'évolutions ..................................................................................53
3.1.1 Première définition du déterminisme ................................................................. 54
3.1.2 Définition, promesses et critique du déterminisme philosophique ................. 55
3.1.2.1 Le déterminisme philosophique est contredit par des faits ....................55
3.1.2.2 Définition succincte du déterminisme scientifique .................................57
3.1.3 Le postulat de causalité ...................................................................................... 58
3.1.3.1 Définition du postulat de causalité .........................................................58
3.1.3.1.1 Causalité étendue 58
3.1.3.1.2 Principe de la conservation de l'information dans l'Univers 59
3.1.3.2 Causalité, réalisme et idéalisme ............................................................61
3.1.3.3 Causalité, nécessité et explication du monde........................................61
3.1.4 Principe de raison suffisante .............................................................................. 62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante .....................63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme ......................64
3.1.4.3 Principe de raison suffisante du connaître ............................................64
3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation) ....65
3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation ............66
3.1.4.6 Réciproques d'une raison suffisante d'évolution....................................66
3.1.4.7 Raison suffisante et chaîne de causalité ...............................................67
3.1.5 Principe d'homogénéité ...................................................................................... 67
3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité..................68
3.1.5.2 Déterminisme et principe d'homogénéité ..............................................69
3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité .................70
3.1.6 Le déterminisme scientifique .............................................................................. 70
3.1.6.1 Règle de stabilité ...................................................................................70
3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution ....................71
3.1.6.3 Définition du déterminisme scientifique .................................................72
3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles 73
3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels 73
3.1.6.4 Déterminisme scientifique et obstacles à la prédiction ..........................74
3.1.6.4.1 L'ignorance de la loi d'évolution 75
3.1.6.4.2 L'imprécision 75
3.1.6.4.3 Le caractère stochastique - Déterminisme statistique 77
3.1.6.4.4 La complexité 80
3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire 87
3.1.7 Déterminisme statistique de l'échelle macroscopique...................................... 88
3.1.8 Ensemble de définition d'une loi déterministe .................................................. 88
3.1.8.1 Structure................................................................................................88
3.1.8.2 Ensemble de définition d'une loi déterministe .......................................91
3.1.8.3 Une erreur de certains philosophes.......................................................92
3.1.9 Hasard .................................................................................................................. 92
3.1.9.1 Le hasard dans l'évolution selon une loi de la nature ............................92
3.1.9.2 Prédictibilité statistique d'une évolution .................................................93
3.1.9.3 Définition de René Thom .......................................................................94

6
3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes -
Hasard par ignorance ............................................................................94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes 95
3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes 95
3.1.9.5 Définition par la quantité d'information ..................................................96
3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ? ............96
3.1.9.7 Hasard postulé et hasard prouvé ..........................................................96
3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et
hasard ...................................................................................................98
3.1.9.9 Hasard et niveau de détail d'une prédiction ...........................................99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité ....................... 100
3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique
quantique ............................................................................................ 100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle ....... 101
3.1.9.13 Evolutions attribuées à tort au hasard ................................................. 101
3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence ........ 102
3.1.9.15 Il faut admettre les dualités de comportement ..................................... 103
3.1.10 Chaos.................................................................................................................. 104
3.1.10.1 Définition ............................................................................................. 104
3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe........ 104
3.1.10.3 Conditions d'apparition d'une évolution chaotique – Série de Fourier . 105
3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique ...... 106
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg .. 108
3.1.10.6 Fluctuations de variables macroscopiques dues à des variations
microscopiques ................................................................................... 108
3.1.10.7 Amplification génétique et évolution du vivant vers la complexité ....... 109
3.1.10.8 Domaines où on connaît des évolutions chaotiques ........................... 110
3.1.10.9 Exemples de phénomènes chaotiques................................................ 110
3.1.10.9.1 Problème des 3 corps 110
3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe 112
3.1.11 Turbulence ......................................................................................................... 113
3.1.12 Le déterminisme étendu .................................................................................... 114
3.1.12.1 Propriétés des lois de l'Univers ........................................................... 114
3.1.12.1.1 Uniformité des lois de la nature 114
3.1.12.1.2 Postulat de causalité 116
3.1.12.2 Définition du déterminisme étendu ...................................................... 116
3.1.12.2.1 Définition constructive du déterminisme étendu 117
3.1.12.2.2 Validité de cette approche 117
3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme 118
3.1.12.2.4 Limites de la règle de stabilité du déterminisme 118
3.1.12.3 Stabilité des lois d'évolution et situations nouvelles ............................ 120
3.1.12.3.1 Apparition d'une loi d'évolution 120
3.1.12.3.2 Restriction du postulat de causalité 120
3.1.12.3.3 Exemples d'apparitions 121
3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions 122
3.1.12.4 Conclusions sur le déterminisme étendu et la causalité ...................... 122
3.1.12.4.1 Déterminisme étendu : un principe et un objectif 122
3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique 123
3.2 Imprédictibilité de la pensée humaine .......................................................... 126
3.2.1 La barrière de complexité .................................................................................. 127
3.2.2 Rigueur des raisonnements déductifs ............................................................. 128
3.2.3 Champ d'application du déterminisme et de la causalité ............................... 129

7
3.3 Compléments philosophiques sur le déterminisme physique ................... 129
3.3.1 Trois cas particuliers de déterminisme de la nature ....................................... 129
3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel ................ 130
3.3.2.1 Différence entre symétrie temporelle et réversibilité ............................ 131
3.3.2.2 Phénomène irréversible ...................................................................... 132
3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible ............ 133
3.3.2.4 Système conservatif ou dissipatif – Force conservative ou
dissipative............................................................................................ 134
3.3.3 Portée du déterminisme : locale ou globale .................................................... 134
3.3.3.1 Principe de moindre action de Maupertuis .......................................... 135
3.3.3.2 Principe de Fermat (plus court chemin de la lumière) ......................... 135
3.3.3.3 Quasi-cristaux ..................................................................................... 135
3.3.3.4 Variables complémentaires ................................................................. 136
3.3.3.5 Conclusion sur le déterminisme global ................................................ 136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle .............................. 137
3.3.3.7 Déterminisme des algorithmes et calculabilité..................................... 137
3.3.4 Compléments sur le déterminisme philosophique .......................................... 137
3.3.4.1 Critique de l'enchaînement des causes et des conséquences ............ 138
3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution 138
3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme
philosophique 139
3.3.4.2 Déterminisme, mesures et objectivité.................................................. 139
3.3.4.3 Déterminisme et libre arbitre de l'homme ............................................ 140
3.3.4.4 Conclusions critiques sur le déterminisme traditionnel ........................ 140
3.4 Pourquoi ce texte et les efforts qu'il suppose .............................................. 141
3.4.1 Inconvénients de l'ignorance, avantages de la connaissance ....................... 141
3.4.2 Ambition limitée de ce texte .............................................................................. 143
3.5 Le déterminisme en physique ....................................................................... 144
3.5.1 Système et état .................................................................................................. 144
3.5.1.1 Degrés de liberté d'un système ........................................................... 144
3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté 145
3.5.2 Espace des phases – Stabilité des lois physiques d'évolution ...................... 146
3.5.2.1 Représentation de l'évolution d'un système ........................................ 148
3.5.2.1.1 Evolution d'un système représentée par des équations différentielles 149
3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution ....... 149
3.5.2.3 Stabilité de l'évolution d'un système conservatif .................................. 151
3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système ............ 151
3.5.2.5 Système dissipatif par frottements - Attracteur .................................... 152
3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite . 152
3.5.2.7 Système à évolution quasi périodique ................................................. 153
3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation............ 154
3.5.2.9 Imprédictibilité et hasard ..................................................................... 154
3.5.2.10 Systèmes apériodiques – Attracteurs étranges ................................... 155
3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique .......... 156
3.5.3 Etat quantique d'un système ............................................................................ 158
3.5.3.1 Vecteur d'état ...................................................................................... 158
3.5.3.2 Espace des états ................................................................................. 158
3.5.3.3 Réalité physique et représentation dans l'espace des états ................ 158
3.5.3.4 Espace des phases d'un champ et espace des états associé ............. 159
3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes ....... 160
3.5.4 Les contradictions de la physique traditionnelle et de son déterminisme .... 160

8
3.5.5 Des forces physiques étonnantes .................................................................... 161
3.5.6 L'évolution nécessite une interaction avec échange d'énergie ...................... 162
3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états ...... 163
3.5.7.1 Notions de Mécanique quantique ........................................................ 163
3.5.7.2 De la contingence à la probabilité ....................................................... 164
3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes ..... 165
3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique 165
3.5.7.3.2 Différence entre déterminisme statistique et hasard pur 166
3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière 167
3.5.7.3.4 Trajectoire d'un corpuscule 168
3.5.7.3.5 Théorie de la résonance chimique 172
3.5.7.3.6 Conséquences pour le déterminisme 172
3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger) ..... 174
3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle 175
3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste 176
3.5.7.5 Etats finaux d'un système macroscopique .......................................... 176
3.5.8 2e extension du déterminisme : superpositions et décohérence ................... 177
3.5.8.1 Superposition d'états et décohérence ................................................. 177
3.5.8.2 Superposition de trajectoires ............................................................... 178
3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires ................. 179
3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III .... 180
3.5.9 3e extension du déterminisme : quantification et principe d'incertitude ....... 184
3.5.9.1 Quantification des niveaux d'énergie et des échanges d'énergie ........ 184
3.5.9.2 Les trois constantes les plus fondamentales de l'Univers ................... 184
3.5.9.3 Position et vitesse d'une particule ....................................................... 184
3.5.9.4 Paquet d'ondes et étalement dans le temps ........................................ 184
3.5.9.4.1 Description d'un paquet d'ondes de probabilité 184
3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule 186
3.5.9.4.3 Cas d'une onde de photon 187
3.5.9.5 Incertitude sur la détermination simultanée de 2 variables
(Heisenberg)........................................................................................ 187
3.5.9.6 Remarques sur l'incertitude et l'imprécision ........................................ 189
3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure 190
3.5.9.7 Incertitude contextuelle ....................................................................... 190
3.5.9.8 Incertitude due à l'effet Compton ......................................................... 191
3.5.9.9 Mesures, incertitude et objectivité ....................................................... 192
3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée 192
3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple 192
3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire 193
3.5.9.9.4 Mesure grâce à un grand nombre de particules 194
3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique
quantique 194
3.5.9.9.6 Contraintes de non-indépendance de variables 195
3.5.9.9.7 Objectivité des mesures 196
3.5.9.9.8 La « mathématicophobie » et l'ignorance 197
3.5.9.10 Quantification des interactions et conséquences sur le déterminisme 198
3.5.9.10.1 Différence entre quantification et imprécision 199
3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie 199
3.5.9.10.3 Conséquences de la quantification des interactions : extension du
déterminisme 200
3.5.9.10.4 Quantification des vibrations - Phonons et frottements 200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière 201
3.5.9.10.6 Effets photoélectriques 202

9
3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme .......... 202
3.5.10 4e extension du déterminisme : lois de conservation et symétries ................ 205
3.5.10.1 Invariance de valeurs, invariance de lois physiques ............................ 205
3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps ........ 205
3.5.10.3 Invariances et lois de conservation (lois fondamentales de la
physique) ............................................................................................. 208
3.5.10.4 Un vide plein d'énergie ........................................................................ 209
3.5.10.4.1 Le vide de la physique quantique 209
3.5.10.4.2 Champ et boson de Higgs 211
3.5.10.4.3 Distance, temps, densité et masse de Planck 212
3.5.10.4.4 Le vide de l'espace cosmique 213
3.5.10.4.5 Expansion de l'Univers visible 214
3.5.10.5 Conclusions sur les symétries et lois de conservation ........................ 216
3.5.11 5e extension du déterminisme : complexité, imprévisibilité, calculabilité ..... 217
3.5.11.1 Combinaison de nombreux phénomènes déterministes ...................... 218
3.5.11.1.1 Mécanique statistique 219
3.5.11.2 Déterminisme + complexité = imprévisibilité........................................ 219
3.5.11.3 Modélisation des systèmes complexes, notamment ceux du vivant.... 220
3.5.11.3.1 Des avancées très prometteuses en matière de modélisation 221
3.5.11.4 Analyse statistique de systèmes complexes ....................................... 222
3.5.11.5 Complexité et décisions médicales ..................................................... 223
3.5.11.6 Résultats remarquables de certains processus calculables ................ 225
3.5.11.6.1 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers 225
3.5.11.6.2 Dynamique des populations 226
3.5.11.7 Déterminisme et durée ........................................................................ 228
3.5.11.7.1 Nombres réels et problèmes non calculables 229
3.5.11.7.2 Il y a infiniment plus de réels non calculables que de réels calculables 231
3.5.11.7.3 Propositions indécidables 232
3.5.11.8 Calculabilité, déterminisme et prévisibilité ........................................... 233
3.5.11.8.1 Calculabilité d'une prédiction 235
3.5.11.8.2 Phénomènes déterministes à conséquences imprévisibles et erreurs
philosophiques 236
3.5.11.8.3 Calculabilité par limitations et approximations 237
3.5.11.9 Déterminisme et convergence des processus et théories ................... 238
3.5.11.10 Logique formelle. Calcul des propositions. Calcul des prédicats ......... 239
3.5.11.10.1 Logique formelle et logique symbolique 239
3.5.11.10.2 Calcul des propositions 240
3.5.11.10.3 Calcul des prédicats 241
3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations
diophantiennes .................................................................................... 242
3.5.11.12 Certitude de l'existence d'une démonstration dans une axiomatique .. 243
3.5.11.13 Génération de nombres "aléatoires" avec une formule déterministe ... 243
3.5.11.14 Attracteurs multiples ............................................................................ 244
3.5.11.15 « Accidents » de la réplication du génome et évolution vers la
complexité ........................................................................................... 245
3.5.11.16 Approche heuristique du déterminisme ............................................... 247
3.5.12 6e extension du déterminisme : irréversibilité thermodynamique .................. 248
3.5.12.1 Evolution unidirectionnelle du temps ................................................... 248
3.5.12.2 Radioactivité naturelle et stabilité des particules atomiques ou
nucléaires ............................................................................................ 249
3.5.12.3 L'irréversibilité est une réalité, pas une apparence ............................. 251

10
3.5.12.4 Décroissance de l'entropie. Structures dissipatives. Auto-
organisation ......................................................................................... 251
3.5.12.5 Programme génétique et déterminisme .............................................. 253
3.5.12.5.1 Gènes et comportement humain 254
3.5.12.5.2 Renouvellement biologique et persistance de la personnalité 255
3.5.12.5.3 Evolution du programme génétique 256
3.5.12.5.4 Evolution d'une population 257
3.5.12.5.5 Evolution due à une modification de l'expression de gènes 258
3.5.12.5.6 Conclusion sur le déterminisme génétique 259
3.5.12.6 Vie, organisation, complexité et entropie ............................................. 260
3.5.12.6.1 Apparition de la vie et évolution des espèces 260
3.5.12.6.2 Preuves de l'évolution darwinienne des espèces 261
3.5.12.6.3 L'obstination des tenants du créationnisme 262
3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs .................... 262
3.5.12.7.1 Principe d'exclusion de Pauli 263
3.5.12.7.2 La masse limite de Chandrasekhar - Supernova 264
3.5.12.7.3 Les étoiles à neutrons 265
3.5.12.7.4 Les trous noirs 266
3.5.12.7.5 Masses et dimensions dans l'Univers 267
3.5.12.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée 268
3.5.12.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir 271
3.5.12.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel 271
3.5.12.7.9 Caractéristiques d'un trou noir 272
3.5.12.7.10 Et en plus, un trou noir s'évapore ! 274
3.5.12.7.11 Quantité d'information dans un volume délimité par une surface 275
3.5.12.7.12 Surface nécessaire pour décrire une évolution - Principe holographique 276
3.5.12.8 Le Big Bang, phénomène irréversible ................................................. 276
3.5.12.9 Univers à plus de 4 dimensions........................................................... 277
3.5.13 7e extension du déterminisme : Relativité, écoulement du temps ................. 278
3.5.13.1 Relativité et irréversibilité .................................................................... 280
3.5.13.2 Particules virtuelles. Electrodynamique quantique .............................. 280
3.5.14 Attitude face au déterminisme .......................................................................... 281
3.5.14.1 Conséquences des lois de la nature sur le déterminisme ................... 282
3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique 282
3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées 285
3.5.14.1.3 Multiplicité des conséquences possibles 286
3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final 287
3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus 287
3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité 288
3.5.14.1.7 Irréversibilité 288
3.5.14.1.8 Relativité 289
3.5.14.1.9 Matérialisme et déterminisme des lois du vivant 289
3.5.14.2 Attitude recommandée face au déterminisme ..................................... 289
3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français 290
3.5.14.2.2 La liberté d'esprit et d'expression 291
3.5.14.2.3 L'ouverture d'esprit 292
3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable 293
3.5.14.2.5 Le « principe anthropique » 294
3.6 Le déterminisme humain ................................................................................ 297
3.6.1 Niveaux d'abstraction et déterminisme ............................................................ 298
3.6.1.1 Définition d'une représentation - Différences avec une essence ........ 298
3.6.1.2 Définition d'un concept ........................................................................ 299
3.6.1.3 Densité et profondeur d'abstraction ..................................................... 300

11
3.6.1.4 Compréhension par niveaux d'abstraction .......................................... 303
3.6.1.5 Penser par niveaux d'abstraction ........................................................ 304
3.6.1.6 Introduction à la Théorie informationnelle du psychisme ..................... 304
3.6.1.6.1 La machine de Turing 304
3.6.1.6.2 Hiérarchie des langages de l'informatique 305
3.6.1.6.3 Penser la complexité par niveaux hiérarchiques 306
3.6.1.6.4 Processus d'abstraction et de mémorisation 307
3.6.1.7 Niveaux d'information biologique et déterminisme génétique .............. 308
3.6.1.7.1 L'information du logiciel génétique 309
3.6.1.7.2 Etres vivants artificiels définis à partir de leur seul code génétique 310
3.6.1.8 Objections idéalistes et leur réfutation................................................. 310
3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ? 311
3.6.1.9 Les pensées ne sont que des interprétations de l'état du cerveau ...... 312
3.6.1.10 A chaque niveau fonctionnel son niveau logiciel ................................. 313
3.6.1.11 Critères de valeur et d'efficacité, et mécanismes d'évaluation ............ 314
3.6.1.12 Une signalisation permanente dans le cerveau ................................... 315
3.6.1.13 Hiérarchie logicielle de la pensée - Modélisation informationnelle ...... 316
3.6.1.14 Reconnaissance de formes, structures, processus et intentions ......... 317
3.6.1.15 Intuition d'abord, justification après ..................................................... 318
3.6.1.16 Evaluation permanente parallèle de situations hypothétiques ............. 319
3.6.1.17 "Le monde comme volonté et représentation" de Schopenhauer........ 319
3.6.1.18 Mémorisation et acquisition d'expérience - Déterminisme culturel ...... 320
3.6.1.18.1 Mécanismes physiologiques de la mémoire 320
3.6.1.18.2 Acquisition d'expérience 321
3.6.1.18.3 La mémoire sélective 323
3.6.1.19 Désirs et satisfaction artificiels. Drogues ............................................. 323
3.6.1.20 Des pensées peuvent aussi se comporter comme des drogues ......... 324
3.6.2 Mécanismes psychiques non algorithmiques ou imprévisibles .................... 325
3.6.2.1 Définitions............................................................................................ 325
3.6.2.1.1 Mécanisme psychique algorithmique 325
3.6.2.1.2 Mécanisme psychique déterministe 326
3.6.3 La conscience .................................................................................................... 326
3.6.3.1 Conscience morale.............................................................................. 327
3.6.3.2 Conscience de..................................................................................... 327
3.6.3.2.1 La conscience de, ETAT du psychisme 327
3.6.3.2.2 La prise de conscience de, ACTION du psychisme 328
3.6.3.2.3 La conscience de est un couple {Objet + Schéma d'attention} 331
3.6.3.2.4 Le champ d'attention 332
3.6.3.2.5 La conscience de soi 333
3.6.3.2.6 Conscience d'un objet quelconque 333
3.6.3.2.7 Modèle prévisionnel de l'évolution d'un objet - Intention d'agir 334
3.6.3.2.8 Conscience d'autrui - La Théorie de l'esprit 334
3.6.3.3 Conscience.......................................................................................... 334
3.6.3.4 Conclusion sur la conscience .............................................................. 336
3.6.3.5 Théorie informationnelle du psychisme ............................................... 336
3.6.3.6 Considérations philosophiques sur la conscience ............................... 337
3.6.3.6.1 Conscience et pensée non algorithmique 339
3.6.3.6.2 Conclusion sur le caractère non-algorithmique et non-déterministe de la
pensée 343
3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ? 343
3.6.4 Le modèle informatique de l'homme ................................................................ 344
3.6.4.1 La pensée en tant que processus d'interprétation ............................... 344

12
3.6.4.2 Modèle logiciel à couches du psychisme ............................................ 345
3.6.4.3 Le fonctionnement du psychisme n'est pas souvent déterministe ....... 345
3.6.4.4 Autres raisonnements humains inaccessibles à un ordinateur ............ 346
3.6.5 Libre arbitre, imprévisibilité et transgressions ................................................ 346
3.6.6 Différences entre représentations mentales de personnes différentes ......... 348
3.6.7 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle....... 350
3.6.7.1 Difficulté d'expliquer un comportement macroscopique à partir de
phénomènes au niveau atomique ....................................................... 350
3.6.7.2 Niveau des phénomènes naturels ....................................................... 351
3.6.7.3 Niveau des phénomènes sociétaux..................................................... 351
3.6.7.4 Autonomie des niveaux et compréhension holistique .......................... 352
3.6.7.5 Holisme ............................................................................................... 353
3.6.8 Complexité, ouverture d'esprit et causes occultes : discussion polémique . 354
3.6.9 Etre intelligent, déterminisme et prévisibilité .................................................. 357
3.6.9.1 Equité, confiance, coopération et déterminisme psychologique .......... 359
3.6.9.1.1 Le jeu "Prends ou laisse" 359
3.6.9.1.2 Le point de vue de Kant 360
3.6.10 Le besoin de tromper ses adversaires. Les deux types d'incertitude ............ 360
3.6.10.1 Recherches sur les stratégies de bluff et décision en ambiance
d'incertitude ......................................................................................... 362
3.6.10.2 Concurrence entre raison et affects. Connaissances cachées ............ 362
3.6.10.2.1 Importance des automatismes dans la pensée humaine 365
3.6.10.2.2 Coup de foudre 366
3.6.10.2.3 Connaissances cachées 366
3.6.11 Mécanismes de l'intuition.................................................................................. 367
3.6.11.1 La concurrence entre raison et intuition .............................................. 368
3.6.11.1.1 Le jeu du "Dilemme des voyageurs" 368
3.6.11.1.2 L'homme ne suit que les conclusions conformes à ses valeurs 369
3.6.11.1.3 Un raisonnement critiquable 370
3.6.11.1.4 La science économique est basée sur un postulat contestable 370
3.6.12 Ordinateur et compréhension humaine ........................................................... 371
3.6.13 Compréhension, imagination et certitude ........................................................ 373
3.6.14 Les deux étapes d'une décision consciente .................................................... 374
3.7 Le déterminisme dans notre société - La mondialisation ........................... 374
3.7.1 Théories utilitaires des XVIIe et XVIIIe siècles .................................................. 375
3.7.2 Craintes et regrets d'aujourd'hui ...................................................................... 376
3.7.3 Une analogie entre évolution darwinienne et économie de marché .............. 377
3.7.4 La mondialisation, résultat de la concurrence et des communications ........ 378
3.7.4.1 Lois de la physique et lois de l'économie ............................................ 379
3.7.4.2 Conséquences économiques de la mondialisation.............................. 379
3.7.4.3 Mondialisation : causes et inconvénients pour l'homme ...................... 382
3.7.4.3.1 L'homme, perpétuel insatisfait qui accuse parfois la mondialisation 383
3.7.4.3.2 Frustration due aux désirs insatisfaits et réactions 384
3.7.4.4 Accepter donc la mondialisation .......................................................... 384
3.8 Le déterminisme du vivant ............................................................................. 385
3.8.1 Définitions du vivant .......................................................................................... 385
3.8.2 Etres vivants et déterminisme .......................................................................... 385
3.8.3 Possibilité thermodynamique d'une complexification naturelle .................... 386
3.8.4 Possibilité de créer artificiellement un comportement vivant ........................ 386
3.8.4.1 Synthèse d'acides aminés ................................................................... 386
3.8.4.2 Génie génétique .................................................................................. 387
3.8.5 Modélisation informatique/neuropsychique du vivant .................................... 387

13
3.8.5.1 Transmission nerveuse : un mécanisme tout-ou-rien .......................... 387
3.8.5.2 Organisation architecturale et organisation fonctionnelle .................... 389
3.8.5.3 Algorithmes d'action et algorithmes d'évaluation ................................. 390
3.8.5.4 Modèle informatique et fonctions de base de la vie............................. 390
3.8.6 Conclusions sur le déterminisme du vivant et sa prévisibilité ....................... 391
3.9 Critique du déterminisme ............................................................................... 392
3.9.1 Conditions de prise en défaut du déterminisme .............................................. 392
3.9.2 Conclusion : il faut postuler le déterminisme .................................................. 394
3.9.3 La causalité elle-même peut-elle être remise en question ? ........................... 394
3.9.3.1 Objections à la causalité contestant la méthode scientifique .............. 394
3.9.3.2 Causalité et théorie de la Relativité ..................................................... 396
3.9.3.3 Définitions approfondies d'une cause et de la causalité ...................... 397
3.9.3.4 Horizon de prédiction ou de reconstitution du passé ........................... 398
3.9.3.5 Critique de la notion de cause première (cause ultime) ...................... 400
3.9.3.5.1 Définition et problématique 400
3.9.3.5.2 Un temps cyclique, pure spéculation 402
3.9.3.5.3 Théorie cosmologique de la gravitation quantique 402
3.9.3.5.4 Conséquences de la cosmologie sur le « début de la causalité » 402
3.9.3.5.5 Conséquences de la Relativité sur l'unicité de la cause première 403
3.9.3.6 Autres problèmes de la notion de causalité ......................................... 404
3.9.3.6.1 Objections de multiplicité 404
3.9.3.6.2 Objections de complexité et de chaos 404
3.9.3.6.3 Objection de séparabilité 404
3.9.3.6.4 Légitimité d'une recherche de causalité 404
3.9.4 Critique de la méthode scientifique et de la vérité scientifique ...................... 405
3.9.4.1 Les formalistes .................................................................................... 405
3.9.4.2 Les intuitionnistes ................................................................................ 405
3.9.4.3 Les platoniciens................................................................................... 406
3.9.4.4 Les rationalistes du XVIIIe siècle......................................................... 406
3.9.4.5 Les empiristes ..................................................................................... 407
3.9.4.6 Le rationalisme critique de Karl Popper ............................................... 407
3.9.4.6.1 Définition d'une vérité scientifique 408
3.9.4.6.2 Définition d'une théorie appliquée à un domaine pratique 409
3.9.4.6.3 Critères à respecter pour qu'une théorie scientifique soit acceptable 410
3.9.4.6.4 Risques et inconvénients d'une vérité scientifique par consensus 411
3.9.4.6.5 Une théorie peut-elle être probable ? 412
3.9.4.6.6 Définition d'une théorie scientifique objective 412
3.9.4.6.7 Comparaison du rationalisme critique avec l'empirisme 412
3.9.4.6.8 Polémique entre le rationalisme critique et le conventionalisme 413
3.9.4.6.9 Objection holistique à la falsifiabilité 414
3.9.4.6.10 Les systèmes interprétatifs 414
3.9.4.6.11 Sciences dures et sciences molles 415
3.9.4.6.12 Evolution d'une vérité, de la science et du monde selon Popper 416
3.9.4.6.13 Critique de la position de Popper sur le déterminisme 417
3.9.4.7 Dogmatisme de ma méthode de travail ............................................... 418
3.10 L'homme est-il libre malgré le déterminisme ? ..................................... 418
3.10.1 L'homme est toujours insatisfait ...................................................................... 418
3.10.2 Les 3 déterminants de la conscience et l'imprévisibilité de l'homme ............ 418
3.10.3 Désirs conscients de l'homme et critères d'appréciation ............................... 419
3.10.4 L'homme ne maîtrise ni ses valeurs, ni ses désirs.......................................... 419
3.10.5 Définitions du libre arbitre et de la liberté ........................................................ 420
3.10.6 Exclusions de la discussion qui suit sur le libre arbitre ................................. 421

14
3.10.7 Le libre arbitre selon Sartre .............................................................................. 424
3.10.8 Conclusion sur le libre arbitre .......................................................................... 424
3.10.9 Libre arbitre, déterminisme et responsabilité .................................................. 425
3.10.9.1 Point de vue idéaliste .......................................................................... 425
3.10.9.2 Point de vue matérialiste ..................................................................... 426
3.10.9.3 La société passe avant l'individu ......................................................... 426
3.10.9.4 Pas de tyrannie de la majorité ............................................................. 427
3.10.9.5 Morale naturelle, morale acquise et responsabilité de l'homme .......... 427
3.11 Conclusions et recommandations pratiques......................................... 428
3.12 Références et compléments.................................................................... 430
3.13 Annexe : l'espace-temps de Minkowski ................................................. 547
3.13.1 La Relativité Restreinte ..................................................................................... 547
3.13.2 L'espace-temps .................................................................................................. 547
3.13.3 Diagramme d'espace-temps.............................................................................. 547
3.13.4 Intervalle d'espace-temps ................................................................................. 551
3.13.5 Condition de causalité entre deux événements............................................... 552
3.13.6 Indépendance entre deux événements et relation de causalité ..................... 553
3.13.7 Conclusions sur la causalité ............................................................................. 556
3.13.8 Remarque sur la simultanéité ........................................................................... 556
3.13.9 Ligne d'univers .................................................................................................. 557
3.13.10 Relativité Générale. Mouvement accéléré. Inclinaison du cône de lumière .. 557
3.13.11 Paradoxe du voyageur de Langevin ................................................................. 558
3.13.12 Quadrivecteur énergie-impulsion ..................................................................... 559
3.14 Scientifiques et philosophes cités ......................................................... 561
3.15 Résumé des cas d'imprédictibilité.......................................................... 565

15
Première partie

1. Où en sont les preuves de l'existence de Dieu ?


1.1 Définitions de Dieu et de la religion
Le philosophe athée André Comte-Sponville écrit dans [5], pages 80 et 16 :
"J'entends par « Dieu » un être éternel spirituel et transcendant (à la fois extérieur
et supérieur à la nature), qui aurait consciemment et volontairement créé
l'univers. Il est supposé parfait et bienheureux, omniscient et omnipotent. C'est
l'être suprême, créateur et incréé (il est cause de soi), infiniment bon et juste,
dont tout dépend et qui ne dépend de rien. C'est l'absolu en acte et en personne."
"J'appelle « religion » tout ensemble organisé de croyances et de rites portant
sur des choses sacrées, surnaturelles ou transcendantes, et spécialement sur
un ou plusieurs dieux, croyances et rites qui unissent en une même
communauté morale ou spirituelle ceux qui s'y reconnaissent ou les pratiquent."

Avant André Comte-Sponville, le sociologue Durkheim avait donné en 1912 [5-a] une
définition un peu différente de la religion, dont André Comte-Sponville s'est inspiré :
"La religion est « un système solidaire de croyances et de pratiques relatives à
des choses sacrées (c’est-à-dire séparées, interdites), croyances et pratiques qui
unissent en une même communauté morale, appelée Eglise, tous ceux qui y
adhèrent »."

Ces deux définitions de la religion ne font pas référence à un dieu mais à des choses
sacrées, ce qui permet de prendre en compte les religions animistes et de classer le
bouddhisme (croyance sans dieu) parmi les religions.
En outre, la définition de Durkheim a l'avantage de rappeler le nom donné à une
« communauté morale ou spirituelle » : une Eglise.

En tant que système de croyances, une religion fait partie d'une culture.

Compte tenu de ces définitions, voyons quelles sont les raisons psychologiques de
croire en Dieu de certains hommes.

16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité

Prééminence des émotions sur la raison


Les connaissances actuelles, issues des neurosciences et de la psychologie,
permettent d'affirmer ce qui suit.
 L'esprit humain ne déclenche une action, geste ou pensée, que pour satisfaire
un besoin psychologique, résultant d'une perception physique, d'une émotion
inconsciente ou d'une pensée ayant produit un affect. J'agis ou je réfléchis parce
que j'ai faim, j'ai peur, je suis amoureux, j'ai soif de justice, j'ai besoin d'être
apprécié, j'espère une récompense, etc.
 Un processus de raisonnement est accompagné de jugements de valeur à
chaque étape, avec les affects qui en résultent. De même que chaque
perception, chaque pensée est automatiquement et immédiatement jugée en
fonction de ses conséquences prévisibles, dont chacune est associée à une ou
plusieurs valeurs. C'est ainsi que notre cerveau fonctionne, c'est automatique et
impossible à empêcher.
 La conclusion logique d'un raisonnement ne cause jamais une action ou une
inaction ; elle ne peut que faire craindre ou espérer un résultat, dont
l'appréciation produira un affect qui justifiera une action. La raison de l'homme
est un outil au service de ses affects, un outil au même titre que sa force
physique, et pas plus qu'elle.
Les philosophes qui pensent, comme Descartes, que la raison est toute-puissante
pour faire faire à l'homme des choix contraires à ses désirs profonds se trompent,
les neurosciences l'ont bien démontré aujourd'hui. L'homme a bien un libre arbitre,
mais toutes les décisions qu'il croit prendre librement sont soumises à un
ensemble hiérarchisé de valeurs associées à des émotions, valeurs et émotions
dont il n'est pas maître : l'homme peut faire ce qu'il veut, il ne peut pas vouloir ce
qu'il veut.

Pourquoi certains croient en Dieu


Compte tenu de ce qui précède, je ne vois que deux raisons psychologiques qui font
que certains hommes croient en Dieu :
 Le besoin que le monde ait un sens, c'est-à-dire qu'on ait une réponse à des
questions comme :
 « Pourquoi y a-t-il quelque chose plutôt que rien ? » ;
 « Comment l'Univers est-il né ? » ou (plus moderne) « Qu'y avait-il avant le
Big Bang ? » ;
 « Pourquoi l'Univers est-il si complexe et si beau ? » ;
 « Comment se fait-il que l'évolution ait abouti à ces merveilles de complexité
que sont l'homme et l'environnement qui lui permet de vivre, et n'est-ce pas
là une preuve qu'elle a été guidée par une volonté délibérée au lieu d'être le
fait d'un hasard aveugle ? ».
Croire que la réponse à cette dernière question est nécessairement « Parce
qu'il y a un Dieu » s'appelle poser le principe anthropique. J'explique l'erreur

17
de raisonnement à la base de ce postulat au paragraphe « Le principe
anthropique ».
L'homme a un besoin instinctif de relier entre eux des faits, des événements ou
des pensées diverses, pour les comprendre, c'est-à-dire leur donner une structure
et situer celle-ci par rapport à d'autres connaissances qu'il a déjà. L'absence de
structure ou de lien avec des connaissances préexistantes induit instinctivement
dans son esprit une crainte de l'inconnu et des dangers éventuels qu'il peut
comporter. Tous les hommes sont ainsi, depuis des milliers d'années que leur
esprit pense : il a besoin de sens. [D10]
Expliquer ce qu'on ne comprend pas par l'existence et la volonté de Dieu évite de
continuer à chercher une réponse en restant dans l'incertitude. Et lorsque des
hommes influents, prêtres ou rois, disent croire à l'explication divine, lorsqu'autour
de soi tout le monde y croit comme au Moyen Age, l'existence du Dieu créateur
devient une évidence.
 Le besoin de valeurs bien définies [70], comme le Bien et le Mal, le Sacré et le
Profane, le Juste et l'Injuste, la Charité et l'Indifférence, etc. Dans un monde où
le mal est inévitable et source de tant de souffrances, l'homme peut se consoler
en pensant que Dieu lui apportera le bonheur dans l'au-delà. Face à l'injustice,
l'homme peut espérer la justice divine. Le pauvre peut espérer la charité, etc.
On prête à Dieu la défense des valeurs positives auxquelles on veut croire et qui
consolent. Les textes sacrés définissent des règles de morale [70] et des principes
de justice grâce auxquels les sociétés ont pu se donner des règles vie en commun
acceptables et les hommes ont pu créer du lien social.
Il est important de savoir que le besoin psychologique de valeurs de certaines
personnes peut être satisfait sans religion ni foi en Dieu, comme le montre [5].

Vérités et valeurs révélées contre science et laïcité


Au fur et à mesure que le progrès des connaissances rationnelles, c'est-à-dire la
science, faisait reculer l'ignorance, le besoin d'explication divine du monde diminuait.
Peu à peu, l'homme a remplacé les vérités révélées, éternelles et infalsifiables [203],
par des vérités démontrées. Celles-ci sont vérifiables même si chaque connaissance
peut un jour être remplacée par une connaissance plus approfondie. La science
explique ce qu'elle peut du monde sans jamais invoquer Dieu.

Au fur et à mesure du progrès des sociétés, c'est-à-dire de leurs institutions et des


règles de vie admises par leurs citoyens, le besoin de valeurs et règles d'inspiration
divine a diminué. Dans une démocratie moderne, on a remplacé les lois provenant de
textes sacrés par des lois imaginées et votées par des hommes. On a remplacé des
règles de morale [70] issues de lois religieuses (comme l'abstinence de relations
sexuelles hors mariage) par une tolérance limitée seulement par le respect d'autrui.
On a remplacé des tyrans « Roi par la grâce de Dieu » par des gouvernements issus
d'élections libres. On a remplacé des sociétés à classes privilégiées (comme la
noblesse et le clergé) par des sociétés d'hommes égaux en droits et en devoirs. La
laïcité [336] n'est pas seulement une tolérance, une neutralité vis-à-vis de croyances
et pratiques religieuses diverses, c'est aussi et surtout, depuis les Lumières [47], le
remplacement de valeurs révélées et imposées par des valeurs négociées et votées.

18
Historiquement, les grandes religions monothéistes ont eu deux rôles importants dans
les sociétés humaines : un apport culturel et moral et un lien social entre les croyants,
qui étaient la grande majorité. Ces deux influences ont beaucoup diminué dans
certaines sociétés : c'est le cas notamment de la France, et les retombées
sociologiques constatées sont graves [D6].

1.3 L'homme conçoit Dieu à son image


Je ne blasphème pas, je constate : les hommes prêtent à Dieu les qualités qu'ils n'ont
pas assez ou pas du tout, mais qu'ils désirent. Leur conception de Dieu est si
anthropomorphique qu'elle est parfois naïve ; on voit bien qu'elle résulte de leur
entendement [337], qu'elle reflète leurs problèmes. Tout à la fois, ils conçoivent Dieu
comme antérieur à l'homme, Sa créature ; extérieur à lui lorsqu'Il l'a créé, l'aide, le juge
ou le punit ; et si semblable à lui lorsqu'Il est jaloux de l'adoration d'autres dieux [D1].
Et la multiplicité des religions qui durent depuis des siècles montre que la même quête
des hommes a eu des réponses religieuses diverses, adaptées à des lieux et des
habitudes de vie divers. Nous compléterons ce point de vue ci-dessous.

Une contradiction fondamentale qui explique la volonté de prouver l'existence


de Dieu : le Problème du Mal
Il y a une contradiction fondamentale dans la définition même d'un Dieu infiniment bon,
avec Sa Providence qui intervient dans les situations graves où le mal pourrait
prévaloir : comment se fait-il, alors, que l'on constate depuis toujours dans le monde
autant de souffrances et d'injustices, et pourquoi Dieu laisse-t-il l'homme faire autant
de mal ? Les croyants ont une réponse à cette contradiction : « Dieu laisse à l'homme
son libre arbitre ». Cette réponse a été conçue, à l'évidence, pour innocenter Dieu.
Comme elle est contraire au bon sens, les croyants nous demandent de renoncer à
être logiques et à chercher à comprendre lorsqu'il s'agit de Dieu : « Les voies du
Seigneur sont impénétrables » [D3]. En somme, la religion est révélée et cette
révélation doit être acceptée sans être soumise à critique rationnelle.

Les grandes religions sont donc des religions révélées, c'est-à-dire présentées comme
vérités a priori, à accepter telles quelles sans démonstration. Pour elles, la recherche
de preuves logiques de l'existence de Dieu - que nous allons aborder ci-dessous - n'a
donc pas de raison d'être. Si tant de religieux et de philosophes croyants y ont travaillé,
c'était seulement pour convaincre les non-croyants de croire. En France, par exemple,
Pascal et Descartes ont milité en ce sens.

Alors que des parents cherchent à protéger leur enfant (qui risque de faire des bêtises
parce qu'il n'a pas encore l'âge de raison) en l'empêchant de les faire, Dieu, notre
Père, nous laisse les faire, quitte à nous punir ensuite : incohérence !

La contradiction (appelée traditionnellement « le problème du mal ») est même plus


grave que ci-dessus. Dans [5] page 122, André Comte-Sponville rapporte quatre
hypothèses attribuées à Epicure :
"« Ou bien Dieu veut éliminer le mal et ne le peut ; ou il le peut et ne le veut ; ou
il ne le veut ni ne le peut ; ou il le veut et le peut. S'il le veut et ne le peut, il est
impuissant, ce qui ne convient pas à Dieu ; s'il le peut et ne le veut, il est
méchant, ce qui est étranger à Dieu. S'il ne le peut ni le veut, il est à la fois
impuissant et méchant, il n'est donc pas Dieu. S'il le veut et le peut, ce qui

19
convient seul à Dieu, d'où vient donc le mal, ou pourquoi Dieu ne le supprime-t-il
pas ? »
La quatrième hypothèse, la seule qui soit conforme à notre idée de Dieu, est
donc réfutée par le réel même (l'existence du mal). Il faut en conclure qu'aucun
Dieu n'a créé le monde, ni ne le gouverne, soit parce qu'il n'y a pas de Dieu, soit
parce que les dieux (telle était l'opinion d'Épicure) ne s'occupent pas de nous, ni
de l'ordre ou du désordre du monde, qu'ils n'ont pas créé et qu'ils ne gouvernent
en rien..."

Compte tenu de la contradiction fondamentale qui apparaît avec le problème du mal,


il a paru essentiel à certains penseurs de vérifier en raisonnant que Dieu existe, ou de
prouver aux autres que c'est le cas.

1.4 Comment prouver l'existence de Dieu ?


L'homme se fait de Dieu une image très humaine, et pourtant si abstraite qu'il ne peut
en vérifier la validité et qu'il ne peut faire d'expérience qui prouve l'existence de Dieu
ou son intervention. Un croyant sait que Dieu ne relève pas les défis des hommes. La
proposition "Dieu existe" est infalsifiable et indécidable.
C'est pourquoi, depuis des millénaires, l'homme se demande comment se prouver
rationnellement à lui-même et à ses semblables que Dieu existe.

Le judaïsme, puis le christianisme et enfin l'islam sont des religions révélées. Chacune
affirme l'existence de Dieu et précise ses commandements en demandant à l'homme
de les croire sans démonstration ou preuve expérimentale. Chacune a des textes
sacrés qui citent la parole de Dieu sans preuve factuelle ou rationnelle, en demandant
à l'homme de faire acte de foi pour les croire.

Avant le siècle des Lumières [47] (qui a pris fin avec le décès de Kant, en 1804) seuls
quelques philosophes et quelques saints se sont préoccupés de convaincre leurs
semblables de croire en Dieu en apportant des preuves logiques - ou ce qu'ils
croyaient être des preuves logiques. Constatant l'absence de valeur de ces preuves,
point sur lequel nous revenons plus bas, Kant a voulu reprendre à zéro l'étude du sujet
et soumettre l'existence de Dieu - en même temps que le reste de notre savoir - au
« tribunal de la raison ». Il a écrit en 1781 dans la préface de la Critique de la raison
pure [M3] :
"Notre siècle est particulièrement le siècle de la critique à laquelle il faut que tout
se soumette. La religion, alléguant sa sainteté et la législation sa majesté,
veulent d'ordinaire y échapper ; mais alors elles excitent contre elles de justes
soupçons et ne peuvent prétendre à cette sincère estime que la raison accorde
seulement à ce qui a pu soutenir son libre et public examen."

On appelle "théodicée" la partie de la métaphysique [371] qui traite de l'existence et


de la nature de Dieu d'après les seules lumières de l'expérience et de la raison ;
théodicée est synonyme de théologie rationnelle.

Le texte suivant aborde la théodicée. C'est une copie du texte "Les preuves logiques
de l'existence de Dieu" http://www.danielmartin.eu/Philo/Dieu-Preuves.pdf.

20
1.5 Les preuves logiques de l'existence de Dieu
Ce texte présente les trois types d'arguments cités au cours des siècles pour prouver
l'existence de Dieu avec un raisonnement logique. Les personnes ayant une culture
philosophique n'y trouveront rien de neuf.

Il résume la démonstration de Kant (Critique de la raison pure, 1781) qui a mis un


terme au débat sur ce sujet en prouvant qu'une telle preuve n'existe pas.

Ce texte précise aussi quelques détails d'une telle preuve à la lumière des
connaissances cosmologiques actuelles.

Les termes philosophiques et scientifiques de ce texte sont expliqués dans le


Dictionnaire des idées de Kant – Vocabulaire de la Critique de la raison pure
http://www.danielmartin.eu/Philo/Vocabulaire.pdf

1.5.1 Croire en Dieu ou en la science : il faut choisir !

1.5.1.1 Définitions : Univers, phénomène, représentation, Monde

Univers

Selon le dictionnaire
 (Philosophie et langage courant) : ensemble de tout ce qui existe, la totalité des
êtres et des choses.
 (Univers physique, sensible) : ensemble des choses et des phénomènes
physiques perçus par l'homme et objets de la science.
 (Astronomie – Univers avec une majuscule) : ensemble des galaxies,
considérées dans leur évolution dans l'espace et dans le temps.
 (Physique de la Relativité générale) : tout ce qui a existé, existe et existera dans
le même espace-temps (continuum quadridimensionnel) que la Terre.

Connaissances scientifiques
 Naissance : notre Univers est né d'une explosion colossale, le Big Bang, il y a
13.8 milliards d'années.
Nous ne savons pas s'il a existé quelque chose (espace-temps ou matière-
énergie) avant ce Big Bang, nous n'avons à ce sujet que des conjectures. Nous
ne savons même pas si l'espace-temps n'est pas apparu en même temps que la
matière-énergie de l'Univers lors du Big Bang.
 Structure : La Relativité générale d'Einstein nous apprend que l'Univers est un
continuum (espace continu) quadridimensionnel : 3 dimensions d'espace + 1
dimension de temps, le tout formant l'espace-temps. Le temps est une
dimension nécessaire de cet espace-temps, dont on ne peut concevoir un
espace réel sans temps ou un temps réel sans espace.
 Dimension : l'Univers observable depuis la Terre est l'intérieur d'une sphère de la
surface de laquelle la lumière a mis 13.8 milliards d'années pour nous parvenir

21
depuis le Big Bang : son rayon est défini par un temps de parcours, pas par une
distance.
 Expansion : l'Univers est en expansion depuis le Big Bang : les galaxies
lointaines s'éloignent de nous d'autant plus vite qu'elles sont loin [111].
La vitesse d'expansion de l'Univers a varié depuis le Big Bang, décroissant
pendant les 8 à 9 premiers milliards d'années, puis croissant depuis.
Du fait de cette vitesse d'expansion variable, les galaxies les plus lointaines jamais
créées depuis le Big Bang sont à une distance de 47 milliards d'années-lumière,
à la surface d'une sphère appelée Univers physique actuel. Cet Univers contient
environ 1011 galaxies, 1023 étoiles.
On appelle Volume de Hubble l'intérieur de la sphère à la surface de laquelle les
galaxies s'éloignent de nous à la vitesse de la lumière. Les galaxies situées au-
delà émettent une lumière qui ne nous atteindra jamais, car elle se propage moins
vite que l'Univers ne se dilate.
La surface de l'Univers observable s'éloigne de nous environ 6 fois plus vite que
la vitesse de la lumière c = 299 792 458 m/s (un peu moins de 300 000 km/s). Une
telle vitesse ne contredit pas la Relativité Générale, car celle-ci ne limite à c que
les vitesses de ce qui est matière ou rayonnement, pas celle de l'expansion.

Phénomène
 1er sens (scientifique) : fait objectif, observé, susceptible de se reproduire.
C'est une réalité extérieure perçue par l'homme.
Un type de phénomènes est un concept, classe dont les membres partagent les
propriétés.
Exemple : phénomènes de propagation de la lumière, d'attraction universelle.
Les phénomènes physiques sont régis par des lois déterministes ; exemple :
la chute d'une pierre est un phénomène de la classe des effets de la pesanteur.
 2ème sens (philosophique) : une situation dont on prend conscience, qui peut se
reproduire, acquérir une valeur objective et faire l'objet d'une connaissance.

En pratique, le mot phénomène désigne :


 Tantôt une situation (l'état d'un système perçu à un instant donné) ;
 Tantôt une évolution dans le temps et/ou l'espace, tous deux observables et
susceptibles de se reproduire :

Représentation
Le mot représentation a deux significations :
 Acte par lequel l'esprit du sujet se représente quelque chose (son objet, par
exemple un phénomène) tel qu'il est à un instant donné. C'est une mise en
relation de l'objet avec l'ensemble de données mentales qui le représentent dans
l'esprit du sujet. L'objet peut être externe (empirique) ou interne (a priori).
L'objet qu'un sujet se représente est présent à son esprit.
 Résultat de cet acte : l'ensemble de données mentales précédent traitées par le
sens interne, donc ordonnées, connectées et mises en rapport ; physiquement,

22
c'est un état de certains neurones et de leurs interconnexions. Cet ensemble
(état cérébral interprété par les fonctions psychiques) décrit l'objet d'une manière
synthétique, schématique.

L'esprit de l'homme ne peut accéder à un objet physique lui-même, il n'accède qu'à la


représentation qu'il en a construit, dont la signification (description matérielle et sens
psychologique) devient celle de l'objet, de l'objet entier et seulement de cet objet. Pour
l'esprit, la représentation (et elle seule) EST l'objet réel. Kant écrit :
 "Nous n'avons affaire, en tout état de cause, qu'à nos représentations ; ce qu'il
peut en être de choses en soi (sans égard aux représentations par lesquelles
elles nous affectent), cela tombe entièrement en dehors de notre sphère de
connaissance."
 "Si l'on considère les phénomènes extérieurs [à notre esprit] comme des
représentations qui sont produites en nous par leurs objets [extérieurs eux
aussi], on ne parvient pas à apercevoir comment l'on pourrait connaître leur
existence autrement que par le raisonnement inférant, à partir de l'effet, la cause
- raisonnement dans lequel il ne peut que rester toujours douteux de savoir si
cette dernière est en nous ou hors de nous [c'est-à-dire si les représentations ne
sont pas dues à l'imagination]. […]
Les représentations ne sont que des phénomènes, […] qui se trouvent toujours
uniquement en nous et dont la réalité repose sur la conscience immédiate,
[spontanée, irréfléchie] tout aussi bien que la conscience de mes propres
pensées."

Monde
Kant distingue l'Univers défini plus haut, espace réel contenant tous les objets
existants, et le Monde, dont voici les définitions.

Le monde sensible
Le monde sensible (celui que perçoit notre sens externe à l'instant présent) est défini
comme la totalité des phénomènes (tout ce qui existe sous forme perceptible). Kant
écrit :
"Le monde sensible ne contient rien d'autre que des phénomènes, mais ceux-ci
sont de simples représentations…"

Différences entre Monde et Nature définis tous deux comme totalité des
phénomènes
Monde : totalité des phénomènes de l'Univers, résultant d'une synthèse par réunion
de ses parties ou de la décomposition d'un phénomène en ses parties. Kant écrit :
 "Par monde, se trouve compris l'ensemble global de tous les phénomènes"
 "Le terme de monde […] signifie l'absolue totalité de l'ensemble global des
choses existantes"

Nature : totalité des phénomènes dont la succession par causalité a produit l'ensemble
unifié de tout ce qui existe aujourd'hui. Nature a deux sens :
 Un sens déterministe indiquant la succession des déterminations d'une chose
due aux évolutions physiques, toujours conformes au principe de causalité.

23
 Un sens d'ensemble global des phénomènes "en tant qu'ils forment un ensemble
systématique [organisé] complet en vertu d'un principe interne de la causalité."

Résumé de ces définitions


L'Univers physique est perçu par l'homme sous forme de phénomènes, présents à son
esprit sous forme de représentations dont l'ensemble constitue, selon le point de vue,
le Monde ou la Nature.

1.5.1.2 Critique scientifique du concept de créateur de l'Univers


Un dieu qui aurait créé l'Univers aurait été externe à l'Univers, pour ne pas se créer
lui-même, et il aurait existé avant sa création de l'Univers. Or chacune de ces deux
conditions est contradictoire :
 D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'extérieur de
l'Univers : la notion de Dieu extérieur est donc contradictoire.
Nous avons la certitude scientifique que notre Univers est né d'une explosion
colossale, le Big Bang, il y a 13.8 milliards d'années [313]. Nous ne savons pas
s'il a existé quelque chose (espace-temps ou matière-énergie) avant ce Big Bang,
nous n'avons à ce sujet que des conjectures. Nous ne savons même pas si
l'espace-temps n'est pas apparu en même temps que la matière-énergie de
l'Univers lors du Big Bang.
La Relativité générale d'Einstein nous apprend que le temps est une dimension
nécessaire de l'espace-temps quadridimensionnel de l'Univers, dont on ne peut
concevoir un espace réel sans temps ou un temps réel sans espace.
 D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'avant
l'Univers : la notion de Dieu existant avant l'Univers est donc contradictoire.
Nous n'avons pas la certitude qu'il n'y a pas et qu'il n'y a jamais eu d'espace-temps
extérieur et/ou antérieur à notre Univers [313]. Nous savons seulement qu'un tel
espace-temps sera toujours hors de portée de nos instruments, et qu'aucune
théorie sur ses limites spatio-temporelles ne pourra être confirmée par
l'expérience.
C'est pourquoi nous pouvons faire comme si l'Univers est, et a toujours été, tout
ce qui existe en tant que matière-énergie, que temps et qu'espace.

1.5.1.3 Critique de Kant de la possibilité de création transcendante


Kant ne connaissait pas ces arguments scientifiques modernes de l'impossibilité d'un
dieu créateur de l'Univers, mais il en a cité un qui se suffit à lui-même. Le voici.
Les lois de la nature, conçues par l'homme dans l'Univers et pour décrire les
phénomènes de l'Univers, excluent la possibilité qu'une action physique franchisse la
limite de l'Univers. Aucune création de l'Univers depuis l'extérieur n'est possible,
aucune action causée de l'extérieur ne peut atteindre l'intérieur, et aucune action de
l'intérieur ne peut atteindre l'extérieur : l'Univers est un système fermé et les lois de la
nature excluent la transcendance (action qui franchit les limites de l'Univers).
(Ces règles régissant les lois de la nature sont confirmées par notre science
actuelle, et toute action transcendante est pure spéculation.)

24
La Relativité générale exclut la possibilité d'une interaction transcendante
La Relativité générale exclut la possibilité d'un déplacement de matière-énergie plus
vite que la lumière. C'est pourquoi, par exemple, un voyage vers l'étoile la plus proche,
Proxima Centauri, située à 4.2 années-lumière du Soleil, prendra toujours plus de 4.2
années, quels que soient les progrès scientifiques futurs.

En outre, l'Univers est en expansion, les galaxies lointaines s'éloignant de nous


d'autant plus vite qu'elles sont loin : celles situées sur la sphère enveloppant le Volume
de Hubble [111] s'éloignent de nous à la vitesse de la lumière, et celles situées plus
loin sont à jamais invisibles, leur lumière n'allant pas assez vite pour nous parvenir [2].
Donc aucune interaction entre la Terre et un point extérieur à cette sphère n'est
possible, ni partant de la Terre ni arrivant sur elle. Cette remarque précise la notion
d'extérieur à notre Univers.

Nos lois physiques sont vérifiables et excluent le hasard


Nos lois de la nature ont été imaginées d'après les phénomènes constatés, et vérifiées
sans exception depuis leur acceptation par les scientifiques. Kant affirme qu'il n'y a
pas de hasard dans les situations et les évolutions de la nature, nécessairement régies
par des lois valables partout et toujours, c'est-à-dire dans tout l'espace-temps. La
nature ne fait jamais n'importe quoi et respecte ces lois.
Le hasard (décrit et discuté dans le Vocabulaire) est une notion scientifique
précise, dont l'affirmation par une personne résulte en général de son ignorance.
Affirmer qu'un phénomène est « dû au hasard » ou « agit selon le hasard » exige
une preuve aussi sérieuse qu'affirmer qu'il est régi par telle loi naturelle. Même la
Mécanique quantique, avec ses résultats probabilistes décrivant une forme contre-
intuitive de réalité et la possibilité de variables indéterminées, n'a que des
évolutions régies par l'équation de Schrödinger, parfaitement déterministe donc
sans hasard.

1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique


Une création transcendante de l'Univers irait donc contre nos lois physiques, qu'il
faudrait renier pour croire à une telle création. Chacun de nous doit donc choisir entre
croire à l'universalité scientifique vérifiable de nos lois naturelles ou à la création divine
dogmatique du monde, chacun des choix excluant l'autre.

Position officielle de l'Eglise catholique sur l'origine du monde


Pour l'Eglise catholique, dont le pape a rappelé en 2007 le dogme théologique [D7] :
 Le monde a été créé par Dieu ;
 L'existence de chaque homme est précédée par une Idée, conformément à
l'idéalisme de Platon. Elle a un sens attribué par Dieu, conformément à la
doctrine téléologique de l'Eglise, sens dont les valeurs doivent guider sa vie.

1.5.1.5 Théologie proposée par Kant


Puisqu'un Dieu créateur de l'Univers est physiquement impossible, Kant a proposé un
Dieu transcendantal, notion décrite dans le Vocabulaire. Cette notion fait de Dieu une
abstraction pure, imaginée par l'homme pour que ses connaissances de l'Univers
présentent une unité d'attribution et de finalité en tant que système, unité
psychologiquement plus satisfaisante que des lois naturelles vraies mais disparates.

25
Tout en affirmant clairement l'impossibilité physique de ce Dieu (qualifié à l'occasion
d'Intelligence suprême, d'Etre originaire ou d'Etre suprême) Kant encourage ses
lecteurs à lui attribuer des propriétés anthropologiques, c'est-à-dire à « concevoir Dieu
à l'image de l'homme qui le conçoit », avec des valeurs et des sentiments – à condition
de ne pas oublier que c'est une idée transcendantale régnant seulement sur un
système unifié de concepts.

L'homme n'a pas accès à la réalité physique, dont il perçoit seulement des
phénomènes que son esprit transforme en représentations mentales. Tout se passe
comme si ces représentations sont la réalité et leurs lois d'évolution sont celles de
l'Univers physique.
Il n'y a donc pas d'inconvénient à imaginer que toutes ces représentations et
toutes les lois naturelles d'évolution proviennent d'un Dieu transcendantal, être parfait.
Ce paradigme ne contredit nullement la causalité matérielle de l'Univers réel
inaccessible, les lois naturelles déduites par l'homme des phénomènes perçus lui
permettant bien d'en prévoir l'évolution.

Si on interprète donc la théologie des juifs, chrétiens et musulmans comme affirmant


une création divine selon des finalités à découvrir [D7], on a un système de concepts
cohérent et psychologiquement satisfaisant puisqu'il donne un sens au monde. Mais
comme Kant le rappelle à plusieurs reprises, ce n'est là qu'un paradigme, un modèle
conçu pour des raisons de cohérence causale et d'apaisement psychologique.

Interaction entre pensée et matière


Un cerveau peut penser des concepts et raisonner sur eux. On peut considérer cela
comme une action de la matière (le cerveau pensant) sur une abstraction. Mais
réciproquement, une abstraction ne peut agir sur de la matière que par l'intermédiaire
du cerveau qui l'héberge et commande au corps d'agir.

Aucune action directe de la pensée sur la matière n'est possible : ainsi, la


psychokinèse est impossible. C'est là une conséquence de la thermodynamique :
toute action physique exige un échange d'énergie, et une abstraction n'a pas d'énergie,
ne peut en donner et ne peut en recevoir.
Si par action de la pensée sur la matière on entend action des ondes cérébrales
(enregistrables par électroencéphalographe) sur de la matière, c'est possible et utilisé
par exemple pour aider des handicapés moteurs.

Un objet transcendantal comme l'Idée de Dieu ne peut donc agir physiquement.

1.5.2 Les 3 preuves possibles de l'existence de Dieu


Dans l'excellente traduction [D2] utilisée pour étudier la Critique de la raison pure, Kant
écrit (citation de la page 529) :
"Il n'y a, procédant de la raison spéculative, que trois types de preuves possibles de
l'existence de Dieu. Toutes les voies que l'on peut tenter de suivre dans ce but partent :
 [Preuve physico-théologique]
ou bien de l'expérience déterminée et de la nature particulière de notre monde
sensible, telle que cette expérience nous la fait connaître, et elles s'élèvent à
partir de celle-ci, en suivant les lois de la causalité, jusqu'à la cause suprême
située en dehors du monde ;

26
 [Preuve cosmologique]
ou bien elles ne prennent empiriquement pour fondement qu'une expérience
indéterminée, c'est-à-dire une existence quelconque ;
 [Preuve ontologique]
ou bien enfin elles font abstraction de toute expérience et concluent entièrement
a priori, à partir de simples concepts, à l'existence d'une cause suprême.

La première preuve est la preuve physico-théologique, la deuxième la preuve


cosmologique, la troisième la preuve ontologique. Il n'y en a pas davantage, et il ne
peut pas non plus y en avoir davantage.

Je démontrerai que la raison parvient à tout aussi peu de résultats sur l'une de ces
voies (la voie empirique) que sur l'autre (la voie transcendantale), et que c'est en vain
qu'elle déploie ses ailes pour s'élever au-delà du monde sensible par la seule force de
la spéculation."
(Fin de citation)

Le premier mérite de Kant est d'avoir ainsi classé les preuves spéculatives (c'est-à-
dire purement déductives) possibles en 3 catégories :
 Une preuve dite physico-théologique basée sur une expérience déterminée,
c'est-à-dire une constatation qu'un homme peut faire en considérant un
phénomène particulier (une vision de ce qui l'entoure à un instant donné) ;
 Une preuve dite cosmologique, basée sur ce qu'un homme peut voir en général
quand il considère un phénomène comme le précédent (la cosmologie est
l'étude de l'ensemble de tous les phénomènes du monde) ;
 Une preuve dite ontologique, basée sur la logique a priori du raisonnement
humain, donc ignorant tout phénomène possible.
(L'ontologie est la partie de la philosophie qui a pour objet l'étude des propriétés
les plus générales de l'être, telles que l'existence, la possibilité, la durée, le
devenir ; synonyme : philosophie première.
Pour Kant, l'ontologie est une science qui prétend connaître Dieu par son concept,
sans passer par l'expérience, et qui tombe sous le coup de la critique de la preuve
ontologique. Il écrit :
"…la malheureuse preuve ontologique, qui ne véhicule avec elle rien qui pût
satisfaire ni l'entendement naturel et sain ni l'examen méthodique.")

1.5.2.1 Preuve ontologique de l'existence de Dieu


Une telle preuve cherche à établir par raisonnement logique que l'existence de Dieu
résulte nécessairement de sa définition.

Quelle que soit la définition de Dieu, elle ne peut être basée que sur des jugements lui
attribuant des qualités, pouvoirs et actes ; mais un tel jugement est une opinion, pas
un phénomène constaté. Il n'a donc pas valeur probante, il peut avoir été pensé par
erreur. Kant écrit :
"Tous les exemples avancés [pour montrer l'existence d'un être absolument
nécessaire] sont, sans exception, tirés uniquement de jugements, et non pas de

27
choses et de leur existence. Mais la nécessité inconditionnée des jugements
[simple opinion] n'est pas une nécessité absolue des choses."

En outre, ce n'est pas parce qu'un homme a pensé la description de quelque chose
qu'elle existe. Une même description (ensemble d'informations) pouvant correspondre
à zéro, une ou plusieurs occurrences d'un objet, l'existence éventuelle de cet objet est
une information séparée ; elle ne peut donc être déduite de la description. Kant écrit :
"La détermination est un prédicat qui s'ajoute au concept du sujet et l'accroît. Il
faut donc qu'elle ne s'y trouve point déjà contenue."

Conclusion
Il n'existe pas de preuve ontologique de l'existence de Dieu. Kant écrit :
"C'était une démarche totalement contre nature, et qui constituait un simple
renouvellement de l'esprit scolastique, que de vouloir tirer d'une idée forgée de
façon entièrement arbitraire l'existence de l'objet correspondant à cette idée."

Exemple d'erreur ontologique d'un philosophe


Exemple d'erreur par inclusion d'un prédicat d'existence dans une définition :
Dans l'Ethique de Spinoza, la première partie, De Dieu, a une première définition
logiquement impossible :
« I. J'entends par cause de soi ce dont l'essence enveloppe [inclut] l'existence, ou
ce dont la nature ne peut être conçue que comme existante. »

1.5.2.2 Preuve cosmologique de l'existence de Dieu

La contingence du monde, base de la preuve cosmologique


La preuve cosmologique repose sur une hypothèse de contingence du monde, « qui
existe, mais aurait pu ne pas exister » ; et puisqu'il existe, c'est qu'il a été créé, donc il
y a un Créateur.
 L'hypothèse de contingence de l'Univers est pure conjecture : la science a
seulement la certitude qu'il existe depuis le Big Bang, il y a 13.8 milliards
d'années.
Les lois de la physique nous interdisant à jamais de voir ce qu'il y avait avant – s'il
y avait quelque chose, car rien ne prouve que le temps et l'espace existaient avant
- la création de l'Univers restera toujours un mystère.
 Du point de vue philosophique, l'hypothèse de contingence de l'Univers contredit
le postulat de causalité que nous considérons comme un postulat de la
nécessité des choses, et dont résulte le principe de fatalisme. Kant écrit :
(Citation de la page 286 de la Critique de la raison pure [D2])
"La nécessité ne concerne […] que les rapports entre les phénomènes, d'après
la loi dynamique de la causalité. [Cette loi permet] de conclure a priori, à partir
d'une quelconque existence donnée (à partir d'une cause) à une autre existence
(à l'effet).
[Principe de fatalisme : ce qui arrive devait arriver]
Tout ce qui arrive est hypothétiquement nécessaire [devait arriver] : c'est là un
principe fondamental qui soumet dans le monde le changement à une loi, c'est-

28
à-dire à une règle s'appliquant à l'existence nécessaire, sans laquelle règle il n'y
aurait pas même de nature.
[Soit S une situation d'un objet précédée d'une situation P, qui en est la
cause d'après une loi de la nature. Si S était contingente, la situation P
aurait pu ne pas avoir pour conséquence S, ce qui contredit l'exigence de
causalité qui rend la conséquence S certaine après P pour respecter la loi
de la nature. Donc ce qui arrive (ici : S) devait arriver.]
Par conséquent, le principe : rien n'arrive par un hasard aveugle est une loi a
priori de la nature ; de même : aucune nécessité intervenant dans la nature n'est
une nécessité aveugle…".
(Fin de citation)
 Du point de vue logique (en ignorant le Big Bang), notre Univers a peut-être
toujours existé, sans avoir été créé. Mais du point de vue scientifique, sa
création a peut-être eu lieu dans un autre Univers : nous avons des théories
possibles mais non prouvées (les théories des Multivers) qui le supposent.

Kant écrit dans la Critique de la raison pure [D2], page 540 :


"Dans cet argument cosmologique, se [tient] dissimulée toute une nichée de
prétentions […] que la critique transcendantale peut découvrir et détruire. […]
Se trouvent donc ici, par exemple :
1. Le principe transcendantal qui consiste à conclure du contingent à une cause,
lequel principe n'a de signification que dans le monde sensible, mais en dehors
de lui n'a plus du tout de sens. Car le concept purement intellectuel du contingent
ne peut produire aucune proposition synthétique telle que celle de causalité, et le
principe de cette dernière n'a aucune signification ni aucun critère réglant son
usage, si ce n'est uniquement dans le monde sensible ; or, ici, il devrait servir
précisément à sortir du monde sensible et à le dépasser.
2. Le principe qui conduit à conclure de l'impossibilité d'une série infinie de causes
données s'étageant les unes au-dessus des autres dans le monde sensible à une
cause première - conclusion à laquelle les principes de l'usage de la raison,
même dans l'expérience, ne nous autorisent pas, bien loin donc qu'ils nous
donnent la capacité d'étendre ce principe au-delà de l'expérience (où cette chaîne
ne peut pas du tout être prolongée)."

Conclusion
Il n'existe pas de preuve cosmologique de l'existence de Dieu.

1.5.2.3 Preuve physico-théologique de l'existence de Dieu

Problème posé
Dans sa Critique de la raison pure [D2], Kant définit le problème de cette preuve :
"Chercher si une expérience déterminée, par conséquent celle des choses
appartenant au monde présent autour de nous, si la façon dont elle est constituée et
structurée ne fournissent pas un argument probant qui pût nous procurer avec sûreté
la conviction de l'existence d'un être suprême. Une telle preuve, nous l'appellerions
physico-théologique.

29
Si elle devait elle aussi être impossible, il n'y aurait jamais aucune preuve
suffisante qui fût possible, à partir de la raison simplement spéculative, pour démontrer
l'existence d'un être correspondant à notre Idée [de Dieu]."

Il s'agit donc de trouver un raisonnement qui pourrait déduire d'une éventuelle


expérience (un phénomène constatable, indépendamment de son contexte c'est-à-
dire du reste du Monde), la présence nécessaire d'un être suffisant pour l'existence du
Monde entier.

Solution de Kant
Une expérience déterminée (un phénomène) a nécessairement une cause, d'après le
postulat de causalité. Toute conclusion (et notamment une existence nécessaire)
qu'on pourrait déduire d'un phénomène donné résulterait d'informations de ce
phénomène et/ou de ceux dont il est le résultat, et seulement de ces phénomènes. Or
tous ces phénomènes appartiennent à la chaîne de causalité du phénomène de
l'expérience (sa cause, la cause de cette cause, etc.)

En remontant la chaîne de causalité, on parcourt une série de causes qui sont toutes
des phénomènes du Monde. Or nous avons vu à l'occasion de la preuve ontologique
qu'aucun phénomène du Monde ne peut avoir créé le Monde, et ce pour deux raisons :
 Il ne peut être transcendant (situé en dehors du Monde pour éviter
l'autocréation) ;
 Il ne peut préexister au Monde.

Conclusion : on ne peut déduire d'une expérience déterminée quoi que ce soit qui soit
transcendant et préexistant au Monde ; il n'y a donc pas de preuve physico-
théologique de l'existence de Dieu.

Comme on ne trouvera pas de phénomène transcendant, on ne trouvera pas d'être


ayant une volonté téléologique
Puisque d'un phénomène déterminé on ne peut aboutir qu'à des phénomènes du
Monde, on ne voit pas pourquoi on trouverait la nécessité d'un être muni d'une volonté
téléologique. Kant écrit :

(Citation de la page 547 de la Critique de la raison pure [D2])


"Comment une expérience peut-elle jamais être donnée qui soit adéquate à une Idée
[comme l'Idée de la raison pure qui décrit Dieu] ? C'est justement le propre des Idées
que nulle expérience ne puisse jamais leur correspondre.

L'Idée transcendantale d'un être originaire qui soit nécessaire et totalement suffisant
est si démesurément grande, elle dépasse de si haut tout ce qui est empirique et se
trouve toujours conditionné, que
 d'une part on ne peut jamais dégager de l'expérience assez de matière
[d'informations] pour remplir un tel concept,
 et que d'autre part on tâtonne toujours au milieu du conditionné [des
circonstances] en ne cessant de chercher en vain l'inconditionné [les
circonstances absolues à l'origine du Monde entier], dont aucune loi de quelque

30
synthèse empirique que ce soit ne nous fournit un exemple ou ne procure le
moindre indice."
(Fin de citation)

Kant conclut page 549 :


"Je soutiens donc que la preuve physico-théologique ne saurait jamais à elle seule
démontrer l'existence d'un être suprême…"

1.5.3 Raisons de croire en un Dieu transcendantal


Après avoir démontré qu'il n'existe pas de preuve déductive d'existence d'un Créateur
du Monde, Kant plaide pour qu'on adopte la croyance en un Dieu transcendantal, tout
en sachant qu'il n'est qu'un produit de l'imagination humaine. Les arguments qu'il
invoque à l'appui de cette proposition sont ceux de toute doctrine téléologique,
notamment ceux de l'Eglise catholique [D7].

(Citation de la Critique de la raison pure [D2] pages 549 et 550)


1. "Dans le monde se découvrent partout des signes transparents d'une mise en
ordre conforme à une intention déterminée, opérée avec une grande sagesse et
constituant un tout aussi indescriptible dans la diversité de son contenu qu'il peut
être illimité quant à la grandeur de son étendue.
2. Cette mise en ordre finalisée est totalement étrangère aux choses du monde, et
elle ne leur est attachée que de façon contingente — autrement dit : la nature de
cette diversité de choses n'aurait pas pu d'elle-même, par des moyens
convergents de tant de sortes, s'accorder à des intentions finales, si ces moyens
n'avaient été choisis tout exprès pour cela et disposés à cette fin par un principe
organisateur doué de raison prenant pour fondement des Idées et intervenant
d'après elles.
3. Il existe donc une (ou plusieurs) cause sublime et sage qui doit être la cause du
monde, non pas simplement par fécondité, comme une nature toute-puissante
agissant de manière aveugle, mais par liberté, comme une intelligence.
4. On peut conclure à l'unité de cette cause à partir de l'unité de la relation
réciproque des parties du monde considérées comme les éléments d'une
construction, cela avec certitude pour ce que notre observation atteint, mais pour
le reste avec vraisemblance, en suivant tous les principes de l'analogie."
(Fin de citation)

1.6 Compléments philosophiques des tentatives de prouver Dieu


Les deux paragraphes suivants sont assez abstraits, demandant une lecture attentive.
N'étant pas indispensables au reste de l'ouvrage, on peut se dispenser de les lire.

1.6.1 La notion d'un Dieu créateur intelligent est contradictoire


Un Dieu qui sait tout ne pense pas, car Il n'a pas de problème à résoudre. Il ne peut
donc avoir d'intention, car une intention est une pensée et suppose un projet précédant
sa réalisation. Si Dieu concevait un projet, il existerait pour Lui une possibilité qui ne
serait pas encore réalisée et Il serait alors fini, ce qui est contradictoire avec son
caractère infini. En somme, on ne peut attribuer à Dieu une séparation de la pensée
et de l'existence, séparation qui impliquerait la finitude.

31
Ce raisonnement a été fait par Spinoza, qui en a conclu que l'existence d'un Dieu
créateur intelligent est une absurdité, ce qui rend également absurde la notion de
finalité divine gouvernant le monde, donc aussi celle de Divine providence.

La contradiction inhérente à la notion de Dieu créateur intelligent s'ajoute à celle déjà


constatée plus haut concernant le problème du mal, contradiction qui a obligé les
croyants à déclarer que « Dieu laisse à l'homme son libre arbitre », et qu'il faut en
matière divine renoncer à la rationalité car que « les voies du Seigneur sont
impénétrables ».

Ces deux exemples de contradiction incitent à la prudence : penser l'infini, quand on


est un homme qui ne dispose que de concepts et de mécanismes de pensée logique
adaptés à son univers limité, risque de mener à des contradictions.

Comme certains philosophes l'ont remarqué, Dieu est donc une illusion, une projection
irrationnelle de nos désirs, de nos peurs et de nos espoirs : l'homme a conçu Dieu à
son image, et celle-ci est pleine de contradictions.

Il faut veiller à ne manipuler que des concepts représentables


Nous allons voir dans ce paragraphe que même si on imagine un concept non
contradictoire d'infini (comme un Dieu tout-puissant mais ne créant pas et ne faisant
pas de projet), on risque de ne pouvoir s'en servir pour réfléchir sur notre monde, faute
de pouvoir se le représenter clairement ; si on réfléchit avec, on risque de manipuler
des mots creux au lieu de garder ses deux pieds sur terre. Rappelons que pour qu'un
concept ait un sens dans notre conscience, il doit pouvoir provenir d'une perception
sensible ou se déduire d'un concept transcendantal. Exemples :
 Pour que le concept de "cercle" ait assez de sens pour que je puisse m'en servir
pour réfléchir, je dois pouvoir l'associer à quelque chose de concret, comme le
dessin d'un rond sur une feuille de papier.
 Dans ce texte sur le déterminisme il nous faudra étendre le domaine des
perceptions sensibles à l'interprétation des phénomènes décrits par des
équations et des fonctions, seule manière de les représenter à l'échelle
atomique, trop petite pour nos sens. Nous arriverons à nous représenter
mentalement ces équations et fonctions en songeant à des images de courbes
ou de surfaces auxquelles chacun peut s'habituer peu à peu.

Hélas, il n'est pas possible de représenter l'infinité de Dieu à l'aide d'une image, d'un
schéma ou d'une équation ; on ne peut le définir qu'avec des règles comme "Il est plus
grand que tout", "Il sait tout" ou "la divine Providence est infiniment secourable", et ces
règles ne sont pas représentables de manière sensible.

Si je reprends alors, par exemple, la notion de "Providence infiniment secourable" que


j'ai acceptée sans me la représenter, et que je l'applique au monde dans lequel je vis,
avec ses guerres et ses souffrances, la contradiction saute aux yeux : la notion
contredit la réalité dans de nombreux cas. En fait, c'est l'application même de la notion
de Providence au monde concret qui en construit des représentations, et ce sont
celles-ci qui montrent son caractère contradictoire. On voit sur cet exemple à quel point
il est indispensable de valider un concept au moyen de représentations sensibles de
ce qu'il implique.

32
Exemple : si on me propose un emploi d'un type nouveau pour moi, avant de
l'accepter ou de le refuser je dois me représenter concrètement, au moyen
d'exemples, mon activité dans le cadre de cet emploi. Que ferai-je chaque jour, en
serai-je capable, serai-je heureux de le faire, etc.

On trouvera une discussion plus approfondie de ce sujet dans l'ouvrage de Luc Ferry
[7], qui résume bien le problème, et notamment la citation [D9].

1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique


Contre le matérialisme, les idéalistes invoquent parfois un argument basé sur la
violation de la loi thermodynamique de l'entropie toujours croissante. Ils prétendent
que le phénomène de la vie ne peut s'expliquer par les seules lois physiques
déterministes du matérialisme, car celles-ci impliquent l'exigence thermodynamique
de croissance du désordre dans toute évolution. Pour eux, « puisqu'un être vivant est
hautement organisé, et que son corps s'organise à partir de nourriture qui est moins
organisée, la vie apporte quelque chose qui contredit la thermodynamique, qui la
soumet à un principe qui dépasse la physique et son matérialisme sous-jacent. »

Nous montrerons plus bas que ce raisonnement est faux, car le principe
thermodynamique de l'entropie toujours croissante ne s'applique qu'aux systèmes en
équilibre, qui n'échangent pas d'énergie avec leur environnement. Or le métabolisme
d'un être vivant échange l'énergie contenue dans sa nourriture avec de la production
de chaleur, de mouvement et de cellules nouvelles. Voyons ce que dit la
thermodynamique.

1.6.2.1 Notion d'entropie

Définition thermodynamique
L'entropie d'un système matériel est sa quantité d'énergie thermique par degré de
température qu'on ne peut transformer en travail utile. L'entropie mesure le
mouvement désordonné (l'agitation thermique) de ses molécules, donc l'inorganisation
du système qu'elles constituent, ce qu'on ignore sur lui.

Soit un système matériel que l'on met en contact avec plusieurs sources de chaleur,
de températures absolues T 1, T2, etc. Il échange alors avec ces sources des quantités
de chaleur respectives Q1, Q2, etc. Chacune de ces quantités peut être positive ou
négative, selon le sens du transfert de chaleur. Nous supposerons que l'échange de
chaleur du système se fait de manière réversible : à tout moment le système est si
près de l'équilibre thermique qu'un faible changement de sens de la différence de
température entre lui-même et l'extérieur inverserait le sens de l'échange de chaleur.

On définit alors la variation d'entropie ΔS du système par la somme des rapports :

ΔS = Q1/T1 + Q2/T2 + … en joules par degré Kelvin.

Dans les transformations réelles, c'est-à-dire non réversibles, l'égalité précédente


devient une inégalité :

ΔS  Q1/T1 + Q2/T2 + …

33
Cette inégalité, due au physicien Clausius, exprime le deuxième principe de la
thermodynamique : l'entropie d'un système isolé qui subit des transformations est
toujours croissante. En particulier, on peut affirmer que l'énergie convertissable en
travail de l'Univers s'épuise peu à peu. (Définitions de la thermodynamique : [25])

1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information


Au XIXe siècle, les physiciens Maxwell et Boltzmann inventèrent la Mécanique
statistique, science qui déduit les propriétés macroscopiques d'un système (propriétés
mesurables à l'échelle humaine comme la température, la pression et la viscosité) de
celles de ses molécules ou atomes. La loi qu'ils établirent exprime de manière simple
l'entropie S d'un système macroscopique en équilibre thermodynamique à partir du
nombre d'agencements W de l'ensemble de ses molécules qui conduisent à une
énergie macroscopique donnée. Expliquons cela.

Mouvement brownien - Relation entre température absolue et énergie cinétique


Chaque molécule du système a une certaine énergie. Si le système est un liquide, de
l'eau à 27 degrés C par exemple, cette énergie est l'énergie cinétique de chaque
molécule d'eau, énergie cinétique provenant de son mouvement, lui-même dû à la
température.
A la température absolue T (en degrés Kelvin) chaque molécule a une énergie
cinétique moyenne de 3/2 kT, où k est la constante de Boltzmann,
k = 1.38066.10-23 joule par degré Kelvin. Autrement dit, une température absolue
T > 0 oblige toute molécule à bouger constamment, avec une énergie cinétique
moyenne de 3/2kT ; si la masse de la molécule est m, sa vitesse moyenne v sera
telle que ½mv² = 3/2kT, d'où v² = 3kT/m : connaissant T on peut calculer v. Pour
fixer les idées :
 A la température T = 300°K (environ 27°C), la vitesse moyenne d'une
molécule monoatomique d'hélium He est d'environ 1300 m/s.
 A une température donnée T, une molécule légère comme l'hydrogène H 2 a
une vitesse moyenne plus élevée qu'une molécule plus lourde d'azote N2 :
les deux molécules ont même énergie cinétique moyenne, mais les carrés
de leurs vitesses moyennes sont dans le rapport des masses molaires
28/2 = 14.

Bien entendu, chaque molécule a sa propre énergie cinétique, indépendante de celle


d'une autre molécule tant que ces deux molécules ne se sont pas heurtées dans leur
agitation incessante, appelée mouvement brownien. Ce mouvement désordonné
affecte toutes les molécules d'un liquide ou un gaz ; dans les solides, l'effet de la
température se manifeste par une vibration de translation et/ou de rotation de chaque
atome autour d'une position moyenne.

Statistiques moléculaires
Le nombre de molécules d'un système macroscopique est colossal ; par exemple,
dans 18 g d'eau (quantité qu'on appelle une mole) il y a 6.02 .1023 molécules (nombre
d'Avogadro). Le nombre (immense !) d'ensembles de vitesses (d'agencements) que
ces molécules peuvent avoir en s'agitant pour se répartir une énergie macroscopique
totale donnée est appelé W, nombre que nous n'aurons jamais à écrire,
heureusement !

34
Par exemple, si un système a 3 molécules dont l'énergie peut varier de 0 à 9, et
que son énergie totale est 5, les agencements possibles des molécules sont :
(5,0,0) ; (4,1,0) ; (4,0,1) ; (3,2,0) ; (3,0,2) ; (3,1,1) ; (2,3,0) ; (2,0,3) ; (2,2,1), etc.

On appelle état microscopique d'un système macroscopique un agencement donné


de ses molécules, configuration où chacune a sa propre vitesse donc sa propre
énergie cinétique. Pour un état donné du système macroscopique, d'énergie totale
donnée, il y a W états microscopiques qui ont cette énergie totale.
Il est normal d'admettre que ces états microscopiques du système macroscopique
ont la même probabilité de se réaliser, et qu'ils sont indépendants. Cette probabilité P
est alors nécessairement P = 1/W, puisque la probabilité totale des W états est une
certitude et vaut 1.

Nous pouvons alors interpréter W comme une mesure du désordre du système : plus
le système est structuré, plus ses molécules sont liées entre elles, moins elles sont
indépendantes et moins il y a d'agencements W conduisant à une énergie donnée.
Dans un corps à l'état solide dont on ne voit pas les molécules individuelles, on ne
peut décrire qu'une énergie totale : W = 1 et P = 1.
Exemple : soit un système constitué de 12 g de carbone pur solide (1 mole) et
32 g d'oxygène pur gazeux (2 moles). Soumettons-le à la transformation qui fait
brûler le carbone dans l'oxygène : C + O2  CO2. Le résultat – 44 g de gaz
carbonique (1 mole = 6.02 .1023 molécules) - est dans un état plus désordonné
que l'état initial : son W a augmenté.

L'entropie de Boltzmann S d'un système macroscopique en équilibre


thermodynamique est définie par :

S = k lnW (en joules par degré Kelvin, comme k)

où k est la constante de Boltzmann et lnW est le logarithme népérien de W.

On voit que W et S varient dans le même sens : l'entropie S est donc aussi une mesure
du désordre du système, du nombre d'agencements microscopiques possibles cachés
quand on ne voit que l'état macroscopique du système.

La température et l'entropie d'un système ne sont stables qu'au voisinage de


l'équilibre. Conséquence : tant que l'Univers est en expansion, donc loin de l'équilibre,
son entropie (très faible à l'instant du Big Bang) peut croître.

Entropie statistique
Soit un système dont chacun des états possibles xi a une probabilité 𝑝𝑥𝑖 comprise entre
0 et 1, la somme des 𝑝𝑥𝑖 étant exactement égale à 1 (certitude). On définit alors
l'entropie statistique H du système comme :

𝐻 = −𝑘 ∑ 𝑝𝑥𝑖 log 𝑝𝑥𝑖


𝑥𝑖

35
où :
 Le logarithme est soit népérien, soit en base 10, soit en base 2 ; son choix se
répercute alors sur la valeur de k puisqu'on passe d'une base à une autre par
simple multiplication : log2 x = (Loge 10 / Loge 2) * log10 x = 3.322 log10 x.
 La constante k est arbitraire ; c'est par exemple la constante de Boltzmann
k = 1.38066.10-23 joule par degré Kelvin pour des logarithmes népériens.

En Mécanique statistique, l'entropie mesure l'absence d'informations d'un état


macroscopique par rapport à l'état microscopique. Elle se mesure dans l'unité choisie
pour la constante k. Lorsqu'on considère le nombre d'états d'un système qui
définissent son état global, l'entropie est un nombre sans dimension.
Exemple : dans un lanceur de satellite il y a 10 000 pièces indépendantes dont le
dysfonctionnement pourrait causer l'échec du lancement. Pour répondre à la
question : « Quel est la probabilité de succès du lanceur selon le nombre de pièces
en bon état ? » il faut 10 000 informations, chacune avec 2 valeurs possibles :
"bon" ou "mauvais", représentées par un bit : 1 pour "bon" et 0 pour "mauvais". Il
faut donc 10 000 bits pour représenter les 210000 combinaisons d'états possibles
du lanceur (environ 1.995 .103010 - nombre de 31 chiffres en base 10).
Si on suppose que les 10 000 pièces ont la même probabilité p de bon
fonctionnement, pour que le lancement ait au moins 99 % de chances de réussir
il faut que p10000 > 0.99, donc p > 0.999999 : chacune des pièces doit avoir au plus
une chance sur un million d'être défectueuse.

Lorsque les états sont équiprobables leur nombre étant W, la probabilité de chacun
est 1/W. La formule ci-dessus donne alors une entropie statistique égale à l'entropie
de Boltzmann : H = k logW. Lorsque les états sont équiprobables l'entropie H est
maximale : c'est lorsqu'aucun événement ne diffère des autres qu'on a le moins
d'information sur l'état global.

Entropie d'information
Cette notion apparaît lorsqu'on se pose la question de l'entropie d'un trou noir : avant
absorption dans le trou, la matière a une entropie statistique. Que devient l'information
représentée par l'entropie transférée ?
Réponse : après absorption son entropie a été absorbée dans le trou et stockée
sur sa sphère horizon, mais un observateur éloigné ne peut plus en voir d'effet et peut
la croire perdue. L'entropie du trou noir a augmenté au moins autant que l'apport
extérieur, à cause de l'inégalité de Clausius qui régit les transformations irréversibles.
Les formules de [133] décrivent la quantité d'information (l'entropie) sur la sphère
horizon du trou noir.

1.6.2.3 Comprendre le deuxième principe de la thermodynamique


Le deuxième principe de la thermodynamique [25] affirme que l'entropie d'un système
matériel isolé qui se transforme ne peut qu'augmenter, traduisant ainsi un désordre
toujours croissant et une énergie susceptible d'être transformée en travail utile toujours
décroissante.

36
On oublie souvent que cette affirmation n'est valable que pour un système au
voisinage de l'équilibre, dont les variables d'état (énergie, forme géométrique, masse,
etc.) sont pratiquement constantes dans le temps.
 A l'équilibre, le système qui se transforme n'échange avec l'extérieur ni chaleur
(qui est une forme d'énergie), ni masse ; son entropie est constante.
 Au voisinage de l'équilibre, les propriétés d'une petite région donnée du système
varient de manière continue : elles ne changent jamais beaucoup sur de petites
distances, ce qui suppose que les forces agissant sur la région sont faibles.

Au voisinage de l'équilibre thermodynamique, un système évolue donc toujours dans


le sens qui fait croître son entropie, sa désorganisation ; le temps a donc un sens
unique d'écoulement, une « flèche » du présent vers le futur qui est peut-être due à ce
que l'expansion à sens unique de l'Univers se manifeste en tous ses points.

Par contre, un système globalement loin de l'équilibre peut comporter des zones
proches de l'équilibre auxquelles le deuxième principe de la thermodynamique
s'applique. L'évolution d'un système en déséquilibre global peut faire passer l'état
d'une de ses régions d'une situation de déséquilibre (par exemple chaotique ou
turbulent) à une situation d'équilibre, ou inversement ; les états stables correspondent
à des minima locaux d'énergie, certains en équilibre et d'autres en déséquilibre [289].
Contrairement à ce que croient beaucoup de gens, la thermodynamique n'exclut pas
l'évolution du désordre vers l'ordre en certaines régions d'un système loin de l'équilibre.

Complément : lien entre variation d'entropie et échange d'information [366].

1.6.2.4 Etre vivant et thermodynamique


Comme tout système matériel, un être vivant dans son milieu environnant est soumis
à la loi thermodynamique de l'entropie croissante : lorsqu'il mange et transforme des
aliments en sa substance vivante, cette transformation augmente l'entropie du
système global être vivant + nourriture + environnement.

Lorsque les états microscopiques sont équiprobables pour chaque état global d'un
système macroscopique qui évolue, le deuxième principe de la thermodynamique
affirme que l'état final le plus probable de l'évolution du système macroscopique global
est l'état d'équilibre correspondant au maximum de l'entropie, c'est-à-dire au maximum
de désordre.

1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de Prigogine


La vie est caractérisée par deux sortes d'ordre, par opposition au désordre du hasard :
 L'ordre architectural, respecté lorsque le code génétique détermine un
arrangement précis des molécules, tel que celui qui permet la spécialisation des
enzymes ;
 L'ordre fonctionnel, respecté lorsque le métabolisme des cellules coordonne des
milliers de réactions chimiques.

Pour les idéalistes, cette exigence d'ordre semble incompatible avec le deuxième
principe de la thermodynamique, qui affirme que l'état final d'évolution le plus probable
d'un système isolé est l'état d'équilibre désordonné correspondant au maximum

37
d'entropie. Ils pensent que « si le matérialisme avait raison, la matière inerte et
désorganisée des aliments se transformerait en être vivant complexe, hautement
organisé, ce qui contredit le deuxième principe ».
Enoncée de cette manière, l'objection ne tient pas : la nourriture inerte ne se
transforme pas toute seule en être vivant complexe, elle le fait dans le cadre d'un
système être vivant + nourriture + environnement ; la complexité qui se crée dans
l'être vivant (par exemple lorsqu'un bébé qui grandit devient enfant) est accompagnée
de désorganisation dans son environnement, l'entropie de l'ensemble augmentant
bien.

L'évolution des espèces selon la théorie de Prigogine – Attracteurs étranges


Mais pour aller au fond des choses, le matérialisme doit expliquer comment, sans
intervention divine ou extérieure, de la matière inerte peu organisée peut se
transformer en matière vivante très organisée ; en particulier, comment cela s'est-il
produit lors de l'apparition de la vie dans l'Univers ?
Une explication a été apportée par le chimiste belge Prigogine, prix Nobel de
chimie 1977 pour ses contributions à la thermodynamique des processus irréversibles
basées sur la théorie du chaos. Selon lui, les structures biologiques sont des états
particuliers de non-équilibre. Elles nécessitent une dissipation constante d'énergie et
de matière, d'où leur nom de « structures dissipatives » (définition).
"C'est, écrit Prigogine, par une succession d'instabilités que la vie est apparue.
C'est la nécessité, c'est-à-dire la constitution physicochimique du système et les
contraintes que le milieu lui impose, qui détermine le seuil d'instabilité du
système. Et c'est le hasard qui décide quelle fluctuation sera amplifiée après que
le système a atteint ce seuil et vers quelle structure, quel type de fonctionnement
il se dirige parmi tous ceux que rendent possibles les contraintes imposées par
le milieu." [M7]

Au voisinage de l'équilibre du système dissipatif, qui se transforme en ayant des


échanges de travail, de chaleur et de matière avec l'extérieur, les fluctuations
disparaissent dès leur apparition : c'est la stabilité qui correspond à l'équilibre. Dans la
région non linéaire, en revanche, loin de l'équilibre, certaines fluctuations peuvent
s'amplifier à proximité d'un premier état critique, perturber l'état macroscopique et le
déstabiliser. Le système bifurque alors vers un nouvel état stable, qui peut être plus
structuré que le précédent, d'où croissance de la complexité ; l'état précédent, devenu
instable, peut alors être éliminé. Le nouvel état stable est appelé « attracteur étrange »
en théorie du chaos.
Prigogine montre aussi que des perturbations extérieures au système peuvent
avoir le même effet, toujours sans contredire le deuxième principe de la
thermodynamique. Il peut donc y avoir auto-organisation de la matière loin de
l'équilibre sans intervention miraculeuse. Le rôle du hasard dans l'apparition de la vie
est très restreint : il se réduit à un choix entre diverses possibilités d'évolution.
Pour plus de détails, voir :
 "Décroissance de l'entropie. Structures dissipatives. Auto-organisation" ;
 "Vie, organisation, complexité et entropie" ;
 Compléments sur la complexité et les attracteurs : [369]

38
Conclusion
En opposant le deuxième principe de la thermodynamique à l'explication matérialiste
d'apparition et d'évolution de la vie, certains idéalistes contredisent des faits
scientifiques établis.

1.6.3 Agnosticisme et athéisme


La position de Kant sur l'existence physique d'un Dieu créateur est un agnosticisme :
pour lui, une telle affirmation est indémontrable dans le cadre de la logique et
l'existence de Dieu est un postulat, comme l'immortalité de l'âme et le libre arbitre de
l'homme. Ces postulats sont à la fois indémontrables et (pour un croyant)
indispensables au devoir de respect des règles morales.
 Pour un athée, une bonne action n'est pas nécessairement récompensée et une
mauvaise action n'est pas nécessairement punie. Il n'y a donc pas de raison
logique de respecter les règles morales. C'est à la société de promulguer,
enseigner puis faire respecter des lois, bien qu'une loi soit souvent incapable de
remplacer une règle morale.
 Pour un croyant, toutes les actions, bonnes ou mauvaises, sont tôt ou tard
récompensées ou punies par Dieu. Il est donc indispensable de postuler Son
existence pour justifier logiquement l'obligation de chacun de faire son devoir.

1.6.3.1 Le malheureux pari de Pascal


Pascal a admis qu'on ne pouvait démontrer l'existence de Dieu comme on démontrait
un théorème de géométrie. Il propose aux incroyants (contre l'absence de foi de qui il
militait), un pari qui consiste à dire que, puisqu'on ne peut prouver que Dieu existe, il
est sage de parier que c'est le cas : si on perd son pari parce que Dieu n'existe pas,
on ne perd que le temps et les efforts d'une courte vie terrestre, alors que si Dieu existe
on gagne la félicité éternelle au Paradis ; le bénéfice potentiel étant infini alors que la
perte potentielle est finie, il faut, selon Pascal, parier sur l'existence de Dieu.

Il est clair que ce raisonnement est faible.


 D'abord il remplace la recherche de la vérité (Dieu existe-t-il ?) par celle de
l'intérêt personnel, ce qui est suspect et incite à soupçonner que cette vérité est
fausse, peu probable ou impossible à démontrer.
 Ensuite, rien ne prouve qu'il n'y ait que deux possibilités, l'existence de Dieu
avec un Paradis, un Purgatoire et un Enfer, ainsi que les commandements
chrétiens et la vie éternelle ; et la non-existence : si Dieu et la vie après la mort
étaient autrement que l'Eglise les imagine, on aurait peut-être parié à tort en
omettant d'autres choix.
 Et si les probabilités étaient autres (par exemple 99 chances sur 100 d'aller au
Paradis même si on a beaucoup péché, parce que Dieu pardonne), l'effort de
vivre en respectant les règles morales serait-il toujours justifié ?

A mon avis, le pari de Pascal est le genre de raisonnement qui passe bien auprès d'un
auditoire pendant le discours d'un orateur habile, parce qu'il a l'air correct et que
l'orateur est sympathique, mais pas un raisonnement qu'on peut soutenir par écrit pour
des gens qui réfléchissent.

39
1.6.3.2 Athéisme, positivisme et altruisme
Le choix d'être athée est aussi justifié - ou peu justifié - que celui d'être croyant. Les
philosophes positivistes ont cru que la connaissance scientifique (démontrable ou
justifiable par l'expérience) pouvait et devait remplacer la foi révélée en Dieu. Ils ont
donc accusé les croyants d'avoir inventé, dans leur religion, un mythe basé sur une
illusion destinée à consoler les malheureux, à leur laisser espérer qu'après leur mort
ils obtiendront bonheur et justice. Athée, Freud disait que la religion procède toujours
d'une illusion, provenant du désir infantile de protection et de consolation.

En fait, que l'on soit croyant ou non, chacun doit adopter, à l'échelle individuelle comme
à l'échelle sociétale, une morale, c'est-à-dire des règles de comportement permettant
une vie en société harmonieuse. Le problème est alors de définir et justifier des règles
où l'égoïsme de l'individu passe après l'intérêt de la société.
 Avec la religion, ce problème est résolu et les règles sont clairement enseignées,
avec menace d'aller en Enfer si on les enfreint et promesse de Paradis après
une vie vertueuse : la carotte et le bâton.
 Sans religion, Kant a montré que la raison ne pouvait pas justifier l'altruisme et
l'universalité [D5] (pourquoi sacrifier mon intérêt personnel à celui d'autrui ou de
la société, en l'absence de crainte de punition divine ou d'espoir de récompense
dans l'au-delà ?).
Kant a donc proposé, aux croyants comme aux athées, un axiome de valeur
suprême remplaçant la vérité révélée : le devoir. Un homme doit faire son devoir,
donc être vertueux, parce que c'est son devoir, que c'est la seule manière d'avoir
une conduite méritante. En fait, il doit incorporer à son inconscient [353] les règles
morales si parfaitement qu'il puisse se passer de la peur du châtiment divin ou du
gendarme, et de tout espoir de récompense ; sa raison d'être vertueux doit être le
sens du devoir qu'il a en lui-même, et être acquise peu à peu par éducation et
imitation des hommes sages.
Nous verrons dans la 3e partie de cet ouvrage que la confiance de Kant dans le
pouvoir de la raison d'imposer à un homme de faire son devoir est un vœu pieux.
Comme Freud l'a montré, ce n'est pas le cas : tout homme a un ensemble ordonné
de valeurs, et si son désir d'être vertueux et de faire son devoir est moins fort qu'un
autre désir, il ne peut vouloir faire son devoir, il s'efforcera de satisfaire son désir
le plus fort.

1.6.3.3 Existe, n'existe pas ou existe autrement ?


Dans ce qui précède nous n'avons envisagé que deux hypothèses : « Dieu existe » et
« Dieu n'existe pas ». Pourquoi n'y en aurait-il pas une troisième, « Dieu existe
autrement ? » Plus précisément, pouvons-nous répondre à la question suivante :
« Y a-t-il quelque chose d'externe à notre Univers (c'est-à-dire de transcendant) qui
puisse influer sur ce qui s'y passe ? »

Cette dernière question peut être reformulée en faisant intervenir le déterminisme :


« Y a-t-il des phénomènes de notre Univers qui n'obéissent pas au déterminisme, et
dont les causes sont entièrement internes à notre Univers ? ».

Un cas particulier de ce problème est particulièrement important par ses implications


morales : « Un homme est-il libre de décider ce qu'il veut, cette liberté impliquant la

40
possibilité d'échapper au moins en partie au déterminisme, ou toutes ses décisions
sont-elles déterminées par des causes internes à notre Univers ? » Ces points sont
abordés dans la 3e partie de cet ouvrage.

1.7 Conclusions sur les preuves logiques de l'existence de Dieu


A ma connaissance, aucun philosophe à ce jour n'a réussi à invalider ou même à
perfectionner substantiellement les conclusions de Kant.

Croire en Dieu reste donc une possibilité pour les hommes qui veulent une justification
religieuse du devoir d'une conduite morale, mais en tant que postulat personnel. Et
pour ce qui est d'expliquer par l'existence de Dieu la création et le fonctionnement du
monde physique, ainsi que de lui donner une finalité, c'est indémontrable et ne peut
résulter que d'un choix personnel purement arbitraire, par exemple dans le cadre d'une
des religions qui apportent une réponse.

Cet ouvrage-ci soutient qu'on peut se passer de croire en Dieu et en son intervention
pour expliquer le monde et la vie, notamment celle de l'homme, intelligent et libre. Et
il laisse soupçonner que Dieu a été inventé par l'homme pour répondre à des besoins
psychologiques comme donner un sens à sa vie et au monde, répondre aux problèmes
du salut et du besoin de justice, etc.

Le livre [5], publié en septembre 2006 par le philosophe français André Comte-
Sponville, montre avec un texte clair et facile à lire qu'on peut se passer de religion et
trouver une morale et une spiritualité sans Dieu, sans religion révélée, sans Eglise.

Le court texte de J-P Sartre "L'existentialisme est un humanisme" [15] apporte un point
de vue intéressant sur l'existence de Dieu et la liberté de l'homme. Pour un débat plus
large, voir la 2ème partie de cet ouvrage-ci.

1.8 Références

[D1] "Tu n'auras pas d'autres dieux devant ma face" et autres interdictions concernant
d'autres dieux dans la Bible http://www.onlinebible.org/html/fre/ : Exode 20-3, 22-20,
23-13 ; Deutéronome 5-7, 6-14, 7-4, 8-19, 11-16 ; Josué 23-16, etc.

[D2] Emmanuel Kant – "Critique de la raison pure" (traduction Alain Renaut -


Flammarion, 3e édition, 2006 - 749 pages, avec des notes très utiles)

[D3] "Les voies du Seigneur sont impénétrables" :


 Descartes - "Méditations métaphysiques" (1641) http://abu.cnam.fr/cgi-
bin/donner_html?medit3
"…il ne me semble pas que je puisse sans témérité rechercher et entreprendre
de découvrir les fins impénétrables de Dieu."
 Bible Louis Segond http://www.onlinebible.org/html/fre/ :
Psaumes chapitre 139, verset 17 :
"Que tes pensées, ô Dieu, me semblent impénétrables ! Que le nombre en est
grand !"

41
[D4] The New York Times, citant le Cardinal Schönborn : "Leading Cardinal
Redefines Church's View on Evolution" (09/07/2005)
http://select.nytimes.com/search/restricted/article?res=FB0D13FE3E590C7A8CDDA
E0894DD404482
Citations :
"The cardinal, Christoph Schönborn, archbishop of Vienna, a theologian who is
close to Pope Benedict XVI, staked out his position in an Op-Ed article in The
New York Times on Thursday, writing, 'Evolution in the sense of common
ancestry might be true, but evolution in the neo-Darwinian sense -- an unguided,
unplanned process of random variation and natural selection -- is not.' ''
"In his essay, Cardinal Schönborn asserted that he was not trying to break new
ground but to correct the idea, 'often invoked,' that the church accepts or at least
acquiesces to the theory of evolution."

[D5] Définitions des qualités d'altruisme et d'universalité utilisées dans ce texte :


 Altruisme : désintéressement, abnégation, générosité, faire passer l'intérêt de
l'autre avant le mien ;
 Universalité : ensemble des hommes, société tout entière, faire passer l'intérêt
général avant le mien.

[D6] "Valeurs perdues, bonheur perdu : pourquoi notre société déprime - Sociologie
de la sinistrose française" http://www.danielmartin.eu/Cours/Sinistrose.pdf

[D7] Position officielle du pape Benoît XVI sur le créationnisme et l'évolutionnisme


http://www.vatican.va/holy_father/benedict_xvi/speeches/2007/july/documents/hf_be
n-xvi_spe_20070724_clero-cadore_fr.html

Extrait de la réponse de Benoît XVI à une question posée le 24/07/2007 :


"Je vois actuellement en Allemagne, mais aussi aux Etats-Unis, un débat assez
vif entre ce qu'on appelle le créationnisme et l'évolutionnisme, présentés comme
s'ils étaient des alternatives qui s'excluent : celui qui croit dans le Créateur ne
pourrait pas penser à l'évolution et celui qui en revanche affirme l'évolution
devrait exclure Dieu. Cette opposition est une absurdité parce que, d'un côté, il
existe de nombreuses preuves scientifiques en faveur d'une évolution qui
apparaît comme une réalité que nous devons voir et qui enrichit notre
connaissance de la vie et de l'être comme tel. Mais la doctrine de l'évolution ne
répond pas à toutes les questions et surtout, elle ne répond pas à la grande
question philosophique : d'où vient toute chose ? et comment le tout s'engage-t-il
sur un chemin qui arrive finalement à l'homme ? Il me semble très important et
c'est également cela que je voulais dire à Ratisbonne dans ma Conférence, que
la raison s'ouvre davantage, qu'elle considère bien sûr ces éléments, mais
qu'elle voit également qu'ils ne sont pas suffisants pour expliquer toute la réalité.
Cela n'est pas suffisant, notre raison est plus ample et on peut voir également
que notre raison n'est pas en fin de compte quelque chose d'irrationnel, un
produit de l'irrationalité, mais que la raison précède toute chose, la raison
créatrice, et que nous sommes réellement le reflet de la raison créatrice. Nous
sommes pensés et voulus et, donc, il existe une idée qui me précède, un sens

42
qui me précède et que je dois découvrir, suivre et qui donne en fin de compte un
sens à ma vie."

La position du pape, qui admet l'évolution, contredit sur ce point celle du cardinal
Schönborn [D4].

[D8] Rapport à l'Assemblée parlementaire du Conseil de l'Europe :


"Les dangers du créationnisme dans l’éducation" (17 septembre 2007)
http://assembly.coe.int/ASP/Doc/XrefViewHTML.asp?FileID=11751&Language=fr

[D9] Citation de Luc Ferry issue de [7], pages 137 à 143 :


"un être fini qui tente de penser l'infini ne peut jamais échapper à la
contradiction, mais il peut seulement choisir de situer cette contradiction dans le
fait de nier son propre point de vue (alors, suivant la logique du concept, il
obtiendra un concept non contradictoire mais irreprésentable), ou dans le fait de
déformer, par son point de vue, le concept qu'il tente de penser (alors, suivant la
logique du schème, le concept deviendra représentable mais contradictoire)."

[D10] Réflexion consciente pour trouver un sens


Voir le paragraphe au titre ci-dessus dans « Besoin de sens et raisonnements faux »
http://www.danielmartin.eu/Philo/BesoinDeSens.pdf .

43
Deuxième partie

2. Matérialisme et idéalisme

"L'homme n'est qu'un roseau, le plus faible de la nature, mais c'est


un roseau pensant. […] Toute notre dignité consiste donc en la
pensée. C'est de là qu'il nous faut relever et non de l'espace et de
la durée, que nous ne saurions remplir. Travaillons donc à bien
penser voilà le principe de la morale."

Blaise Pascal - Pensées [66]

2.1 Matérialisme et idéalisme : définitions


Matérialisme et idéalisme sont deux doctrines philosophiques opposées.

2.1.1 Définition succincte du matérialisme


La doctrine matérialiste postule que toute réalité - qu'il s'agisse d'objets ou d'êtres
vivants – est faite de matière et a pour cause des processus physiques. En particulier,
l'esprit humain est lui-même une manifestation de l'activité de ses neurones, activité
dont il est la conséquence et sans laquelle il n'existe pas [339].

Nous verrons, en définissant le déterminisme étendu, que tout phénomène de la


nature obéit à des lois physiques, et que toutes les lois physiques respectent le
déterminisme étendu. Postuler le matérialisme oblige donc à postuler le déterminisme,
et nous verrons que postuler le déterminisme étendu oblige à postuler le matérialisme.

44
2.1.2 Définition succincte de l'idéalisme
L'idéalisme est une doctrine philosophique qui affirme que tout objet de l'Univers est
réductible à une idée, c'est-à-dire à une abstraction. Cette doctrine s'oppose au
matérialisme.

Pour un idéaliste nos représentations ne proviennent pas de la réalité physique :


 Soit parce qu'il affirme que toute réalité physique a pour cause une Idée, comme
Platon ;
 Soit parce qu'il nie l'existence de cette réalité (il est immatérialiste) ;
 Soit parce qu'il affirme, comme Kant, que la représentation étant la seule
manière dont notre esprit dispose pour accéder à la réalité physique elle se
confond avec cette réalité.

La doctrine idéaliste postule l'existence d'une réalité immatérielle, donc non


perceptible pour les sens de l'homme ou ses instruments de mesure. Cette réalité
immatérielle est décrite par les concepts d'Idée, d'essence, de divinité et d'âme, et la
réalité matérielle en découle : le monde a été créé par Dieu, c'est un résultat de Sa
volonté (téléologie) ; Dieu a aussi défini et créé l'essence de chaque homme (sa
définition abstraite), dont son corps matériel n'est qu'une copie car l'essence de tout
objet réel précède l'existence de celui-ci [D7].

Plus généralement, pour un idéaliste tous les objets réels sont des copies d'Idées
transcendantes, l'Idée étant la seule réalité objet de la connaissance. Les vérités
mathématiques, même si ce sont de pures abstractions comme la théorie des
ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref universelles ;
elles seraient tenues pour vraies même par les habitants d'un autre système solaire.
Pour plus de détails, voir le paragraphe sur les platoniciens.

2.1.3 Ce qui oppose matérialistes et idéalistes

Réalisme et idéalisme
Du temps des anciens Grecs comme aujourd'hui, les philosophes se sont opposés sur
la question de savoir ce qui est réel.
 Certains philosophes, les matérialistes, considèrent que les objets matériels
existent vraiment, que la réalité objective existe aussi et qu'elle est perceptible
par nos sens : « Je vois une table, donc elle existe et elle existe objectivement
aussi pour mon voisin. » Descartes, se demandant s'il existait bien, a fini par
conclure : « Je pense, donc je suis [c'est-à-dire j'existe] ». (Détails : voir [372])
Postulat de réalité
Le matérialisme postule que la réalité (l'Univers physique) existe
indépendamment de l'homme qui se la représente mentalement, bien que l'esprit
d'un homme soit incapable de distinguer entre la réalité et sa représentation (voir
citation de Kant). Ce postulat d'indépendance entre la réalité et ses
représentations mentales est connu sous les noms de « postulat de réalité »,
« postulat de réalisme » ou « postulat de réalisme métaphysique ».
Le postulat opposé au réalisme est l'idéalisme, qui n'admet pas que la réalité
externe soit la cause de nos représentations :

45
 Soit parce que la réalité matérielle n'existe pas, car seul existe réellement
l'esprit qui la perçoit (postulat d'immatérialisme de Berkeley et Nietzsche) ;
 Soit parce que toute réalité externe est une représentation d'une conscience
ou d'un sujet pensant ;
 Soit parce qu'il confond et désigne d'un même mot, comme Platon,
l'existence et l'essence (chose en soi abstraite, ensemble de propriétés qui
sont des Idées) : l'homme ne voit que la projection de la réalité sur le mur de
la caverne.
Dans le langage courant, un matérialiste est une personne qui s'attache
essentiellement aux valeurs, aux biens et aux plaisirs matériels. Nous n'utiliserons
pas ce sens du mot dans la suite du texte, où le mot matérialisme ne nous
intéressera que dans son sens philosophique : principe métaphysique [371]
affirmant que « tout est matière ou issu de la matière ».
 Les philosophes non matérialistes, appelés spiritualistes ou idéalistes,
considèrent qu'il existe un principe spirituel, l'âme, distinct et indépendant du
corps de l'homme, et que l'esprit est « supérieur » à la matière. (Je n'ai jamais vu
d'énoncé clair et convaincant des supériorités de l'esprit sur la matière.)
Les idéalistes pensent que les concepts et opérations intellectuelles de l'homme
ne peuvent s'expliquer par les seuls phénomènes physiologiques : penser
implique nécessairement une transcendance (voir aussi [339]). Ils pensent aussi
qu'il y a dans l'homme deux types de besoins différents :
 les besoins physiologiques (manger, dormir...)
 les désirs proprement humains (être apprécié…)
Pour un idéaliste comme Descartes l'homme a deux dimensions : l'âme et le
corps, l'âme étant supérieure au corps (toujours sans définition précise de l'âme
et sans qu'on sache clairement en quoi réside cette supériorité) (Voir [372]).

A partir de la description de l'idéalisme qui précède, une première remarque s'impose


à un esprit soucieux de rigueur : les concepts de base de l'idéalisme ("principe
spirituel", "esprit", "âme", "impossibilité de réduire l'esprit de l'homme à une émanation
de son corps", "supériorité"…) sont vagues ; il n'en existe aucune définition précise et
leur compréhension fait appel à l'imagination irrationnelle.

Pour une description plus complète de la doctrine idéaliste de Platon voir [343].

Résumé
Alors que le matérialisme affirme que l'esprit d'un homme et ses idées sont
conséquences du fonctionnement physiologique de son corps, sans lequel ils ne
peuvent exister, l'idéalisme affirme que la matière n'est qu'une émanation de l'esprit,
seule réalité ultime.

Exemple de philosophe idéaliste : Platon


Depuis le philosophe grec Platon, l'homme sait qu'il est trompé par ses sens, et que
ce qu'il voit n'est qu'un reflet de la réalité, reflet construit par son esprit lorsque celui-
ci se représente cette réalité. L'homme est aussi victime de ses idées préconçues, de
ses erreurs.

46
Mythe de la caverne
Platon a décrit l'illusion de la vision (représentation) humaine dans un texte célèbre,
"l'allégorie de la caverne", appelé aussi "mythe de la caverne" [M1]. Ce texte affirme
que l'homme prend souvent l'image construite par son esprit (la représentation qu'il
croit voir ou même qu'il a envie de voir) pour la réalité. Platon en a déduit qu'il ne faut
pas chercher à connaître la réalité matérielle, qui restera toujours cachée ou déformée
par nos sens et le processus de représentation de notre esprit. Il affirme qu'il existe
une organisation et une harmonie du monde qui précèdent toute matière : Platon était
donc idéaliste (voir aussi l'exemple chrétien de l'idéalisme [D7]).
En somme pour Platon, et depuis son époque pour tous les idéalistes, l'Idée
(l'essence, le plan, les propriétés) d'une chose matérielle existe toujours avant cette
chose, qui n'en est qu'une copie. L'homme accède à cette réalité spirituelle
uniquement au moyen de son imagination, qui lui en fournit une « connaissance
immédiate ». Pour Platon, cette réalité de l'essence est objective, elle existe
indépendamment de l'homme (comme, par exemple, les nombres entiers), et c'est la
seule réalité, la réalité physique étant inaccessible.

L'Idée est donc aussi la réalité ultime, celle à laquelle on parvient en analysant la réalité
perçue : la table est faite de bois, le bois est fait d'atomes (les Grecs Empédocle,
Leucippe, Démocrite, Épicure… concevaient intuitivement l'atome, plus petite partie
d'un objet parce qu'elle est indivisible) et cet atome matériel (avec ses propriétés)
dérive de l'Idée d'atome, réalité ultime.

Idéalisme et réalité des Idées


L'idéalisme philosophique postule que la réalité a pour base des Idées, et l'idéalisme
épistémologique postule que notre esprit ne peut appréhender que ses propres idées,
donc que pour un homme l'existence des objets est conditionnée par celle de ces
idées. (Pour plus de détails, voir le paragraphe sur les platoniciens.)

Matérialisme et existence objective


Le matérialisme, au contraire, définit la matière comme tout ce qui existe ; et cette
existence est indépendante de l'esprit de l'homme, où elle n'est que notre perception
de phénomènes physiques cérébraux. L'opposé de matérialisme est donc idéalisme.
Nous allons voir que ces deux doctrines s'excluent mutuellement.

2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ?


 Pour un matérialiste, la matière précède la pensée - qui en est une conséquence
[339], et l'esprit - qui est le cadre où s'organise la pensée. L'homme a existé
avant d'inventer les notions d'esprit et de divinité, concepts formés dans sa
pensée, dont le siège est le cerveau. Et à sa mort, sa pensée cesse d'exister.
 Pour un idéaliste, l'esprit a existé en premier et a créé la matière. En particulier,
l'homme matériel et spirituel a été créé par un esprit, une idée ou Dieu [D7]. Et à
la mort de son corps il n'y a pas de raison que son esprit ou son âme meurent ;
au contraire, son esprit peut avoir une vie après la vie et son âme est immortelle.

Il est clair que ces deux conceptions s'excluent mutuellement. Pour un matérialiste
« l'existence précède l'essence », comme disait Sartre dans [15] à propos de l'homme,
qui s'invente lui-même après sa naissance en exerçant son libre arbitre ; l'essence ne
précède l'existence que lorsque l'homme fait un plan d'un objet avant de le fabriquer.

47
Pour un idéaliste comme le pape Benoît XVI, c'est le contraire : l'essence précède
l'existence.

Un matérialiste cohérent est athée, alors qu'un idéaliste croit en Dieu ou en un Esprit
créateur du monde et de l'homme.

2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni


infirmés
Il existe en philosophie un principe de causalité, posé a priori comme tous les principes
(et discuté plus bas), qui affirme (en simplifiant) que :
 Tout effet possède une cause et son apparition a une explication ;
 Tout ce qui existe a une raison d'être et ne peut exister sans avoir été créé.

Si on admet ce principe de causalité, il est impossible de démontrer qu'un phénomène


constaté :
 N'est pas dû à une cause matérielle, sa cause étant surnaturelle ou
transcendante ; car ce n'est pas parce qu'on ne connaît pas une cause physique
qu'elle n'existe pas.
 Est dû à une cause matérielle, car il pourrait être dû - au moins en partie - à une
cause surnaturelle ou transcendante, dont on ne peut prouver la non-intervention
qu'en postulant la validité universelle de nos lois de la nature.
 N'est pas dû à une cause surnaturelle ou transcendante, car la non-intervention
d'une telle cause ne peut jamais être prouvée, l'universalité des lois de la nature
n'étant pas démontrée mais postulée.
 Est dû à une cause surnaturelle ou transcendante, car le phénomène pourrait
être dû à une cause matérielle inconnue.

On peut donc qualifier aussi bien le matérialisme que l'idéalisme de doctrines non
falsifiables (dont on ne peut démontrer la fausseté) [203]. On peut aussi qualifier des
propositions comme « être matérialiste est cohérent » ou « être idéaliste est
cohérent » d'indécidables (dont on ne peut prouver ni la véracité ni la fausseté) [6].

Le matérialisme et l'idéalisme sont des doctrines philosophiques qui s'excluent


mutuellement et entre lesquelles chacun doit choisir.

Dans le reste de ce livre nous postulerons donc exclusivement le matérialisme.

2.3 La critique nietzschéenne


Le philosophe Nietzsche a dénoncé le refus de l'homme d'accepter la réalité quand
elle dérange ses préjugés ; Freud en a fait de même un peu plus tard.
 Quand ils trouvent la vie dénuée de sens, cruelle ou indifférente et sans
perspective d'amélioration et de bonheur pour eux, certains hommes ont recours
à une religion révélée. Pour Nietzsche, Dieu est une invention humaine (ce que
Kant admet et recommande, voir 1ère partie) par refus de la réalité, une « idole »
créée par les hommes pour apporter artificiellement du sens, de la perfection et

48
de la justice dans un monde qui n'en a pas parce qu'il est indifférent à nos
valeurs ; croire en l'idole Dieu est puéril, dérisoire ; c'est une fuite devant la
réalité. Nietzsche déplore que les croyants refusent la réalité et son absence de
sens.
 Par extension, Nietzsche considère comme un refus puéril de la réalité
l'idéalisme des philosophes des Lumières [47] comme Kant ou celui de
Rousseau, philosophes qui espéraient que la Raison et la Science apporteraient
aux hommes la connaissance, le bonheur et la fin des tyrannies. Croire en un tel
idéal, pour Nietzsche, c'est aussi fabriquer des idoles et y croire, car pour lui le
monde n'a aucun sens, c'est un chaos que l'homme ne comprendra et ne
maîtrisera jamais.
Nietzsche considère aussi comme utopique un idéal matérialiste comme celui de
Karl Marx, qui remplaçait la foi des croyants dans le salut (la rédemption) par un
bonheur ici-bas, après avoir transformé la société bourgeoise capitaliste en
société communiste par révolution prolétarienne. Pour Nietzsche, l'idéal
matérialiste est aussi puéril que l'idéal religieux, c'est aussi une idole créée de
toutes pièces pour être adorée, consoler et donner un espoir.

Nietzsche critique donc la foi des philosophes des Lumières ou du communisme dans
des idéaux et des valeurs qu'il considère comme chimériques :
 Les Droits de l'homme, la Science, la Raison, la Démocratie, le Socialisme,
l'égalité des chances, etc. Il accuse ces philosophes d'être en fait des croyants,
qui ont simplement remplacé la foi religieuse par de nouveaux dieux qu'il baptise
« idoles », et qui cherchent toujours à inventer un monde idéal meilleur que le
vrai.
 Les valeurs transcendantes (abstraites, absolues, supérieures et extérieures à la
vie de notre Univers).

Nietzsche accuse ces philosophes de chercher - au lieu d'aider l'humanité - à juger et


condamner la vie elle-même, au lieu de l'assumer. Il les accuse aussi de nier la vraie
réalité au nom de fausses réalités. Son accusation repose sur l'idée, 100 %
matérialiste, qu'il n'existe pas de transcendance, que tout jugement est un symptôme
et une émanation de la vie qui fait partie de la vie elle-même, et ne peut se situer hors
d'elle. Nietzsche condamne donc l'idéalisme sous toutes ses formes en tant que
nihilisme, refus puéril de la réalité et espoir d'un monde meilleur futur.

Mais Nietzsche n'en est pas resté à cette philosophie pessimiste, cette déconstruction
des philosophies idéalistes, pour en montrer le caractère vain et puéril. Il a proposé
d'accepter le présent, même si on ne le comprend pas, si on n'en voit pas la finalité et
s'il n'apporte pas d'espoir. Pour lui, le triomphe de la raison consiste précisément à
accepter ce qui est, dans l'instant présent, sans en chercher le sens profond, sans
nostalgie du passé (qui ne reviendra pas) ou espoir d'un futur meilleur (qui n'est pas
encore là), c'est-à-dire en se passant de ces non-réalités. La sagesse consiste même
à connaître et aimer cette réalité présente et le destin, attitude que Nietzsche appelle
« le gai savoir ». (Voir dans [48] la célèbre citation "Dieu est mort !", et d'autres détails
sur la philosophie de Nietzsche et les philosophes postmodernes : [190])

49
Je constate que cette acceptation d'une réalité, qui nous dérange parce qu'elle est
nihiliste, ne console pas du passé et ne promet rien pour l'avenir, est conforme au
déterminisme que je présente et défends dans ce texte. Tout en l'approuvant, je
propose cependant de la dépasser. Voici comment.

Idoles, non ; idéaux, oui


Les idoles que Nietzsche dénonce sont des illusions substituées à la réalité ; et tout
jugement de valeur, toute décision d'action basée sur des idoles risque fort d'être une
erreur. Mais pour peu qu'il ait un minimum d'imagination, un homme ne peut
s'empêcher d'avoir des idéaux, nous le verrons plus bas ; les idéaux humains sont-ils
donc tous de telles idoles, des illusions imaginées pour être adorées ?
 Il peut s'agir d'idéaux personnels, comme ceux d'artistes qui rêvent de toujours
plus de beauté et plus de perfection, ou comme ceux de sportifs qui rêvent de
toujours plus se surpasser.
 Il peut aussi s'agir d'idéaux altruistes, comme ceux des volontaires de Médecins
sans frontières (http://www.paris.msf.org/) ou ceux de Mère Teresa de Calcutta,
Prix Nobel. Il peut s'agir de l'idéal de Charles de Gaulle, au service d'une
certaine idée de la France, ou de Martin Luther King pour les droits civiques.

Dans tous les cas, l'homme qui a un tel idéal est prêt à se dépasser pour le réaliser, à
risquer sa carrière, sa santé, voire sa vie. Dans cet idéal, issu de la vie quotidienne et
tendu vers un objectif bien terrestre, le dépassement de soi est une transcendance,
une vocation qui ignore ou même méprise les objections de la raison.

De tels idéaux suscitent notre approbation, voire notre admiration. A la différence des
idoles que dénonce Nietzsche, ils ne nient pas la réalité mais travaillent à l'améliorer.
En quoi un athlète qui refuse la réalité de ses performances actuelles et s'entraîne
pour les dépasser se fait-il nécessairement des illusions ? En quoi le rêve de Charles
de Gaulle pour la France était-t-il utopique et l'idéal communiste de Marx une idole ?
Un progrès majeur paraît souvent inaccessible tant qu'il n'a pas été réalisé. Quand
Einstein, ingénieur inconnu de 26 ans, s'est attaqué aux bases mêmes de la physique
en refusant les contradictions du principe newtonien d'espace et de temps absolus,
qu'il a osé remplacer par la Relativité [49], il ne créait pas une idole, il en détruisait
une, l'hypothèse a priori de vérité absolue de Newton.

En tant que concept, une idole a un caractère a priori : c'est alors une vérité de
substitution admise sans démonstration. Elle peut se révéler fausse s'il en résulte une
contradiction ou une prévision erronée. Mais l'existence de Dieu ne peut pas être
démontrée : Nietzsche a donc qualifié la religion d'idole en montrant à quel point ses
révélations exigent une croyance sans démonstration, une foi basée sur l'imagination
ou sur la fuite devant la réalité, donc à quel point la religion était suspecte. Ses
accusations sont soutenables, mais ce ne sont pas des preuves ; la qualification d'idole
est souvent un jugement sans preuve.

Si l'idole est un espoir, celui-ci a un caractère utopique en supposant possible quelque


chose qui ne l'est pas. Le communisme de Marx était - et demeure encore de nos jours
- une utopie parce qu'il supposait l'existence future d'hommes bien meilleurs qu'ils
n'ont jamais été. Le monde sans concurrence ni profit privé et l'entraide internationale

50
des altermondialistes sont pour le moment des utopies, à en juger par la difficulté des
hommes à se mettre d'accord sur des enjeux bien plus modestes.

Mais imaginons que les astronomes détectent un astéroïde de 60 km de longueur,


pesant trois mille milliards de tonnes, qui percutera la Terre dans 10 ans à la vitesse
de 8 km/s en risquant d'y détruire toute vie [199] ; il y a fort à parier, alors, que les
hommes s'entendront pour travailler ensemble à un projet de détournement de cet
astre errant : l'utopie d'une coopération internationale sera devenue réalité. Et que dire
de la probabilité, beaucoup plus forte, que l'effet de serre s'emballe et devienne
catastrophique avant le milieu du XXIe siècle ? L'utopie d'un accord international pour
diminuer fortement les consommations de combustibles fossiles se transformera alors
en nécessité qui s'impose à tous !

2.4 Références
[M1] Platon, "La République", livre VII (écrit vers l'an 400 avant J. C.) : l'allégorie
de la caverne - http://www.cvm.qc.ca/encephi/CONTENU/TEXTES/REPUB7.HTM

[M2] Karl Marx - "Contribution à la critique de la philosophie du droit de Hegel"


(1843) - téléchargeable depuis http://marx.engels.free.fr/marx/txt/1843critiqueh.htm

[M3] Kant :
 "Critique de la raison pure" (1781) Editions Flammarion, traite des limites de la
raison et des connaissances ; contient la fameuse démonstration de
l'impossibilité de prouver que Dieu existe ou qu'il n'existe pas.
 "Critique de la raison pratique" (1790) Editions Flammarion, traite de la loi
morale.
 "Critique de la faculté de juger" (1788) Editions Flammarion, traite du jugement
de goût et de la finalité téléologique.

[M4] Physical Review Letters 77, 4887-4890 (1996) "Observing the Progressive
Decoherence of the “Meter” in a Quantum Measurement"
http://prola.aps.org/abstract/PRL/v77/i24/p4887_1
Extrait:
"A mesoscopic superposition of quantum states involving radiation fields with
classically distinct phases was created and its progressive decoherence
observed. The experiment involved Rydberg atoms interacting one at a time with
a few photon coherent field trapped in a high Q microwave cavity. The
mesoscopic superposition was the equivalent of an “atom+measuring apparatus”
system in which the “meter” was pointing simultaneously towards two different
directions—a “Schrödinger cat.” The decoherence phenomenon transforming
this superposition into a statistical mixture was observed while it unfolded,
providing a direct insight into a process at the heart of quantum measurement."

[M7] Citations d'Ilya Prigogine :


 Encyclopédie Universalis version 10, article "Hasard et nécessité"
 Voir aussi [26].

51
52
Troisième partie

3. Le déterminisme étendu -
une contribution pour la pensée rationnelle

"J'accepte de vivre dans le doute, l'incertitude et l'ignorance. Je


pense qu'il vaut mieux vivre sans savoir qu'avoir des réponses qui
peuvent être fausses. En restant dans l'incertitude tout en
progressant, nous laissons la porte ouverte à des solutions
nouvelles. Nous refusons de nous emballer pour l'information, la
connaissance ou la vérité absolue du jour, pour rester dans
l'incertitude. Pour progresser, il faut laisser entrouverte une porte
sur l'inconnu."

Richard Feynman - interview sur la BBC, 1981 [245]

3.1 Prédictions d'évolutions


Avant d'agir, l'homme a besoin de comprendre la situation, ainsi que de prévoir
son évolution et les conséquences d'une éventuelle action. Après le cas simple
d'une situation où n'interviennent que des lois physiques de la nature, nous
aborderons l'aptitude des raisonnements humains à prévoir.

Le texte qui suit est repris de l'introduction ci-dessous, publiée séparément ; pour le
sauter, cliquer ici.

Hasard, chaos et déterminisme : les limites des prédictions


Chacun de nous a des définitions du hasard, du chaos et du déterminisme. J'ai pris la
liberté de modifier et compléter ces définitions par souci de rigueur et pour les rendre

53
cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on
peut prédire lors d'une évolution.

Compréhension, prévision et prédiction d'une évolution :


 comprendre une situation nécessite la connaissance du passé et de l'évolution
depuis ce passé, pour situer l'état actuel par rapport à eux ;
 prévoir une évolution, c'est en construire une représentation mentale. Cela
nécessite la connaissance des lois d'évolution qui s'appliquent à l'état actuel ;
 prédire une évolution ou une situation future, c'est décrire une prévision.

Le principe dont l'application permet la compréhension d'une situation physique et la


prévision de son évolution est le déterminisme, objet de ce livre.

3.1.1 Première définition du déterminisme


Comme il y a plusieurs définitions du déterminisme parce qu'il y a plusieurs cas
d'évolution, en voici un exposé succinct qui sera développé dans la suite de l'ouvrage.

Le déterminisme est un principe métaphysique [371] selon lequel tout phénomène


physique (fait objectif, observé, susceptible de se reproduire) a une cause et suit des
lois d'évolution stables (telles que les mêmes causes produisent les mêmes effets,
toujours et partout). On distingue :
 Le déterminisme philosophique, défini par Laplace en 1814, affirmant à tort
qu'une connaissance parfaite du présent permet toujours de prévoir l'avenir et de
reconstituer mentalement le passé qui y a conduit.
 Le déterminisme scientifique, affirmant que tout état d'un système physique
déclenche nécessairement et immédiatement une évolution selon des lois
physiques, stables, qui s'appliquent à cet état. Les évolutions successives
produisent un état (valeurs des variables du système) fonction du temps.
 Le déterminisme statistique, affirmant que, dans certains cas, l'état à un instant t
d'un système qui évolue est un élément choisi selon une probabilité statistique
dans un ensemble prévisible. Exemples :
 (En première approximation) le résultat d'un lancer de dé est un nombre
choisi avec une probabilité de 1/6 dans l'ensemble {1, 2, 3, 4, 5, 6}.
 En Mécanique quantique, l'état d'un système (position, vitesse…) est un
élément d'un ensemble fini ou non de solutions de l'équation d'évolution de
Schrödinger.
 Le déterminisme étendu, regroupant le déterminisme scientifique et le
déterminisme statistique pour régir toutes les lois d'évolution de la nature
inanimée.

Le déterminisme n'entraîne pas toujours la prédictibilité


Mais attention : la nature déterministe des lois d'évolution physique n'entraîne pas la
prédictibilité par calcul de toutes les évolutions, bien qu'elle exclue le hasard
(possibilité pour la nature de « faire n'importe quoi »).

54
3.1.2 Définition, promesses et critique du déterminisme philosophique
L'expression déterminisme traditionnel désigne tantôt une doctrine philosophique,
tantôt un principe scientifique. Ce texte étudie le déterminisme au sens :
 Des conséquences d'une cause ;
 Du déroulement du processus d'évolution qui fait passer un système d'un état de
départ à un état d'arrivée au bout d'un certain temps ;
 De la possibilité de prévoir l'avenir ou de reconstituer le passé connaissant le
présent.

Définition et promesses du déterminisme philosophique


La définition traditionnelle du déterminisme philosophique a été publiée par Laplace
en 1814 dans l'Essai philosophique sur les probabilités [200], où on lit pages 3 et 4 :
"Nous devons donc envisager l'état présent de l'Univers comme l'effet de son
état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour
un instant donné, connaîtrait toutes les forces dont la nature est animée, et la
situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste
pour soumettre ces données à l'analyse, embrasserait dans la même formule les
mouvements des plus grands corps de l'Univers et ceux du plus léger atome :
rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses
yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'Astronomie,
une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en
Géométrie, jointes à celle de la pesanteur universelle, l'ont mis à portée de
comprendre dans les mêmes expressions analytiques les états passés et futurs
du système du monde."

Le déterminisme philosophique affirme donc :


 Que l'avenir est complètement déterminé par le présent ;
 Qu'il est complètement prévisible connaissant parfaitement le présent, c'est-à-
dire que l'Univers est régi par des lois physiques stables ;
 Qu'une connaissance parfaite de la situation présente permettrait de reconstituer
en pensée tout le passé qui y a conduit ;
 Qu'il existe, pour la situation présente, une chaîne de causalité unique
commençant infiniment loin dans le passé et se poursuivant infiniment loin dans
l'avenir.

Exemple de définition du déterminisme philosophique dans un dictionnaire : [264].

Le postulat de déterminisme philosophique a été construit par induction à partir de


constatations d'évolution d'une situation à ses conséquences dans la vie courante, tout
particulièrement en considérant les mouvements des planètes, prévisibles avec
précision. En affirmant qu'il s'applique - et s'est toujours appliqué - à toutes les
évolutions, on en fait un principe métaphysique [371] régissant les lois de l'Univers.

3.1.2.1 Le déterminisme philosophique est contredit par des faits


Le déterminisme philosophique qui nous promet, connaissant le présent, la possibilité
de prévoir tout l'avenir et de retrouver mentalement tout le passé, est contredit par de

55
nombreux phénomènes de la nature cités dans ce livre. Comme un seul contre-
exemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse, en
voici un.

Décomposition radioactive (fission nucléaire) - Demi-vie d'un élément


Un échantillon d'uranium 238 voit ses atomes se décomposer spontanément, sans
aucune cause autre que le temps qui passe ; un atome d'uranium se transforme alors
en un atome d'hélium et un atome de thorium. Le nombre d'atomes qui se
décomposent par unité de temps suit une loi connue : 50 % des atomes d'un
échantillon de taille quelconque se décomposeront en un temps fixe T appelé « demi-
vie de l'uranium 238 », puis la moitié du reste (c'est-à-dire ¼) dans le même temps T,
puis la moitié du reste (1/8) dans le même temps T, etc.
La décomposition radioactive naturelle, c'est-à-dire spontanée, s'explique par
l'instabilité de l'énergie de liaison des neutrons et protons du noyau d'un atome
radioactif. Ce phénomène est inexplicable dans le cadre de la physique
macroscopique, mais il s'explique en Mécanique quantique sous le nom d'effet
tunnel : l'énergie d'excitation d'un noyau, instable, peut parfois dépasser l'énergie
potentielle appelée « barrière de fission » de l'élément, entraînant une déformation
si grande du noyau que celui-ci se décompose.

Contrairement à la promesse de prédiction de l'avenir du déterminisme philosophique,


on ne peut savoir quels atomes se décomposeront pendant un intervalle de temps
donné, ni à quel instant un atome particulier se décomposera, ni quel est le premier
atome qui se décomposera, ni quand cela se produira.
A l'échelle macroscopique, la décomposition radioactive suit une loi déterministe
statistique, valable pour une population d'atomes mais ne permettant pas de prévoir
l'évolution d'un atome donné.
A l'échelle atomique, la stabilité d'un noyau dépend d'une énergie de liaison
instable, qui varie sans cause externe à l'atome et ne permet de prévoir l'évolution de
celui-ci (et son éventuelle décomposition) que de manière probabiliste. Le
déterminisme philosophique de Laplace excluant les variations spontanées et
imprévisibles ne s'applique donc pas aux décompositions radioactives naturelles.

En outre, lorsqu'un échantillon contient des atomes résultant d'une décomposition, on


ne peut savoir à quel instant chacun d'eux s'est décomposé, ce qui contredit le
déterminisme philosophique au sens reconstitution du passé.

Donc, de deux choses l'une :


 Ou il y a des questions, concernant les lois de la nature, qui n'ont pas de sens
parce qu'elle n'est pas comme nous croyons ; nous verrons dans la suite de cet
ouvrage que c'est souvent le cas en Physique quantique et en théorie de la
Relativité générale : la nature est bien toujours déterministe, mais pas toujours
comme nous l'imaginons.
 Ou le déterminisme philosophique ne peut tenir ses promesses ni concernant la
prédiction de l'avenir, ni concernant la reconstitution mentale du passé : c'est
donc un principe faux dans le cas de la décomposition radioactive. Et comme,
d'après la méthode de recherche de la vérité du rationalisme critique présentée
dans ce livre, il suffit d'un seul contre-exemple pour qu'une affirmation
scientifique soit fausse, nous considérons le déterminisme philosophique comme

56
erroné, bien que la définition ci-dessus figure dans certains dictionnaires
philosophiques.
Nous verrons qu'il faut une autre définition du déterminisme, le déterminisme
statistique, pour prendre en compte les phénomènes comme la radioactivité
naturelle et définir quelles questions sont possibles concernant la prédiction de
l'évolution future ou la reconstitution du passé. Avec ce déterminisme-là, basé sur
une définition étendue de la causalité, la prédiction de l'avenir et la reconstitution
du passé de son « démon » redeviendraient théoriquement possibles.

Nous allons donc reprendre ci-dessous le problème de compréhension du présent et


prédiction de l'avenir d'une manière moins ambitieuse, en repartant de la causalité à
la base du déterminisme philosophique et en abandonnant provisoirement ses
promesses de prédiction et de reconstitution. Mais avant et pour préciser tout de suite
notre objectif, voici une définition succincte du déterminisme scientifique actuel.

3.1.2.2 Définition succincte du déterminisme scientifique


Le déterminisme scientifique est un principe métaphysique selon lequel toute évolution
dans le temps d'un système physique est régie par deux postulats :
 Le postulat de causalité, condition nécessaire et suffisante :
 Condition nécessaire : toute situation (et toute évolution) a nécessairement
une cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans
avoir été créé auparavant.
 Condition suffisante : il suffit que la cause existe au départ pour que la
conséquence ait lieu (c'est une certitude).
La conséquence de la cause est un phénomène d'évolution, pas une situation
finale.
 La règle de stabilité : Les mêmes causes produisent toujours les mêmes effets
(reproductibilité : dans la nature les évolutions obéissent à des lois). Les lois
physiques dont l'application est déclenchée par une cause donnée sont stables,
elles sont les mêmes en tous lieux et à tout instant.

Le déterminisme de la nature est postulé à la fois :


 Pour comprendre (ou expliquer ce qui a produit) une situation ou un phénomène
que l'on constate.
 Pour prévoir l'évolution d'une situation donnée connaissant la loi physique
applicable.

Principe de fatalisme
Lorsque nous constatons un phénomène physique (situation ou évolution d'un objet),
nous devons admettre que ce phénomène devait arriver, qu'il était inévitable, même si
nous éprouvons un sentiment de surprise, de peur ou de contrariété :
Soit S une situation d'un objet précédée d'une situation P, qui en est la cause
d'après une loi de la nature. Si S était contingente (si elle pouvait se produire ou
ne pas se produire), la situation P aurait pu ne pas avoir pour conséquence S, ce
qui contredit l'exigence de causalité qui rend la conséquence S certaine après P
pour respecter la loi de la nature. Donc ce qui arrive (ici : S) devait arriver.

57
3.1.3 Le postulat de causalité
Depuis qu'il existe, l'homme a remarqué certains enchaînements : pour un système
physique, une même situation S est toujours suivie du phénomène d'évolution P. Par
une démarche naturelle d'induction, il en a déduit un postulat général : « Les mêmes
causes produisent toujours les mêmes conséquences ». Et en réfléchissant aux
conditions qui régissaient les enchaînements observés il en a déduit le postulat de
causalité, que j'énonce comme suit sous forme de condition nécessaire et suffisante.

3.1.3.1 Définition du postulat de causalité


 Condition nécessaire : Toute situation (et toute évolution) a nécessairement une
cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans avoir été
créé auparavant.
Donc, si je constate un phénomène ou une situation, je suis sûr qu'il ou elle a une
cause dans le passé, mais je renonce pour le moment à pouvoir reconstituer
mentalement ce passé en déduisant cette cause de sa conséquence observée,
comme le promet le déterminisme philosophique.
 Condition suffisante : il suffit que la cause existe au départ pour que la
conséquence ait lieu (c'est une certitude).
Cette conséquence est un phénomène d'évolution, pas une situation finale :
nous renonçons ainsi à la promesse de prédiction du résultat de l'évolution, en ne
conservant que le postulat de déclenchement de celle-ci. L'évolution déclenchée
par la situation-cause se déroule ensuite selon une loi de la nature ; un
observateur pourra en constater l'effet, la situation-conséquence, à un moment
ultérieur de son choix, moment sans incidence sur le déroulement de l'évolution.

Exemple : je tiens une pierre dans ma main ;


 Pour qu'elle tombe je dois la lâcher, condition nécessaire ;
 Si je la lâche elle tombe, condition suffisante.

Dans certains cas favorables, le postulat de causalité répond aux besoins de la pensée
rationnelle de comprendre et de prévoir :
 La condition nécessaire permet d'expliquer au moins en partie une constatation
(évolution ou situation), en remontant le temps jusqu'à sa cause ;
 La condition suffisante permet de prévoir une conséquence, en suivant le temps
vers l'avenir depuis sa cause : l'évolution est déclenchée à coup sûr.

3.1.3.1.1 Causalité étendue


Certains philosophes appellent la causalité ci-dessus cause efficace ou cause
efficiente [39] ; Schopenhauer l'appelle Principe de raison suffisante du devenir [173].
Mais parce qu'elle définit la conséquence d'une situation-cause comme une évolution
(au lieu d'une situation-conséquence) nous l'appellerons causalité étendue : c'est de
cette causalité-là qu'il sera question chaque fois que les mots causalité ou cause
apparaîtront dans la suite de ce texte.

58
Contrainte d'action d'une cause efficiente: rester dans les limites de l'Univers
L'action d'une cause efficiente est régie par les lois de la physique. Elle se déroule et
s'achève dans l'espace de l'Univers et le temps de l'Univers, aucun franchissement
des frontières de l'espace-temps n'étant possible car il contient tout ce qui existe, a
existé et existera.

Différence fondamentale de la causalité étendue avec la causalité philosophique


Traditionnellement, les philosophes définissent la causalité comme une relation entre
deux situations, une cause et sa conséquence ; c'est, par exemple, le cas d'Aristote
[39] et de Kant [M3]. En considérant la conséquence de la conséquence de la
conséquence, etc., ou la cause de la cause de la cause, etc., ils définissent une chaîne
de causalité.

Connaissant la situation présente, pour prévoir une situation future ou reconstituer une
situation passée, les philosophes passent d'une situation à la suivante ou à la
précédente ; ils ont alors un problème en remontant dans le passé (démarche appelée
régression) : si toute situation a une cause, la chaîne de causalité est infinie, il n'y a
pas de cause première, et le postulat de causalité doit être abandonné ou modifié pour
admettre une cause sans cause, comme Dieu créateur de l'Univers.

Avec la définition présentée ci-dessus, la conséquence d'une situation n'est pas une
autre situation mais une évolution régie par une loi de la nature. Cette loi est un
ensemble E de fonctions du temps t, au sens mathématique : la situation au temps tn
du passé ou de l'avenir est donnée par les valeurs de toutes des fonctions de E pour
t=tn. Le déterminisme postule alors que ces fonctions soit sont toujours définies, soit
ont un domaine d'existence, par exemple « à partir du Big Bang ».

Cette définition remplace l'évolution discontinue par succession de situations séparées


par un intervalle de temps des philosophes par une évolution continue, plus conforme
à la continuité évidente des évolutions de la nature macroscopique, qui n'arrêtent
jamais. Elle supprime le problème de la cause première et rend inutiles les
considérations de Kant sur l'inconditionné [M3] : connaître les fonctions de E d'un
système (les lois de la nature et leur domaine d'existence) détermine les réponses à
toutes les questions d'évolution possibles sur lui.

3.1.3.1.2 Principe de la conservation de l'information dans l'Univers


Ce paradigme de causalité du déterminisme est également conforme au principe de
la conservation de l'information dans l'Univers, qui exige ce qui suit.
 A un instant donné, l'état de Univers est complètement décrit par une certaine
information, qui contient toutes les données nécessaires pour le reconstruire
théoriquement si on disposait de l'énergie nécessaire : on connaîtrait chaque
atome avec les valeurs de ses variables d'énergie, de position et de
déplacement, les champs de force et rayonnements en chaque point de
l'Univers, etc.
 Or l'évolution dans le temps et l'espace de l'état physique de tout système est
régie par l'équation de Schrödinger, équation fondamentale de la Mécanique
quantique. Cette équation déterministe est aussi symétrique par rapport au
temps : lorsqu'à partir d'un état B d'un système à l'instant t2 on inverse le sens

59
d'écoulement du temps (comme si on « passait le film des événements à
l'envers »), on retrouve à un instant t1 qui précède t2 l'état A qu'il avait.
Cela ne veut pas dire qu'on peut changer le sens de l'écoulement du temps de
l'Univers physique (notamment parce que la thermodynamique l'interdit), mais
seulement qu'on peut reconstituer théoriquement l'information qui décrit un état
quelconque du passé d'un système fermé. C'est une conséquence de l'existence
d'une loi d'évolution de la nature, postulée réversible et stable dans le temps par
le déterminisme.
Cet état reconstitué est unique : il n'y a eu, à l'instant t1<t2 qu'un seul état, A, qui
est devenu B. Donc tout se passe comme si la nature conservait l'information de
tous ses états passés : c'est une conséquence du postulat de déterminisme et de
la réversibilité temporelle de l'équation universelle d'évolution de Schrödinger.
 Conséquence : toutes les équations des lois physiques de la mécanique
macroscopique (comme les lois de Newton), de la mécanique quantique, de
l'électromagnétisme, de la force nucléaire (interaction forte) et de la relativité
(gravitation) sont réversibles par rapport au temps - à de rarissimes exceptions
près qui ne sont pas encore expliquées :
 Lorsqu'un corps céleste disparaît dans un trou noir, l'information qui le
décrivait disparaît peut-être (si elle est conservée, on n'est pas encore sûr
de l'endroit, peut-être à la surface de l'horizon du trou noir) ;
 La décomposition d'un méson K0 (force faible) en mésons + et - est
irréversible, mais on ne sait pourquoi ;
 L'expansion de l'Univers, également irréversible et en plus accélérée, est
due à un champ de force encore inconnu.
 Le passage du temps n'altère donc pas la quantité totale d'information d'un
système physique, même s'il s'agit de l'Univers entier ; cette quantité étant finie,
le nombre d'états possibles de l'Univers est immense, mais fini. Mais cette
l'information préservée peut être altérée par l'évolution physique d'un système
d'une manière telle qu'on ne sache plus où elle est stockée, même si elle existe
toujours.
 Il existe une probabilité non nulle qu'un état donné de l'Univers ou de tous les
atomes d'un système quelconque se reconstitue spontanément, mais les calculs
montrent que cela se produirait pour la première fois au bout d'un temps qui se
compte en milliers de milliards d'années : quand je renverse du café de ma
tasse, la probabilité pour qu'il y remonte tout seul est vraiment faible, même si on
lui restitue l'énergie thermique dispersée par le renversement !

Conséquence pour le déterminisme philosophique de Laplace


Laplace était un mathématicien spécialiste de mécanique céleste. En pensant au
déterminisme, il avait en tête le mouvement parfaitement prévisible et
mathématiquement réversible d'une planète, mouvement réputé "peu perturbé par les
autres astres" à une époque ou Henri Poincaré n'avait pas encore publié sa théorie du
chaos : si dans les équations de son ouvrage Théorie du mouvement et de la figure
elliptique des planètes (1784) on changeait le sens du temps, le « film des
déplacements sur l'orbite passait à l'envers ».

60
Laplace ne connaissait pas la décomposition radioactive. Mais son déterminisme
redevient exact si on en remplace la causalité traditionnelle par notre causalité
étendue, qui régit tous les phénomènes parce qu'elle prend en compte l'équation de
Schrödinger et son déterminisme statistique.

3.1.3.2 Causalité, réalisme et idéalisme


Nous avons vu ci-dessus qu'il y a deux doctrines métaphysiques [371] concernant
l'indépendance entre une réalité censée exister objectivement, indépendamment de
l'homme qui s'en construit des représentations mentales, doctrine appelée réalisme,
et l'idéalisme, qui prétend que toute réalité physique dérive nécessairement d'une
Idée, d'une pensée ; l'idéalisme est la doctrine du philosophe grec Platon, dont le
philosophe allemand Kant a adopté une variante plus précise, l'Idéalisme
transcendantal, qu'il appelle parfois idéalisme critique [372].
 Selon la doctrine réaliste, la causalité est :
 soit une relation entre les choses elles-mêmes, régissant leur durée, leur
succession dans le temps, leur interaction ;
 soit (nous le verrons plus bas) une traduction d'une représentation en une
autre.
 Selon la doctrine idéaliste, la réalité nous est cachée et la causalité ne relie que
des abstractions, représentations mentales plus ou moins correctes, mais jamais
parfaites ; Kant a expliqué et approfondi parfaitement cette doctrine et ses
conséquences [372].

Selon le domaine de connaissance considéré, une des deux approches peut être
préférée à l'autre.
 En physique traditionnelle, la doctrine réaliste permet de décrire au moyen de
lois et formules des phénomènes ou situations réels, et le passage d'une
situation à sa conséquence. Par exemple, une formule permet de prévoir avec
une précision acceptable ce qui se passera dans une situation donnée, c'est-à-
dire comment elle évoluera. La causalité est alors précise et fiable.
 En psychologie, la doctrine idéaliste s'impose, car la réalité de l'esprit humain est
trop complexe pour être représentée de manière complète et claire. On ne
connaît que certains mécanismes mentaux et de manière approximative, avec
beaucoup de cas particuliers et peu ou pas d'informations chiffrées [339]. La
causalité est alors peu précise et peu fiable, faisant parfois appel à des non-dits.
La seule manière de connaître et d'étudier le psychisme humain est de s'en
construire des modèles mentaux simplifiés, qu'on confronte ensuite avec les
résultats ou mesures de l'expérience.

A la causalité précise et fiable de la physique, base du déterminisme scientifique et du


déterminisme étendu, s'ajoute donc la causalité approximative et de fiabilité incertaine
des actions humaines, à laquelle nous associerons, par définition, un déterminisme
humain.

3.1.3.3 Causalité, nécessité et explication du monde


La raison justifie l'existence des causes des situations et phénomènes en postulant
que tout ce qui existe ou arrive a une cause, et que rien n'existe ou n'arrive sans cause
[99]. Et elle prévoit l'évolution des situations en appliquant les lois physiques.

61
La cause explique pourquoi cela existe, est arrivé ou arrivera, connaissance plus
approfondie qu'une simple certitude d'existence. L'existence de la cause implique
nécessairement la conséquence, mais attention à la réciproque : si on ne connaît pas
la loi d'évolution qui y a conduit, une situation constatée peut avoir plusieurs causes
possibles.
Exemple : un homme trouvé mort a 3 balles dans la tête. Il n'a donc pu se suicider,
mais plusieurs personnes qui l'ont fréquenté peuvent l'avoir assassiné.

Nous étudierons ci-dessous en détail le principe de raison suffisante, qui énonce une
relation certaine, nécessaire : l'existence de la cause implique nécessairement la
conséquence (l'évolution qui en résulte).

Absurdité du concept « d'être absolument nécessaire »


D'après ce qui précède, l'expression « un être absolument nécessaire » (que l'on
rencontre dans des textes philosophiques comme [172]), où « absolument » signifie
« indépendamment de toute condition, donc de toute cause », est absurde car
« absolument » contredit « nécessaire », qui implique une cause ; il n'existe ni être ni
situation absolument nécessaire ! L'existence d'un être absolument nécessaire est
l'objet des preuves ontologiques de l'existence de Dieu, preuves dont Kant a démontré
l'absurdité. Voir aussi [372].
Exemple de pensée métaphysique [371] creuse extrait de la biographie du
philosophe Avicenne publiée dans [172] :
"Le point extrême auquel la pensée puisse s'élever, après avoir parcouru toute la
série de la causalité, est celle de l'Être absolument Nécessaire dont le contraire
est le Possible. L'absolument Nécessaire est ce qui, supposé comme non
existant, serait nécessairement inconcevable, tandis que le Possible est ce qui
se peut également bien concevoir comme existant et comme non existant."
Commentaires sur cette citation : il n'y a pas de limite à ce que l'imagination
humaine peut concevoir, il y a seulement des objets dont l'existence est possible
parce qu'elle ne contredit aucune loi physique, et d'autres qui ne peuvent exister
ailleurs que dans l'imagination. « Ce qui, supposé comme non existant, serait
nécessairement inconcevable » est une absurdité : pour supposer que quelque
chose n'existe pas il faut d'abord l'avoir conçu (défini), ce qui l'empêche d'être
inconcevable ! En outre, l'existence ne peut pas être une propriété de l'essence.
Une abstraction ne peut causer une existence matérielle, en vertu du principe
d'homogénéité et du principe de conservation de l'énergie (toute création ou
transformation physique d'objet nécessite de l'énergie qu'une abstraction n'a pas).

3.1.4 Principe de raison suffisante


Le principe de raison suffisante fait partie des principes de base des raisonnements,
sans le respect desquels ils ne pourraient pas être logiques. Enoncé : rien n'existe ou
n'arrive sans qu'une cause ait rendu sa survenance nécessaire, c'est-à-dire inévitable.
Pour qu'une chose soit comme elle est, il y a une raison suffisante.

Nous analysons ci-dessous ce principe parce qu'il permet de mettre en perspective le


déterminisme objet de cet ouvrage, en le situant par rapport aux trois autres principes
de raison suffisante. Notre analyse est basée sur le livre de Schopenhauer [173].

62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante

Remarques préalables
 Toute connaissance est une relation entre un sujet qui connaît et un objet qu'il
connaît ; sans l'une de ces notions, l'autre n'a pas de sens.
 Un sujet ne peut se connaître lui-même complètement, car il ne peut se placer
« à l'extérieur » de lui-même, où il connaîtrait par exemple sa connaissance,
c'est-à-dire l'état actuel et le fonctionnement de sa conscience. [339]

Définition des 4 domaines de pensée régis par le principe de raison suffisante


Décomposons les domaines de pensée où intervient la causalité comme suit.
 Ou la causalité est celle de la nature, régie par des lois physiques objectives,
indépendantes de l'homme, conformément au réalisme. Schopenhauer parle
alors de raison suffisante du devenir, pour justifier chaque évolution par sa
nécessité physique. Dans tout cet ouvrage nous appellerons ce principe le
déterminisme.
 Ou la causalité est celle de la pensée humaine, et il y a deux cas :
 La pensée régie par la raison, c'est-à-dire logique ; on peut alors distinguer
les propositions proprement dites (affirmations, certitudes) des mécanismes
logiques fondamentaux de l'esprit qui les créent et les manipulent.
 Dans le cas des propositions, Schopenhauer parle de raison suffisante
du connaître, pour justifier chaque proposition par sa nécessité logique.
 Dans le cas des mécanismes fondamentaux de l'esprit, Schopenhauer
parle de raison suffisante de l'être, pour décrire les concepts
nécessaires à la représentation et la manipulation dans l'esprit de
réalités matérielles (objets, situations ou phénomènes), ou d'êtres
abstraits comme en mathématiques.
La nécessité de ces concepts provient de la manière dont notre esprit se
représente l'espace, le temps, les grandeurs physiques fondamentales et
les abstractions diverses, avec les opérations mentales permises sur eux.
 La pensée dominée par des affects [253], des intuitions, « le cœur » dirait
Pascal, qui écrivait dans ses Pensées [198] : "Le cœur a ses raisons que la
raison ne connaît point ; on le sait en mille choses.". Dans ce cas,
Schopenhauer parle de principe de raison suffisante de vouloir, ou loi de la
motivation, nécessité de satisfaire ses désirs en vertu de laquelle le sujet
veut :
 soit connaître un objet pour l'apprécier par rapport à ses valeurs ;
 soit agir sur lui plus tard.

Très général, le principe de raison suffisante s'applique :


 Au domaine des objets, situations et phénomènes matériels, dont il explique
l'existence ou la survenance ;
 Au domaine des représentations ou décisions de l'esprit, abstractions dont il
justifie la conception.

Avec cette classification, il n'y a que 4 domaines d'application de la raison suffisante.


Tous quatre ont en commun d'impliquer deux étapes successives. Voyons les détails.

63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme
Le principe de raison suffisante du devenir affirme la nécessité physique de l'évolution
d'une situation initiale dont elle est la conséquence par l'action d'une loi de la nature,
c'est-à-dire le déterminisme physique. Il implique une succession dans le temps :
la conséquence suit la situation qui la cause.

Le plus souvent, affirmer qu'une évolution est déterministe c'est affirmer que son
résultat est prévisible par application d'une loi physique, éventuellement en appliquant
une formule ou en déroulant un algorithme ; c'est aussi affirmer que ce résultat ne sera
pas dû au hasard. Nous verrons plus bas en détail des exceptions importantes à cette
prévisibilité.

Une situation décrit des objets physiques, indépendants ou non. C'est la situation
initiale (l'état initial) qui est cause de l'évolution de ces objets, pas les objets eux-
mêmes ; et la conséquence de la situation initiale est cette évolution, pas l'état de
l'ensemble des objets de la situation finale.

Une situation est une abstraction, une représentation sous forme de « photographie
instantanée ». Ce n'est pas elle qui est visible, ce sont ses objets. Une situation est
une représentation construite par l'esprit de ces objets et des relations entre eux, et
c'est elle (non ses objets ou relations) qui est cause de son évolution.

L'évolution affecte les objets et leurs relations, pas la situation initiale, photographie
d'un passé immuable. L'état d'ensemble de ces objets, à un instant qui suit l'état initial,
définit une nouvelle situation. Le caractère final éventuel de celle-ci est purement
arbitraire, l'instant de fin de l'évolution étant lui-même une décision humaine ; une
même situation initiale, cause de son évolution, a donc une infinité de situations
conséquences, selon l'instant de chacune.

Déterminisme d'évolution et déterminisme de traduction


Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm2/kg2. Connaissant M, M' et d, on en déduit immédiatement la force
d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent deux masses
séparées. Le déterminisme régit donc, en plus des lois d'évolution dans le temps de la
nature, des lois et méthodes de calcul traduisant des données initiales en un résultat
final qui est leur conséquence, sans délai d'évolution.

3.1.4.3 Principe de raison suffisante du connaître


Ce principe justifie des propositions (affirmations qui ne peuvent être que toujours
vraies ou toujours fausses) par leur nécessité logique. La justification implique une
succession : les prémisses précèdent les conséquences. Une proposition ne peut être
jugée vraie que si on sait pourquoi ; sa vérité appartient alors à l'une des 4 catégories
suivantes.

Vérité transcendantale (résultant de nos facultés logiques a priori)


Une vérité transcendantale est une affirmation qui ne peut se déduire d'aucune autre
ni de l'expérience, et qui est considérée comme nécessaire à toute connaissance

64
possible. C'est un résultat de l'application de nos facultés logiques à des concepts a
priori (créés par l'esprit indépendamment de toute expérience). Exemple d'affirmation :
« Il existe des nombres entiers (concept a priori) et des opérations sur ces
nombres entiers comme l'addition ou la comparaison »

Vérité métalogique
C'est l'un des principes de la logique [99], base de toute pensée rationnelle et des
axiomatiques dans le cadre desquelles on démontre des vérités formelles [67]. Les
facultés logiques utilisées pour construire des vérités transcendantales et des vérités
logiques sont basées sur des vérités métalogiques.

Vérité logique (formelle)


C'est un théorème ou la vérité d'un théorème, proposition résultant d'une
démonstration basée sur une ou plusieurs propositions vraies préexistantes dans le
cadre d'une axiomatique. Exemples :
 Conséquence d'une définition ou d'un syllogisme ;
 Démonstration par déductions successives [99] à partir d'axiomes ou théorèmes.

Attention : une vérité formelle n'a pas de valeur sémantique. Une proposition
formellement vraie n'est vraie que dans sa forme, établie dans le cadre logique de son
axiomatique. Une éventuelle vérité sémantique ne peut se juger qu'avec des
comparaisons avec des objets extérieurs à l'axiomatique : voir [67a] et [220].

Vérité empirique
C'est une vérité résultant de nos sens ou d'une expérience. On la considère comme
vraie par application du postulat réaliste.

3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation)


Ce principe décrit les concepts nécessaires à la représentation dans l'esprit de réalités
matérielles (objets, situations ou phénomènes) ou d'êtres abstraits comme en
mathématiques. La nécessité de ces concepts provient de la manière dont notre esprit
se représente l'espace, le temps, les grandeurs physiques fondamentales, les
concepts mathématiques et les opérations mentales permises sur eux. Ces concepts
décrivent des propriétés :
 Au sens de l'espace et du temps (concepts fondés sur des perceptions intuitives,
a priori, ne faisant pas partie des attributs de la chose en soi) : la position d'un
objet dans l'espace est définie par rapport à un repère (référentiel), jamais dans
l'absolu ; de même, un événement est repéré par rapport à une origine et un
sens des temps ;
 Au sens des grandeurs fondamentales de la physique : masse-énergie, charge
électrique, spin, etc. L'importance de ces grandeurs fondamentales,
indispensables pour caractériser un objet réel chaque fois qu'il existe, n'était pas
reconnue à l'époque de Kant et de Schopenhauer ;
 Au sens mathématique ou logique. Exemples : chaque nombre entier (ou
élément d'une suite) est défini à partir de son prédécesseur ; théorèmes basés
sur une axiomatique.

65
Les concepts nécessaires pour représenter une réalité matérielle en sont déduits par
perception, mesure expérimentale et/ou abstraction. Les formules et opérations
mathématiques sont utilisées soit pour modéliser une loi physique, soit pour situer un
concept d'objet par rapport à d'autres tels que des unités, des axes orientés, etc.

Le principe de raison suffisante de l'être implique une succession de représentations :


les concepts fondamentaux sont associés par l'esprit qui crée une représentation de
réalité matérielle ou d'être abstrait par prise de conscience. Détails : [339].

3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation


La raison suffisante de vouloir est la nécessité de satisfaire ses désirs. Le sujet veut :
 soit connaître l'objet, pour l'apprécier ensuite par rapport à ses valeurs ;
 soit agir sur lui plus tard.

Dans les deux cas, ce principe implique une succession de représentations : le motif
est suivi par l'acte.

Du fait même qu'il est conscient, un homme veut quelque chose à tout instant. Chaque
volonté a des degrés, depuis un faible désir jusqu'à une passion, et chacune
correspond à une valeur au moins. Chaque affect [253] d'un homme correspond à une
valeur et à quelque chose qu'il veut ; chaque état de conscience [339] d'un sujet
comprend au moins un affect et une volonté. Le sujet qui connaît (par sa conscience)
est le même que celui qui apprécie une valeur et celui qui veut : dans le psychisme
[347] connaissance, jugement de valeur et volonté sont indissociables. Mais, à un
instant donné, un sujet connaît mieux ce qu'il veut que lui-même, c'est-à-dire ce qu'il
est.

Consciemment (ou plus souvent inconsciemment), l'homme juge la situation selon ses
valeurs. Ces jugements sont des raisons suffisantes pour une action destinée à en
savoir davantage ou à obtenir un résultat désirable. Il y a là une forme de causalité, un
automatisme très rapide régissant le psychisme humain, causalité due au lien entre
les trois dimensions d'un sujet : conscient, appréciant et voulant.

Le principe de raison suffisante de vouloir est la forme humaine du déterminisme de


la nature. Déterminisme humain, il gouverne la traduction d'une sensation, d'un affect
ou d'une idée en volonté de connaître ou d'agir, comme le déterminisme physique
gouverne la traduction d'une donnée en une autre ou l'évolution d'une situation par
application d'une loi de la nature. Nous aborderons plus bas le déterminisme humain.

3.1.4.6 Réciproques d'une raison suffisante d'évolution


L'existence d'une raison suffisante d'évolution entraîne celle de sa conséquence,
l'évolution elle-même ; inversement, l'absence constatée d'évolution entraîne
l'absence de raison suffisante d'évolution. Ces propositions sont évidentes.

Par contre :
 L'absence d'une raison suffisante d'évolution n'entraîne pas l'absence de sa
conséquence, si l'évolution correspondante peut résulter d'une autre raison
suffisante.

66
Exemple : l'absence de clou sur la chaussée ne garantit pas que mon pneu avant
droit ne se dégonflera pas ; il pourrait le faire parce qu'il est mal monté sur sa jante
ou parce que j'ai heurté un trottoir.
 L'existence (la constatation) d'une évolution n'entraîne celle d'une raison
suffisante particulière que si d'autres raisons suffisantes n'auraient pas pu
produire le même effet. Exemples :
 La victime est morte d'une balle de pistolet tirée à deux mètres ; on ne peut
être sûr que l'assassin est son beau-frère, qui la détestait et a un pistolet de
ce calibre-là, que si aucun autre porteur de ce type de pistolet n'a pu être
présent lors du meurtre.
 Une statistique montre que 40 % des gens qui ont pris un certain remède
homéopathique ont guéri en un mois au plus ; pour en déduire que la prise
de ce remède guérit 40 % des malades il faudrait être sûr qu'aucune autre
cause de guérison n'était possible : ni guérison spontanée, ni effet placebo,
ni autre traitement concomitant, etc.

3.1.4.7 Raison suffisante et chaîne de causalité


Toute raison suffisante est basée sur une cause, elle-même basée sur une autre
cause, etc. La suite de ces causes définit une chaîne de causalité qui remonte le temps
jusqu'à une cause première, postulée faute d'en connaître la cause ou pour que la
chaîne reste finie (ce qui constitue une exception à la causalité, en inventant une cause
sans cause comme Dieu). Dans notre Univers, toutes les causes physiques remontent
dans le temps jusqu'à l'inflation qui précède le Big Bang, parce que nos connaissances
physiques ne nous permettent pas de penser ce qui précéderait l'inflation autrement
que de manière spéculative [313].

3.1.5 Principe d'homogénéité


Selon [16-b], ce principe de logique est dû à Aristote, qui l'a énoncé sous forme
d'interdit : "On n'a pas le droit de conclure d'un genre à un autre" (texte précis : [16-
a]). Il voulait dire qu'une relation logique ne peut exister qu'entre deux objets du même
genre. Exemples :

Relation de physique
Une comparaison n'est possible qu'entre grandeurs de même type :
 Les relations A = B ; A  B et A  B ne sont possibles que si A et B sont tous
deux des masses (ou des longueurs, ou des durées, etc.).
 Toute mesure comparant une grandeur à une unité, on ne peut mesurer une
masse en unités de charge électrique ou de longueur : on dit que ces grandeurs
sont incommensurables entre elles.

Concepts d'ordres différents


Une masse et une charge électrique sont de genres (on dit aussi "d'ordres") différents ;
aucun des deux ne peut se déduire directement de l'autre, aucun ne peut être
directement cause ou conséquence de l'autre (une masse ne devient pas une charge
électrique et ne résulte pas d'une charge électrique).

Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire
qui est des deux genres [16-a (2)], intermédiaire appelé schème par les philosophes

67
[372]. Ainsi, lorsqu'on parle de l'aire d'un champ de blé (exemple : 100 hectares) et
d'un poids récolté en quintaux, on peut passer de l'aire à la récolte correspondante par
l'intermédiaire d'un rendement (exemple : 70 quintaux à l'hectare) qui est à la fois du
genre aire et du genre poids.

Interaction de l'esprit avec la matière


Cette interaction, estimée possible par certains idéalistes, est contraire au principe
d'homogénéité. Du reste, elle contredirait la physique : une action matérielle n'est
possible qu'avec un échange d'énergie, et on ne voit pas comment une idée abstraite
ou une pensée humaine pourraient fournir ou absorber l'énergie mise en jeu.

Une idée n'est cause ou conséquence de quelque chose que par l'intermédiaire d'un
esprit humain, ou de Dieu pour les croyants. Une réalité ne peut être cause d'une idée
que dans un esprit qui pense.

3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité


L'esprit humain peut créer des relations d'un genre vers un autre sans difficulté, sans
la moindre impression d'erreur ; c'est un effet de son aptitude à associer n'importe quel
concept à n'importe quel autre car son imagination est libre.
Exemple mathématique : axiome de Cantor-Dedekind ou axiome de continuité.
« Si, sur une droite D, on reporte les points A1, A2, …, An, d'une part, les points
B1, B2, …, Bn d'autre part, les abscisses des premiers formant une suite an non
décroissante de nombres rationnels (fractions), celles des seconds une suite bn
non croissante de nombres rationnels, la différence bn − an restant positive et
tendant vers zéro lorsque n croît, les segments emboîtés [AnBn] ont un point
commun unique M, auquel correspond suivant les cas un nombre rationnel ou un
nombre irrationnel. »
Dans cet exemple, on établit une correspondance biunivoque entre l'ensemble
des points d'une droite, concepts géométriques, et l'ensemble des nombres
réels, concepts numériques, chacun de ces derniers étant défini comme limite
commune de deux suites de nombres rationnels qui convergent en sens opposé.

La pensée en tant que processus d'interprétation


Beaucoup de philosophes contestent à tort l'origine matérialiste de la pensée en tant
qu'effet du fonctionnement du cerveau. Ils raisonnent comme ceci : puisque ce
fonctionnement (matériel) est d'un genre différent de la pensée (abstraite), la pensée
ne peut provenir seulement de causes matérielles, en raison du principe
d'homogénéité, il doit y avoir « autre chose », il faut une transcendance.

Ils se trompent : les neurosciences expliquent que la pensée est la perception humaine
du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en abstractions ;
elle constitue la seule mise en relation entre concepts de genres différents qui ne viole
pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer
n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes
de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions
entre eux. Le besoin intuitif d'« autre chose » de ces philosophes résulte du caractère
imprévisible de certaines pensées, dû à notre incapacité de décrire rationnellement les

68
mécanismes inconscients [353] ; ils considèrent comme « besoin » un effet de
l'ignorance humaine de ces mécanismes. Détails : [339].

3.1.5.2 Déterminisme et principe d'homogénéité


Le déterminisme non-humain, celui de la nature, ne s'applique qu'aux évolutions
physiques ; il ne s'applique pas à la pensée parce que celle-ci comprend une partie
inconsciente dont nous ne pouvons décrire le fonctionnement précis [353].
 L'évolution d'une situation (d'un état) physique ne peut aboutir qu'à une autre
situation (état) physique.
 Comme toutes les situations physiques sont délimitées par notre Univers (dont
l'espace-temps comprend, par définition, tout ce qui existe, a existé ou existera),
aucune situation de notre Univers ne peut avoir une conséquence externe à
l'Univers, aucune ne peut être causée par quelque chose d'extérieur à l'Univers.
Nous pouvons cependant voir dans nos télescopes la lumière d'astres qui l'ont
émise il y a si longtemps que l'expansion de l'Univers les situe aujourd'hui au-delà
de la limite de ce qui est observable [313].
 L'esprit humain peut imaginer un franchissement des frontières de l'Univers
visible, mais ce sera un raisonnement cosmologique ou une pure spéculation.
 Même si un jour une théorie sur d'autres Univers affirme des choses vérifiables
dans le nôtre, elle ne prouvera pas avec certitude que ces univers existent, car
cette existence ne peut être ni vérifiée ni infirmée expérimentalement. [313]

Un postulat est une abstraction pure, une base pour construire nos représentations
mentales du monde, elles-mêmes des abstractions. Le principe d'homogénéité interdit
de déduire un phénomène, une existence physique d'objet ou un état physique d'une
abstraction ; une telle déduction doit demeurer une hypothèse, valable seulement dans
la mesure où cette abstraction modélise la réalité avec une précision suffisante, et
seulement tant que la constatation d'une erreur ou imprécision n'amène pas à remettre
le modèle en cause. Violer ce principe conduit à des raisonnements faux, comme :
 Les preuves cosmologiques de l'existence de Dieu ;
 Une décision par l'Eglise catholique de considérer comme miraculeuse (d'origine
divine) une guérison jugée inexplicable ou impossible dans l'état actuel de nos
connaissances ; (l'ignorance de la cause ne justifie pas qu'on l'attribue à Dieu).
 Déduire de la conception d'une essence ("Idée" de Platon, "chose en soi" de
Kant, description complète, cahier des charges…) l'existence d'un objet
physique, d'une situation ou d'un phénomène est une erreur ontologique :
une essence n'est cause de rien de concret. Avoir conçu une essence ne prouve
même pas la possibilité que son objet existe, tant l'imagination humaine est
féconde. Une telle possibilité, comme l'existence elle-même, n'est envisageable
qu'en tant qu'hypothèse, ou dans un domaine de connaissances abstraites
comme les mathématiques. En somme, une essence ne justifie pas une preuve.
En mathématiques, toutefois, elle peut être une définition : un être mathématique
peut être défini par ses propriétés, si celles-ci ne contredisent aucun théorème
établi.

69
Aristote s'était déjà aperçu de l'absence de relation de causalité entre une abstraction
et une réalité matérielle [201].

Avant de poursuivre notre propos sur le déterminisme, nous avons besoin de préciser
le principe d'homogénéité.

3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité


Un intérêt majeur de la règle du respect de l'homogénéité est la délimitation du
domaine de vérité d'une science : une affirmation n'a de sens qu'à l'intérieur d'un
domaine homogène ; on ne peut en vérifier la véracité que dans un tel domaine. Selon
[16-b] page 9 :
 Husserl écrit : "L'empire de la vérité s'articule objectivement en domaines ; c'est
d'après ces unités objectives que les recherches doivent s'orienter et se grouper
en sciences."
 Kant écrit : "On n'étend pas, mais on défigure les sciences quand on fait
chevaucher leurs frontières." Cette affirmation provient du caractère axiomatique
[67] des sciences exactes, dont chacune a des axiomes et règles de déduction
propres qu'on ne doit pas mélanger avec ceux d'une autre science.

La connaissance scientifique n'a commencé à progresser que lorsque l'humanité a


réussi à la séparer des considérations philosophiques, morales et religieuses [212].

3.1.6 Le déterminisme scientifique


Pour comprendre et prévoir, la pensée rationnelle a besoin d'ajouter au postulat de
causalité ci-dessus une règle de stabilité dans le temps et l'espace, c'est-à-dire de
reproductibilité dans le cadre de lois d'évolution.

3.1.6.1 Règle de stabilité


Règle : "Les mêmes causes produisent toujours les mêmes effets" (reproductibilité :
dans la nature les évolutions obéissent à des lois). Les lois physiques dont l'application
est déclenchée par une cause donnée sont stables, elles sont les mêmes en tous lieux
et à tout instant.

Conséquence de la stabilité : une situation stable n'a jamais évolué et n'évoluera


jamais ! Pour qu'il y ait une évolution à partir d'un instant t il faut élargir la définition du
système observé. En fait, l'écoulement du temps ne se manifeste que lorsque quelque
chose évolue ; si rien n'évolue tout se passe comme si le temps s'arrêtait. La règle de
stabilité n'a rien d'anodin : elle a pour conséquence la première loi du mouvement de
Newton, la loi d'inertie :
"Un corps immobile ou se déplaçant en ligne droite à vitesse constante restera
immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas sur
lui."
Au point de vue déterminisme, le mouvement rectiligne uniforme d'un corps est
une situation stable, qui ne changera pas tant qu'une force n'agira pas sur le
corps ; et une situation stable est sa propre cause et sa propre conséquence.

Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un ensemble
d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le même

70
enchaînement, je postule que la même cause (la même situation, le même état d'un
système) produit toujours la même conséquence (la même évolution dans le temps).
On peut alors regrouper le postulat de causalité et la règle de stabilité en un principe
qui régit les lois de la nature décrivant une évolution dans le temps, le postulat de
déterminisme scientifique énoncé ci-dessous.

3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution


En pratique, la stabilité d'une loi physique d'évolution est soumise à des incertitudes,
comme une variable physique : ses paramètres sont entachés d'erreurs.
 Une loi d'évolution décrit celle-ci à partir d'une situation initiale en appliquant des
règles de calcul. Mais une variable des données initiales, des règles de calcul et
de l'heure de l'instant initial n'est connue avec une précision parfaite que lorsque
c'est une unité internationale, définie arbitrairement, comme la vitesse de la
lumière c = 299 792 458 mètres/seconde exactement ; toutes les autres variables
sont entachées d'erreurs, donc le résultat aussi : la prédiction d'une évolution
est, en pratique, entachée d'erreurs.
 Un système est stable lorsque ses variations sont trop petites et/ou trop lentes
pour être observées. Un système qui paraît stable en ce moment a peut-être
évolué de manière perceptible dans le passé, mais de plus en plus lentement, ou
avec de moins en moins d'amplitude jusqu'à paraître stable en ce moment ;
et peut-être évoluera-t-il de plus en plus vite ou de plus en plus fort à l'avenir.

Exemple
Au début d'un cours d'astronomie on considère seulement la direction dans laquelle
se trouve une étoile, en ignorant sa distance et son éventuel mouvement par rapport
à la Terre. Les étoiles sont alors censées se trouver sur une immense sphère appelée
« sphère des fixes », modèle cosmographique qui postule la fixité de la direction de
visée de chaque étoile. En effet, à l'échelle de quelques siècles et à fortiori à celle
d'une vie humaine, les étoiles paraissent immobiles sur la sphère des fixes : leurs
directions et leurs positions relatives ne changent pas.

En fait, l'immobilité apparente des étoiles n'existe que si on mesure leurs directions
angulaires avec une précision modeste, notamment lorsqu'un homme compare un ciel
de sa jeunesse, vu à l'œil nu, avec un ciel de son âge mur. Dès qu'on effectue des
mesures de vitesse précises par effet Doppler (déplacement des raies spectrales) on
s'aperçoit que les étoiles bougent par rapport à la Terre : les positions stables connues
ont été complétées par des lois mathématiques de déplacement.

Conclusions
 La vitesse mesurée d'évolution d'un phénomène n'a pas de raison d'être
constante. Une évolution lente aujourd'hui peut avoir été beaucoup plus rapide
dans le passé. Exemples :
 L'expansion de l'Univers observable, dont le rayon augmente aujourd'hui à
la vitesse de la lumière, c, a été des milliards de fois plus rapide peu après
la naissance de l'Univers (mais avant le Big Bang), pendant une phase
appelée inflation [313]. Cette expansion hyperrapide n'a duré qu'un très
court instant, moins de 10-35 seconde.

71
 Considérons un système physique fermé (n'échangeant rien avec l'extérieur)
tel qu'un tube allongé plein d'air. Supposons qu'au début de l'expérience l'air
de la partie gauche du tube a été chauffé, pendant que l'air de la partie
droite restait froid. Lorsqu'on arrête le chauffage et qu'on laisse l'air du tube
fermé évoluer sans intervention extérieure, sa température tend vers une
température limite, uniforme, en variant de plus en plus lentement.
La température stable constatée au bout d'un temps assez long pour que
notre thermomètre de mesure ne bouge plus est le résultat d'une évolution
convergente, pas le résultat d'une absence d'évolution. Un observateur qui ne
voit qu'un thermomètre qui ne bouge pas aurait tort d'en conclure que l'air du
tube a toujours été à la même température.
En résumé : compte tenu de l'imprécision inévitable de toute mesure physique, on
ne peut conclure d'un état actuel de stabilité ni qu'il n'a jamais évolué, ni qu'il
n'évoluera jamais, ni depuis combien de temps il n'évolue pas, ni qu'il n'évoluera
pas beaucoup plus vite dans l'avenir…
Exemple : si on photographie le balancier d'un pendule oscillant avec un temps
d'exposition de un dixième de seconde lorsque ce balancier est au sommet de sa
course, on aura une photo nette car il bouge alors lentement ; mais une photo de
même temps d'exposition au point le plus bas du balancier sera « bougée ».

Du point de vue philosophique, on doit tenir compte de la possibilité qu'une évolution


dans le temps ait une vitesse et une amplitude variables, c'est-à-dire décrites par des
fonctions non linéaires. La vitesse et l'amplitude d'évolution d'un phénomène, trop
petites pour être mesurables à un instant donné, ne l'ont pas nécessairement toujours
été, et ne le resteront pas nécessairement toujours à l'avenir.

3.1.6.3 Définition du déterminisme scientifique


Définition : le déterminisme scientifique est un postulat qui régit l'évolution dans le
temps d'une situation sous l'effet des lois de la nature, conformément au postulat de
causalité et à la règle de stabilité.

Par rapport au déterminisme philosophique, le déterminisme scientifique :


 Prédit qu'une situation évoluera certainement sous l'action d'une loi naturelle,
mais pas qu'on en connaîtra la valeur future des variables d'état ;
 N'affirme pas la possibilité de reconstituer mentalement le passé.
(Cette possibilité existe avec le déterminisme statistique, qui ajoute au
déterminisme scientifique les conséquences de la prise en compte des lois
déterministes de populations d'objets et de l'équation de Schrödinger.)

Le déterminisme scientifique est basé sur les lois vérifiées de la physique. Il n'est pas,
comme le déterminisme philosophique, basé sur la foi (issue des Lumières [47] et de
la doctrine de l'Idéalisme transcendantal de Kant [372]) en une Science qui permettra
un jour de tout comprendre et prévoir.

Remarque importante
Le déterminisme scientifique affirme donc que la nature déclenche automatiquement
et instantanément une évolution lorsque ses conditions sont réunies ; les

72
conséquences de ces conditions sont le déclenchement et le déroulement d'une
évolution définie par une loi, pas une situation à un instant futur (abstraction humaine).

Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des variables
d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur d'une variable
à un instant donné. Nous verrons que la prévision de la valeur d'une variable d'un
système physique à un instant donné est parfois impossible ou imprécise, et parfois
que cette valeur n'est même pas unique.

3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles


Dans de nombreux phénomènes physiques, l'évolution d'un système est modélisée
par une équation différentielle ou un système d'équations différentielles comprenant
des dérivations par rapport au temps. Lorsque c'est le cas, la connaissance des
conditions initiales permet de déterminer toute l'évolution ultérieure de ses variables,
soit parce qu'on peut exprimer celles-ci comme fonctions du temps, soit parce qu'on
peut calculer les valeurs successives de ces variables de proche en proche.
L'évolution du système est alors déterministe au sens scientifique traditionnel et on
peut même parler de déterminisme mathématique.

L'existence d'une description du mouvement par équation(s) différentielle(s) implique


qu'à tout instant t, le mouvement pendant l'intervalle de temps infiniment petit dt suivant
ne dépend que des conditions à cet instant-là, et on peut le calculer sans tenir compte
des conditions initiales ou des évolutions qui précèdent l'instant t. La position et la
vitesse à tous les instants qui suivent t ne dépendent que des conditions à l'instant t.
Le mouvement global, depuis un instant quelconque à partir de t = 0, résulte de
l'application répétée du principe précédent : la chaîne de causalité est continue.
Le futur dépend du seul présent, pas du passé.
Exemples souvent cités : les équations différentielles de la dynamique (2 ème loi de
Newton [110]) et de Schrödinger.

3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels


Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm²/kg² [110]. Connaissant M, M' et d, on en déduit immédiatement la
force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent M, M' et
d. Le déterminisme de la nature régit donc, en plus de ses lois d'évolution, des lois et
méthodes de calcul traduisant des données initiales en un résultat final qui est leur
conséquence, sans délai d'évolution.

Un algorithme de calcul est écrit dans le cadre d'une axiomatique [67] et un programme
est écrit dans un langage informatique. Chacune des règles de déduction de
l'axiomatique et chacune des instructions du programme respecte les conditions du
postulat de causalité et de la règle de stabilité : l'algorithme et le programme étant
donc des suites de processus déterministes, sont globalement déterministes.

Pourtant, le résultat d'un algorithme ou d'un calcul n'est pas prédictible à la seule vue
de leur texte. En particulier, on ne peut savoir s'ils produisent les résultats attendus
qu'en déroulant l'algorithme par la pensée et en exécutant le programme.

73
Théorème : il n'existe pas d'algorithme général permettant de savoir si un
programme donné s'arrête (donc fournit son résultat) ou non.

On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non :
un programme peut se mettre à boucler, repassant indéfiniment sur la même séquence
d'instructions, et un algorithme peut converger très lentement ou même ne pas
converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun homme ne
l'attendra.

Il existe donc des processus déterministes :


 dont le résultat est imprévisible avant leur déroulement ;
 dont le déroulement peut durer si longtemps qu'on ne peut se permettre de
l'attendre pour avoir le résultat.

Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne
pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème.

3.1.6.4 Déterminisme scientifique et obstacles à la prédiction


Nous allons voir que l'évolution naturelle d'un système peut être déterministe (au sens
du déterminisme scientifique) sans que l'état résultant du système soit prédictible.

Résultat d'une évolution physique


Le résultat à un instant donné de l'évolution physique d'un système est un état
caractérisé par les valeurs d'un certain nombre de variables. Chacune de ces variables
a un ensemble de définition et (souvent) une unité de mesure. Exemples d'ensembles
de définition :
 Une longueur est un nombre réel positif de mètres ;
 Une énergie électromagnétique échangée à l'aide de photons de fréquence
 est un nombre de joules multiple entier de h, où h est la constante de
Planck ;
 En Mécanique quantique, une mesure ne peut donner comme résultat qu'une
valeur propre [278] de l'observable [30] du dispositif de mesure.

Prédire un résultat d'évolution d'une variable consiste à prédire quel élément de son
ensemble de définition résultera de l'application de la loi d'évolution, c'est-à-dire quel
élément de cet ensemble elle choisira à un instant donné. En physique atomique, la
prédiction utilise la Mécanique quantique et a pour résultat un ensemble connu de
valeurs munies de probabilités d'apparition.

Déterminisme et prédictibilité
Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la prédictibilité
de ses résultats, ni leur précision.
Dans les définitions du postulat de causalité et du déterminisme scientifique nous
avons renoncé à prédire un résultat d'évolution. Mais comme nous savons qu'une
cause déclenche l'application d'une loi de la nature, le problème de prédire un résultat
d'évolution devient celui de prédire le résultat de l'application d'une telle loi.

74
Remarques philosophiques préalables
La nature "connaît" des situations-causes et les lois qu'elle applique automatiquement
à chacune, mais elle ne connaît pas la notion de résultat, notion et préoccupation
humaines. Nous pouvons donc éliminer tout de suite une cause d'impossibilité de
prévoir indépendante de la nature : l'intervention du surnaturel. Il est clair que si nous
admettons la possibilité qu'une intervention surnaturelle déclenche, empêche ou
modifie le déroulement d'une évolution naturelle, nous renonçons en même temps à
prévoir son résultat.
Nous postulerons donc le matérialisme. En outre, aucune intervention provenant
d'un éventuel extérieur de l'Univers n'est possible du fait de la Relativité Générale
[328], ce qui exclut toute intervention transcendante [334] de l'extérieur de l'Univers
vers l'intérieur ou de l'intérieur vers l'extérieur.
Nous exclurons aussi toute intervention provenant de l'intérieur mais n'obéissant
à aucune loi de la nature, en nous réservant de préciser plus bas la notion de hasard
et sa portée. Cette validation par l'expérience, la falsifiabilité [203] et l'absence de
preuve de fausseté ou de contradiction distinguent une théorie scientifique d'une
explication magique, surnaturelle ou fantaisiste.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

Quatre causes très fréquentes d'imprédictibilité


Voici quatre raisons qui empêchent de prédire le résultat d'une loi déterministe
d'évolution : l'ignorance, l'imprécision, le caractère stochastique [31] et la complexité.

3.1.6.4.1 L'ignorance de la loi d'évolution


Pour prédire le résultat d'une loi il faut d'abord la connaître. Il y a beaucoup de
phénomènes que la science ne sait ni expliquer, ni même décrire ; exemple : le
déclenchement et l'enchaînement des pensées dans l'inconscient [353]. Et malgré
Internet qui, de nos jours, permet de trouver beaucoup de renseignements et de poser
des questions à des gens qualifiés, une personne donnée a nécessairement des
lacunes. De toute manière, la méconnaissance d'un phénomène ne nous autorise pas
à l'attribuer au hasard, c'est-à-dire à affirmer que la nature fait n'importe quoi, qu'il y a
évolutions où elle ne suit aucune loi, mais improvise. Nous supposerons donc ci-
dessous que toute tentative de prédiction est faite dans un contexte où les lois
d'évolution sont connues et stables.

3.1.6.4.2 L'imprécision
Le postulat de causalité et le déterminisme scientifique ne promettent pas la
prédictibilité d'un résultat, ni sa précision lorsqu'on a pu le prévoir ; pourtant la précision
est une préoccupation humaine. Voici des cas où la précision du résultat (calculé ou
mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante par l'homme.

Imprécision des paramètres et hypothèses simplificatrices d'une loi d'évolution


Une loi d'évolution qui a une formulation mathématique a des paramètres. Si ceux-ci
sont connus avec une précision insuffisante, le résultat calculé sera lui-même entaché
d'imprécision. C'est le cas notamment lorsqu'une loi d'évolution fait des hypothèses
simplificatrices.
Exemple d'approximation : la dynamique d'un pendule simple est décrite par une
équation différentielle non linéaire. Pour simplifier la résolution de cette équation,

75
on recourt à « l'approximation des petites oscillations », qui assimile un sinus à
son angle en radians. Cette simplification entraîne des erreurs de prédiction du
mouvement qui croissent avec l'amplitude des oscillations.

Imprécision ou non-convergence des calculs dans un délai acceptable


Si le calcul d'une formule ou d'une solution d'équation est insuffisamment précis, le
résultat peut être lui-même imprécis. Il arrive aussi que l'algorithme du modèle
mathématique du phénomène ne puisse fournir son résultat, par exemple parce qu'il
converge trop lentement. Il peut enfin arriver que le modèle mathématique d'un
processus déterministe ait un cas où le calcul de certaines évolutions est impossible,
le livre en cite un concernant une propagation d'onde.

Sensibilité du modèle d'évolution aux conditions initiales


Il peut arriver qu'une variation minime, physiquement non maîtrisable, de ses données
initiales, produise une variation considérable et imprévisible du résultat d'un
phénomène dont la loi d'évolution est pourtant déterministe et à évolution calculable.
 C'est le cas, par exemple, pour la direction dans laquelle va tomber un crayon
posé verticalement sur sa pointe et qu'on vient de lâcher.
(Heureusement, le principe d'incertitude de Heisenberg est censé ne s'appliquer
qu'à un système à l'échelle atomique, donc infiniment plus petit qu'un crayon. Car
s'il s'appliquait ici, le crayon tomberait dans toutes les directions à la fois en
superposition, puisqu'il ne peut être immobile et que son état initial a une symétrie
de révolution par rapport à la verticale !)
 C'est le cas, aussi, des « systèmes dissipatifs à évolution apériodique sur un
attracteur étrange dans un espace des phases (définition) ayant au moins 3
dimensions » (explication).

Il y a là un phénomène mathématique d'amplification d'effet : l'évolution parfaitement


déterministe, donc précise et calculable, à partir d'un ensemble d'états initiaux
extrêmement proches, peut aboutir, après un certain temps, à des états finaux très
différents. Ce type d'évolution est appelé « chaos déterministe ». On peut, dans ce
cas-là, démontrer l'impossibilité de prévoir avec une précision suffisante l'évolution et
son état final après un temps donné : il ne peut exister d'algorithme de calcul
prévisionnel de cet état final qui soit peu sensible à une petite variation des données
initiales. Il ne peut même pas exister d'intervalle statistique de confiance encadrant
une variable de l'état final. Le déterminisme n'est pas en cause en tant que principe,
mais une prédiction précise d'état final demande une précision infinie dans la
connaissance et la reproductibilité de l'état initial et des paramètres d'évolution,
conditions physiquement inaccessibles.

Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir avec
précision l'évolution de certains systèmes.
Exemples. Ce phénomène se produit dans certains écoulements turbulents et
dans l'évolution génétique des espèces, avec apparition de solutions regroupées
autour de points particuliers de l'espace des phases appelés « attracteurs
étranges ». En pratique, cette amplification d'effet réduit beaucoup l'horizon de
prévisibilité.

76
Instabilité dans le temps d'une loi d'évolution
Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi
d'évolution peuvent être instables d'une situation à une autre, entraînant l'impossibilité
de prédire une évolution trop longtemps à l'avance. C'est le cas, par exemple, pour
une loi d'évolution qui bifurque (se transforme en deux autres lois) du fait d'un
paramètre qui franchit ou non une valeur critique à cause d'un autre phénomène. Voir
aussi [281].

3.1.6.4.3 Le caractère stochastique - Déterminisme statistique


Certaines lois physiques, notamment à l'échelle atomique, ont un caractère
stochastique (on dit aussi probabiliste) [31]. Voici leurs conséquences sur la
prédictibilité des évolutions.

Déterminisme statistique : lois d'évolution stochastiques


Avec la définition ci-dessus du déterminisme scientifique, on ne peut pas opposer les
adjectifs déterministe et stochastique [31] : nous verrons, par exemple, que la loi
d'évolution de Mécanique quantique appelée décohérence produit des résultats
probabilistes - donc qualifiés habituellement de stochastiques. Cette loi sera dite
déterministe parce qu'elle respecte le principe de causalité et la règle de stabilité, mais
comme elle produit des résultats multiples distribués selon une loi de probabilité il
s'agira d'un déterminisme statistique. Voici des causes d'imprédictibilité.

Imprécision due à la Mécanique quantique, outil mathématique de la physique


quantique
En physique quantique (physique de l'échelle atomique [325]), la précision sur l'état
d'un système est limitée par la représentation par fonctions d'ondes de probabilités de
la Mécanique quantique. Exemples :
 La position et la vitesse d'un corpuscule en mouvement dans un champ de force
électromagnétique ne peuvent être déterminées avec une incertitude meilleure
que la moitié de la largeur du paquet d'ondes de probabilité qui l'accompagne.
Quelle que soit la petitesse du temps de pose d'une photographie instantanée
(théorique) du corpuscule, celui-ci apparaîtra toujours flou parce qu'il est en une
infinité d'endroits (très proches) en même temps.
Pire, même : plus la détermination de la position à un instant donné est précise,
plus celle de la vitesse est imprécise, et réciproquement : c'est le « principe
d'incertitude de Heisenberg ».
 Un résultat de physique quantique [325] est inséparable des conditions
expérimentales. La Mécanique quantique prédit la fréquence statistique
d'apparition de chaque valeur qu'on peut mesurer dans une expérience donnée,
dont la reproductibilité des résultats n'est que statistique. En physique quantique,
le déterminisme n'est que statistique, il ne permet de prédire que des résultats
distribués selon une loi statistique, pas un résultat unique précis ; il contient donc
une part de hasard.
 En Mécanique quantique, non seulement toute mesure perturbe le système
mesuré, mais en l'absence de mesure ou avant la mesure la variable mesurée
n'a aucune probabilité d'avoir quelque valeur que ce soit : c'est la mesure qui
« crée » la valeur d'une variable, et en son absence cette valeur n'existe pas.

77
Il y a là une énorme différence avec la physique macroscopique, où la position
d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas
nécessairement l'objet mesuré.
 L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre
atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger
et le principe d'exclusion de Pauli. Cette évolution se fait vers la structure la plus
stable, celle de moindre énergie potentielle, comme le veut la thermodynamique.
La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution
possibles, chacun avec sa probabilité.
Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une certaine
probabilité a des conséquences importantes en biologie moléculaire, où elle peut
être cause d'anomalies génétiques ou de variations d'expression de gènes.
On a montré expérimentalement dans les années 1920 qu'en favorisant les
perturbations accidentelles de l'énergie de liaison moléculaire du génome de
l'orge au moyen de rayons X on provoquait de multiples mutations artificielles.
On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de
couleurs alternées. Depuis cette date, des mutations artificielles sont
déclenchées dans de nombreux pays pour obtenir des espèces nouvelles de
plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces
plus résistantes et d'autres donnant de meilleurs rendements.
 Fluctuations quantiques
Le refus de précision et de stabilité de la nature peut se manifester par des
fluctuations d'énergie quantiques.
Exemple : en un point quelconque de l'espace vide, à l'intérieur d'un atome ou
même entre galaxies, l'énergie peut brusquement varier en l'absence de
perturbation, sans cause autre que le refus de la nature qu'elle soit définie avec
une valeur précise. Cette variation d'énergie ΔE peut être d'autant plus grande
que sa durée Δt sera brève. En moyenne, toutefois, l'énergie au point de
fluctuation reste constante : si la nature a "emprunté" une énergie ΔE au vide
environnant, elle la restitue en totalité environ Δt secondes après. L'énergie est
empruntée à l'énergie potentielle du champ de gravitation.
Ce phénomène d'instabilité de l'énergie viole la règle de stabilité du déterminisme
et empêche de définir des conditions de causalité ! Il survient brusquement, de
manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps,
traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec une
incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Du point
de vue prévisibilité, on ne peut prévoir ni où une fluctuation se produira (il y en a
partout), ni quand, ni avec quelle variation d'énergie ΔE.
Ce phénomène n'a rien de négligeable : on lui attribue, peu après le début de
l'Univers, des variations de densité d'énergie à l'origine de la matière des
galaxies ! A l'échelle alors extrêmement petite de l'Univers, ces variations
d'énergie étaient si colossales, leur perturbation de l'espace-temps si
considérable, que les équations de la Relativité Générale ne pouvaient
s'appliquer. (Voir "Distance, temps, densité et masse de Planck")
Conclusion philosophique : à l'échelle atomique toute variation naturelle n'est pas
une évolution et n'est pas nécessairement déterministe ; il y a des cas d'instabilité.

78
Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence
A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires [29])
de solutions d'équations décrivant l'évolution d'un système dans le temps et l'espace.
 C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant
des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes
parallèles, même distantes de milliers de diamètres atomiques.
 C'est ainsi qu'une molécule peut être dans plusieurs états (structures) à la fois.
Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre, où
le sommet (atome d'azote N) peut être « au-dessus » ou « au-dessous » du plan
des 3 atomes d'hydrogène. A un instant donné, la forme de la molécule peut être
« plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel
(effet statistique de présence au-delà d'une barrière de potentiel électrique sans
cause physique de type force entraînant un quelconque déplacement). Les deux
formes, « au-dessus » et « au-dessous » de la molécule existent alors
simultanément : on dit qu'elles sont « en superposition », « cohérentes ».
Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme à
l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un
dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un
seul des états, rendu stable par la mesure qui arrête l'oscillation d'inversion : on
dit alors que le dispositif a détruit la cohérence de la superposition, qu'il y a eu
« décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera
statistiquement 50% de présences « au-dessus » et 50% de présences « au-
dessous ».
Lorsqu'une expérience détermine la forme de la molécule NH 3, la nature choisit
au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons
que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un
ensemble parfaitement prédéfini de 2 solutions appelé spectre des valeurs
propres [278] du dispositif de mesure : le hasard naturel est alors limité au choix
d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre
2 solutions symétriques de même forme géométrique : « au-dessus » et « au-
dessous ».
Ce phénomène est général en physique quantique [325] : lorsqu'une expérience
mesure une grandeur qui a plusieurs valeurs superposées, l'expérience en choisit
une sans que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs
possibles parmi lesquelles l'expérience choisit appartiennent à un ensemble
connu à l'avance : l'ensemble des valeurs propres du dispositif de mesure ; en
répétant l'expérience un grand nombre de fois, les diverses valeurs propres
"sortiront" avec une probabilité (ou une densité de probabilité) connue à l'avance.
(Voir postulats 3 et 4 de la Mécanique quantique.) Du point de vue déterminisme,
le hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé
et affectée d'une probabilité (ou une densité de probabilité) également
prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique,
mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent
une distribution statistique, je préfère l'appeler déterminisme statistique, une forme
du déterminisme étendu.

79
 Le refus de la nature de satisfaire le désir de l'homme de distinguer parfois deux
photons à trajectoires différentes atteint un sommet avec le phénomène de non-
séparabilité. Dans une expérience [10], deux photons qui ont la propriété
d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou
corrélés) restent un ensemble indivisible du fait de cette propriété même quand
ils se sont éloignés l'un de l'autre de 144 km : si on mesure la polarisation de l'un
– ce qui la change – la polarisation de l'autre change aussi aussitôt, la
conséquence se propageant de l'un à l'autre à vitesse infinie puisqu'ils ne font
qu'un dans l'ensemble de départ, qui conserve son unité tout en se déformant.
En somme, toute mesure faite au point A sur une particule peut instantanément
influencer une mesure en un point B, même très distant, sur une autre particule,
si les deux particules sont corrélées ; et après la mesure, l'interaction qui a corrélé
les particules a disparu, les photons ayant été absorbés par le dispositif de
mesure.
Explication : les deux photons ont été créés ensemble, avec une énergie
commune et une information d'existence commune. Mesurer un photon n'est
possible qu'en lui prenant son énergie, toute son énergie. Donc lorsqu'on mesure
(ou détecte) un des photons intriqués, on ne peut que prendre leur énergie
commune, en une fois, en détruisant l'information qui leur est commune pour la
céder à l'instrument de mesure. C'est pourquoi détecter un photon détruit l'autre.

Imprécision par étalement d'un paquet d'ondes


Les ondes de probabilité accompagnant le déplacement d'un corpuscule se rattrapent
et se chevauchent, et le paquet d'ondes s'étale tout en se déplaçant. Cet étalement
fait croître progressivement l'imprécision sur la position du corpuscule.

En somme, à l'échelle atomique, beaucoup de désirs humains concernant la prédiction


d'un résultat, son unicité, sa précision ou sa stabilité sont refusés par la nature.

Incertitude relativiste sur la relation de causalité entre deux événements


Il y a une propriété de l'espace-temps liée à la vitesse de la lumière, propriété qui fait
réfléchir à la définition même de la causalité qui situe un événement avant un autre.
Dans certains cas précis, deux événements A et B peuvent être vus par certains
observateurs dans l'ordre A puis B, et par d'autres observateurs dans l'ordre B puis A !
Les premiers auront connaissance de A avant B et en tireront des prédictions
différentes des seconds, qui verront apparaître B avant A.

3.1.6.4.4 La complexité

Evolution d'une situation régie par une ou plusieurs loi(s) déterministes


L'effet global d'un grand nombre de phénomènes déterministes, simultanés ou non,
peut être imprévisible, même si chacun est simple et à résultat prévisible.
Exemple : considérons une petite enceinte fermée qui contient un nombre
immense de molécules identiques de liquide ou de gaz. Le seul fait que ces molécules
aient une température supérieure au zéro absolu fait qu'elles s'agitent sans cesse,
l'énergie cinétique associée à leur vitesse provenant de la température. Cette agitation,
appelée mouvement brownien, les fait rebondir les unes sur les autres et sur les parois,
conformément à des lois des chocs élastiques parfaitement connues et déterministes,

80
sans intervention du hasard. Mais il est impossible de connaître la position et la vitesse
à l'instant t d'une molécule donnée, car :
 Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre
les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur,
même très puissant ;
 A l'échelle atomique, chaque rebond de molécule est affecté par sa forme
irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position, la
direction et la vitesse d'un choc due à la largeur du paquet d'ondes
accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à
appliquer avec précision, les conditions initiales de chaque choc étant entachées
d'erreurs non négligeables et aucune approche statistique n'étant possible.

Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très
générale : la combinaison d'un grand nombre de phénomènes déterministes à
évolution individuelle prévisible produit une évolution imprévisible, que ces
phénomènes soient ou non du même type. Par combinaison il faut entendre ici :
 soit une succession de phénomènes de même type comme les chocs élastiques
d'une molécule donnée ;
 soit la simultanéité de phénomènes déterministes différents qui agissent
indépendamment ou interagissent pour produire un effet global ;
 soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre
critique soumis à un autre phénomène d'évolution lors d'une bifurcation.

En résumé, la complexité d'un phénomène à composantes déterministes produit en


général une évolution imprévisible, et encore plus imprévisible si on prend en compte
les imprécisions dues à la Mécanique quantique.
Il faut pourtant se garder d'attribuer au hasard une évolution qui n'est imprévisible
que parce que la complexité du phénomène d'origine rend trop difficile la
prédiction de son résultat par calcul ou raisonnement. Nous verrons que le
caractère aléatoire d'une évolution à l'échelle atomique (décrite donc par la
Mécanique quantique) caractérise un choix d'élément de l'ensemble
(déterministe) des résultats-valeurs propres [278] possibles d'une équation, alors
que le hasard caractérise l'inexistence d'un algorithme à résultats utilisables.

L'imprévisibilité par excès de complexité, qui n'existe pas en théorie dans la nature
(ses lois d'évolution étant déterministes), sévit hélas en pratique. Elle n'affecte pas la
nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de
prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre
de phénomènes successifs ou simultanés est grand, que leur diversité est grande, que
leurs interactions sont nombreuses et que l'imprécision quantique intervient.

Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une
évolution dont le résultat impacte les conditions initiales d'une autre évolution joue sur
la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de son
résultat.

81
C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du
psychisme [347] de l'homme et de sa société) ont beau ne comporter au niveau
biologie moléculaire que des évolutions physiques déterministes, leurs résultats sont
en général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi.

Enfin, ce qui se passe dans l'inconscient [353] est en général imprévisible, sauf peut-
être de manière approximative pour un psychanalyste.

Approche analytique ou approche holistique ?


La discussion précédente montre qu'il est souvent impossible de prévoir l'évolution
d'une situation complexe, même si tous les paramètres de cette évolution sont
déterministes, à partir d'une connaissance de toutes ses lois d'évolution et
d'interaction : cette approche analytique est très souvent vouée à l'échec.

On peut alors abandonner cette approche analytique au profit d'une approche plus
globale, holistique. Au lieu de tenter la synthèse d'un nombre immense de
phénomènes déterministes, on regroupera ceux-ci en « macro-phénomènes » dont on
étudiera le comportement.
Exemple 1 : au lieu de s'intéresser au comportement (sans intérêt !) de chacune
des milliards de molécules de gaz d'un récipient ou même d'une seule molécule
particulière, on s'intéresse à la température et à la pression qui règnent dans ce
récipient, variables macroscopiques rendant compte des propriétés d'ensemble
des molécules du récipient.
Exemple 2 : pour prévoir le chiffre d'affaires des ventes de vêtements d'hiver en
France pour une semaine donnée en fonction de la température ressentie, on
remplace l'interview de chaque acheteur potentiel (utopique !) par la considération
d'un « acheteur français moyen » (population dont on estime le nombre), et on
remplace les températures des divers jours ouvrables par la moyenne
hebdomadaire de leurs valeurs minimales.
Exemple 3 : l'écoulement turbulent d'un fluide est trop complexe à étudier et
décrire en fonction des 4 paramètres mesurables que sont sa densité, sa vitesse,
sa viscosité cinématique et la longueur d'un obstacle. On utilise une variable sans
dimension unique qui en dépend, le nombre de Reynolds [293].

Les exemples 1 et 2 illustrent une première approche des problèmes complexes,


l'utilisation de modèles statistiques ; l'exemple 3 illustre une autre simplification, le
regroupement de paramètres.

Nous allons à présent évoquer brièvement la résolution de problèmes complexes ne


se résumant pas, comme les précédents, à prévoir par calcul un ensemble de résultats
d'évolution. Nous sortirons provisoirement du sujet des évolutions déterministes pour
raisonner le plus logiquement possible sur deux problèmes plus généraux :
 Prise de décision en vue d'un objectif dans une situation à la fois complexe et
incertaine ;
 Conduite de projets complexes.

82
La complexité limite l'applicabilité des modèles statistiques
L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes.
 Dans les domaines « à complexité non organisée », les difficultés de
compréhension et de modélisation du comportement dues à la complexité
peuvent être contournées grâce à des variables statistiques.
C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un
volume de gaz ou de liquide comportant un nombre immense de molécules
animées de mouvements d'agitation thermique (dits "browniens") peut être
modélisé statistiquement à l'aide de moyennes de variables comme la
température absolue, la pression et l'énergie d'une molécule. Les lois d'évolution
de ces variables sont déterministes. Exemple : la loi des gaz parfaits pv=nRT.
 Dans les domaines « à complexité organisée », les divers éléments d'un
système ont, en plus de propriétés individuelles et de fréquences d'apparition,
des interactions complexes et de types différents qu'on ne peut déterminer
quantitativement ou modéliser statistiquement du fait de leur complexité.
C'est le cas, par exemple, des marchés d'une économie, où interviennent de
nombreux acteurs interdépendants, et où les hypothèses économiques
traditionnelles de rationalité des acteurs et de concurrence pure et parfaite sont
loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître exhaustivement
toutes les variables décrivant les divers agents économiques et leurs interactions,
et on ne pourra donc pas – même avec un ordinateur puissant – modéliser le
marché et prévoir son évolution avec précision [301].
C'est pourquoi (Hayek a reçu un Prix Nobel d'économie pour l'avoir démontré)
l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification
centralisée de la production et de la consommation qui fonctionne. L'organisme
administratif de planification (le Gosplan) n'a jamais pu connaître les détails précis
de ce qu'il était vraiment possible de produire et de transporter, ce qui était
effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était toujours
fragmentaire et trop en retard sur la réalité. Il ne pouvait tenir compte d'aléas
climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a jamais pu
disposer d'informations suffisantes pour piloter la production, le transport et la
consommation, d'où des pénuries et des gaspillages énormes.
En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un
marché à partir d'une situation donnée n'est disponible que pour l'entité abstraite
qu'est le marché lui-même, pas pour un être humain ou une organisation humaine.
Et comme le comportement humain est souvent imprévisible parce que soumis à
des émotions irrationnelles et des anticipations, l'évolution d'un marché à partir
d'une situation donnée est non déterministe. Hayek a montré qu'on ne pouvait
alors établir que des lois qualitatives décrivant des relations entre variables
économiques et permettant de prévoir des tendances d'évolution ; en aucun cas
on ne pouvait prévoir le comportement d'un agent économique donné ou la
survenance d'un événement particulier comme la date d'éclatement d'une bulle
spéculative ou un effondrement boursier [301].

La rigueur des raisonnements


Il y a un autre obstacle à la prise de décisions et la conduite de projets dans le cas des
problèmes complexes : l'aptitude des hommes à raisonner correctement.

83
Exemple
Quelle politique adopter pour répondre à la crainte des Français d'une forte baisse de
leur niveau de vie ? Ils ont peur de perdre leur emploi, de gagner moins et de payer
plus d'impôts ; que doivent faire les politiciens au pouvoir ?

Certains politiciens proposent une solution simple : le déficit budgétaire, solution dite
keynésienne. D'après eux, l'Etat n'a qu'à dépenser beaucoup plus, par exemple en
augmentant les salaires des fonctionnaires et les investissements en infrastructure et
recherche. Avec plus d'argent en circulation, les dépenses des consommateurs
augmenteront, ce qui générera du travail, donc protégera du chômage et produira plus
d'impôts, permettant ainsi de payer les dépenses supplémentaires.

C'est ce qu'a fait le gouvernement d'union de la gauche du Premier ministre Pierre


Mauroy en 1981-82, avec un résultat catastrophique : en quelques mois les caisses
pleines de l'Etat ont été vidées, le déficit du commerce extérieur a explosé, et la France
a dû adopter une politique de rigueur sévère avec Jacques Delors. Il y a eu trois
dévaluations successives, dont deux en moins d'un an ! La consommation des
Français avait tellement augmenté que la production intérieure n'a pas pu suivre, ce
qui a fait exploser les importations, d'où un déficit extérieur qu'il a fallu compenser par
des dévaluations du franc. Celles-ci, à leur tour, ont fait exploser les prix des
importations, donc les prix intérieurs. D'où une baisse du niveau de vie après quelques
mois d'euphorie, et une croissance sans précédent du chômage. Et comme le déficit
budgétaire exige en général des emprunts, la dette nationale a augmenté, obligeant la
génération suivante à la rembourser et à payer des intérêts.

Ce triste exemple historique illustre une vérité très générale : lorsqu'un problème (ici
la croissance économique) a beaucoup de variables interdépendantes, toute solution
simple agissant sur une seule variable est inefficace. L'approche simpliste est en
général préconisée par des politiciens esclaves de leur idéologie, incompétents ou
démagogues, notamment parce qu'elle est facile à expliquer aux électeurs.

Une méthode de résolution de problèmes complexes


Le principe d'une bonne approche a été décrit par René Descartes en 1637 dans le
"Discours de la méthode pour bien conduire sa raison". Il nous suffit de réfléchir à ses
préceptes [4] pour les présenter ici d'une manière adaptée à nos problèmes actuels.

1er précepte
Ne considérer comme vrai que ce dont on est sûr, dit Descartes. La notion moderne
de vérité scientifique a été définie par Karl Popper, et les limites des raisonnements
déductifs (axiomatiques [67]) par Gödel et quelques autres logiciens du XXe siècle [6].
En simplifiant beaucoup :
 La vérité d'une affirmation n'est pas « son accord avec les faits ». C'est le fait
qu'aucun spécialiste ne puisse démontrer qu'elle est fausse ou incomplète, ni
logiquement ni expérimentalement – alors qu'elle est falsifiable [203] ; on ne
démontre donc pas la vérité, on a un consensus de non-fausseté. Et l'affirmation
reste vraie provisoirement, jusqu'à ce qu'on trouve une raison incontestable de la
remplacer ou de la compléter.

84
 Un raisonnement déductif se fait toujours sur la base d'hypothèses admises, les
axiomes. Il est impossible de vérifier la cohérence (non-contradiction) ou la
vraisemblance (sémantique) d'un système d'axiomes (axiomatique) en tant que
conséquence de ces axiomes.
Dans toute axiomatique on peut faire des affirmations (propositions) dont la
véracité ou la fausseté sont indémontrables (propositions dites indécidables). Au
sens du déterminisme, de telles propositions sans justification algorithmique n'ont
pas de cause identifiable, donc pas d'origine logique. Si on découvre dans l'esprit
d'un homme une telle proposition (ce qui arrive, voir l'important complément [92]
et aussi [141]) on peut qualifier sa présence dans le psychisme [347] de non
déterministe ; elle résulte souvent de l'inconscient, notamment d'une intuition.

Descartes recommande aussi "d’éviter soigneusement la précipitation et la


prévention", c'est-à-dire les raisonnements sous l'empire d'une forte émotion ou basés
sur des a priori discutables ; ce conseil est toujours d'actualité.

2e précepte
Ce précepte a été interprété à tort comme recommandant de décomposer un problème
au maximum, en parcelles (sous-problèmes) aussi petites que possible, au prétexte
que plus un sous-problème est petit plus il est simple à résoudre. Ce n'est pas ce que
Descartes veut dire. En écrivant : "et qu'il serait requis pour les mieux résoudre", il
recommande de choisir la décomposition « qui marche le mieux », une décomposition
qui peut éventuellement comprendre des sous-problèmes assez complexes pour être
résolus de manière holistique, lorsqu'on sait les résoudre ainsi.
Une des approches holistiques est l'utilisation de modèles, par exemple
statistiques, lorsque c'est possible, c'est-à-dire lorsqu'un modèle mathématique de la
situation présente et/ou passée est assez stable et précis pour qu'on puisse s'en servir
pour généraliser à toute la population et prévoir l'avenir. Ce n'est pas souvent le cas
pour un problème de cours de bourse, par exemple, car on ne peut prévoir les
comportements moutonniers ou émotifs des intervenants, les événements politiques
susceptibles de changer des perspectives d'évolution de cours, etc.

Décomposer un problème implique de faire d'abord une liste de ses sous-problèmes,


en précisant pour chacun sa manière d'intervenir dans le problème de niveau supérieur
et sa manière d'interagir avec d'autres sous-problèmes. Le seul fait de constituer cette
liste empêche de se précipiter et de recommander la première solution qui vient à
l'esprit, solution d'un seul sous-problème donc solution inadéquate si le problème est
complexe.

Dans la manière d'intervenir il faut, en pratique, indiquer les influences de deux


paramètres importants de nos jours : la durée nécessaire ou délai alloué, et le budget
disponible ou le coût prévisible.

On décrit l'interaction avec d'autres sous-problèmes en indiquant le sens des


implications : "entraîne", "est conséquence de" ou les deux. On décrit aussi les
contraintes d'ordre : pour commencer à résoudre le sous-problème S, il faut déjà avoir
résolu les sous-problèmes S1, S2, etc. On construit donc un diagramme où chaque
décision, tâche ou étape est représentée par un cercle et ses liens avec les
précédentes et suivantes par des lignes indiquant les contraintes de fin, de délai, etc.
Exemple : méthode Mesange de l'INSEE [315]. Lorsque ce diagramme est de type

85
P.E.R.T. [310] on peut connaître l'enchaînement d'étapes constituant un « chemin
critique » au sens délai ou coût.

Cette approche permet de résoudre au moins qualitativement les problèmes ou parties


de problèmes "à complexité organisée" au sens de Hayek, lorsqu'il est possible
d'identifier les sous-problèmes et leurs interactions.
Qu'on ait pu ou non identifier et préciser suffisamment certains sous-problèmes
ou interactions, on documente pour chaque sous-problème ou étape les risques de
non-résolution ou échec : qu'est-ce qui peut empêcher une bonne prédiction de
résultat ou une bonne résolution du problème, une résolution respectant délai et
budget ? ; Quels paramètres, quelles contraintes pourraient éventuellement intervenir
pour un sous-problème donné ? Peut-on évaluer la probabilité d'un échec, d'un surcoût
ou d'un dépassement de délai ?

3e précepte
Descartes recommande de résoudre les sous-problèmes un par un, parce que c'est
plus facile et plus clair, en commençant par les problèmes les plus simples à résoudre.
Chaque fois que tous les sous-problèmes d'un problème de niveau supérieur sont
résolus, on travaille à résoudre ce dernier en tenant compte des interactions. On
procède ainsi à des intégrations (synthèses) successives.
Il faut, chaque fois qu'on a résolu un sous-problème, vérifier la stabilité de sa
solution par rapport aux contraintes et risques connus, pour ne pas considérer cette
solution comme certaine et sans risque, notamment en ce qui concerne les délais et
les coûts.

Cette méthode est très utilisée en génie logiciel, où on procède aux tests de chaque
module logiciel avant de l'intégrer avec d'autres dans un module englobant, que l'on
testera à son tour. Dans certaines applications, après les tests logiques (l'algorithme
fait-il ce qu'on en attend dans tous les cas du cahier des charges ?), on procède aux
tests de résistance aux cas aberrants (au lieu de s'effondrer, le programme sait-il se
défendre contre des données d'entrée absurdes ou des situations aberrantes en
fournissant des réponses qui restent maîtrisées ?) et enfin aux tests de performance
(débit transactionnel) et temps de réponse. Enfin, on finalise la documentation du
logiciel (cahier des charges, mode d'emploi, organisation en modules et modèles de
données pour la maintenance, tests et résultats, délai et coût de réalisation).
Lorsqu'un problème est tel que certains paramètres, interactions et risques sont
inconnus ou incertains, il vaut mieux commencer sa résolution en étudiant les chances
d'aboutir : qu'est-ce qui permet d'espérer qu'on trouvera une solution satisfaisante ?
Que peut-il se passer si on n'en trouve pas ?
On construit ensuite le diagramme d'enchaînement des tâches de la résolution du
problème, pour déterminer les chemins critiques de difficulté, de risque, de coût, de
délai ; contrairement à ce que Descartes recommande, on ne commence pas par les
sous-problèmes les plus simples tant qu'on ne s'est pas assuré qu'on a une chance
d'aboutir.

4e précepte
Descartes recommande de vérifier qu'on n'a rien oublié. Il faut aussi vérifier qu'on ne
s'est pas trompé (tests logiques ci-dessus), que la solution résiste à des évolutions
imprévues mais possibles du cahier des charges (tests de résistance ci-dessus), que
les contraintes de coût et budget ont des chances d'être respectées.

86
Il est prudent, aussi, de progresser par étapes. Lorsque la solution d'un sous-
problème, mise en œuvre isolément, est possible et bénéfique, on peut la mettre en
œuvre sans attendre la solution d'ensemble. On vérifiera ainsi qu'elle est valable, et
on profitera de ses résultats avant que tout le problème initial soit résolu ; souvent
même, l'expérience de son utilisation entraînera une évolution de l'énoncé du
problème plus complexe dont elle fait partie, qu'il était donc urgent de ne pas résoudre
dans l'état initial de son cahier des charges.
Mon expérience d'informaticien m'a appris que de nombreuses applications
informatiques géantes, par exemple à l'échelle de toute l'armée de terre ou de toute
l'administration des impôts, ont échoué si gravement qu'elles ont été abandonnées
après investissement de millions d'euros. Elles ont été remplacées par des sous-
applications plus simples, moins ambitieuses, moins intégrées, mais qu'on a su
réaliser en respectant la qualité, (et parfois !) le délai et le budget.

Compléments sur la complexité : [369].

3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire


L'esprit humain a une curiosité qui lui fait souvent poser des questions auxquelles la
nature n'a pas de réponse. Nous avons déjà vu l'exemple de la décomposition
radioactive, où on ne pouvait savoir quel atome se décomposerait le premier et quand.
Il y a aussi le phénomène de décohérence de la physique quantique, où l'interaction
d'une superposition d'états quantiques avec l'environnement macroscopique choisit
une des solutions superposées de manière imprévisible. Il y a également le
phénomène des fluctuations quantiques, les mouvements chaotiques des astres, etc.

Dans tous ces cas, la loi d'évolution que la nature applique ne peut fournir la précision
que nous voudrions. La loi de décomposition radioactive ne s'applique pas à un atome,
mais à une population où chaque atome a une probabilité de se décomposer en un
intervalle de temps donné : on ne peut lui faire dire quelque chose pour un atome.

Il y a aussi les lois de l'espace-temps de la Relativité générale, où l'ordre de


survenance de deux événements A et B peut être différent pour deux observateurs
différents : impossible de faire dire à la nature quel événement est le absolument le
premier.

Il y a aussi l'intrication, où deux photons pourtant distants de plusieurs kilomètres,


cèdent leur énergie et disparaissent ensemble, au mépris de la limitation de vitesse
d'une propagation de conséquence à celle de la lumière, car il n'y a rien à propager
les deux photons formant un tout, à énergie et information communes. Un éventuel
désir de connaître l'existence d'un des deux sans impacter l'autre ne peut être satisfait.

Il y a encore le principe d'incertitude de Heisenberg, etc.

Toutes ces impossibilités de savoir ce que nous voulons, ces obligations de savoir
seulement ce que la nature veut bien nous dire, ne mettent pas en cause le
déterminisme : chaque cause a bien sa (ou ses) lois-conséquence(s), que la nature
applique toujours et sans délai, mais c'est à l'homme d'accepter de la connaître sous
les formes qu'elle a, pas sous celles que nous voudrions qu'elle ait.
Ainsi, comme nous ne pourrons jamais voir une particule de l'échelle atomique,
nous devons nous contenter de la connaître par l'intermédiaire d'équations qui en

87
décrivent les propriétés, notamment de l'équation de Schrödinger qui en décrit
l'évolution dans le temps et l'espace. Nous devons renoncer à savoir, à un instant
donné, la position et la vitesse de la particule, dont nous n'aurons jamais que des
probabilités ou des densités de probabilité, c'est-à-dire une vision floue.

Nous devons aussi comprendre qu'une particule peut se trouver à une infinité
d'endroits à la fois, un volume donné autour d'un endroit donné ayant alors une
certaine probabilité de présence. Une particule peut aussi parcourir une infinité de
trajectoires à la fois. Toutes ces réalités ne font intervenir aucun hasard, mais des
distributions de probabilités - ce qui n'est pas la même chose.

3.1.7 Déterminisme statistique de l'échelle macroscopique


Les résultats d'évolution de certains phénomènes déterministes ne peuvent être
décrits correctement que de manière statistique portant sur toute une population de
particules microscopiques, pas par des informations sur une particule individuelle.
Exemples :
 Lorsque des atomes d'un corps naturellement radioactif se décomposent, on
peut prédire quel pourcentage se décomposera par unité de temps, mais pas de
quels atomes précis il s'agira. Le phénomène de radioactivité est abordé plus
loin.
 Le mouvement d'une molécule donnée d'un gaz qui en a des milliards de
milliards dans les quelques cm3 d'une petite enceinte ne peut être prédit du fait
d'incertitudes décrites plus bas, comme du fait de sa complexité. Mais le
comportement de la totalité du gaz de l'enceinte peut être prédit de manière
précise par la Mécanique statistique, dans le cadre des lois de la
thermodynamique [25].
 Le déterminisme portant sur toute une population de milliards de molécules qui
oscillent de manière synchrone dans une réaction chimique réversible.

Nous verrons aussi un cas très important de déterminisme statistique, celui de l'état
des systèmes à l'échelle atomique dans Déterminisme statistique : lois d'évolution
stochastiques.

3.1.8 Ensemble de définition d'une loi déterministe

3.1.8.1 Structure
Une structure est un agencement d'un ensemble construit d'éléments qui en fait un
tout cohérent à qui nous associons un nom. Elle a des relations :
 propriétés statiques, qui décrivent les règles d'assemblage de ses éléments ;
 propriétés dynamiques qui décrivent leur comportement d'ensemble.

Comme toute abstraction a priori (construite sans référence à une réalité) une structure
est éternelle : elle n'a pas été créée physiquement et ne peut disparaitre, c'est une
Idée au sens de Platon ; et elle peut exister même sans homme pour l'imaginer.

Une structure est aussi une classe d'ensembles munis des mêmes lois de définition et
de mise en relation (isomorphes) ; l'étude de certains problèmes relatifs à un ensemble

88
d'une classe donnée peut alors être remplacée par une étude sur un autre ensemble
de cette classe, si cette dernière est plus simple.
Une classe existe indépendamment du nombre de ses réalisations physiques, car
elle est définie par des propriétés dont l'existence ne peut faire partie. Le même
ensemble de propriétés peut décrire 0, 1, 2… ou une infinité d'objets physiques qui les
partagent ; ce n'est pas parce que j'imagine une classe des anges qu'il y en a.

1er exemple physique


Un atome d'hydrogène est une structure comprenant un noyau (proton) et un électron.
 Parmi les propriétés statiques d'un tel atome on peut citer la structure en
couches de niveaux d'énergie potentielle : on ne peut le trouver sous forme
d'atome d'hydrogène qu'à des niveaux d'énergie précis.
 Parmi les propriétés dynamiques de cet atome on peut citer l'aptitude de deux
d'entre eux à se grouper sous forme de molécule d'hydrogène en dégageant une
énergie de 4.45 eV (électrons-volts, 1 eV = 1.6 .10-19 joule).

Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches
que la réunion de celles de ses éléments, dont on ne peut les déduire.
On ne peut déduire des propriétés réunies du proton et de l'électron ni la possibilité
de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée. La Mécanique
quantique décrit les propriétés stationnaires et dynamiques de l'atome et de la
molécule d'hydrogène dans un champ électrique.

2e exemple physique : assemblage d'atomes en quasi-cristaux.

Exemples mathématiques
Une structure mathématique est un ensemble d'éléments muni d'une ou plusieurs lois
de définition et souvent aussi de lois de mise en relation. Exemples :
 L'ensemble des solides réguliers, qui n'a que 5 éléments : le tétraèdre, le cube,
l'octogone, le décaèdre et l'icosaèdre.
 Lois de définition d'un tel solide : les faces sont identiques ; ce sont des
polygones réguliers faisant entre arêtes des angles égaux ;
 Lois de mise en relation : les faces ont même nombre de côtés, les sommets
ont le même nombre d'arêtes, les angles sont égaux.
 L'ensemble des entiers positifs, nul ou négatifs {…-3, -2, -1, 0, 1, 2, 3, ….} est
muni de 2 relations :
 Une loi d'addition, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 0 et d'un
élément opposé de chaque entier.
 Une loi de multiplication, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 1 et
distributive par rapport à l'addition.

Une structure mathématique est indépendante de règles de représentation : elle reste


la même quelles que soient les manières de représenter les éléments de l'ensemble
et les lois de définition ; c'est un être universel. Exemple de structure : nombre entier.

89
Richesse d'une structure en informations
Parce qu'elle a un comportement d'ensemble, une structure est décrite par plus
d'informations que ses éléments considérés séparément. Ce supplément
d'informations décrit des relations : interactions des éléments de la structure entre eux
et interactions de l'ensemble de la structure avec l'extérieur. Chaque définition
d'interaction peut exiger une description en langage ordinaire et un énoncé
d'algorithme ou d'équations. Exemple :
A partir de couples d'éléments de l'ensemble des entiers naturels auquel on a
ajouté une loi de division (sauf par 0) on peut définir l'ensemble des fractions
rationnelles. Cet ensemble est plus riche (il a plus d'éléments et permet plus
d'opérations) que celui des entiers naturels, car on a ajouté à ce dernier la
structure apportée par la loi de division.

On peut résumer l'existence du supplément d'informations dû aux relations


(interactions internes et externes) d'une structure par :

« Le tout est plus riche que la somme des parties ».

On peut représenter les relations internes définissant une structure par un graphe dont
les sommets sont les éléments de l'ensemble et chaque arc entre deux sommets décrit
une relation interne avec son (ses) sens.

A
X
U

E D C

Les relations externes entre ensembles peuvent être représentées par des arcs reliant
des boîtes.

Dir. France

Dir. Export sous-traitance Atelier 6

Propriétés internes et propriétés dynamiques externes


Les propriétés statiques (d'assemblage) d'une structure ne permettent pas, à elles
seules, d'en déduire les propriétés dynamiques externes.

90
Le dessin d'un moteur de voiture ne permet d'en déduire ni la puissance maximum,
ni les courbes de couple et de consommation en fonction du régime. Ces
propriétés de fonctionnement dépendent de lois mécaniques et
thermodynamiques absentes du dessin, même si la conception du moteur en a
tenu compte.

On ne peut donc réduire le comportement d'une structure en tant qu'ensemble, par


rapport à son environnement, à des propriétés statiques et dynamiques de ses
éléments, bien qu'il en dépende. L'assemblage en structure ajoute de l'information.

Concepts fondamentaux et principes de logique


Certains concepts a priori figurent dans toute représentation de la réalité comme dans
nombre d'abstractions humaines comme les structures. Exemples : le nombre entier,
la ligne droite, l'espace et le temps. Comme on ne peut les définir à partir de concepts
qui nous paraissent plus simples, nous les considérons comme fondamentaux. Nous
pensons que même des êtres différents, dans une autre galaxie, les utiliseraient aussi.
Ce sont des bases à partir desquelles nous définissons des concepts secondaires
comme la fraction rationnelle et la vitesse.

Notre pensée rationnelle repose aussi sur des règles de manipulation des
propositions, qui nous paraissent tout aussi fondamentales, universelles (voir
Principes de logique). Elle repose également sur des règles fondamentales de calcul
comme 2 + 2 = 4 et des règles de logique formelle pour définir et manipuler des
ensembles, comme l'appartenance, la comparaison et l'ordre d'apparition.

3.1.8.2 Ensemble de définition d'une loi déterministe


Une loi déterministe est définie pour un certain ensemble de situations initiales, dont
elle décrit l'évolution. Ne pas confondre une situation initiale (état physique) et
l'ensemble de définition de la loi au sens mathématique, qui regroupe les situations à
partir desquelles la loi (ou la fonction qui la représente) est définie.
Exemple : une fonction d'onde (r, t) a pour ensemble de définition un espace
vectoriel de fonctions [127] dit "de Hilbert" et pour résultat un nombre complexe.

Considérons un système E, réunion de plusieurs sous-systèmes a, b, c, etc., chacun


muni de sa propre loi d'évolution. En général on ne peut pas déduire la loi d'évolution
de E de celles de a, b, c, etc., parce que leur regroupement en structure E apporte des
propriétés supplémentaires d'interaction irréductibles à celles de a, b, c, etc.
Ainsi, un gène humain est une longue chaîne de bases (molécules) dont il n'existe
que 4 types : A, C, G et T. Chacune de ces bases a ses propriétés, mais les
propriétés d'un gène sont bien plus riches : elles sont définies par des suites de
bases définissant des programmes de génération de milliers de protéines par la
machinerie cellulaire. Et celle-ci prend en compte, en général, plusieurs gènes à
la fois.

Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus celles
du génome humain : par sa structure en chaînes de bases, celui-ci constitue un
programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de
chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière,

91
comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa chaîne
entière, constituant son ensemble de définition, pas au niveau d'une base.

3.1.8.3 Une erreur de certains philosophes


Certains philosophes ont oublié l'enrichissement en propriétés d'un objet dû à sa
structure : ils ont essayé de déduire directement les propriétés d'ensemble de l'objet
de celles de ses parties, évidemment sans réussir.

Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les propriétés
d'un être vivant à partir de celles des molécules de ses cellules, donc que la vie était
« quelque chose de plus ». Raisonnement non probant : comme l'explique [339], la
pensée et la conscience de l'homme résultent de l'interprétation psychique d'états de
ses neurones à un instant donné - et seulement de cette interprétation. La conscience
est la manière dont notre cerveau perçoit son propre fonctionnement. Les mécanismes
psychiques ne se déduisent pas des seuls mécanismes électrochimiques des
neurones, leur description exige en plus des mécanismes élémentaires psychiques.

Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications
magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa
conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la
prédictibilité, ne serait-ce qu'à cause des mécanismes cachés de l'inconscient. [353]

3.1.9 Hasard

3.1.9.1 Le hasard dans l'évolution selon une loi de la nature


Par manque de rigueur, beaucoup de gens opposent évolution déterministe (qu'ils
considèrent à tort comme toujours prédictible) et évolution au hasard (considérée
comme toujours imprédictible). En précisant la notion de déterminisme scientifique
nous avons vu que le résultat d'une évolution déterministe n'est pas toujours
prédictible. Nous allons maintenant préciser la notion de hasard.

On ne doit pas attribuer au hasard une évolution naturelle sous le seul prétexte que
personne ne sait la décrire ou la prédire : on risquerait d'attribuer à la nature un hasard
résultant de l'ignorance humaine. Si elle existe, une évolution naturelle au hasard est
une caractéristique objective (indépendante de l'homme) et dont l'imprédictibilité est
soit démontrée, soit explicitement postulée pour des raisons scientifiques.

Remarque : hasard ou pas, la nature ne peut violer ses propres lois, par exemple de
conservation de l'énergie, de la charge électrique, du moment cinétique, de la quantité
d'information en Mécanique quantique, etc.

Nous considérons comme aléatoires des suites de nombres ou de chiffres dont on ne


peut calculer un élément avec un algorithme, directement ou connaissant un nombre,
fini ou non, d'autres éléments ; cette propriété s'appelle absence de régularité.
Selon cette définition, la suite des décimales successives de Pi n'est pas aléatoire
car Pi est calculable, bien qu'on ne lui connaisse aucune régularité.

Les éléments d'un ensemble (de nombres, de chiffres ou d'éléments quelconques) qui
ont la même probabilité d'apparaître dans un certain tirage ne sont pas

92
nécessairement distribués au hasard : cette égale probabilité n'entraîne pas
nécessairement l'inexistence d'un algorithme de calcul.
 Exemple : dans la suite périodique de décimales successives de
22/7 = 3.142857142857142857…, chacun des chiffres 1 ; 4 ; 2 ; 8 ; 5; 7
apparaît le même nombre fois, chacun des "nombres" 142857 aussi, etc.
Pourtant, l'écriture décimale de cette fraction n'est pas aléatoire, car elle est
calculable.

J'observe que l'opinion courante sur le caractère aléatoire diffère selon les
circonstances :
 Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de
tirage de loto qu'ils produisent, dans un tirage, des nombres équiprobables.
 Nous pensons que la distribution des résultats d'une même expérience entachés
d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée
d'ailleurs aussi loi normale [28]. Dans d'autres cas, nous nous attendons à des
distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi
binomiale…

Il n'existe pas d'algorithme capable de générer une suite de nombres dont le caractère
aléatoire soit certain : un tel caractère devra toujours être postulé.
Il y a des algorithmes de génération de suites de nombres dites « aléatoires »,
qu'un observateur trouve imprévisibles mais qui ne le sont pas puisqu'ils sont
calculables ; on peut seulement, pour certains de ces logiciels, choisir le premier
nombre de la suite.

3.1.9.2 Prédictibilité statistique d'une évolution


Par définition, une évolution a une prédictibilité statistique si ses résultats sont
distribués selon une loi statistique ; une même expérience renouvelée plusieurs fois
peut alors donner des résultats qui diffèrent. Sa loi d'évolution est gouvernée par un
déterminisme scientifique où c'est l'ensemble des résultats possibles qui est
prédéterminé par les conditions de l'expérience, non un résultat particulier.

Lors d'une telle évolution la nature refuse le résultat unique auquel l'homme s'attend ;
c'est l'ensemble auquel ce résultat appartient qui est unique et prédéterminé, chaque
expérience ayant un résultat appartenant à cet ensemble ; en outre, lors d'expériences
renouvelées, les résultats sont distribués selon une loi de probabilité elle-même
prédéterminée. On ne parle pas, alors, de résultat au hasard car il ne peut être
quelconque, totalement imprévisible ; on parle de déterminisme statistique car le choix
de résultat dans l'ensemble prédéterminé est entaché de hasard.

Exemple de déterminisme statistique : en Mécanique quantique les évolutions


dans le temps et l'espace sont régies par l'équation de Schrödinger. Les résultats
d'un phénomène comme la décohérence (les observables [30]) sont
nécessairement les éléments d'un ensemble de valeurs propres [278]
prédéterminées, parmi lesquels la nature choisit celui que l'on constatera.

Nous rappelons plus bas qu'en dehors du déterminisme statistique la nature n'a pas
d'évolution entachée de hasard.

93
Voyons à présent les définitions du hasard autres que le déterminisme statistique.

3.1.9.3 Définition de René Thom


Le mathématicien René Thom a défini le hasard dans [226] comme suit :
"Est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni
décrit par aucun formalisme".

René Thom qualifie donc d'aléatoire tout processus non modélisable par un algorithme
de calcul. Selon cette définition, la suite des décimales d'un nombre irrationnel – que
l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle n'ait aucune régularité
connue ; l'irrégularité n'est donc pas un critère suffisant de hasard. En complément,
voir la définition des nombres normaux de Borel [98].

Nous considérons comme aléatoires (constituant un hasard à résultats équiprobables)


les tirages du jeu de loto générés par une machine qui agite des boules. René Thom
considèrerait-il une telle machine comme un mécanisme, donc ses tirages comme non
aléatoires ? Leur caractère aléatoire vient de la complexité de ses processus, où
chaque boule subit de nombreux chocs, trop nombreux pour que l'on puisse prédire si
elle sortira ou non ; ce caractère aléatoire résulte donc de l'imprévisibilité par
complexité, sujet que nous avons abordé ci-dessus ; ce n'est pas un hasard démontré.

3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes - Hasard


par ignorance
Deux chaînes de causalité déterministes issues d'origines indépendantes peuvent se
rencontrer, créant alors une situation nouvelle qui n'était prévisible dans le
déroulement d'aucune des deux chaînes prise isolément.
Exemple : un jour de tempête, une tuile tombe d'un toit au moment précis où un
homme passait par là et elle le blesse. Si on considère la chaîne de causalité
tempête-tuile indépendante de celle de l'homme, leur rencontre est imprévisible.

Une personne qui n'avait pas prévu cette rencontre peut l'attribuer à tort au hasard.
Mais une définition plus large du système, prenant en compte l'ensemble des deux
phénomènes, élimine le hasard : à l'origine, toutes les conditions étaient réunies pour
que la tuile blesse l'homme. L'étonnement ou la rareté d'un phénomène ne justifient
pas qu'on attribue au hasard le résultat global de processus qui respectent tous les
lois déterministes de la nature (la seule loi naturelle où il se produit une évolution
comprenant une part de hasard statistique est la décohérence, phénomène de
Mécanique quantique relevant d'une prédictibilité statistique).

Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en
compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir.
Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans
l'ignorance et accepter le risque de prédictions fausses.

J'ai vu beaucoup de cas où des gens attribuaient au hasard un phénomène qu'ils ne


comprenaient pas ou n'avaient pas prévu, pour pouvoir d'abord expliquer pourquoi ils
n'avaient pu le comprendre et trouver ensuite une raison de ne pas chercher une
explication ; ce cas fréquent d'attribution au hasard est un « hasard par ignorance ».

94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes
Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé
son expansion à partir d'une région très petite où les atomes n'étaient pas encore
formés, il n'y avait en cet instant-là qu'une situation unique, cause première [16] de
toute l'histoire ultérieure de l'Univers [313]. Toutes les évolutions physiques ont
commencé à ce moment-là. L'Univers a donc une unité d'existence, de structure
(homogène et isotrope) et d'évolution conforme aux lois physiques, depuis cet instant-
là. Si notre pensée y distingue, à un autre moment, des situations partielles séparées,
celles-ci sont pures abstractions humaines, conséquences déterministes (au sens
déterminisme étendu) d'une même cause première, la « naissance » qui a précédé
d'environ 10-37 s l'inflation, elle-même suivie du Big Bang et d'une expansion qui dure
toujours [313].

Des chaînes de causalité particulières, issues de situations partielles par évolutions


déterministes, ne peuvent être indépendantes puisqu'elles ont même origine. C'est
notre esprit qui les considère parfois comme indépendantes, pour permettre ou
simplifier certains raisonnements.

Voir aussi le paragraphe "Restriction du postulat de causalité".

3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes


En considérant arbitrairement comme distinctes deux situations S 1 et S2 à des instants
qui précèdent l'instant actuel t, l'évolution ultérieure de chacune de ces situations est
une chaîne de situations reliées par des évolutions.

Deux cas d'évolution imprévisible


 La Mécanique quantique enseigne qu'il y a une possibilité de multiples
évolutions simultanées à partir d'une situation donnée, évolutions produisant une
superposition quantique qui s'achève par une décohérence ; celle-ci peut se
produire avec un résultat (choix d'un élément de l'ensemble déterministe des
valeurs propres [278] du dispositif qui évolue) imprévisible : en toute rigueur,
l'évolution à partir d'une situation donnée n'est pas une chaîne, elle est :
 Soit une arborescence dont toutes les branches sont parcourues en même
temps, possibilité démontrée en Mécanique quantique ;
 Soit, lors d'une décohérence, un seul résultat (valeur propre [278]) choisi au
hasard par la nature ; nous pouvons prédire qu'il y aura une décohérence et
l'ensemble de ses résultats possibles, mais nous ne pouvons prédire celui
que nous observerons.
 Il peut aussi se produire qu'une évolution ait un point de départ si sensible aux
conditions de l'instant initial t0 que, malgré son déterminisme parfait, son résultat
à l'instant ultérieur t qui nous intéresse soit imprévisible. Ce résultat peut aussi
être trop imprécis à l'instant t, même si nous essayons de le calculer connaissant
la manière dont l'évolution a débuté pendant sa première fraction de seconde.
Nous verrons cela en parlant de chaos déterministe. Le résultat d'une évolution
chaotique est imprévisible comme celui d'une décohérence, mais pour des
raisons différentes : hasard statistique dans le cas de la décohérence, calcul et
mesures imprécis dans le cas de la sensibilité aux conditions initiales.

95
L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de prévoir
le résultat de la rencontre de deux arborescences de causalité qui contiennent au
moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle macroscopique on
n'observe pas de décohérence parce qu'on n'observe pas de superposition quantique.
A cette échelle, donc, les seules rencontres imprévisibles de chaînes de causalité
considérées ensemble sont celles où l'une au moins a subi une évolution chaotique.
Et comme ce type d'évolution ne doit rien au hasard (son imprédictibilité est due à une
impossibilité de mesurer et calculer avec une précision infinie, pas à un choix aléatoire
de la nature), on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de
chaînes de causalité qui soit entachée de hasard, même quand son résultat est
imprévisible : le déterminisme scientifique est respecté.

3.1.9.5 Définition par la quantité d'information


On peut aussi définir comme aléatoire un nombre dont l'écriture est plus concise (en
nombre de signes ou de bits, par exemple) que le texte de tout algorithme capable de
le générer ; un tel nombre a donc une écriture incompressible par algorithme. En
admettant qu'il est absurde d'écrire en un langage informatique un algorithme plus long
que le nombre que son exécution générerait, il n'existe pas d'algorithme intéressant
capable de générer un nombre aléatoire, ce qui justifie la définition de René Thom.

Le problème de cette définition est d'ordre pratique : étant donné un nombre et un


algorithme qui le génère, comment être certain que cet algorithme est le plus concis ?
C'est impossible ! La définition ci-dessus n'a qu'un intérêt théorique.

A part le cas, n'apparaissant qu'en Mécanique quantique, où il est régi par un modèle
statistique, le hasard qui gouverne une évolution ne peut être défini que de manière
négative : le caractère imprévisible qu'il implique ne peut être défini que par une
impossibilité de déduction ou de caractérisation algorithmique.

3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ?


On ne peut le savoir :
 Il n'existe pas d'algorithme capable, étant donné un nombre, de déterminer si on
peut ou non générer sa suite de chiffres par un programme plus concis que lui.
On peut malgré tout chercher s'il est absolument normal au sens de Borel [98].
 Il n'existe pas, non plus, d'algorithme capable de déterminer si une suite donnée
de nombres est aléatoire. On peut en étudier le spectre de Fourier et le
coefficient d'autocorrélation, mais cela ne donnera qu'une idée d'éventuelles
périodicités, pas une preuve rigoureuse d'origine aléatoire ou non.
 Enfin, étant donné un ensemble de n-uples de nombres, on peut étudier leur
éventuelle conformité à un modèle statistique, mais sans jamais avoir de
certitude : un tel modèle est toujours probable (avec une probabilité calculée
pour chacun de ses paramètres), jamais certain.

3.1.9.7 Hasard postulé et hasard prouvé


Le déroulement ou le résultat d'une évolution régie par une loi physique de la nature
ne peut logiquement être entaché que de deux sortes de hasard, le hasard postulé et
le hasard prouvé. Voyons comment reconnaître chacune de ces sortes de hasard.

96
Le hasard postulé
Il y a hasard postulé lorsqu'il existe un consensus de la communauté scientifique
postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de contre-
exemple prouvant que ce choix peut être prédit.

C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre
[278] d'opérateur dans chaque évolution de physique quantique par décohérence : ils
admettent alors les postulats 3 et 4 de la Mécanique quantique. A ma connaissance,
il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique postule
un choix au hasard de résultat.

L'évolution par décohérence n'existe que dans des expériences de physique quantique
[325]. C'est un cas intéressant (dit « de déterminisme statistique » ou « à prédictibilité
statistique ») où le résultat, une valeur propre, fait partie d'un ensemble dont tous les
éléments sont prédictibles au départ de l'expérience, chacun avec une probabilité
connue. La prédictibilité du résultat est alors limitée à cet ensemble, la nature refusant
de choisir un résultat unique tant que l'évolution n'a pas détruit la cohérence, comme
le fait une mesure, nécessairement brutale et irréversible.
Un autre phénomène de physique quantique, l'effet tunnel, produit des
comportements analogues à la décohérence en permettant le choix au hasard
d'une valeur propre [278] parmi un ensemble de valeurs propres possibles,
correspondant à des états d'énergie entre lesquels un corpuscule peut passer,
osciller où simplement se trouver simultanément, chaque état avec sa probabilité.
Dans cet exposé nous rattachons l'effet tunnel à la décohérence parce qu'il
conduit au même type de choix au hasard, au même déterminisme statistique.

Ne connaissant pas d'autre cas où on a postulé qu'une évolution naturelle produit un


résultat au hasard, je dois supposer que c'est le seul jusqu'à preuve du contraire.

Le hasard prouvé
Pour une variable particulière d'une évolution naturelle donnée, le caractère "au
hasard" d'un résultat est considéré comme prouvé si et seulement si il existe une
démonstration de l'impossibilité de trouver un algorithme de prédiction.

Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une
axiomatique [67], elle a une valeur théorique qui doit, si possible, être validée par une
expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est choisie
au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix.
Si une répétition d'expériences identiques pour une variable donnée produit des
résultats distribués selon une loi stable, et que la distribution ne résulte pas
d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors
tenter de voir s'il suit une certaine loi statistique, avec des tests conformes à la
théorie des probabilités. Mais on n'aura pas une démonstration axiomatique
d'évolution au hasard, il ne s'agira pas de hasard prouvé.

Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant
pas de régularité évidente est une suite aléatoire.

97
Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat
d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence,
il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en défaut,
ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un paramètre.
Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux
conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son
résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce cas,
à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat
calculable avec une précision arbitraire ; il est dû aux erreurs expérimentales
inévitables, amplifiées par le modèle mathématique de la loi d'évolution.

Conclusion : en postulant le déterminisme scientifique et sa règle de stabilité, une loi


d'évolution autre que la décohérence ne peut avoir de résultat relevant d'un hasard
prouvé ; et dans le cas de la décohérence, le caractère aléatoire est celui d'un
déterminisme statistique.

A part les phénomènes de physique quantique, où la nature choisit au hasard


un résultat dans un ensemble prédéterminé dont chaque élément est associé à
une probabilité, la nature n'a pas d'évolution au hasard.

3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et


hasard

Evolutions régies par un déterminisme statistique


 Lorsqu'une évolution de Mécanique quantique est régie par l'équation de
Schrödinger, une variable d'état continue a un nombre infini de valeurs, chacune
avec sa densité de probabilité ; une variable discrète a un nombre fini de
valeurs, chacune avec sa probabilité.
 Quand une décohérence (phénomène ne relevant pas de l'équation de
Schrödinger) se termine à l'échelle macroscopique par un choix au hasard de la
valeur d'une variable, celle-ci est unique, stable, et appartient à un ensemble
prédictible de valeurs propres [278].

Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une
cause connue et elle est reproductible : une même cause (même dispositif
expérimental) produit une même évolution déterministe, qui produit le même ensemble
de résultats avec les mêmes probabilités ou densités de probabilités.

Fluctuation quantique en un point de l'espace


Lors d'une telle fluctuation, il y a deux variables : sa durée Δt et l'énergie potentielle
empruntée au vide ΔE. Cette énergie produit une particule de matière et une particule
d'antimatière qui s'attirent et s'annihilent très rapidement en restituant l'énergie
empruntée : l'évolution s'annule par retour à la situation initiale.
(Le seul contre-exemple connu est celui de la théorie « d'évaporation » des trous
noirs, évolution réelle où l'annihilation est incertaine parce qu'une particule peut
retomber dans le trou noir alors que son antiparticule s'échappe.)

Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide,
qui n'a de valeur définie ou stable à aucun instant, conformément au principe

98
d'incertitude de Heisenberg. Une fluctuation d'énergie n'est pas déterministe, car cette
instabilité ne relève ni du postulat de causalité ni de la règle de stabilité. Mais comme
elle respecte la limite minimum du principe d'incertitude ΔE . Δt  ½ä, ainsi que la
conservation de l'énergie moyenne et de la charge électrique d'un volume d'espace et
d'un intervalle de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est
imprévisible et ne peut être qualifiée de hasard que selon la définition de René Thom.

3.1.9.9 Hasard et niveau de détail d'une prédiction


On peut interpréter le choix statistique de la nature lors d'une décohérence comme
une impossibilité de prédire, pour une variable discrète, la valeur choisie à un niveau
plus fin que l'ensemble des valeurs propres [278]. Ce choix lui-même constitue une
évolution de type particulier, le déterminisme statistique, qui ne se manifeste qu'au
niveau atomique, en physique quantique [325]. De même, la mesure d'une variable
continue ne sera précise qu'à une demi-largeur de son paquet d'ondes près.

Une limite inférieure de niveau de prédiction intervient aussi dans la décomposition


radioactive d'un échantillon d'uranium 238, où le déterminisme régit la proportion de
décompositions par unité de temps, pas le choix d'un atome particulier qui se
décomposera ou l'instant de sa décomposition. Il ne peut y avoir de loi qui prédit quel
atome se décomposera, ou à quel moment un atome donné se décomposera, la
Mécanique quantique l'interdit. Nous pouvons parler de choix au hasard de l'atome
dans l'ensemble des atomes de l'échantillon, ou de choix au hasard de l'instant de
décomposition d'un atome donné dans le futur (choix vague !). Mais de telles
affirmations évidentes ne nous apportent rien, en attribuant au hasard soit un refus de
précision de la nature dont le déterminisme s'applique au niveau de tout l'échantillon,
soit notre ignorance d'une loi de choix ; affirmer le hasard par ignorance est stérile.

La notion de niveau de prédiction intervient également lorsqu'on distingue le niveau


atomique (où les prédictions viennent de la Mécanique quantique) et le niveau
macroscopique (où elles viennent des lois de la physique macroscopique). En
appliquant une loi de physique macroscopique on ne peut prévoir quel atome évoluera
d'une certaine façon, et l'application de la Mécanique quantique au domaine
macroscopique est en général impossible par excès de complexité. Non que les lois
de ces deux niveaux se contredisent : à la frontière entre eux elles permettent les
mêmes prédictions, d'après le principe de correspondance. Il faut comprendre qu'une
loi a un domaine d'application dont on ne doit pas sortir.

Certaines personnes attribuent à tort au hasard le résultat imprédictible d'une évolution


entre un point situé avant une bifurcation dans l'espace des phases et un point après
cette bifurcation. La bifurcation se produit lorsqu'un paramètre de la loi d'évolution
franchit une valeur critique, franchissement qui entraîne le choix d'une nouvelle loi au
point de bifurcation ; aucun hasard n'intervient dans ce choix.

Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la
Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces
fluides, qui se déplacent selon des lois de mouvement et de choc élastique
déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est
parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides
(température, pression, entropie, turbulence, etc.).

99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité
Il faut cesser de croire au hasard en tant que principe de comportement imprévisible
de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou prévoir
son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi peu
justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne serait
pas rationnel.

Une variable qui suit une loi d'évolution ne peut ni échapper à son ensemble de
définition, ni évoluer en violant cette loi de la physique.

La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans
une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble des
valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des lois
de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au
déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique.

3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique


quantique
Il n'y a pas de hasard dans la position ou la vitesse d'un corpuscule de Mécanique
quantique, il y a d'abord de l'imprécision, c'est-à-dire un refus de la nature de nous
accorder la possibilité de précision infinie qui satisferait notre esprit. Ce refus est dû à
la nature probabiliste de ces variables de l'état de chaque corpuscule. Il ne faut donc
pas confondre le déterminisme statistique, avec son imprécision (flou par
superposition pour une variable continue), et le hasard (où la nature ferait n'importe
quoi).
En pensant à la « probabilité de position » d'un corpuscule qui se déplace, on
risque de se le représenter comme un objet matériel qui a une dimension précise
et des chances de se trouver ici plutôt que là, représentation inexacte. Cette
dimension n'est pas précise, et il vaut mieux penser à un corpuscule de forme
vague, sorte de nuage dont une infinité de réalisations sont superposées dans le
paquet d'ondes qui accompagne son déplacement, infinité qui lui donnerait un
aspect flou si on pouvait en faire une photo instantanée.

L'imprévisibilité associée aux fluctuations ponctuelles d'énergie n'est due au hasard


que selon la définition de René Thom. C'est une instabilité (indétermination) permise
par le principe d'incertitude de Heisenberg : pendant un court intervalle de temps Δt
une énergie n'est pas définie à mieux que ΔE près, où ΔE.Δt ≥ ½ä (ä est une constante
de l'Univers appelée constante de Planck). Les fluctuations quantiques manifestent
seulement un refus de stabilité de la nature, refus qui ne dure qu'un court instant et ne
change pas l'énergie moyenne au point considéré. Il faut accepter ces fluctuations
comme on accepte l'imprécision sur la position d'un corpuscule en mouvement, situé
« partout » en même temps dans son paquet d'ondes : dans aucun de ces cas la
nature n'agit au hasard en faisant n'importe quoi.

Une erreur fréquente


L'imprécision et l'indétermination de Heisenberg sont des propriétés naturelles et
objectives d'une évolution, alors que l'imprédictibilité de son résultat est une
considération humaine. Trop de gens parlent d'une « évolution au hasard » dans tous
les cas où ils ne peuvent en prévoir un résultat exact, décrivant ainsi une propriété
d'une transformation naturelle dans le cadre subjectif de son imprédictibilité.

100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle

La nature est parfaitement déterministe


Selon le phénomène, la nature inanimée est régie soit par le déterminisme scientifique,
soit par le déterminisme statistique. Répétons-le, elle ne fait jamais n'importe quoi.
Cette affirmation est confirmée :
 Par le mathématicien et philosophe des sciences Husserl dans [312] page 226 :
« Ce monde n'est pas le même pour l'homme ordinaire et pour l'homme de
science ; pour le premier il est un ensemble d'une ordonnance simplement
approximative, parsemé de mille hasards ; pour le second il est la nature,
entièrement régie par des lois d'une rigueur absolue. »
 Par le mathématicien René Thom dans [226].

Résumé des autres conclusions sur le déterminisme des évolutions naturelles


 L'indétermination et le déterminisme statistique affectent la prédictibilité des
conséquences, pas les conséquences (lois d'évolution ou situations) elles-
mêmes ; la prédictibilité est un besoin humain ignoré par la nature.
 Le déterminisme statistique de la décohérence est un choix par la nature d'un
élément dans un ensemble prédéfini de valeurs propres [278] de l'opérateur
associé à une grandeur mesurable, ensemble où chaque valeur a une
probabilité prédéfinie. Ce choix ne se produit que dans un seul type d'évolution
naturelle, la décohérence, phénomène de physique quantique.
Dans le déterminisme statistique des évolutions où une variable d'état (comme la
position) est continue, la nature produit une infinité de valeurs en superposition.
 Une évolution ne viole jamais une loi de la nature ; elle ne viole jamais,
notamment, la thermodynamique ou la conservation de l'énergie + masse.
 Ne pas confondre hasard (valeur choisie sans contrainte), imprécision (refus de
précision) et incertitude quantique (instabilité, non-définition).
 Il faut séparer déterminisme et prédictibilité, le premier n'entraînant pas toujours
la seconde.
Il y a des lois d'évolution parfaitement déterministes (échappant à tout hasard), à
résultat calculable à tout instant t postérieur à un instant initial t0, qui pourtant
interdisent en pratique la prédiction de ce résultat à cause d'une sensibilité
énorme, non bornée, aux conditions initiales. Dans ce cas d'imprécision on parle
de chaos déterministe.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.1.9.13 Evolutions attribuées à tort au hasard


Je me suis permis de limiter le hasard des évolutions naturelles à l'évolution
particulière de physique quantique [325] appelée décohérence parce que j'ai précisé
ci-dessus des limitations de prédictibilité dues à l'ignorance, l'imprécision ou la
complexité. Je considère donc comme erronées des attributions au hasard
d'évolutions qu'on ne comprend pas (ignorance), dont on ne peut prédire le résultat
avec autant de précision qu'on voudrait (superposition, indétermination, imprécision

101
ou sensibilité aux conditions initiales), ou dont le déroulement est trop complexe pour
pouvoir être modélisé et calculé par un algorithme prédictif.

Cas particulier : les fluctuations quantiques, qui ne sont des évolutions irréversibles
que lors de l'évaporation des trous noirs, ne relèvent pas du déterminisme et ne sont
régies que par l'inégalité de Heisenberg ΔE.Δt ≥ ½ä. On peut attribuer celles-ci au
hasard, mais seulement si on le définit comme René Thom.

Le hasard pour raisons psychologiques


J'ai maintes fois constaté qu'une personne attribue des évolutions incomprises au
hasard pour des raisons purement psychologiques :
 Le besoin humain de cohérence rend pénible la non-compréhension d'un
phénomène, c'est-à-dire l'impossibilité de le relier à des faits ou phénomènes
connus par des relations de causalité, certaines ou au moins probables.
 L'esprit humain aime mieux, alors, inventer des relations de causalité (en
raisonnant par analogie ou induction, ou même en faisant confiance à son
intuition) qu'admettre son ignorance ; il n'est même pas capable de s'en
empêcher. Il faut à un homme un sérieux entraînement à la rigueur pour
admettre son ignorance, mettre en cause son intuition et vivre l'esprit en paix
sans comprendre.
 Le besoin humain de non-culpabilité, de rejet de responsabilité : je prétends
qu'un phénomène relève du hasard parce que je ne sais pas l'expliquer et
qu'admettre mon ignorance me rabaisserait, aux yeux des autres comme aux
miens.

Le hasard par raison de contingence


Beaucoup de gens, y compris des scientifiques, oublient le principe d'identité :
avant de lire la suite, voir l'important développement [16].

Oubliant le principe d'identité, beaucoup de gens considèrent qu'un événement du


passé ou du présent dont l'existence est certaine aurait pu ne pas se produire ou avait
une certaine probabilité de ne pas se produire. C'est là une faute de logique, une
spéculation pure. On se trompe donc en croyant comme Platon que le possible
précède le réel et le structure ; au contraire, c'est le réel et son déterminisme qui
définissent ce qui est possible pour la nature et peut-être prévisible pour l'homme.

3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence


Nous avons vu qu'à part l'ignorance il y a trois types de raisons qui empêchent ou
limitent la prédiction des conséquences d'une évolution : l'imprécision, la complexité
et le choix statistique en Mécanique quantique. L'existence de ce choix oblige d'ores
et déjà à préciser le postulat de causalité : dans la phrase « si la cause existe au
départ, la conséquence a lieu » il faut entendre par conséquence d'une situation (au
niveau atomique) la possibilité d'une multiplicité de conséquences simultanées,
superposées au sens des fonctions d'onde.

Imprécision, complexité et choix statistique sont dus à la nature même des lois de
l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction
d'évolution.

102
Approfondissons. Nous avons vu plus haut que dans certaines situations la nature
réagissait de manière multiple :
 Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un
déroulement indépendant et un résultat unique.
C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre un
point de départ A et un point d'arrivée B peut être considérée comme une infinité
de trajectoires simultanées, empruntant des chemins différents avec des vecteurs
vitesse fonctions différentes du temps, mais qui se terminent toutes en B en même
temps.
C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque instant
par un paquet d'ondes superposées, ondes de probabilité décrivant des
amplitudes de probabilité de présence du corpuscule qui s'ajoutent en amplitude
et en phase. Vu à un instant donné le corpuscule paraît alors flou, comme s'il était
composé d'une infinité de corpuscules superposés avec un décalage.
Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs
conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ;
et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à un
instant donné est une position floue et une vitesse imprécise.
 Soit en déclenchant une seule loi d'évolution donnant des résultats multiples
superposés, c'est-à-dire existant en même temps.
Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique.
L'interaction entre la superposition microscopique et l'environnement
macroscopique (par exemple lors d'une mesure physique) met fin à la
superposition et révèle à l'échelle macroscopique un seul des états superposés,
choisi au hasard ; le passage de l'état superposé à l'état unique est appelé
« décohérence » et il est irréversible. ( Compléments sur la décohérence )

3.1.9.15 Il faut admettre les dualités de comportement


La Mécanique quantique, outil mathématique de la physique quantique [325], permet
aussi d'expliquer pourquoi certains corpuscules apparaissent tantôt comme de petits
objets matériels (particules), tantôt comme des ondes de probabilité capables de
provoquer des phénomènes d'interférences.

L'explication de cette dualité repose sur le « principe de complémentarité », énoncé


en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme
les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon
l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un
comportement corpusculaire et un comportement ondulatoire, ces deux
comportements s'excluant mutuellement et constituant des descriptions
complémentaires des phénomènes auxquels ils s'appliquent.

De son côté, la Relativité montre que l'énergie et la matière sont deux formes
complémentaires d'un même système ou d'une même région de l'espace, formes qui
peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle
montre aussi que la gravitation peut être interprétée comme un champ de force ou
comme une courbure de l'espace-temps due à la présence d'une masse.

103
La physique moderne nous oblige donc à considérer qu'un phénomène de la nature
peut présenter deux aspects très différents, aspects qui se complètent lorsqu'on veut
comprendre ou prédire certaines évolutions.

3.1.10 Chaos
Par manque de rigueur, on considère souvent un phénomène naturel chaotique
comme régi par le hasard. Nous allons voir qu'en précisant la nature des évolutions
chaotiques il n'en est rien.

3.1.10.1 Définition
Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les
divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour
qualifier de chaotique une évolution déterministe au sens mathématique :
 Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel
à cette variation ;
 Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le
déroulement à long terme avant son début, mais seulement un instant après,
quand elle est « lancée » ;
 Ou dont la connaissance pendant un temps aussi long qu'on voudra ne permet
pas de prévoir le déroulement ultérieur à long terme, ce déroulement étant
apériodique (c'est-à-dire dépourvu de régularité) ;
 Ou dont la courbe d'évolution dans l'espace des phases n'est :
 Ni réduite à un point, comme celle d'un système qui n'évolue pas ;
 Ni convergente vers un attracteur ponctuel, comme un système dissipatif qui
perd de l'énergie (définition de « dissipatif ») ;
 Ni fermée, comme celle d'un pendule simple, système périodique conservatif
(définition de « conservatif ») ;
 Ni inscrite sur un tore, comme celle de systèmes quasi périodiques.
 Dont la courbe d'évolution dans l'espace des phases converge (lorsque le
système est dissipatif) vers un attracteur étrange, courbe à structure fractale où
toute évolution qui commence reste confinée, mais ne peut être prédite avant
son départ, du fait de sa sensibilité aux conditions initiales.

Exemples de phénomènes chaotiques.

3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe


 La définition d'une évolution chaotique ne fait pas intervenir le hasard : on parle
souvent de « chaos déterministe ». Un phénomène chaotique reste à tout
moment régi par une loi déterministe à évolution calculable, même s'il peut
aussi, comme tout phénomène, changer de loi d'évolution sous l'influence d'un
paramètre qui change. (Exemples)
 Un phénomène chaotique est apériodique, mais la réciproque n'est pas toujours
vraie. Un phénomène apériodique :

104
 A une évolution prévisible à long terme si on connaît toutes les fréquences
d'amplitude non négligeable de sa décomposition en série de Fourier ;
 N'a la sensibilité aux conditions initiales d'un phénomène chaotique que
lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge.

3.1.10.3 Conditions d'apparition d'une évolution chaotique – Série de Fourier


Toute évolution dans le temps d'une variable peut être décomposée en série de
Fourier, somme f(t) d'un nombre fini ou infini de fonctions sinusoïdales de fréquences
multiples d'une fréquence de base, chacune avec son amplitude et sa phase :

f(t) = a0 + a1sin(t+1) + a2sin(2t+2) + a3sin(3t+3) +….

L'ensemble des fréquences composantes est appelé spectre de Fourier.

L'exemple graphique ci-dessous montre une évolution dans le temps qui se


décompose en une somme de 6 fonctions sinusoïdales. Il montre aussi que l'addition
de plusieurs phénomènes oscillants sinusoïdaux, chacun avec sa fréquence et sa
phase, peut avoir une allure désordonnée, chaotique.

Somme de 6 fonctions périodiques de périodes incommensurables


(le rapport des périodes des fonctions, prises deux à deux, est toujours irrationnel)

Chaque évolution périodique est un comportement régulier, prévisible. Mais la


composition de plusieurs fonctions périodiques de fréquence, amplitude et phase
différentes peut être apériodique si les périodes des phénomènes composants sont
incommensurables entre elles (c'est-à-dire si leurs rapports deux à deux sont tous
irrationnels) comme dans l'exemple du graphique. Voici trois cas d'évolution vers un
régime chaotique de systèmes dynamiques à petit nombre de degrés de liberté.
 Un régime périodique pendant un long intervalle de temps peut se déstabiliser
brusquement, devenir chaotique pendant un moment, puis redevenir périodique,
avant de se déstabiliser de nouveau au bout d'un temps qui n'est pas
nécessairement égal au précédent. Une telle évolution « par bouffées » a été
observée dans certains cas de convection thermique et de réaction chimique
évolutive.

105
 Un régime périodique peut évoluer par des doublements successifs de sa
période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point
d'accumulation où la période est infinie et où commence l'évolution chaotique.
On rencontre ce type d'évolution en dynamique des populations.
 Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre
de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc.
Si ces fréquences sont indépendantes et incommensurables (l'une au moins
n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique.

Dans un système dynamique à nombre de degrés de liberté plus important, le chaos


peut être à la fois temporel (comme les cas que nous avons vus jusqu'à présent) et
spatial (le comportement différant d'un point du système à un autre, le système ayant
des régions d'évolution ordonnée et des régions d'évolution désordonnée).

Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible à
un régime chaotique, imprévisible en pratique, sous l'influence de divers paramètres,
sans cesser d'être déterministe (et décrite par des équations différentielles ou des
équations à dérivées partielles). [281]

3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique


Certains auteurs ont attribué à tort au hasard des effets considérables, voire
catastrophiques, dus aux fluctuations d'un phénomène apériodique ou chaotique. Voici
des exemples de ce qui peut arriver.

Fluctuations périodiques dont les amplitudes s'ajoutent


Un phénomène apériodique ou quasi périodique peut comporter, dans sa
décomposition en série de Fourier, une composante de période très longue et
d'amplitude non négligeable. Il peut alors arriver, même si c'est rare, que cette
amplitude s'ajoute à d'autres amplitudes de phénomènes composants pour donner
une amplitude totale considérable, susceptible de provoquer une catastrophe. Il peut
aussi arriver qu'un nombre élevé de phénomènes composants ajoutent leurs
amplitudes à des instants précis, même si ces instants sont rares.
Ainsi, des « vagues scélérates » océaniques peuvent atteindre des hauteurs de
plusieurs dizaines de mètres, par empilement d'oscillations verticales d'eau qui se
déplacent à des vitesses différentes et arrivent à se rattraper, et peut-être aussi
du fait d'amplifications non linéaires encore mal expliquées. Ces vagues
endommagent gravement même de très gros bateaux. Elles sont rares,
imprévisibles et font l'objet d'une surveillance internationale par satellite pour
avertir les navires menacés.

Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes
périodiques composant un phénomène apériodique ont une évolution calculable, donc
prévisible. L'attribution au hasard vient de l'ignorance des auteurs, due en partie à la
rareté des phénomènes d'amplification catastrophique, qui gêne leur étude
scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un
élément dans l'ensemble des valeurs de la solution du modèle mathématique
d'évolution, valeurs toutes prédéterminées et à probabilités connues.

106
Amplification d'une fluctuation par franchissement de valeur critique
Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme
une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire
lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une
énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des
phases. Exemples :
 Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température
largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très
calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec
une énergie de solidification des millions de fois plus importante que l'énergie
apportée par la chute du petit caillou.
 Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de
montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette
pierre en tombant va desceller le rocher qui va tomber à son tour, avec un
échange d'énergie potentielle en énergie cinétique infiniment supérieur à
l'énergie cinétique de la petite pierre.

Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut donc
subir :
 Soit une évolution masquée par les incertitudes sur les autres paramètres
macroscopiques.
 Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou
une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en
cascade peuvent alors changer un système stable en système chaotique,
comme c'est le cas pour certaines formes de turbulence.

Dans ces cas d'amplification le hasard n'est pour rien : les conditions (énergie,
instabilité) du déclenchement du phénomène spectaculaire existaient au départ, un
paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste.
En parlant d'« effet papillon », le météorologue Edward Lorenz écrivait : "un
battement d'ailes d'un tel insecte peut changer le temps qu'il fera à des milliers de
kilomètres". Il voulait ainsi illustrer l'extrême sensibilité aux conditions initiales de
certains phénomènes atmosphériques, sujet que nous avons évoqué plus haut.
Mais il ne faut pas prendre son affirmation au pied de la lettre, les variables
météorologiques étant connues avec une précision très inférieure à l'erreur
produite en considérant le battement d'ailes du papillon comme négligeable.

L'effet d'amplification par bifurcation en un point singulier de l'espace des phases (un
paramètre franchissant une valeur critique) ou par changement de bassin d'attraction,
peut aussi intervenir lorsque d'un côté au moins de ce point l'évolution du système est
fluctuante, par exemple de manière apériodique. Il suffit alors d'une oscillation un peu
plus forte pour que la valeur critique soit franchie et le système évolue brusquement
de manière spectaculaire. Mais comme précédemment, l'évolution du système n'a
jamais cessé d'être prévisible, donc dénuée de hasard.

107
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg
La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie
potentielle n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend
de la largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant
plus que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de
l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à l'espace
environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus haut et l'est
plus en détail là. Nous avons vu que ce n'est une évolution aléatoire que selon la
définition de René Thom.

3.1.10.6 Fluctuations de variables macroscopiques dues à des variations


microscopiques
Pour présenter et analyser ce phénomène nous allons utiliser un exemple.

La complexité du mouvement brownien de molécules de gaz dans une enceinte


fermée, due au nombre de molécules (des milliards) et au nombre de chocs par
seconde subis par chacune (des milliers), rend illusoire toute prédiction du mouvement
d'une molécule donnée connaissant sa position et son vecteur vitesse à l'instant initial,
bien que les lois des mouvements et des chocs élastiques de la molécule soient
déterministes au sens traditionnel. En outre, le sort d'une molécule particulière étant
de peu d'intérêt car toutes les molécules sont identiques, on a pris l'habitude de
considérer des grandeurs statistiques caractérisant l'ensemble du gaz de l'enceinte :
vitesse moyenne d'une molécule, température, pression et entropie du gaz de
l'enceinte, etc.

Bien que, pour une enceinte isolée, le 2 ème principe de la thermodynamique affirme
que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur
instantanée fluctue constamment un peu autour de ce maximum, du fait du
mouvement brownien des molécules. On peut donc se demander si cette fluctuation
d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de
hasard dans la nature, comme le croît notamment Prigogine.

En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction
commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses
fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des
populations de molécules, ce ne sont pas des réalités physiques comme une variation
de l'énergie totale, impossible pour un système isolé.

Les travaux d'Ehrenfest sur des systèmes isolés, à l'équilibre thermodynamique,


constitués d'un grand nombre N de molécules indépendantes, montrent que le
système s'écarte sans cesse de l'équilibre et y revient. Ces travaux modélisent l'état
d'organisation du système et la diffusion de molécules par les transitions d'état d'un
processus markovien, modèle théorique arbitraire qui montre (si on lui fait confiance)
que l'entropie peut décroître en dessous de son maximum selon une loi de probabilité
binomiale en 2-N.
Mais les calculs numériques et l'expérimentation ont montré que le temps
nécessaire pour qu'une décroissance non négligeable de l'entropie se produise (c'est-
à-dire pour que le système s'organise davantage) est supérieur à l'âge de l'Univers.
Considérons, par exemple, le cas - très favorable à la décroissance d'entropie - d'un
système constitué de N=100 molécules seulement subissant 1 million de transitions

108
par seconde (10 000 en moyenne par molécule). Pour passer d'un état d'équilibre, où
les N molécules sont réparties aléatoirement dans une enceinte, à un état plus
organisé où elles sont toutes dans une moitié prédéfinie de l'enceinte, il faut alors
environ 1015 ans, soit environ 70 000 fois l'âge de l'Univers. Les expériences ont
confirmé qu'un système macroscopique isolé ne voit jamais son entropie décroître de
manière mesurable : il ne s'organise pas davantage tout seul.

L'irréversibilité d'une évolution macroscopique d'un fluide (prévue par la


thermodynamique et qui semble contredire l'évolution réversible prévue molécule par
molécule) s'explique théoriquement par le fait que la probabilité pour que toutes ses
molécules reviennent à leur position de départ après un certain temps est
fantastiquement faible. (En fait, cette explication probabiliste n'est pas certaine :
comme toute explication probabiliste, elle est postulée. Heureusement, l'irréversibilité
macroscopique n'a jamais été démentie expérimentalement, personne n'ayant jamais
constaté un événement aussi improbable qu'une tasse de café où on a fait fondre du
sucre et qui se sépare spontanément en café sans sucre et sucre hors de la tasse !)

Conclusions :
 Il n'y a pas de hasard dans un phénomène macroscopique résultant de
phénomènes déterministes à l'échelle atomique. Le hasard auquel croient
certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer
les évolutions élémentaires.
 Les fluctuations ponctuelles d'une variable statistique comme l'entropie,
regroupant des milliards de réalisations d'une variable à l'échelle moléculaire,
ont une amplitude dont la probabilité varie exponentiellement en raison inverse
du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut
en détecter un effet à une échelle accessible aux expériences.

3.1.10.7 Amplification génétique et évolution du vivant vers la complexité


Nous venons de voir que des fluctuations d'entropie d'origine microscopique ne
peuvent avoir d'effet macroscopique. Mais ce que ces fluctuations ne peuvent faire en
physique est possible dans un être vivant, en deux étapes d'amplification :
 Des accidents de réplication du génome sont inévitables du fait des solutions
multiples des équations d'évolution de la Mécanique quantique, chacune
associée à une probabilité d'apparition. C'est ainsi que des liaisons chimiques
peuvent s'établir ou non, modifiant ainsi un gène de milliers de bases ou son
expression : il suffit parfois qu'un minuscule radical CH3 de 4 atomes soit lié ou
non pour faire une différence !
Un tel accident de réplication peut ne pas avoir d'effet ; il peut aussi produire un
être non viable, ou souffrant d'une infériorité par rapport à d'autres espèces qui le
fera éliminer par la sélection naturelle. Mais il produit parfois un être parfaitement
adapté, qui pourra avoir une descendance.
 Du point de vue thermodynamique, la complexification (organisation de plus en
plus poussée) est possible pour des êtres vivants, car ceux-ci sont des systèmes
dissipatifs loin de l'équilibre et le 2ème principe ne s'applique pas.

109
3.1.10.8 Domaines où on connaît des évolutions chaotiques
Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux
domaines. Exemples :
 En physiologie, le fonctionnement synchrone des cellules musculaires du cœur
peut se désynchroniser, provoquant une arythmie accompagnée d'une
tachycardie que l'on soigne par défibrillation et avec des médicaments comme le
Cordarone ou le Sotalex.
 En dynamique des populations animales, la densité d'une population dépend de
facteurs internes comme la résistance aux agressions de l'environnement, la
fécondité ou les habitudes de vie, et de facteurs externes comme les ressources
alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont
complexes et mal connues. Des modèles mathématiques simplifiés montrent
qu'une densité de population peut être stable, ou varier de manière périodique
ou même chaotique (exemple).
 Les propriétés optiques d'un milieu sont affectées par des variations de sa
température, de sa densité ou de sa concentration en particules opaques. De
telles variations affectent la vitesse de propagation de la lumière dans le milieu,
donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou
de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les
images vues à travers le milieu (par exemple en astronomie) peuvent être
fortement perturbées ; c'est ainsi que les mouvements atmosphériques,
l'humidité et la pollution brouillent la vision des télescopes.
 La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses
réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans
un vent en rafales que dans un air calme à la même température. Les poils sur
la peau de certains animaux diminuent les échanges de température et
d'humidité en diminuant la turbulence des mouvements d'air. La peau des
requins a des écailles dont la taille, la forme et la rugosité diminuent fortement
les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de
ses efforts.

3.1.10.9 Exemples de phénomènes chaotiques

3.1.10.9.1 Problème des 3 corps


Le problème proposé en 1885 par le roi Oscar II de Suède et Norvège, avec un prix
au premier scientifique qui le résoudrait, concerne un phénomène conservatif à
solutions chaotiques. Il s'agissait de savoir si le système solaire était stable à long
terme, sur des millions d'années, ou si un corps (planète ou un astéroïde) pouvait
tomber sur le Soleil, entrer en collision avec un autre corps, être éjecté hors du
système, bref changer d'orbite de manière significative.

Le gagnant du prix, le mathématicien français Henri Poincaré, étudia les propriétés


générales des solutions éventuelles de ce problème. Il en montra la complexité et
approfondit le cas plus simple où il n'y avait que 3 corps - par exemple deux gros
comme le Soleil et une planète et un très petit par rapport à eux comme un astéroïde
- cas appelé depuis « Problème des trois corps ». Il montra que même dans ce cas
simple les orbites sont trop complexes pour être décrites par une formule explicite.

110
Pour résoudre ce problème, Poincaré dut inventer une nouvelle branche des
mathématiques, la topologie algébrique. Cette science étudie les transformations
continues d'objets géométriques en utilisant des structures algébriques.

Au XXe siècle, d'autres mathématiciens complétèrent les travaux de Poincaré,


montrant que dans certains cas l'évolution d'une orbite peut être imprévisible,
découverte qui remit en cause la définition du déterminisme admise à l'époque.

On connaît aujourd'hui des évolutions chaotiques dans de nombreux domaines : la


dynamique des fluides, la météorologie, la chimie des réactions dissipatives et même
la Mécanique quantique. Notons qu'une évolution chaotique peut concerner un
système conservatif aussi bien qu'un système dissipatif.

Voici un exemple d'évolution chaotique issu de [294] : le mouvement du corps céleste


« petit » du problème des 3 corps. Le graphique ci-dessous représente, dans un
référentiel où l'axe horizontal passe par les centres du Soleil S et d'une planète P, et
l'axe vertical est une perpendiculaire quelconque au premier, deux trajectoires A→A'
et B→B' du petit corps lorsque celui-ci est parti de points A et B très voisins. On voit
que ces deux trajectoires divergent, la distance finale A'B' étant bien plus grande que
la distance initiale AB.

111
A'

B
P S
A

B'

Divergence des trajectoires d'un petit corps attiré par le Soleil S et une planète P

3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe


Nous avons vu que certains phénomènes régis par des systèmes d'équations
d'évolution déterministes présentent une extrême sensibilité aux conditions initiales :
une toute petite variation de celles-ci se traduit par une variation considérable du
résultat final, parfois rapidement, parfois après un certain temps ; l'évolution d'un tel
phénomène est imprévisible. On parle alors de « chaos déterministe ». L'évolution et
le résultat d'un phénomène de chaos déterministe sont imprévisibles avant le départ.

Le graphique ci-dessous illustre la sensibilité aux conditions initiales en représentant


les valeurs successives de la suite xn+1 = 2xn (modulo 1) (dite "de Bernoulli" et citée
par [26] pages 96 à 105), valeurs calculées en multipliant par 2 la valeur précédente
puis en retenant seulement la partie après la virgule, comme dans l'exemple suivant :
x0 = 0.7 ; x1 = 2*0.7 (modulo 1) = 0.4 ; x2 = 2*0.4 (modulo 1) = 0.8, etc.

112
On a représenté sur le graphique :
 en bleu, la suite commençant à x0 = 0.7 ;
 en rouge, la suite commençant à x0 = 0.697, valeur très proche de 0.7.

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0

8
10

12

14

16

18

20

22

24

26

28

30

32

34

36

38

40

42

44

46

48

50

52

54

56

58
Divergence par chaos déterministe de la suite x n+1 = 2xn (modulo 1)
pour x0 = 0.7 et x0 = 0.697

On voit que les deux suites, pratiquement confondues jusque vers n = 4, divergent
ensuite de plus en plus. Ensuite (surprise !) elles convergent l'une après l'autre vers
zéro, valeur atteinte respectivement pour n = 52 et n = 53 dont elles ne peuvent plus
ensuite s'écarter [34]. A partir d'une formule de calcul de la suite parfaitement
déterministe au sens traditionnel, nous avons ainsi créé une évolution irréversible, car
en partant de x100 = 0 (par exemple) on ne peut retrouver de terme xk0, ni avec
k > 100, ni avec k < 100.

Il est important de noter que la petite différence initiale à l'origine de la grande


différence d'évolution ultérieure peut provenir aussi bien d'une différence effective des
valeurs de la variable que d'une imprécision dans sa mesure, sa représentation
décimale ou son calcul.

3.1.11 Turbulence
Un phénomène physique turbulent :
 A un comportement de chaos déterministe, donc ne devant rien au hasard. Il
apparaît dans la plupart des systèmes non linéaires par franchissement de
bifurcations successives dans l'espace des phases.
 Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à
grande échelle, les comportements aux diverses échelles étant interdépendants.
Cette différence de comportement entre échelles caractérise la non-linéarité.
 N'a ni régularité ni mémoire des états passés, ce qui en rend l'évolution
imprédictible malgré le caractère déterministe des équations différentielles de

113
son modèle mathématique (qui sont parfois des équations aux dérivées
partielles non linéaires). En pratique, l'intégration même numérique de ces
équations différentielles peut être si difficile qu'on recourt à des approximations
statistiques ou à une étude purement expérimentale.

L'évolution d'un système devient turbulente du fait de valeurs de certains paramètres


qui franchissent un seuil critique ; la loi d'évolution bifurque alors dans l'espace des
phases. Le diagramme des phases d'un fluide turbulent présente des bifurcations
successives correspondant à des valeurs critiques des paramètres de bifurcation.
L'étude générale des bifurcations relève de la théorie des bifurcations. Les conditions
d'établissement, de maintien et de disparition des états entre deux bifurcations
successives relèvent de la théorie de la stabilité. Ces deux théories sont déterministes,
dénuées de hasard.

Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont un
nombre de Reynolds grand [293], un nombre élevé de degrés de liberté et la non-
linéarité du système d'équations différentielles de son modèle.

Animations montrant de la turbulence : [300].

3.1.12 Le déterminisme étendu


Le déterminisme philosophique promettait de prédire toutes les évolutions, avec leurs
résultats, à un horizon arbitrairement lointain ; il promettait aussi la reconstitution du
passé, mais avec les connaissance de l'époque ces promesses étaient utopiques.

Le déterminisme scientifique a permis plus de conformité aux lois de la nature, en


réduisant les promesses de prédiction à celles du postulat de causalité et en ne
promettant plus de reconstituer le passé.

Le déterminisme statistique a permis de réduire le hasard des évolutions de physique


quantique au choix d'un élément d'un ensemble prévisible où il a une probabilité
d'apparition calculable ; et il a résolu le problème de la connaissance de valeurs
globales d'une population immense, comme la température des molécules d'un gaz.

Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de la
nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le
déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la valeur.
Nous allons en construire un par induction à partir de propriétés de l'Univers, et nous
l'appellerons « déterminisme étendu ».

3.1.12.1 Propriétés des lois de l'Univers

3.1.12.1.1 Uniformité des lois de la nature


La nature que les lois physiques décrivent est uniforme. Cette uniformité de l'Univers
a des conséquences fondamentales, comme la conservation de la quantité de
mouvement, du moment cinétique, de l'énergie et de la charge électrique. Voici des
caractéristiques de cette uniformité.

114
 L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et
dans toutes les directions. Cette affirmation est le « Principe cosmologique »,
posé en tant qu'hypothèse pour simplifier des calculs de Relativité Générale.
L'homogénéité et l'isotropie de l'Univers avant et après le « Big Bang » sont
prouvées avec une très grande précision par la découverte en 1965 du fond diffus
cosmologique [233] : la densité d'énergie de l'Univers primitif était la même en
tous ses points, mais il se produisait (et il se produit toujours) des fluctuations
quantiques dont sont nées les galaxies [313]. La théorie de l'inflation explique
l'extrême homogénéité constatée aujourd'hui à grande échelle (100 millions
d'années-lumière et plus).
 Les lois physiques sont stables (invariantes) dans le temps et l'espace. On le
voit, par exemple, en astronomie : regarder loin, à 3 milliards d'années-lumière,
c'est voir à cet endroit-là ce qui se passait il y a environ 1 milliard d'années [38] ;
et on constate, alors, que les lois physiques étaient les mêmes que sur Terre
aujourd'hui. Cette stabilité est l'origine de la règle de stabilité associée au
postulat de causalité dans le déterminisme scientifique.
Même lorsqu'une loi varie avec le temps il y a toujours une loi stable qui décrit ou
même explique cette variation. Exemple : le rayon de l'Univers varie [38] ; on s'en
est aperçu en 1927 en découvrant son expansion, matérialisée par une vitesse
d'éloignement des galaxies lointaines qui croît avec leur distance, mais reste la
même dans toutes les directions. Puis on s'est aperçu que la loi de croissance de
ce rayon variait elle-même : l'expansion de l'Univers est de plus en plus rapide.
Enfin, on a prouvé par raisonnement qu'au commencement de l'Univers, une
petite fraction de seconde après le « Big Bang » et pendant un court très instant,
sa vitesse d'expansion a été extraordinairement rapide, des milliards de fois plus
rapide que la vitesse de la lumière [38].
(Remarque : la vitesse d'expansion de l'espace n'est en rien limitée par celle de la
lumière, c, car elle ne déplace ni matière ni énergie [313].)
 Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se
complètent sans jamais se contredire. Elles respectent trois principes
fondamentaux de la logique [99], formulés par induction à partir d'observations
de la nature : principe de non-contradiction, principe du tiers exclu et principe
d'identité. Elles respectent aussi le principe d'homogénéité - [16-b].
Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain
niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples :
 Les lois de la thermodynamique, par exemple, s'appliquent à un niveau
macroscopique sans contredire les lois mécaniques des mouvements et
chocs des molécules du niveau atomique.
 Le Principe de moindre action de Maupertuis [62] constitue une loi globale
de mouvement qui ne contredit pas les lois locales de Newton.
 La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les
situations et expliquer tous les phénomènes ; c'est le postulat de détermination
complète de Kant. Il n'y a pas de situation sans loi d'évolution, loi immuable.

Une cause donnée produit donc toujours le même effet, d'où le déterminisme.

115
3.1.12.1.2 Postulat de causalité
L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité
qu'on peut résumer sous la forme :
Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à
des lois.

Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables expériences
et n'est contredit par aucune (voir la construction empirique d'une axiomatique [241]).
D'après la définition de la vérité scientifique du rationalisme critique ce postulat peut
être considéré comme une loi de causalité jusqu'à preuve du contraire. Voir aussi le
principe de raison suffisante.

Phénomènes ou situations inexpliqués


Le fait que certains phénomènes ou situations soient inexpliqués ne contredit pas le
déterminisme, il nous incite à faire des efforts de recherche pour les comprendre ; il
nous incite aussi à rester vigilants pour le cas où la découverte d'un fait inexplicable
dans le cadre d'une loi de calcul ou d'évolution censée l'expliquer, ou qui la contredit,
nous oblige à modifier ou remplacer cette loi. On peut aussi envisager d'attribuer un
phénomène inexpliqué ou une situation inexpliquée à l'application d'une restriction du
postulat de causalité.

Fluctuations quantiques
Ce phénomène naturel (déjà signalé et décrit en détail plus bas) ne respecte ni le
postulat de causalité, ni la règle de stabilité ! Il survient brusquement, de manière
imprévisible, sans cause identifiable. C'est une fluctuation, instabilité dans le temps
traduisant l'impossibilité de définir l'énergie potentielle en un point de l'espace vide
avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitrairement
petits. Ce phénomène important, puisqu'il est cause de la naissance des galaxies peu
après le Big Bang, échappe donc au déterminisme ; il est dû au hasard, si on définit
celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni où une
fluctuation se produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de
l'évaporation des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule
d'elle-même rapidement en restituant l'énergie qu'elle a emprunté à l'espace
environnant.

3.1.12.2 Définition du déterminisme étendu


Dans la suite de ce texte nous allons donc postuler l'uniformité, la stabilité, la
cohérence et la complétude des lois physiques de l'Univers, et nous définirons le
déterminisme étendu comme suit :

Le déterminisme étendu est le principe qui régit l'évolution d'une


cause à ses conséquences sous l'action de toute loi naturelle.

Cet énoncé du principe de déterminisme étendu doit être compatible avec la définition
du déterminisme scientifique donnée précédemment (condition nécessaire et

116
suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que
subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit
précédemment et décrit en détail plus bas) complète le déterminisme scientifique pour
constituer le déterminisme étendu.

3.1.12.2.1 Définition constructive du déterminisme étendu


D'habitude, la définition d'un mot décrit sa signification. Ne pouvant me contenter d'une
telle définition descriptive pour le déterminisme étendu, j'utilise ci-dessous une
définition constructive permettant, si nécessaire, une extension infinie de cette notion
déduite de propriétés des lois de l'Univers.

Construction
Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme
statistique, peut à ma connaissance régir toutes les lois de la physique, pour permettre
toutes les prédictions d'évolution possibles compte tenu des obstacles cités.

Si toutefois on trouve une loi d'évolution de la nature, respectant la règle de stabilité,


qui échappe à la fois au déterminisme scientifique et au déterminisme statistique, on
incorporera ses règles au déterminisme étendu comme suit.
 Nous prenons toutes les lois d'évolution de l'Univers, une par une, dans un ordre
quelconque.
 Considérons une de ces lois. Si sa règle d'évolution fait déjà partie du
déterminisme étendu, nous l'ignorons et passons à la suivante ; sinon nous
incorporons cette règle d'évolution à la définition du déterminisme étendu.
 Chaque fois que nous incorporons la règle d'évolution d'une loi supplémentaire,
nous vérifions sa cohérence avec les règles déjà incorporées, de manière à
rester conforme à la nature, dont aucune règle d'évolution n'en contredit une
autre ; en principe, cette vérification est inutile si les énoncés des lois respectent
bien le postulat de cohérence des lois de l'Univers.

La définition du déterminisme étendu sera ainsi complétée progressivement, au fur et


à mesure des découvertes scientifiques… si nécessaire.

3.1.12.2.2 Validité de cette approche


Le déterminisme étendu défini comme ci-dessus constitue une axiomatique [67] dont
les axiomes (règles de faits) sont les conditions initiales des diverses lois d'évolution,
et les règles de déduction (d'inférence) sont les règles d'évolution correspondantes,
selon la sémantique suivante : une situation décrite par les valeurs d'un ensemble de
variables S évolue selon un ensemble de règles R(S). R(S) ne comprend qu'une seule
loi d'évolution pour chaque variable de S, sauf en physique quantique [325] où
plusieurs lois peuvent être déclenchées simultanément.

La validité théorique de cette approche de définition constructive a été étudiée et


justifiée par les logiciens, qui ont montré comment on peut compléter une axiomatique
au fur et à mesure qu'apparaissent des vérités ou des règles de déduction qu'on ne
peut déduire des axiomes existants, mais que la sémantique du sujet impose de
prendre en compte. Ce point est abordé dans [92].

117
La validité pratique de cette approche résulte de son respect de la méthode
scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur et
à mesure du progrès des connaissances. Concernant le déterminisme étendu, on
ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à
mesure que de nouvelles connaissances l'exigent, en excluant les redondances et les
contradictions.

Par construction, le déterminisme étendu n'exclut ni les distributions statistiques de


valeurs, ni l'imprécision, ni l'indétermination de la Mécanique quantique.

Enfin, la définition constructive du déterminisme étendu n'en fait pas un système


interprétatif.

3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme


L'universalité du déterminisme étendu résulte de sa définition constructive, qui prend
bien en compte toutes les lois de l'Univers, toutes celles qui sont connues à un instant
donné et toutes celles que l'on découvrira, au fur et à mesure de leur découverte.

Le déterminisme étendu régissant toutes les lois d'évolution et de traduction de la


nature en tant que principe unificateur peut être considéré comme un monisme,
système philosophique qui réduit l'ensemble des lois de l'Univers à un seul principe
général. (Ce principe unificateur est la causalité supposée stable.)

En tant que théorie philosophique d'évolution, le déterminisme étendu est un


mécanisme, système qui explique les évolutions de l'Univers ou de parties de l'Univers
uniquement par des causes matérielles efficaces [39], c'est-à-dire des raisons
suffisantes du devenir. Cette explication exclut toute cause finale [39].

3.1.12.2.4 Limites de la règle de stabilité du déterminisme


La définition du déterminisme scientifique traditionnel prévoit la stabilité de la loi
d'évolution. Mais cette hypothèse n'est pas toujours pertinente. C'est ainsi que, lorsque
les astronomes ont découvert que l'Univers est en expansion (après des siècles de
croyance a priori en un espace qui n'évolue pas), ils ont commencé par postuler que
sa vitesse d'expansion (le nombre d'années-lumière supplémentaires ajoutées à son
rayon chaque année) est constante [111]. Puis ils se sont aperçus que ce postulat était
doublement faux, car nous avons la preuve que :
 Dans la première fraction de seconde (environ 10 -35 seconde) après sa
naissance, la croissance de l'Univers a été extraordinairement rapide, son rayon
croissant des milliards de fois plus vite que la vitesse de la lumière : ce fut la
courte phase d'inflation [313].
 De nos jours, la vitesse de croissance est bien plus faible (on ne parle plus
d'inflation, on parle d'expansion), mais elle augmente : le rayon de l'Univers
(environ 47 milliards d'années-lumière, correspondant à un âge de 13.8 milliards
d'années) croît de plus en plus vite. [111] [370]

Connaître la vitesse d'expansion de l'Univers et sa variation depuis le Big Bang est


important pour déterminer l'âge de l'Univers et mieux comprendre les phénomènes
physiques qui interviennent encore de nos jours.

118
Conclusion : lorsqu'on suppose qu'une loi d'évolution est stable il faut être prudent,
et d'autant plus prudent que l'on considère une période longue.

La règle de stabilité des lois du déterminisme scientifique, reprise dans le


déterminisme statistique et le déterminisme étendu, n'a pas besoin d'être absolue. Son
respect n'est nécessaire que pour assurer la cohérence des évolutions dans le temps
et l'espace, ce qui exige :
 que l'évolution d'une situation S ne dépende que des valeurs initiales de ses
variables, pas de l'instant ou de la position de départ (qu'elle soit la même pour
deux situations S et S' déduites l'une de l'autre par un déplacement dans le
temps ou l'espace) ;
 qu'une évolution commencée se poursuive avec la même loi pendant toute sa
durée et dans tout l'espace concerné.

Considérations relativistes
J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe de
ce livre, qu'un événement A ne peut être cause d'un événement B que si, dans le
diagramme d'espace-temps, B est à l'intérieur du cône de lumière de A, c'est-à-dire si
la lumière partant du lieu de l'événement A et se propageant à sa vitesse habituelle
(c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de l'événement B avant
la survenance de ce dernier.

Si B est hors du cône de lumière de A, il ne peut avoir été causé par A ou l'avoir
influencé, et des lois physiques différentes pourraient s'appliquer aux lieux et instants
de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en
A ou B. Par contre un autre observateur, en C, capable de voir les deux événements
A et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une
éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette
différence n'était pas négligeable.

Donc, vue de la Terre à notre époque, une éventuelle variation d'une loi de l'Univers
peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps
de l'Univers.

L'expansion de l'Univers visible se produit à la vitesse de la lumière, c [111]. Elle


n'affecte que l'espace entre amas de galaxies : la gravitation qui domine dans ces
amas en empêche l'expansion. Le rayon R de l'Univers visible est 47 milliards
d'années-lumière ; la lumière a mis 13.8 milliards d'années pour nous en parvenir (du
fait de l'expansion). Un événement actuel situé à plus de 9.1 milliards d'années-lumière
de notre galaxie nous restera à jamais inconnu, sa lumière ne pouvant nous atteindre
parce que la vitesse d'expansion à cette distance-là est déjà égale à c et augmente
au-delà. [370] Une éventuelle différence de loi physique entre le lieu et l'époque de cet
événement et notre Terre à notre époque serait sans conséquence pour nous et
indétectable.

La règle de stabilité n'a pas besoin d'être absolue


Comme nous venons de le voir, une éventuelle différence entre lois de la nature peut
rester invisible pour nous et notre déterminisme, soit pour les raisons relativistes, soit
pour des raisons d'éloignement, soit tout simplement si ses effets sont négligeables

119
aux échelles (de temps, de longueur, d'énergie, etc.) où nous pouvons en être
impactés. La règle de stabilité n'a donc pas besoin d'être absolue.

3.1.12.3 Stabilité des lois d'évolution et situations nouvelles


Nous examinons dans cette section une restriction possible des exigences du postulat
de causalité. Une étude approfondie de ce postulat est disponible plus bas.

3.1.12.3.1 Apparition d'une loi d'évolution


La règle de stabilité du déterminisme scientifique implique ceci : à l'apparition d'une
situation donnée S, une certaine loi physique d'évolution L est appliquée
automatiquement par la nature ; et si la même situation S réapparaît à un autre
moment et/ou dans un autre lieu, c'est la même loi d'évolution L qui sera appliquée.

Mais nous n'avons nullement postulé que la loi L doit exister avant la première
survenance de la situation S. Si elle existait avant, cette loi serait, au moins
provisoirement, sans objet ; un idéaliste comme Platon pourrait en envisager
l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction
destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si
l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites,
comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce que ses
conditions d'application soient réunies, ce qui arrivera ou non. Donc :
 Nous limiterons la période d'application de la règle de stabilité d'une loi
d'évolution au temps qui suit l'apparition de la première situation où elle
s'applique.
 Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la
survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et
son énoncé est infalsifiable [203].

3.1.12.3.2 Restriction du postulat de causalité


En affirmant qu'en l'absence de cause la conséquence n'a pas lieu, notre postulat de
causalité exclut la possibilité de situations « vraiment nouvelles », c'est-à-dire sans
cause physique existante ou ayant existé dans notre Univers : toute situation a une
chaîne de causalité remontant jusqu'à la naissance de l'Univers ; c'est une
conséquence déterministe de cette situation initiale.
Il ne peut exister de chaîne de causalité indépendante, car si elle avait commencé
après la naissance de l'Univers son début aurait résulté d'un enchaînement de
situations existant avant elle, ce qui est contradictoire ; et si elle avait commencé avant,
elle aurait été prise en compte lors de la naissance de l'Univers, événement ponctuel
dans l'espace et le temps [313]. Du reste, imaginer un « avant le Big Bang » est pure
spéculation, nos connaissances de physique ne remontent pas si loin.

Or la contrainte « pas de situation vraiment nouvelle » n'est en rien nécessaire à la


stabilité des lois d'évolution dans le temps et l'espace. Celle-ci exige seulement qu'une
fois apparue lors de son application à une situation S, une loi s'applique à l'identique
à toute situation S' déduite de S par une translation dans le temps et/ou l'espace.
S'imposer qu'il n'y ait jamais de situation nouvelle dans l'Univers est un apriori inutile
du moment que la structure de cette situation (ses objets composants et leurs
relations) ne contredit pas de loi de structure existante (la nouveauté ne peut rendre
impossible ce qui existe déjà, elle peut seulement en changer les lois d'évolution).

120
Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé ; il n'exige
nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis pour les
philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler une
« cause première », une « cause sans cause » comme Dieu.
Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont
stables après leur première application. Rien n'oblige une loi d'évolution physique
d'avoir existé avant la première fois où il existe une situation à laquelle elle doit
s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon.

Nous allons donc, dans le reste de cette section, conjecturer que des situations
vraiment nouvelles (sans cause préalable) peuvent apparaître dans l'Univers, pour voir
si cela permet une explication plausible de situations nouvelles constatées sans en
contredire d'autres ; nous appellerons apparitions de telles situations. Une apparition
est nécessairement accompagnée de sa loi d'évolution, qui peut être nouvelle ou être
une évolution de loi préexistante applicable universellement désormais.

Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune
cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de
notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc
qu'une conjecture, conséquence d'une restriction du postulat de causalité.

Le fait qu'une situation-apparition soit découverte aujourd'hui n'entraîne pas qu'elle


n'existait pas auparavant : une telle affirmation ne peut résulter que d'une étude
expérimentale ou théorique, avant d'être prouvée elle n'est qu'une conjecture.

Voici quelques cas que l'on peut considérer aujourd'hui comme des apparitions.

3.1.12.3.3 Exemples d'apparitions

La naissance de l'Univers
Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur
préexistant, par application de lois préexistantes. On peut conjecturer que les lois
d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure
spéculation indémontrable et leur existence ultérieure une certitude.

Nous savons [313] que, au commencement de l'Univers, des lois fondamentales de


notre Univers actuel ne s'appliquaient pas, notamment parce que des concepts de
base comme le temps et l'espace étaient d'une autre nature qu'aujourd'hui
(probablement discontinue, quantifiée…) ; mais nous ne savons pas (ou pas encore)
quelles lois s'appliquaient. Ce commencement peut donc être considéré comme une
apparition, la première.

L'inflation
La courte période dite d'inflation [313], peu après le commencement de l'Univers mais
avant le Big Bang, a vu une expansion de l'Univers fantastiquement rapide, dilatation
de l'espace des milliards de fois plus rapide que la vitesse de la lumière et
accompagnée de création de matière.

121
Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement
conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître
sans cause, pendant un temps très bref, par transformation d'énergie potentielle du
milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big
Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent
et sans création de matière, expansion qui se poursuit de nos jours. ([136] Tegmark)

Les fluctuations quantiques


Ce phénomène (rappelé plus loin) est une variation d'énergie en un point de l'espace
vide sans cause autre que l'affirmation « l'énergie du vide est instable à cause
du principe d'incertitude de Heisenberg », ce qui n'explique rien. Ce n'est pas une
véritable évolution, car « l'emprunt » d'énergie ΔE à l'espace environnant (matérialisé
par l'apparition d'une paire particule + antiparticule) est restitué environ Δt secondes
après par fusion de cette particule avec l'antiparticule, en respectant la limite
ΔE.Δt ≥ ½ä. C'est donc une apparition.

3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions


Restreindre la contrainte de stabilité en admettant la possibilité d'apparitions a
d'importances conséquences philosophiques. Exemples :
 Certaines chaînes de causalité peuvent apparaître après la naissance de
l'Univers. L'opposition entre matérialisme (qui refuse les phénomènes sans
cause actuelle ou passée interne à l'Univers) et idéalisme (qui croit possibles
des phénomènes dont la cause est externe à l'Univers, comme la volonté d'un
Créateur) n'est plus aussi totale.
 Des situations et des phénomènes peuvent rester inexpliqués, parce que ce sont
des apparitions.
 L'ensemble des lois d'évolution de l'Univers peut s'enrichir ou évoluer
progressivement. Certaines situations ou évolutions considérées comme
impossibles avec les lois physiques actuelles peuvent ne plus l'être
éternellement.
Exemple : l'expansion de l'Univers a été considérée successivement comme
inexistante, puis à vitesse constante et aujourd'hui à vitesse croissante : pour
qu'une loi de la nature paraisse stable dans le temps ou l'espace, il faut qu'elle
varie trop lentement pour qu'on s'en aperçoive avec les moyens dont on dispose.
 Des lois de conservation comme la conservation de l'énergie ou de la quantité
d'informations peuvent être violées à l'occasion d'une apparition (détails).

3.1.12.4 Conclusions sur le déterminisme étendu et la causalité

3.1.12.4.1 Déterminisme étendu : un principe et un objectif


L'expression « déterminisme étendu » désigne un principe (en fait : un postulat)
régissant les lois d'évolution de la nature. Nous savons que le caractère déterministe
n'entraîne pas toujours la prédictibilité ; c'est ainsi que l'action d'un grand nombre de
processus déterministes simultanés ne change pas leur nature globale déterministe,
mais rend impossible par excès de complexité la prédiction du futur.

122
Le déterminisme étendu constitue un pont entre science et philosophie destiné à mieux
comprendre ce qui est et mieux anticiper ce qui sera.

3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique


Que mes lecteurs soient ou non complètement d'accord avec mes définitions du
déterminisme scientifique, du déterminisme statistique, du déterminisme étendu, du
hasard et du chaos n'est pas indispensable à la lecture de ce livre. Seule compte la
connaissance des limites de la prédiction des évolutions physiques, avec ce qu'elle
implique de culture scientifique.

Voici un résumé d'affirmations concernant la causalité et le déterminisme étendu des


lois de la nature.
 Une cause est une situation à un instant donné, avec tous ses paramètres.
Cette définition n'est pas triviale. Considérons une situation de Mécanique
quantique avec superposition d'états qui évolue par décohérence pour devenir un
état unique. On pourrait penser qu'il s'agit d'un cas où plusieurs causes (les états
superposés) ont évolué vers une conséquence unique, ce qui constituerait une
causalité différente de celle où une cause unique évolue vers un ensemble de
conséquences. En fait, la superposition d'états constitue bien une situation à
considérer dans son ensemble, donc une cause unique. (Développement)
 La conséquence d'une cause est tirée, automatiquement et immédiatement, par
la nature sous forme d'un ensemble d'évolutions simultanées de certaines
variables (si aucune n'était affectée, il n'y aurait pas d'évolution).
 Cet ensemble d'évolutions peut ne comprendre qu'une évolution unique ou
(en physique quantique) comprendre plusieurs évolutions simultanées en
superposition. Cette superposition prend fin par une décohérence, au bout
d'un temps en général court, et d'autant plus court que le système considéré
interagit fortement avec son environnement et que les états superposés sont
différents, rendant ainsi la superposition instable.
 Dans la nature, la décohérence est le seul cas d'évolution où le hasard
intervient (par déterminisme statistique), si l'on considère les fluctuations
quantiques comme étant des phénomènes sans cause préalable qui ne sont
pas des évolutions, parce qu'ils reviennent toujours à l'état initial sauf dans
le cas des trous noirs qui s'évaporent. Et même la décohérence s'explique
sans hasard, de manière déterministe, avec la théorie de Hugh Everett.
(Voir en fin de texte la table résumant les cas d'imprédictibilité)
 Une particule peut parcourir une infinité de trajectoires à la fois, solutions de
l'équation de Schrödinger, autour d'une trajectoire la plus probable calculée
en pondérant chacune des trajectoires individuelles avec sa probabilité.
Cas particulier intéressant : un ensemble de particules décrites par un état
quantique global, comme une paire de photons corrélés (on dit aussi
"intriqués"), conserve certaines propriétés de cet état global même lorsque les
particules s'éloignent les unes des autres. Si un événement affecte alors l'une
des particules (exemple : l'absorption d'un photon de l'ensemble intriqué lors
d'une mesure) ses conséquences sont propagées instantanément à toutes
les autres particules « à une vitesse infinie » : on dit qu'il y a non-séparabilité.

123
 Toute évolution physique d'un système laisse invariante la quantité
d'informations qui le décrit (conséquence de la réversibilité de l'équation de
Schrödinger).
 Dans la nature, l'instabilité peut constituer une cause d'évolution.
 L'instabilité peut résulter d'une énergie cinétique traduisant la température,
source de l'agitation incessante appelée mouvement brownien.
 L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit
alors d'une indétermination régie par le principe d'incertitude.
 L'instabilité des systèmes non linéaires (par exemple les systèmes
dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut
être source d'auto-organisation (comme l'évolution des espèces).
 L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution,
comme l'inflation de l'Univers qui résulte de la Relativité Générale [313].
 L'instabilité peut résulter de la nature même d'un système dynamique ; ses
lois d'évolution peuvent changer en certains points de bifurcation. [281]
 La nature ne connaît pas le concept humain de « résultat d'une évolution » et
elle n'a pas de finalité (contrairement à la doctrine idéaliste).
 Par définition, un résultat (notamment la durée d'un phénomène) est l'ensemble
des valeurs des variables qui nous intéressent, nous hommes, considérées à un
instant donné. Il peut venir d'une ou plusieurs des évolutions déclenchées par
une cause donnée.
 Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne
garantit ni la prédictibilité des résultats, ni la précision de chaque résultat,
préoccupations strictement humaines.
 Chaque évolution déclenchée est gouvernée par une loi physique, selon le
principe déterministe « les mêmes causes produisent les mêmes effets »,
principe qui implique ce qui suit :
 La stabilité (l'invariance) des lois physiques dans le temps et l'espace (au
moins à l'échelle qui nous est accessible).
 L'absence de hasard dans le choix de la loi d'évolution d'une situation.
 En Mécanique quantique, lors d'une évolution dont le modèle peut avoir
plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont
chaque élément a une probabilité connue d'apparaître si on fait un grand
nombre d'expériences identiques.
Ce choix statistique d'une valeur est donc un type d'évolution naturelle
particulier, faisant passer d'une superposition de valeurs à une valeur unique.
C'est le seul cas, dans la nature, où le hasard intervient ; et même lui disparaît
avec la théorie à univers multiples de Hugh Everett.
 Dans le cas d'une bifurcation, la loi choisie dépend d'un paramètre de
contrôle qui a une valeur critique au point de bifurcation.
 En cas d'évolution sensible aux conditions initiales, le résultat est
imprédictible à long terme au départ du fait d'une amplification
mathématique d'inévitables imprécisions de calcul ou physiques.

124
 La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle
« n'improvise » jamais de conséquence et n'en « oublie » jamais.
 Il n'y a pas dans l'Univers de situation parfaitement stable pour l'éternité,
situation sans loi d'évolution quelle que soit la variable d'état considérée.
 Les lois physiques constituent un ensemble cohérent : leurs effets se complètent
sans jamais se contredire.
Exemple : les différentes trajectoires éventuelles d'une particule unique, qui les
emprunte toutes à la fois, sont parcourues à des vitesses telles que la particule
arrive en une fois à une destination unique, pas à plusieurs dates dépendant des
diverses trajectoires. Mais des différences de longueur de trajectoires peuvent
produire des interférences.
 La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que
des abstractions commodes de l'esprit humain : c'est le principe de
correspondance.
 Une loi physique s'applique à toutes les échelles, mais ses effets peuvent
être négligeables ou trop difficiles à calculer à certaines échelles.
 Certains phénomènes sont modélisés par des structures géométriques dites
fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le
grossissement ».
 Les lois physiques respectent un certain nombre de symétries (invariances)
résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace,
isotropie), de la symétrie droite-gauche de l'espace, etc.
Il y a aussi des concepts universels, qui seraient les mêmes aussi pour des
habitants d'une autre galaxie : nombre entier, point, ligne droite, etc., ainsi que des
principes de logique [99]. Le déterminisme ne peut que les respecter.
 La causalité et le déterminisme tiennent compte de la Relativité, de la
Mécanique quantique, de l'Electrodynamique quantique et de la
Chromodynamique quantique, qui sont des lois de la nature.
 La causalité et le déterminisme s'appliquent aux situations et aux évolutions
physiques de la nature, pas à la pensée humaine. Nous allons voir ci-dessous
que celle-ci est non-déterministe et imprévisible.

Conclusions
Ce n'est pas à la nature de s'adapter à notre besoin de représentations mentales
simples, c'est à nous d'adapter celles-ci et l'échelle que nous considérons à la nature,
même si ces représentations sont abstraites, probabilistes, imprécises ou
indéterminées.

Le déterminisme régit l'évolution qui résulte de la cause initiale ; il ne garantit pas que
le résultat de cette évolution puisse être prédit avant, ou mesuré après avec une
précision arbitraire : le déterminisme, toujours respecté par les lois de la nature, ne
garantit ni la prédictibilité du résultat ni la précision de sa mesure ; il garantit seulement
que la cause déclenche une évolution selon la loi qui s'applique.

Voir aussi Ensemble de définition d'une loi déterministe.

125
Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.2 Imprédictibilité de la pensée humaine


Nous avons vu ci-dessus à propos de la complexité que les phénomènes des êtres
vivants, qu'ils soient physiologiques ou psychiques, reposent sur les mécanismes
physiques des cellules régis par la biologie moléculaire, chacun déterministe et à
évolution et résultat prévisibles.
Le déterminisme et la prédictibilité s'entendent ici au sens du déterminisme
étendu, à cause du caractère probabiliste de l'établissement et de la rupture de
nombreuses liaisons chimiques intervenant en biologie moléculaire.

Mais le nombre de ces phénomènes physiques et leurs innombrables interactions


rendent les phénomènes du vivant d'une redoutable complexité. C'est cette complexité
qui explique l'imprévisibilité de la pensée humaine, qui s'ajoute à une influence
permanente de l'inconscient [353] qui échappe à notre conscience. Voyons quelques
détails.

D'après une interprétation simpliste de la doctrine matérialiste, la pensée est un simple


aspect de mécanismes des neurones : établissement et ruptures de connexions par
synapses, et communications à travers ces synapses. Ces mécanismes sont eux-
mêmes basés sur des réactions chimiques régies par le « logiciel » génétique.
La pensée, consciente ou non, n'est que l'interprétation par notre esprit du
fonctionnement de ses propres neurones, lui-même basé sur des processus de
biologie moléculaire, science exacte déterministe (au sens étendu) basée sur la
physique quantique [325]. Cette interprétation du psychisme [347] est expliquée dans
"Conscience et conscience de soi" [339].

Le logiciel génétique gérant les neurones coordonne des milliers de réactions


chimiques, qui dépendent d'innombrables paramètres appartenant à des domaines
dont je ne peux citer que quelques-uns : perceptions remontant des sens et du corps
vers le cerveau, santé du corps, informations mémorisées dans les neurones, etc. Ces
milliers de réactions interdépendantes donnent aux mécanismes physiologiques de la
pensée une immense complexité.
C'est ainsi que, d'après les recherches récentes citées dans [307] :
 les synapses des vertébrés contiennent environ 1000 protéines, mises en
œuvre dans 13 mécanismes moléculaires, dont l'un utilise 183 protéines
différentes ;
 le cerveau humain compte environ 100 milliards de neurones reliés par 100
trillions de synapses (oui, cent mille milliards de synapses).
 Un neurone peut dialoguer avec un millier d'autres en même temps : comme
les ordinateurs multitâches et/ou multiprocesseurs, beaucoup de processus
psychiques se déroulent en parallèle ; un processus peut en démarrer
d'autres et communiquer avec eux.

Au-dessus de cette complexité physique, la pensée elle-même représente toute une


« hiérarchie logicielle », avec ses mécanismes conscients ou non d'acquisition,
mémorisation et recherche d'informations, de jugement de sens psychique et de valeur

126
de chaque pensée, d'enchaînement de pensées par analogie, induction, déduction et
synthèse, etc. Le fonctionnement de ces mécanismes psychiques ne se déduit pas
des seuls mécanismes physiques qui les supportent, on ne peut les décrire qu'en
ajoutant des algorithmes décrivant des pensées et leur enchaînement : « le tout est
plus riche que la somme des parties ».

Comme nous l'avons vu plus haut, la pensée est la perception humaine du


fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en abstractions ;
elle constitue la seule mise en relation entre concepts de genres différents qui ne viole
pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer
n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes
de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions
entre neurones.

Inconscient (voir aussi [353])- Mais l'inconscient entretient constamment des pensées
qui échappent à tout contrôle de la conscience. Il y a, par exemple, la formation de
valeurs de l'individu qui vont ensuite guider toute sa pensée et toutes ses actions en
définissant le sens psychique des situations ; exemple : "voler est mal". Toute pensée
qui a un tel sens produit à son tour des affects [253], comme tout ce qui est désiré ou
qui est redouté.
Il y a aussi un très grand nombre de vérités et d'opinions a priori, aussi
injustifiables logiquement (indécidables [6]) que les pensées relevant de l' « esprit de
finesse » (intuition, sagacité, etc. [66] - [141]), mais accessibles à la conscience. La
connaissance des processus inconscients progresse, mais elle est encore très
embryonnaire. (Détails)

L'inconscient et la complexité fantastique des mécanismes de la pensée expliquent


l'essentiel de son caractère généralement imprévisible, malgré une base physique
déterministe. Inconscient et complexité font que la condition de stabilité
(reproductibilité) de la définition du déterminisme scientifique est rarement satisfaite.
Selon la quantité de neurotransmetteurs comme la dopamine et l'acétylcholine
dans certaines zones du cerveau, les pensées sont très différentes. La mémoire à long
terme, soumise elle aussi à un environnement chimique et à des stimulations qui
varient avec les circonstances, peut oublier ou déformer les souvenirs, voire même
créer de faux souvenirs qui nous paraissent vrais. Le cerveau fabrique souvent des
pensées par intuition ou analogie sans que l'individu soit conscient de leur élaboration,
et certaines sont erronées ou indécidables tout en paraissant acceptables au
mécanisme automatique de jugement de valeur.

Voilà pourquoi le cheminement et les conclusions de la pensée humaine sont le plus


souvent imprévisibles. Voilà pourquoi la pensée d'un individu est tellement soumise à
ses affects que sa raison elle-même n'est qu'un outil à leur service, et que l'individu
préfère souvent des décisions qu'il sait irrationnelles ou immorales à des décisions
rationnelles ou morales.

3.2.1 La barrière de complexité


Depuis que l'homme primitif savait évaluer un danger en un instant, sans prendre le
temps de réfléchir à ce qu'il devait faire, l'homme a dans ses gènes une fonction

127
d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la
bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions.

Cet effort est d'autant plus important que la situation est complexe. L'homme doit alors
trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude de juger
au premier coup d'œil est si forte que, face à une situation complexe, l'homme adopte
souvent la première idée qui lui vient, sans prendre le temps de faire le tour des
paramètres et des contraintes du contexte. Beaucoup de citoyens, par exemple, votent
pour un programme électoral qu'ils n'ont pas analysé en détail, voire dont ils n'ont lu
que le nom du candidat et de son parti.

Conséquence : imprédictibilité des décisions économiques et boursières


L'imprédictibilité des décisions humaines se manifeste de manière spectaculaire en
économie et sur les marchés financiers, où on peut montrer qu'aucun modèle
mathématique, même statistique, ne peut permettre des prédictions fiables. C'est
pourquoi, par exemple, tant de fonds hautement spéculatifs (hedge funds) basés sur
les modèles de mathématiciens de haut niveau (les quants) ont disparu avec de fortes
pertes lors de la crise de 2007-2008 - [301].

3.2.2 Rigueur des raisonnements déductifs


Il nous paraît évident qu'un raisonnement purement déductif (« géométrique », comme
diraient Pascal et Spinoza) est rigoureux. Le syllogisme démonstratif : "Tous les
hommes sont mortels ; Socrate est un homme ; donc Socrate est mortel" nous paraît
rigoureux. Mais les neurosciences montrent que nous n'acceptons une conclusion -
même certaine parce que rigoureuse - que lorsqu'elle ne nous touche pas
personnellement, ou lorsque la valeur affective que nous lui attribuons
automatiquement ne s'oppose pas à une valeur supérieure associée à une conclusion
différente. Dans le cas d'une telle opposition nous préférons être de mauvaise foi,
parce qu'accepter la conclusion logique nous coûte plus cher émotionnellement qu'en
accepter une illogique. Il arrive qu'on préfère perdre de l'argent plutôt que de perdre la
face…
Voir aussi le paragraphe sur la dissonance cognitive.

En toute rigueur :
 La 1ère proposition ci-dessus "Tous les hommes sont mortels" implique à elle
seule la conclusion, puisque Socrate est un homme : en l'affirmant on sous-
entend qu'on est déjà certain de cette conclusion. La 2 ème proposition ne sert
donc qu'à expliciter le raisonnement pour le clarifier et préparer la conclusion,
elle n'ajoute pas d'information à la 1 ère.
Une proposition de type "Tous les…" sous-entend en principe qu'on a la certitude
pour tous les éléments de l'ensemble concerné, par exemple parce qu'on a vérifié
la proposition pour chacun d'eux ou qu'on l'a prouvée logiquement pour tout
l'ensemble qu'ils forment. Mais comme il y a de nombreux cas où une telle rigueur
est impossible (ici on ne sait même pas combien il y a d'hommes, on ne peut les
joindre tous pour vérifier, etc.) la proposition repose alors sur une induction : on
sait qu'elle est vraie pour un nombre d'éléments suffisamment grand pour postuler
qu'elle doit être vraie pour tous ; on prend le risque de généraliser.

128
 Tout raisonnement logique, notamment toute démonstration, repose sur des
prémisses admises sans démonstration. Il peut s'agir d'axiomes, de
généralisations par induction, de certitudes acquises avant ce raisonnement, etc.
 Un raisonnement peut, à l'occasion, comprendre une infinité d'étapes : on parle
alors par exemple de « régression à l'infini » ou de récurrence. Le raisonnement
peut être parfaitement valable et concluant si la suite infinie de déductions
converge vers une conclusion : voir le paragraphe Déterminisme et convergence
des processus et théories.

3.2.3 Champ d'application du déterminisme et de la causalité


La causalité et le déterminisme étendu construit sur elle s'appliquent bien à toutes les
lois de la nature. Ils ne s'appliquent pas, en général, à la pensée elle-même :
 Souvent la pensée ne respecte pas la contrainte de reproductibilité (règle de
stabilité) du déterminisme scientifique, notamment parce que la complexité des
phénomènes psychiques et le nombre de leurs paramètres (humains et
environnementaux) font qu'il y a presque toujours au moins une variable qui a
changé entre deux situations apparemment identiques, par exemple dans
l'inconscient. [353]
 Face à une situation, une différence fondamentale entre la nature et l'homme est
que la nature applique instantanément la loi ad hoc, alors que l'homme réfléchit
aux conséquences d'une éventuelle action, anticipant ainsi l'avenir et agissant
en fonction de cette anticipation. Et comme sa réflexion (dominée par ses
affects, souvent inconscients) n'est en général pas rationnelle, ses conclusions
sont trop souvent imprévisibles pour que ses actions soient prédictibles.
 L'esprit humain peut spontanément associer n'importe quel concept à n'importe
quel autre, au mépris du principe d'homogénéité et de la rigueur. Il lui faut
ensuite un effort délibéré de raisonnement conscient pour aboutir à une
conclusion rigoureuse, et il échoue souvent du fait de biais inconscients.

Nous verrons plus bas en détail pourquoi il y a une classe de phénomènes, dont la
pensée fait partie, qui en général ne sont pas déterministes. Notons pour le moment
qu'il n'y a pas de contradiction entre le caractère déterministe des mécanismes
neuronaux de la pensée, résultant de celui des mécanismes génétiques sous-jacents,
et son caractère non déterministe : entre les premiers et la seconde, il y a toute une
logique de fonctionnement dont la complexité, la non-conscience et la sensibilité au
contexte (santé, etc.) expliquent l'instabilité.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.3 Compléments philosophiques sur le déterminisme physique


3.3.1 Trois cas particuliers de déterminisme de la nature
 Au sens du déterminisme traditionnel, le jet d'un dé est un phénomène aléatoire
puisque le nombre résultant est imprévisible [299]. En fait, ce résultat n'est pas
n'importe quoi : l'ensemble des résultats, {1, 2, 3, 4, 5, 6}, est toujours le même :
le résultat est déterministe statistique. Dans le cadre du déterminisme étendu

129
défini ci-dessus le jet d'un dé est un phénomène déterministe sensible aux
conditions initiales, pas un phénomène aléatoire.
Le résultat d'une évolution physique donnée n'est pas nécessairement unique, il
peut s'agir d'un ensemble ; le déterminisme étendu exige seulement qu'une cause
donnée déclenche toujours le même phénomène ; son résultat peut avoir
plusieurs éléments lorsque le modèle mathématique qui le décrit a plusieurs
solutions. Seul le choix d'un élément unique de l'ensemble-résultat produit par une
évolution donnée peut être statistique, et cette évolution ne se produit qu'en
Mécanique quantique, sous le nom de décohérence.
Conclusion : la nature a ses propres limites ; elle ne permet pas toujours la
prédictibilité que l'homme souhaite, avec une solution unique et une précision
parfaite. C'est pourquoi, par exemple, la position et la vitesse d'un électron en
mouvement ne peuvent être connues qu'avec des probabilités dans un volume
autour de chaque point.
 Le résultat d'un algorithme [69] calculé par un ordinateur est nécessairement
déterministe [114]. Le fait que la succession des décimales de Pi n'ait aucune
régularité connue, c'est-à-dire qu'elle semble aléatoire [98] bien que calculable
par un algorithme, montre qu'un algorithme peut générer des suites de nombres
paraissant aléatoires malgré son déterminisme (le caractère aléatoire n'est que
probablement vrai pour Pi, car aucun contre-exemple n'a jamais été trouvé et
nous avons vu qu'il n'existe pas de critère rigoureux de caractère aléatoire d'une
suite de nombres). Les logiciels générateurs de nombres « aléatoires » sont très
utilisés en informatique et pour concevoir des expériences de physique.
Nous verrons que la calculabilité d'un algorithme exige le déterminisme, mais la
modélisation informatique d'un processus déterministe ne conduit pas
nécessairement à un algorithme calculable. (Détails sur la calculabilité : [114])
 Si, par une nuit noire, un désespéré se jette du haut d'un pont dans un fleuve
pour se noyer, et qu'un homme qu'il n'a pas vu plonge et le sauve, le sauvetage
était imprévisible. C'est un cas de déterminisme où il y a rencontre de deux
chaînes de causalité indépendantes (celles des deux hommes).

3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel

Possibilité d'inverser le sens du temps


Pour le déterminisme scientifique traditionnel, le temps peut s'écouler du passé vers
l'avenir ou du présent vers le passé. Cette possibilité d'inverser le sens du temps en
changeant t en -t dans les équations d'évolution est compatible avec les lois de la
physique. Exemples :
 Les lois du mouvement de Newton [110] (voir exemple) ;
 Les équations différentielles de Lagrange et de Hamilton ;
 Les équations de la Relativité Générale d'Einstein [328] ;
 Les équations de Maxwell [123] ;
 L'équation de Schrödinger, etc.

130
Chaîne de causalité unique du déterminisme traditionnel
Nous savons que pour le déterminisme philosophique, tout état d'un système a une
infinité de prédécesseurs et de successeurs, l'ensemble constituant une chaîne de
causalité unique, où chaque état a un prédécesseur unique et un successeur unique
[200]. L'avenir qui suit la situation à un instant t donné ne dépend que de cet instant-
là, on peut le prévoir à partir de cet instant-là sans tenir compte du passé qui précède
l'instant t, et le passé d'un présent donné peut être reconstitué en pensée.

3.3.2.1 Différence entre symétrie temporelle et réversibilité


Il ne faut pas confondre symétrie temporelle, propriété qui laisse invariante une
équation d'évolution lorsqu'on y remplace la variable t par -t, et réversibilité physique,
propriété qui permet à un système d'évoluer tantôt dans un sens, tantôt en sens
opposé.

Symétrie temporelle
La symétrie temporelle est une propriété des fonctions et équations invariantes quand
on inverse le sens du temps, ce qui revient à "dérouler à l'envers" le fil des
événements, du présent vers le passé.
Toutes les évolutions dues à une interaction électromagnétique ou une interaction
forte [18] sont régies par des lois symétriques par rapport au temps.
L'équation de Schrödinger, qui régit en principe toute évolution de système isolé
dans le temps et l'espace, est également réversible : elle permet, en théorie, de
reconstituer l'état passé du système. C'est pourquoi tout se passe comme si la
nature « se souvenait » de ses états passés, c'est-à-dire en conservait
l'information.

Réversibilité physique
La réversibilité physique est une propriété des évolutions ou transformations d'un
système ; exemple d'évolution : une réaction chimique. Lorsqu'une évolution
réversible change de sens, le temps continue à s'écouler dans le même sens, du
présent vers l'avenir.

Exemple de symétrie temporelle


L'équation fondamentale de la dynamique f = m relie une force f, une masse m et une
accélération  dérivée seconde de la fonction de position x(t). Si on change t en -t, la
vitesse (dérivée de la position par rapport au temps) change de signe et l'accélération
(dérivée de la vitesse) change deux fois de signe : elle est donc inchangée. L'équation
est donc invariante par un changement de t en -t. Cela se voit dans l'exemple.

Exemple de phénomène réversible


En chimie certaines réactions entre deux produits A et B convergent vers un état
d'équilibre, où A et B coexistent dans une proportion donnée. S'il se forme trop de A
aux dépens de B, la réaction s'inversera et formera du B aux dépens de A jusqu'à
établir la proportion d'équilibre. Le temps, lui, s'écoulera toujours du présent vers le
futur.

131
Remarque philosophique sur la réversibilité
Dans [215] page 121, André Comte-Sponville cite l'Ethique à Nicomaque d'Aristote :
"Il y a une seule chose dont Dieu même est privé,
C'est de faire que ce qui a été fait ne l'ait pas été."
Il rappelle ainsi qu'on ne peut faire qu'un événement du passé n'ait pas eu lieu, même
si on aimerait bien qu'il n'ait pas eu lieu ; on ne peut pas, non plus, faire que le présent
soit autre que ce qu'il est : c'est le principe d'identité [16]). Mais la réversibilité ne
revient pas sur le passé, elle recrée le passé en effectuant une transformation en sens
inverse sans pour autant changer le sens du temps ; c'est une possibilité déterministe,
où l'action d'une loi réversible de la nature fait bien passer du présent au futur par une
évolution inverse de celle du passé.

3.3.2.2 Phénomène irréversible


Lorsqu'une évolution ne peut se faire que dans un seul sens, on dit qu'elle est
irréversible. C'est le cas, par exemple, de la décomposition radioactive d'un noyau
atomique : une fois décomposé en d'autres particules avec production éventuelle de
photons [117], le noyau ne peut plus se recomposer pour revenir à l'état initial.

Une équation qui décrit l'évolution d'un phénomène irréversible ne peut ni être
invariante par changement de sens du temps, ni avoir un domaine de validité
permettant d'envisager ce changement de sens.

Exemples de phénomènes irréversibles


 Nous verrons plus bas que le deuxième principe de la thermodynamique [25]
impose à certains phénomènes comme la radioactivité d'être irréversibles.
 En physique quantique (physique de l'échelle atomique), toute mesure perturbe
le système mesuré de manière irréversible.
 Malgré tous ses mécanismes de réparation et de renouvellement, le corps
humain vieillit et ce vieillissement est irréversible : un corps adulte n'a jamais pu
rajeunir et redevenir un corps d'enfant.

Remarque : on a parfois tendance à parler de « réversibilité » lorsqu'on change par la


pensée le sens d'écoulement du temps, mais c'est un abus de langage. Au lieu de
parler de « réversibilité du temps » on devrait parler :
 Soit de « réversibilité de certains phénomènes » : le temps s'écoule toujours du
présent vers l'avenir, mais certains phénomènes physiques sont dits réversibles
parce qu'ils peuvent revenir de l'état d'arrivée à l'état de départ, comme on le voit
dans certaines réactions chimiques réversibles et dans l'exemple ci-dessous.
 Soit de « symétrie par rapport au temps » (symétrie d'une équation par rapport à
la variable temps), certaines lois physiques étant décrites par des équations
invariantes si on change t en -t. Cette symétrie permet de reconstituer le passé
par la pensée, en « passant à l'envers le film des événements ».
Le déterminisme traditionnel de Laplace [200] affirme la possibilité de remonter le
temps par la pensée, c'est-à-dire d'expliquer la succession d'événements qui a
conduit au présent. Il n'affirme rien :

132
 Ni concernant la possibilité d'une inversion du sens d'écoulement du temps
qui permettrait de revenir à une situation physique du passé ;
 Ni concernant la possibilité de phénomènes réversibles.
Attention : le terme « symétrie » est souvent utilisé par les physiciens pour parler
d'invariance.

3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible


Pour illustrer le déterminisme traditionnel, en voici un exemple. Il est classique car
emprunté au domaine des lois de la dynamique et de la gravitation universelle de
Newton [103] [110].

Considérons l'équation fondamentale de la dynamique f = mr'', où le vecteur


accélération r'' est la dérivée seconde du vecteur position r par rapport au temps. Si
l'on inverse le sens du temps, en changeant t en -t pour « dérouler à l'envers le film
des événements » ou « permuter l'avenir et le passé », le vecteur vitesse (dérivée r'(t)
de la fonction de déplacement r(t) ) change de signe, et l'accélération (dérivée r''(t) de
r'(t) ) change aussi de signe par rapport à r'(t) : l'équation de départ est inchangée. On
dit qu'elle est symétrique (c'est-à-dire invariante) par rapport au sens du temps.

La symétrie temporelle change le sens des vitesses, mais pas celui des accélérations ;
et elle ne change ni les grandeurs (valeurs absolues), ni les déplacements, ni la
vitesse, ni l'accélération.

Exemple
L'interprétation de cette symétrie se comprend dans l'exemple suivant. Supposons que
sur la Lune, donc en l'absence de frottements atmosphériques, on lance à l'instant 0
une balle à partir du sol avec un angle de 45° vers le haut et une vitesse dont chacune
des deux composantes, horizontale et verticale, vaut 2m/s. La balle décrit une
parabole d'axe vertical conforme à la loi :
x = 2t (1)
y = -½ gt² + 2t

où g est l'accélération de la pesanteur sur la Lune, g = 1.635 m/s² (environ un sixième


de l'accélération terrestre). A l'instant t = 1.22s, la balle atteint sa hauteur maximale. A
l'instant t = 2s, ses coordonnées sont x = 4m ; y = 0.73m et la composante verticale
de sa vitesse est -1.27m/s.

Supposons qu'à l'instant t = 2s on relance la balle vers le haut avec une vitesse
opposée à celle qu'elle avait en arrivant : une vitesse horizontale de -2m/s et une
vitesse verticale de +1.27m/s. Si on choisit comme nouvel instant 0 l'instant de la
relance, la balle décrira une parabole d'axe vertical conforme à la loi :
x = -2t + 4 (2)
y = -½gt² + 1.27t + 0.73

On remarque que cette nouvelle parabole a le même coefficient -½g du terme t² que
la première, la fonction y(t) ayant la même dérivée seconde, comme prévu. A l'instant
t = 2 depuis la relance, la balle arrive au sol (x = y = 0).

En éliminant t entre les équations (1) on trouve la trajectoire

133
y = (-1/8)gx² + x (3)

Or en éliminant t entre les équations (2) on trouve la trajectoire

y = (-1/8)gx² + x (4)

Les deux trajectoires (3) et (4) sont bien identiques. La balle a parcouru au retour
exactement la même parabole qu'à l'aller, mais en sens inverse. On a donc bien une
symétrie par rapport au temps permettant de « dérouler le film des événements à
l'envers ».

On dit aussi que le mouvement de la balle est « réversible de manière artificielle »,


puisqu'on peut - dans le cadre de la même loi fondamentale de la dynamique - revenir
de l'état final à l'état initial, mais sans changer le sens du temps. C'est là un exemple
à la fois de réversibilité et de symétrie temporelle. Le déterminisme traditionnel prévoit
la symétrie temporelle et n'impose rien concernant la réversibilité.

3.3.2.4 Système conservatif ou dissipatif – Force conservative ou dissipative


En Mécanique analytique [340], on appelle système conservatif un système matériel
qui a une énergie constante car sans échange avec l'extérieur ; c'est le cas notamment
des systèmes sans frottement (en pratique ceux où les frottements ne perturbent
l'évolution que de manière négligeable) ; exemple : une planète qui tourne autour du
Soleil. Le modèle mathématique d'évolution d'un système conservatif a une symétrie
temporelle lorsque c'est un système d'équations différentielles invariable par
changement de t en -t.

Un système qui n'est pas conservatif (qui échange de l'énergie avec l'extérieur) est dit
dissipatif. Les équations différentielles qui en décrivent l'évolution changent lorsqu'on
remplace t par -t.

Une force est dite conservative si et seulement si le travail qu'elle produit lorsque son
point d'application se déplace de A à B est indépendant du chemin suivi ; elle dépend
alors d'un potentiel. Exemple : une force centrale (dépendant de l'attraction ou de la
répulsion d'un point, le centre, comme la force de gravité du Soleil ou la force électrique
d'un noyau atomique) est conservative (exemple : [313]).

Une force qui ne dépend pas d'un potentiel est dite dissipative. Lorsque son point
d'application se déplace de A à B, son travail dépend du chemin suivi.

3.3.3 Portée du déterminisme : locale ou globale


Le déterminisme local régit le passage d'une situation de départ à une situation
d'arrivée sous l'effet d'une loi d'évolution locale (qui s'applique à la situation de départ
indépendamment des situations qui l'ont précédée ou qui la suivront).
Mais la forme locale n'est pas la seule que le déterminisme peut prendre. Il peut
aussi, en agissant de manière plus globale :
 Choisir une loi d'évolution parmi plusieurs possibles, ce que nous verrons ci-
dessous avec le Principe de moindre action de Maupertuis, avec le principe de
Fermat et les quasi-cristaux.

134
Mais le principe de correspondance fait qu'aucune loi de portée donnée ne peut
faire évoluer une même situation de manière différente de celle d'une loi d'une
autre portée : la nature est cohérente.
 Grouper un certain nombre de variables, en précisant une loi d'évolution globale
qui interdit de connaître l'évolution d'une des variables prise isolément ; nous
verrons cela ci-dessous avec le déterminisme statistique, les variables
complémentaires de la Mécanique quantique et ses particules corrélées.

Nous avons évoqué plus haut l'origine des échelles multiples du déterminisme.

3.3.3.1 Principe de moindre action de Maupertuis


D'après le postulat de la chaîne de causalité unique du déterminisme traditionnel, le
déterminisme agit localement (de proche en proche) en enchaînant causes et
conséquences. Mais le Principe de moindre action de Maupertuis [62] (qui est en
réalité un théorème démontrable) montre que lors du mouvement d'un corps sous
l'action d'un champ de force dérivant d'un potentiel [exemple : le champ d'attraction du
Soleil], la trajectoire entre un point de départ et un point d'arrivée ne dépend que de
ces points. Elle peut aussi être interprétée comme choisie globalement parmi toutes
les trajectoires possibles.

3.3.3.2 Principe de Fermat (plus court chemin de la lumière)


Autre exemple de déterminisme global : le principe de Fermat [106] (théorème lui aussi
démontrable), selon lequel la lumière choisit toujours le chemin le plus court (au sens
du temps de parcours) pour aller d'un point à un autre. Il y a là un déterminisme global
imposant les comportements suivants :
 Dans l'espace ordinaire (espace dit euclidien), le chemin le plus court est une
ligne droite [313].
C'est ainsi que la lumière d'une source située au foyer d'un miroir elliptique est
focalisée à l'autre foyer après une réflexion unique sur l'intérieur elliptique du
miroir, car tous les chemins entre les foyers qui comprennent une réflexion sur
l'ellipse ont la même longueur, donc le même temps de parcours.
 A la surface d'une sphère comme la Terre, le chemin le plus court entre deux
points A et B est le plus petit des deux arcs de grand cercle passant par A et B
[313].
 En passant d'un milieu d'indice n1 à un milieu d'indice n2, il y a réfraction et la
lumière change de direction en suivant la 2 e loi de Descartes [106].

3.3.3.3 Quasi-cristaux
Dernier exemple de déterminisme global (ou plus exactement « à grande distance ») :
la structure atomique des quasi-cristaux, dont la découverte par Daniel Schechtman a
été récompensée par le Prix Nobel de chimie 2011 [308]. Dans un cristal « normal »
la construction (cristallisation) se fait par ajout d'atomes un par un, à des
emplacements compatibles avec les atomes voisins, pour respecter des motifs simples
comme les symétries de rotation d'ordre 2, 3, 4 ou 6, les seules permises par la théorie
traditionnelle [149]. Dans un quasi-cristal (forme de matière découverte fortuitement
en 1984 et dont on connaît aujourd'hui plus de 100 variétés) la structure des atomes
est déterministe (non aléatoire), fortement ordonnée à grande distance (et non pas par
rapport aux seuls atomes voisins) et avec des symétries de rotation interdites par la

135
théorie des cristaux normaux. On trouve ainsi, par exemple, des symétries de rotation
en icosaèdre, solide régulier dont les 20 faces sont des triangles équilatéraux ! [147]

Icosaèdre vu sous trois angles différents

Tout se passe dans la construction d'un quasi-cristal comme s'il existait des
phénomènes de Mécanique quantique à grande distance caractéristiques d'un nouvel
état de la matière. Nous n'entrerons pas dans le détail du phénomène complexe et
insuffisamment connu des quasi-cristaux, car ce qui nous intéresse du point de vue
déterminisme apparaît suffisamment dans ce qui précède : il existe des phénomènes
dont le déterminisme est global et prend en compte des éléments beaucoup plus
nombreux ou plus éloignés que ceux auxquels on s'attend d'après le déterminisme
classique local. En outre, la Mécanique quantique s'applique aussi à des phénomènes
à une échelle bien plus grande que l'échelle atomique.

3.3.3.4 Variables complémentaires


Nous verrons en étudiant le déterminisme de la Mécanique quantique qu'on y
démontre l'existence d'un « principe d'incertitude », dit de Heisenberg, qui groupe
certaines variables par couples dont une mesure simultanée a un minimum
d'incertitude globale. Nous verrons que cette incertitude minimum provient de
l'existence du quantum d'action h et de l'irréversibilité de la mesure.

3.3.3.5 Conclusion sur le déterminisme global


Le déterminisme agit donc aussi parfois globalement, comme s'il était soumis à une
finalité. Les situations intermédiaires entre le début et la fin d'une évolution sont alors
déterminées par celle du début (« oubliée » dès sa première conséquence dans le
déterminisme de proche en proche) et celle de la fin (qui n'est pas encore arrivée !).
Mais, comme on le voit dans le principe de Maupertuis [62], ce paradoxe n'est
qu'apparent : le déterminisme des lois d'évolution a deux niveaux de portée, un global
et un ponctuel. Lorsque le déterminisme choisit une loi globale, la loi ponctuelle (de
proche en proche) si elle existe complète la loi globale, qui demeure valable. Ce double
comportement n'est pas exceptionnel, nous en verrons un aussi en Mécanique
quantique, pour une particule qui est à la fois corpuscule et onde.

Le comportement global d'un mouvement, choix de trajectoire découvert par


Maupertuis en 1744 [62] après le comportement ponctuel F = m exposé par Newton
en 1687 [110], constitue une extension des lois du mouvement de Newton [103].

136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle
La notion d'échelle est une abstraction humaine dont la nature n'a que faire. L'homme
s'en sert pour mieux se représenter les situations et les phénomènes, notamment
lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que quelque chose
est "grand" ou "petit" par rapport à autre chose ; dans chaque situation elle applique
la loi d'évolution qui convient : elle prend en compte l'ensemble des paramètres qui
s'appliquent, que l'homme considère cet ensemble comme local ou global,
macroscopique ou microscopique.

Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car
elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la nature.
Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après le principe
d'identité [16].

3.3.3.7 Déterminisme des algorithmes et calculabilité


En plus des phénomènes régis par les lois physiques naturelles, le déterminisme
scientifique s'applique à l'ensemble des processus dont le résultat peut être fourni par
un algorithme [69], processus que les informaticiens qualifient de calculables. De tels
processus respectent :
 La condition nécessaire et suffisante ci-dessus, si la cause comprend l'existence
de l'algorithme et de ses données, ainsi que le lancement du calcul ;
 La règle de stabilité et reproductibilité, si l'algorithme est stable dans le temps
parce qu'il n'y a ni influence extérieure sur sa logique ou ses données, ni
autoprogrammation.

L'intérêt pratique des algorithmes vient de leur aptitude à modéliser un processus réel
dans des domaines aussi variés que la physique ou la dynamique d'une population.
Cette modélisation permet à la fois d'expliquer des phénomènes constatés et de
prévoir des évolutions : ses modèles sont déterministes.

Qu'il ait pour but de comprendre quelque chose, de prévoir une évolution et son
résultat ou de démontrer une proposition, un raisonnement d'une science exacte prend
toujours la forme d'un algorithme. Un algorithme étant par nature déterministe, un tel
raisonnement l'est toujours. Nous verrons plus bas qu'il existe des cas où l'on peut
démontrer à la fois qu'un nombre existe et qu'on ne peut pas le calculer ; la
démonstration d'existence est alors un algorithme déterministe auquel on ne pourra
jamais associer un algorithme de calcul de valeur.

3.3.4 Compléments sur le déterminisme philosophique


Selon cette doctrine, tous les événements de l'Univers - y compris les actions
humaines - s'enchaînent dans le temps comme suit. En appelant S(t) la situation (l'état)
d'un système à l'instant t ; S(t-a) sa situation à l'instant "t-a" qui précède t ; et S(t+b)
sa situation à l'instant "t+b" qui suit t, alors :
 S(t-a) est la seule situation à l'instant t-a qui a précédé et entraîné S(t) ;
 S(t+b) est la seule situation à l'instant t+b qui résulte de S(t).

Le déterminisme philosophique est une interprétation du principe de causalité que


nous avons vu, et qui est défini par une condition nécessaire et suffisante.

137
Selon le déterminisme philosophique, appelé aussi "déterminisme de Laplace" [200] :
 La chaîne de causalité reliant diverses situations qui se suivent dans le temps
est unique (il n'y a ni processus parallèles, ni rupture de la chaîne de causalité).
 L'avenir est écrit d'avance et prédictible ;
 Le passé d'une situation donnée peut être reconstruit en pensée sans ambiguïté.
 Dans la mesure où on est certain à l'instant t de la situation S(t), le déterminisme
philosophique permet à la fois d'énoncer l'enchaînement d'événements après la
situation S(t-a) qui a conduit à S(t), et de prédire que S(t+b) se produira à
l'instant t+b.

Selon le déterminisme philosophique, la chaîne explicative remonte dans le temps


indéfiniment ; mais selon certains philosophes elle remonte jusqu'à une situation
initiale appelée parfois « cause ultime » ou « cause première ». Voir aussi [16]) et la
définition de Spinoza d'une chose libre et d'une chose déterminée [225].

3.3.4.1 Critique de l'enchaînement des causes et des conséquences

3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution

Pluralité des évolutions passées possibles


En général, à l'instant t, on ne sait pas quelle était la situation S(t-a) à l'instant t-a, faute
de disposer d'un « film historique » des S(t), et faute de connaître parfaitement la loi
d'évolution qui a conduit à S(t) ; plusieurs situations S1(t-a), S2(t-a)… peuvent avoir été
l'origine unique de S(t). Exemple : si, après une opération arithmétique (déterministe,
car calculable) je sais seulement que le résultat est 4, je ne sais pas si l'opération était
2 x 2 = 4, ou 3 + 1 = 4, ou…
L'explication et la prédiction des situations S(t-a), S(t) et S(t+b) sont de type
externe aux phénomènes, dont elles ne font que décrire l'enchaînement : le
déterminisme correspondant peut être qualifié de factuel. Il n'est ni une preuve de
la nécessité d'un phénomène, ni un éclairage sur son sens ou sa nature interne ;
il ne permet donc pas toujours de comprendre le pourquoi ou le comment d'un
phénomène.

Pluralité des évolutions futures possibles


Nous verrons que plusieurs lois d'évolution sont possibles à partir d'un point de
bifurcation de l'espace des phases. Nous verrons aussi, par la suite, qu'en physique
quantique il existe des évolutions produisant plusieurs résultats en même temps, dont
la coexistence est appelée « superposition », résultats qui finissent par se réduire à un
seul par une évolution finale, irréversible, appelée « décohérence ». La nature choisit
alors un des résultats possibles, sans que nous puissions savoir d'avance lequel.
Conséquences :
 La conséquence d'une cause donnée peut, en physique quantique, être un
ensemble de conséquences, dont la nature retient un seul résultat, ou dont elle
retient tous les résultats ensemble pendant un court instant !

138
Du point de vue causalité, les deux énoncés suivants sont équivalents :
 Une cause donnée a une conséquence (évolution) unique pouvant produire
un ensemble de résultats simultanés ;
 Une cause donnée a un ensemble de conséquences simultanées, chacune
pouvant produire un résultat unique.
 Cette pluralité contredit le déterminisme philosophique, car elle remplace la
chaîne de conséquences unique par une arborescence de conséquences ; et
comme l'existence d'un seul contre-exemple fait qu'une loi proposée est fausse,
le déterminisme philosophique doit être considéré comme réfuté.

3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme


philosophique
En physique les transformations réelles sont irréversibles, et seules des
transformations idéales, théoriques, sont réversibles (permettant aussi l'évolution en
sens inverse) ; nous abordons ce point plus bas. Mais dans ce cas aussi nous pouvons
affirmer que le déterminisme philosophique est contredit par l'existence de
transformations irréversibles, pour lesquelles on ne peut imaginer ni un changement
de sens du temps, ni l'instant de la transformation et la situation à cet instant.
Exemple : lorsqu'un atome de corps radioactif s'est décomposé spontanément, il
ne peut pas se reconstituer à partir des atomes produits et des photons émis, la
thermodynamique l'interdit ; et après avoir trouvé des produits de décomposition,
nous ne pouvons connaître ni l'atome dont ils proviennent (qui n'existe plus), ni
l'instant de cette décomposition, ni la position exacte de l'atome qui s'est
décomposé.

Un autre cas particulier de transformation irréversible est celui de la mesure en


physique quantique, cas que nous abordons maintenant.

3.3.4.2 Déterminisme, mesures et objectivité


En physique quantique toute mesure modifie l'état quantique de l'objet mesuré ; et on
démontre qu'une mesure réversible, c'est-à-dire sans modification de son objet, est
inconcevable. De ce fait, et contrairement à l'habitude en physique macroscopique, en
physique quantique l'interprétation d'une expérience ne peut pas être indépendante
du dispositif expérimental.

Certains philosophes en ont déduit que le résultat d'une expérience de physique


quantique ne pouvait être objectif, puisqu'il dépend de l'expérimentateur. C'est là une
erreur : le fait qu'un résultat dépende des détails d'un dispositif expérimental n'entraîne
pas qu'il dépend de la personne qui expérimente ! Si un autre expérimentateur refait
la même expérience, il obtiendra les mêmes résultats que le premier ; non seulement
cela a été vérifié en physique (quantique ou non) des milliers de fois, mais on n'a
jamais changé un résultat en changeant d'expérimentateur sans changer le dispositif
expérimental : le déterminisme joue bien, l'objectivité de la connaissance des
phénomènes et des résultats est possible.

L'erreur de ces philosophes résulte peut-être de leur idéalisme, qui cherche à prouver
l'existence d'une idée abstraite à la base de toute réalité concrète, pour nier celle-ci ou
en faire une production de l'esprit humain ou divin. Ils déduisent donc de l'intervention

139
obligatoire et déterminante de l'expérimentateur - qu'ils ont affirmée à tort - que la
réalité objective n'existe pas, puisqu'elle n'existe qu'à travers l'expérimentateur ! Un
exemple d'une telle erreur d'idéaliste est donné plus bas.

3.3.4.3 Déterminisme et libre arbitre de l'homme


Pour un tenant du déterminisme qui se veut cohérent, l'homme n'est pas libre de ses
choix ; toute décision d'action à l'instant t dépend du contexte à cet instant-là (l'homme
lui-même, avec son corps et les valeurs qui orientent ses décisions, ainsi que ce qui
l'entoure). S'il fait du mal, l'homme n'est pas responsable, puisque ses actions sont
conséquences de circonstances dont il n'est pas maître ; et il ne peut pas, non plus,
se glorifier d'une bonne action. Malgré son esprit qui le croit libre (parce qu'il peut
décider librement en fonction de ses valeurs qu'il ne maîtrise pas), l'homme est comme
une machine, un automate asservi au contexte matériel. Le déterminisme est donc
une doctrine matérialiste.

La thèse d'absence de libre arbitre de l'homme est combattue par de nombreux


philosophes, qui n'arrivent pas à admettre que l'homme soit une sorte de machine, que
la vie et la pensée soient un ensemble de phénomènes soumis au déterminisme
physique de la nature. Voici ce que le mathématicien René Thom écrit dans [226] :
"Si l'on essaye d'analyser pourquoi les esprits manifestent une telle réticence à
l'égard du déterminisme, on peut, je crois, invoquer deux grandes raisons :
1. Il y a d'abord ceux qui tiennent à sauver le libre arbitre humain. […]
2. Il y a enfin le groupe de ceux qui se sentent opprimés par la montée
croissante des technologies, par la collusion de la science et du pouvoir. […]"
La thèse d'absence de libre arbitre est aussi combattue par des matérialistes
athées, comme André Comte-Sponville dans le court texte commenté dans [2].

Le fonctionnement de la conscience humaine est décrit dans [339], où on trouvera


aussi une réfutation de la croyance en une nécessaire transcendance de l'esprit.
Nous approfondirons le sujet de la liberté et du libre arbitre de l'homme plus bas.

3.3.4.4 Conclusions critiques sur le déterminisme traditionnel


Retenons pour résumer que :
 Le déterminisme traditionnel implique :
 une évolution certaine reliant cause et conséquence(s) ;
 un enchaînement de situations prévisibles conforme aux lois de la nature.
 Le caractère déterministe traditionnel s'oppose donc :
 à l'imprévisibilité : selon le déterminisme traditionnel, celle-ci ne peut résulter
que d'une méconnaissance du phénomène ;
 aux comportements aléatoires de la nature, en opposant déterminisme (à
évolution et résultat prévisibles) et hasard (imprévisible) ; certains tenants du
déterminisme traditionnel admettent pourtant l'existence de hasard,
circonstances où la nature peut se comporter de manière imprévisible :
ils ne sont pas, alors, à une contradiction près !
 à la possibilité de conséquences multiples simultanées d'une même cause.

140
 Enfin, en tant que doctrine matérialiste, le déterminisme nie l'existence de
phénomènes qui font intervenir des causes surnaturelles (transcendantes), c'est-
à-dire externes à notre Univers ou échappant à ses lois physiques. Il refuse
d'envisager une éventuelle intervention surnaturelle dans l'apparition et le
déroulement des phénomènes, ainsi qu'une finalité éventuelle imposée au
déroulement des phénomènes par un Esprit transcendant qui dominerait la
matière.

Croire au déterminisme est une attitude rationnelle [210], scientifique, qui postule
l'existence d'une réalité objective indépendante de toute idée et opinion humaines et
la possibilité pour l'homme de la trouver, souvent par approximations successives
résultant de critiques. Cette attitude s'oppose à la croyance dans des vérités révélées
sans preuve (et d'ailleurs infalsifiables [203]) par une religion ou une philosophie,
vérités qui prétendent expliquer le monde et comptent sur l'intuition ou l'obéissance de
certains pour les convaincre, au lieu d'en appeler à leur raison et leurs connaissances
factuelles, vérifiables et objectives.

3.4 Pourquoi ce texte et les efforts qu'il suppose


Ce long texte demande aux lecteurs plus que des efforts de lecture et de patience ;
il leur demande d'accepter de remettre en cause leurs connaissances sur le
déterminisme et le hasard. Les buts sont :
 La connaissance des phénomènes physiques d'évolution les plus importants,
pour en saisir le déterminisme et s'en servir pour les décisions d'action ;
 La compréhension du fait que dans la nature les évolutions sont déterministes, le
hasard et l'indétermination n'apparaissant qu'à l'échelle atomique ;
 La prise en compte des limites de la possibilité de prédire les évolutions et leurs
résultats.

Ce savoir doit favoriser une attitude d'ouverture, d'objectivité et d'honnêteté


intellectuelle. Voici ce qui à mon avis justifie ces efforts des lecteurs, et ceux qu'il m'a
fallu pour l'écrire.

3.4.1 Inconvénients de l'ignorance, avantages de la connaissance


L'homme évalue toute situation en éprouvant des sentiments parce qu'il ne peut pas
s'en empêcher, comme Freud Jung et Sartre l'ont remarqué. L'ignorance entraîne
l'incompréhension, qui entraîne, selon les cas :
 De la frustration pouvant aller jusqu'à un sentiment d'injustice et de la révolte.
Nous savons, par exemple, que la plupart des jeunes qui deviennent des
trafiquants de drogues, des incendiaires de voitures et des apprentis terroristes
ne comprennent rien à notre société. Leur vocabulaire est alors de l'ordre de 1000
mots, moins que celui compris par certains singes dressés. Et comme la pensée
organisée ne se forme qu'avec des mots, ils ne disposent pas des concepts
nécessaires pour comprendre ce qui se passe. Ils se sentent donc exclus de notre
société, méprisés et sans avenir, d'où leur révolte ; et comme ils n'ont pas les mots
pour l'exprimer, leur violence est physique et parfois barbare.

141
 Une perte d'estime de soi (car « on n'est pas à la hauteur ») et des tendances
nihilistes (rien n'a de valeur, rien ne mérite d'effort et de respect).
 L'impossibilité de prendre une décision ou l'obligation de décider sans savoir,
donc de prendre un risque non calculé.

Les peurs irraisonnées


L'incompréhension peut aussi provoquer une inquiétude pouvant aller jusqu'à la peur.
Avez-vous remarqué à quel point beaucoup de gens ont peur de « l'autre » ? En fait,
ils ont peur de ce qui, chez lui, est différent : sa couleur de peau, sa force physique,
l'attitude de rejet des conventions sociales qu'ils devinent à sa coiffure ou ses
vêtements, sa religion « qui produit des terroristes », etc.

La première cause d'une telle peur est l'ignorance : tout homme a instinctivement peur
de ce qu'il ne connaît pas, notamment lorsqu'il imagine alors le pire. Et la peur entraîne
souvent le rejet de l'autre, le refus de le respecter, de dialoguer avec lui, de lui faire
confiance, de lui offrir du travail ; c'est une des sources de l'exclusion, de la xénophobie
et du racisme.

Beaucoup de Français ont une peur irraisonnée des nourritures contenant des OGM.
Ils ne savent pas que, rien qu'en Amérique du Nord, plus de 400 millions de personnes
en mangent depuis les années 1980 sans qu'aucune pathologie n'en ait résulté.
Beaucoup ont aussi peur des ondes radio des téléphones portables, de l'énergie
nucléaire, etc.
Nous sommes le seul peuple à s'être ridiculisé en mettant dans notre Constitution
le « principe de précaution », qui oblige l'Etat à intervenir en cas de danger
environnemental grave, comme s'il fallait une telle loi pour faire respecter l'évidence.
Ce principe a servi à des juges pour faire démonter des antennes de téléphonie
simplement parce que des riverains en avaient peur : merci, président Chirac !

Beaucoup de Français redoutent l'économie de marché et la mondialisation par


ignorance de leurs mécanismes. Ils ne savent pas à quel point leur niveau de vie en a
profité, sur quels points elles constituent le meilleur système économique et sur quels
autres points elles ont besoin d'être encadrées. Ils ne savent pas, mais ils les rejettent
car ils en ont peur. Et ils se laissent abuser par les politiciens, les syndicalistes et les
journalistes qui profitent de cette peur pour influencer leur opinion.

Savoir paie
Des études sociologiques approfondies ont montré que la plus grande longévité des
intellectuels (cadres, enseignants, professions libérales…) par rapport aux travailleurs
manuels ne vient pas, comme l'affirment les syndicats, d'une différence de pénibilité
du travail. Elle vient d'une différence d'instruction : connaissant mieux les règles
d'hygiène de vie que les manuels, les intellectuels ont une meilleure santé qui entraîne
une plus grande longévité ; en notre siècle, celui qui ne sait pas vit moins bien et moins
longtemps.

Celui qui comprend peut :


 Avoir la satisfaction de comprendre et de participer aux événements en tant
qu'acteur au lieu de les subir, donc avoir de l'estime de soi ;

142
 Accumuler une expérience utile et espérer en avoir de plus en plus avec le
temps ; et savoir, c'est pouvoir ;
 Prendre la meilleure décision possible, d'où un sentiment de satisfaction (savoir
est indispensable pour être satisfait).

Soumission aux faits ou aux injonctions religieuses


Celui qui comprend accepte plus facilement les situations sur lesquelles il n'a pas prise
que celui qui ne comprend pas. Si ces situations lui sont défavorables, il comprend
dans quelle mesure exacte il en est responsable, il peut agir, ou il peut en tirer une
expérience qui lui servira peut-être un jour.

La possibilité d'être acteur de sa vie, d'être responsable au moins en partie de son


avenir est infiniment plus satisfaisante que la soumission à une volonté divine ou
politique qu'on doit accepter sans compréhension ni justification. Pour un matérialiste,
Dieu est d'abord le refuge psychologique de l'ignorant, qui trouve en lui consolation,
promesse de bonheur après la mort, et incitation à accepter son sort car « Dieu l'a
voulu » ; Marx résumait cela en écrivant que « la religion est l'opium du peuple » [112].

3.4.2 Ambition limitée de ce texte


Avec la définition donnée, une description complète et détaillée de la manière d'agir
du déterminisme scientifique comprendrait nécessairement l'ensemble des lois de la
physique, c'est-à-dire l'ensemble des lois de l'Univers. Et là il y a des problèmes.

Un énoncé ne peut ni se décrire lui-même ni se comparer à lui-même


Une description complète de l'Univers (sous une forme physique comme un texte écrit)
se comprendrait elle-même, ce qui est impossible.

Cette contrainte d'impossibilité est très générale : aucun énoncé ne peut se décrire lui-
même ou se comparer à lui-même, par exemple pour se juger par rapport à la vérité.
Toute description d'une notion doit se faire à partir d'autres notions ; toute comparaison
d'un objet a besoin de faire référence à au moins un autre objet. (Voir détails et solution
dans [220].)

Cette impossibilité ne concerne pas, bien évidemment, les descriptions internes de


l'Univers. On peut énoncer des lois de l'Univers comme la relation fondamentale de la
dynamique F = m qui relie entre elles 3 variables toutes définies dans l'Univers, la
force F, la masse m et l'accélération . Lorsqu'une telle description interne constitue
une loi scientifique, celle-ci est basée sur une axiomatique [67], elle aussi interne à
l'Univers. Le caractère universel d'une loi n'est jamais prouvé, il est postulé jusqu'à ce
qu'un contre-exemple éventuel le remette en question.

La connaissance scientifique de l'Univers est nécessairement incomplète et basée


sur des postulats
L'impossibilité d'auto-description complète a une conséquence fondamentale en
matière de connaissance scientifique de l'Univers : celle-ci n'existe - pour nous qui
sommes dans l'Univers - que sous forme d'énoncés (de lois, de valeurs de constantes,
etc.) écrits dans des langages à axiomatique [67] dont les axiomes sont supposés
connus, compris sans autre description et admis. Ces axiomes ne peuvent pas se
décrire eux-mêmes ; ils ne peuvent pas, non plus, se comparer à eux-mêmes ;

143
description et comparaison nécessiteraient des énoncés à axiomatique externe à
l'Univers (inconcevable pour nous, êtres de l'Univers) ou faisant référence à une vérité
absolue (à supposer que celle-ci existe, débat que nous abordons dans [220]).

L'ensemble des énoncés basés sur les axiomes est donc nécessairement incomplet :
notre connaissance scientifique de l'Univers ne peut ni être complète, ni contenir des
connaissances externes à cet Univers, ni comparer des concepts scientifiques de
notre Univers à des concepts ou des vérités qui seraient externes ou absolus comme
Dieu, Ses qualités et Ses pouvoirs.

Pourtant chaque homme a conscience de lui-même et peut se décrire [339] ;


il peut se comparer à d'autres hommes, ou comparer ses qualités et possibilités à des
valeurs morales et aux possibilités d'autres êtres vivants ou à celles de machines, etc.
Nous en conclurons simplement que la conscience de l'homme ne fonctionne pas
souvent de manière scientifique. (Détails : Le rationalisme critique de Karl Popper.)

3.5 Le déterminisme en physique


Ce chapitre rappelle d'abord quelques notions et lois physiques utiles pour comprendre
les implications du déterminisme en matière de compréhension et de prédiction du
comportement de la nature, c'est-à-dire pour raisonner juste en matière d'évolution
d'un système physique.

Il aborde ensuite des phénomènes et lois dont la description et l'application exigent


des extensions du déterminisme scientifique traditionnel, à titre d'exemples de telles
extensions et de leur nécessité.

3.5.1 Système et état


On appelle état d'un système à un instant t l'ensemble des valeurs des variables qui
le décrivent. Un système matériel est ainsi décrit par des variables de composition
(ensemble des éléments qui le constituent), de forme, de position, de mouvement,
d'interaction, de masse, de charge électrique, d'impulsion [20], de spin [22], etc.
Certaines variables, dites externes, décrivent la relation du système à son
environnement ; exemples : sa masse et sa charge électrique. D'autres variables sont
internes, comme les forces de liaison entre ses divers composants. Certaines
variables sont de type numérique, d'autres de type vectoriel, d'autres encore de type
booléen (vrai/faux, on dit aussi logique), etc.

3.5.1.1 Degrés de liberté d'un système


C'est le nombre minimum de valeurs indépendantes nécessaires pour décrire toutes
les variables du système. Par exemple, un point matériel (pesant) en mouvement a :
 3 degrés de liberté pour décrire sa position à un instant donné, car il faut 3
coordonnées x, y et z dans le repère du système.
 3 degrés de liberté pour décrire son vecteur vitesse à un instant donné, car ce
vecteur a 3 composantes selon les axes du repère.

Si le système comporte un très grand nombre X de points matériels (exemple : les


milliards de milliards de molécules d'un gaz contenues dans un petit récipient, où elles

144
s'agitent sans cesse du fait de leur température) il faut 6X variables pour décrire toutes
les positions et vitesses des molécules du système, qui a 6X degrés de liberté.

Le nombre de degrés de liberté peut être réduit par des contraintes comme :
 L'obligation de se déplacer à la surface d'une sphère (la position n'a plus, alors,
que deux degrés de liberté, appelés par exemple longitude et latitude) ;
 L'obligation de tourner autour d'un axe, comme un pendule oscillant, dont la
position peut être décrite par une seule variable, l'angle avec la verticale.

Plus généralement, si l'état d'un système est décrit par N variables et C contraintes,
on dit qu'il a N-C degrés de liberté.

3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté


Il existe une loi de Mécanique statistique dite d'équipartition de l'énergie, qui s'énonce
ainsi :
"Dans un gaz ou un liquide en équilibre thermique à la température absolue T
[121] (c'est-à-dire qui n'échange pas de chaleur avec l'extérieur du récipient qui
le contient), chaque molécule possède une énergie cinétique moyenne égale à
½kT par degré de liberté, où k est la constante de Boltzmann [122],
k = 1.38066 .10-23 joule par degré Kelvin. Et puisqu'il y a 3 degrés de liberté de
vitesse, chaque molécule a une énergie cinétique moyenne de 3/2kT."

Conséquences
 Agitation thermique - Mouvement brownien des molécules
Nous avons déjà vu que l'énergie cinétique d'un atome ou d'une molécule
est proportionnelle à sa température absolue. Celle-ci étant toujours
supérieure au zéro absolu, atomes et molécules ne peuvent s'empêcher de
bouger ! Dans un solide, chaque atome vibre et/ou oscille autour d'une
position moyenne. Dans un liquide ou un gaz, où chaque molécule est
entourée de vide, les diverses molécules bougent sans cesse en
s'entrechoquant et en rebondissant sur les parois de temps en temps : on dit
qu'elles sont en mouvement brownien. Il est remarquable que les chocs
entre les molécules et sur les parois soient parfaitement élastiques et sans
perte d'énergie par frottement, et que la température soit une cause
nécessaire et suffisante de mouvement : tout cela n'avait rien d'intuitif et
notre déterminisme doit en tenir compte.
 L'énergie cinétique d'une molécule ne dépend pas de la masse moléculaire,
résultat qui n'a rien d'intuitif puisqu'on aurait tendance à penser qu'une molécule
plus lourde emmagasine plus d'énergie cinétique qu'une plus petite. C'est ainsi
qu'une molécule d'oxygène pesant 16 fois plus qu'une molécule d'hydrogène a la
même énergie cinétique qu'elle à une température T donnée. Comme une
énergie cinétique donnée Ec est reliée à la masse m et la vitesse v par la formule
Ec = ½mv2, à une masse 16 fois plus grande correspond une vitesse moyenne 4
fois plus petite, car 42 = 16 : à température égale, une molécule d'oxygène se
déplace 4 fois moins vite qu'une molécule d'hydrogène.

145
Equipartition de l'énergie potentielle
La règle d'équipartition de l'énergie s'applique aussi à l'énergie potentielle éventuelle
des molécules (due par exemple à un champ de force comme un champ électrique ou
un champ gravitationnel [313]) : chaque degré de liberté associé à une énergie
potentielle apporte, lui aussi, une énergie de ½kT, portant donc l'énergie totale à 3kT
par molécule ou atome de solide. C'est ainsi qu'un atome d'un corps à l'état solide qui
vibre autour de sa position moyenne a une énergie moyenne totale de 3kT, cette
vibration permanente et sans frottement étant la manifestation de la température du
solide. L'énergie potentielle affectant les atomes du solide est due aux forces de liaison
entre ces atomes en équilibre, forces attractives et répulsives.

3.5.2 Espace des phases – Stabilité des lois physiques d'évolution


A un instant donné t, l'ensemble des valeurs des N variables scalaires [126] qui
décrivent l'état d'un système peut être représenté par un point dans un espace à N
dimensions appelé « espace des phases ». Ainsi, lorsqu'un objet ponctuel se déplace
dans l'espace habituel à 3 dimensions, ses coordonnées sont x, y, z et les
composantes de sa vitesse en ce point sont les dérivées par rapport au temps x', y',
z' ; les 6 coordonnées de l'espace des phases sont alors x, y, z, x', y', z'. Lorsque le
point se déplace, ces 6 coordonnées sont des fonctions du temps et le déplacement
est associé à une courbe de l'espace des phases dont chaque point correspond à un
certain instant t. Lorsque les variables d'état sont toutes des variables de position,
l'espace des états est parfois appelé « espace de configuration » : c'est l'ensemble
des états possibles au sens position - ou parfois (position + vitesse) ou
(position + quantité de mouvement) - que le système peut atteindre.

Exemples d'évolution dans l'espace des phases


Exemple 1 : la position d'un pendule simple de longueur l qui se balance sans
frottement de part et d'autre de la verticale est repérée par l'angle  qu'elle fait avec
cette verticale. La vitesse de variation de  est sa dérivée ' par rapport au temps. Le
mouvement est décrit par l'équation différentielle :

𝑑2 𝑔
+ 𝑠𝑖𝑛 = 0
𝑑𝑡 2 𝑙

Cette équation, non linéaire à cause du sinus, le devient lorsque, l'angle  étant petit,
on peut l'assimiler à son sinus ; le mouvement prend alors la forme :

 = 0 cos(t + ) d'où ′ = −0 sin(t + )

Dans un espace des phases rapporté aux axes  et ' avec des unités judicieusement
choisies, la courbe d'évolution dans le temps de l'angle du pendule est un cercle,
parcouru une fois à chaque période d'oscillation (figure suivante).

146
'

-0 0 

Exemple 2 : l'état du volume intérieur à un cylindre de moteur à explosion, où brûle le


mélange combustible, peut être caractérisé à chaque instant par la pression p qui y
règne et le volume v du cylindre délimité par la position du piston. L'espace des phases
peut alors être rapporté à deux axes, "pression" et "volume". Lorsque le moteur tourne
et le piston se déplace, sa position à un instant t correspond à un point de coordonnées
(v, p) de l'espace des phases.

147
P

A B

Diagramme thermodynamique théorique ABCDEBA du cycle d'un moteur à 4 temps


Ce diagramme est fermé, le cycle commencé en A revient en A

Nombre d'axes, dimension et degrés de liberté d'un espace des états


Si le système considéré comprend n points matériels, indépendants ou soumis à des
interactions, il faut N = 6n variables pour en décrire l'évolution de l'état
position + vitesse dans l'espace des phases : celui-ci doit être de dimension 6n. Si les
6n variables sont indépendantes, l'espace des phases a 6n degrés de liberté ; si les
6n variables sont liées par 2 relations, on dit qu'il a 6n-2 degrés de liberté, etc.

3.5.2.1 Représentation de l'évolution d'un système


Nous avons vu dans les deux exemples ci-dessus que l'évolution du système dans le
temps est représentée par un déplacement de son point représentatif dans l'espace
des phases : ce point y décrit une courbe paramétrée par la variable de temps t. Dans
les deux exemples ci-dessus le système était périodique, et l'évolution de l'état d'un
tel système au cours d'un cycle est une courbe fermée. Dans le cas général, il n'y a
qu'une seule courbe d'évolution passant par un point donné de l'espace des phases :
l'évolution à partir de tout point est unique, c'est un effet du déterminisme. Deux
courbes d'évolution séparées de l'espace des phases restent toujours distinctes, sans
intersection. Nous reviendrons sur ce point à propos des lignes de force.

148
Chaque point de l'espace des phases représente l'état du système à un instant donné.
Ces états ne sont pas nécessairement équiprobables : à un instant donné t, ou entre
deux instants t1 et t2, chaque point isolé P a une certaine probabilité d'être atteint et
chaque point non isolé Q (c'est-à-dire entouré d'autres points associés à des états
possibles) a une certaine densité de probabilité associée [28].

Notation habituelle : coordonnées généralisées


On a l'habitude de désigner par qi (i=1, 2…n) les n coordonnées de l'espace de
configuration (dites coordonnées généralisées), et par q'i (i=1, 2…n) les n dérivées par
rapport au temps des coordonnées qi (dites vitesses généralisées).
Exemple : les x et x' précédents seront désignés respectivement par q1 et q'1 ; les
y et y' précédents seront désignés respectivement par q2 et q'2.

3.5.2.1.1 Evolution d'un système représentée par des équations différentielles


Un système matériel décrit par un ensemble de n coordonnées généralisées
qi (i=1, 2…n) définies dans un espace de configuration, ainsi que par les vitesses
généralisées correspondantes q'i (i=1, 2…n), évolue souvent selon une loi décrite par
un système d'équations différentielles. L'évolution est alors complètement déterminée
par la donnée des conditions initiales, positions qi et vitesses q'i : elle est déterministe
au sens traditionnel, la donnée des conditions initiales entraîne une évolution unique.

Importance de la stabilité d'une évolution


L'évolution régie par ce déterminisme mathématique est un modèle fidèle de l'évolution
physique si elle est stable, c'est-à-dire si des conditions initiales voisines produisent
des évolutions voisines, ne s'écartant guère de l'évolution théorique ; cette condition
est indispensable pour tenir compte de l'imprécision qui affecte toujours les paramètres
d'un système physique.
Nous avons vu à propos du chaos que l'évolution de certains systèmes
déterministes n'est pas stable : elle est si sensible à l'imprécision des conditions
initiales qu'elle devient imprévisible après un certain temps ; la prédiction de l'évolution
est meilleure si on la calcule un instant après le départ. Nous verrons plus bas le cas
des systèmes conservatifs.

3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution


Définition : dans un champ de vecteurs quelconque, on appelle ligne de force toute
courbe dont la tangente en tout point a la direction du champ en ce point.
Exemple : les lignes de force du champ d'un aimant sortent de son pôle nord et
entrent dans son pôle sud ; des particules de fer s'alignent le long de ces lignes
de force, comme le montre la figure suivante, issue de Encyclopædia Britannica :

149
Particules de fer alignées le long des lignes de force du champ d'un aimant rouge

Dans l'espace des phases d'un système, chaque courbe représentant une évolution
dans le temps est une ligne de force de l'espace : en tout point d'une telle courbe,
l'évolution se fait selon la tangente en ce point.
 En général cette tangente est unique, sauf éventuellement en un petit nombre de
points singuliers comme :
 Un point d'équilibre, où le système n'évolue pas ;
 Un point de bifurcation, où la loi d'évolution change en fonction d'un
paramètre externe.
L'unicité de la tangente en tout point non singulier de la courbe d'évolution d'un
système illustre une propriété de son déterminisme : le modèle mathématique
représentant l'évolution du système a une solution unique, une situation donnée
ne peut évoluer que d'une seule façon.
 Lorsqu'une situation donnée peut évoluer de plusieurs façons distinctes, les
évolutions possibles sont représentées par des courbes distinctes de l'espace
des phases. A partir d'une certaine situation, correspondant par exemple à une
valeur critique d'un paramètre, l'évolution peut présenter une bifurcation, avec
des branches distinctes issues d'un même point ; elle peut aussi présenter une
discontinuité. Au-delà de ce point, elle se poursuit selon une courbe ou une
autre, la courbe choisie dépendant de la valeur du paramètre critique.
C'est le cas, par exemple, pour des écoulements de fluides dont le paramètre
critique est le nombre de Reynolds [293], proportionnel à la vitesse ; selon la
valeur de ce nombre, l'écoulement peut être turbulent ou non ; il peut même
produire des oscillations périodiques de pression à la fréquence du décrochement
des tourbillons, oscillations que l'on entend par exemple dans le bruit des
éoliennes ; mais de toute manière, il reste déterministe.

150
3.5.2.3 Stabilité de l'évolution d'un système conservatif
Lorsqu'un système conservatif évolue, ses états successifs décrivent une courbe
(ligne de force) de l'espace des phases à 2n dimensions rapporté aux coordonnées :
positions généralisées qi (i=1,2…n) et moments cinétiques généralisés pi (i=1,2…n).
Le théorème de Liouville démontre que, lors de cette évolution, l'aire d'un petit élément
de surface qipi de l'espace des phases se conserve, sans nécessairement que
l'élément de surface conserve la même forme ; cette aire reste la même qu'à l'instant
initial t0 de l'évolution. Des conditions initiales d'évolution très voisines sont
représentées par des points très voisins de l'espace des phases, points qu'on peut
englober dans un élément de surface petit ; lors de l'évolution, l'aire de cet élément se
conserve et reste petite.
 Dans un espace des phases qui n'a que deux dimensions, q et p, la conservation
de l'aire d'un petit élément de surface au cours de l'évolution a pour
conséquence que des trajectoires d'évolution parties de points voisins restent
proches. Il y a là une forme de stabilité : une petite variation des conditions
initiales n'entraîne qu'une variation petite des évolutions correspondantes.
 Mais dans un espace des phases qui a plus de deux dimensions, quatre par
exemple, la conservation de l'aire d'un petit élément de "surface" q1p1q2p2
peut aussi être obtenue lorsque cet élément rétrécit fortement pour un couple de
variables tout en s'allongeant fortement pour l'autre. C'est le cas, par exemple, si
q1 varie dans le temps comme e at tandis que q2 varie comme e-at, le produit
eate-at restant égal à 1. Deux trajectoires d'évolution parties de points très
proches peuvent alors diverger considérablement au bout d'un certain temps,
traduisant une instabilité du système par hypersensibilité aux conditions initiales.
Cette propriété mathématique a des conséquences physiques souvent
spectaculaires.

3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système


L'évolution d'un système conservatif décrite par un ensemble d'équations
différentielles est bien toujours déterministe, mais il existe des cas où elle est stable
par rapport à une petite variation des conditions initiales et d'autres où elle est instable.
Une petite variation des conditions initiales peut provenir d'une imprécision
expérimentale comme d'une interaction négligée, et impacter alors la stabilité de
l'évolution.

Une prédiction d'évolution par extrapolation à partir de conditions où une évolution est
stable risque donc d'être gravement faussée lorsqu'elle concerne des conditions où
l'évolution est instable sans qu'on le sache. Même une prédiction par interpolation
risque d'être fausse si elle se base sur deux points A et B de l'espace des phases où
les lois d'évolution sont différentes, par exemple parce qu'il y a un point critique entre
A et B.

Il est évident que les prédictions par extrapolation et interpolation supposent la stabilité
des lois d'évolution, qui fait partie des hypothèses de base du déterminisme
scientifique ; oublier cette contrainte conduit à des erreurs de raisonnement. Les
paragraphes suivants montrent des cas d'instabilité d'une loi physique d'évolution.

151
3.5.2.5 Système dissipatif par frottements - Attracteur
Beaucoup de systèmes physiques qui évoluent sont soumis à des frottements,
internes ou externes, qui leur font perdre de l'énergie. Exemple : lorsque le pendule
simple de l'exemple 1 précédent est soumis à une force de frottement proportionnelle
à sa vitesse angulaire et de sens opposé, son évolution dans l'espace des phases
rapporté aux axes  et ' est décrite par une spirale qui converge vers l'origine ='=0
lorsque t∞ : l'oscillation finit par s'arrêter.

Il est très remarquable, alors, que les courbes d'évolution dans l'espace des phases
convergent toujours vers le même point, l'origine, quelles que soient les conditions
initiales ; ce point est appelé « attracteur ». En outre, l'aire d'un petit élément de
surface de cet espace diminue en moyenne au cours d'une évolution, propriété
cohérente avec la convergence des courbes d'évolution vers un attracteur. Comme
dans le cas des systèmes conservatifs, cette diminution en moyenne d'aire peut avoir
lieu avec divergence dans une direction de l'espace et convergence plus rapide dans
une autre.

Ce phénomène de convergence de toutes les évolutions d'un système dissipatif par


perte d'énergie vers un même point attracteur de l'espace des phases est très général.
En outre, ce point est indépendant des conditions initiales de l'évolution : un pendule
finit toujours par s'arrêter au point le plus bas de ses oscillations.

Par contre, l'évolution d'un système conservatif dépend des conditions initiales et ne
converge pas vers un attracteur.

Définitions : attracteur de l'espace des phases et bassin d'attraction


On appelle « attracteur de l'espace des phases » d'un système la zone dans laquelle
se trouvera le point représentatif de son état après un temps très long, c'est-à-dire
lorsque t∞. La portion de l'espace des phases d'où partent toutes les courbes
d'évolution aboutissant à un attracteur donné est appelée « bassin d'attraction » de cet
attracteur.

3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite


Il est fréquent qu'un système dissipatif échange de l'énergie avec l'extérieur, à la fois
en lui cédant de l'énergie et en recevant de l'énergie, tout en ayant une évolution
périodique. Dans l'espace des phases, il existe alors une courbe d'évolution unique,
fermée et stable par rapport aux conditions initiales, appelée cycle limite par Poincaré,
courbe vers laquelle tendent toutes les courbes d'évolution. Ce cycle limite est un
attracteur de toutes les courbes d'évolution dans l'espace des phases : quelle que soit
la position du début d'une courbe d'évolution, celle-ci tend toujours vers cet attracteur
lorsque t∞.
Exemple : le diagramme ci-dessous, d'après [291], montre à sa partie supérieure
l'équation dite de Van der Pol, qui décrit l'évolution d'un oscillateur à la fois
entretenu (apport d'énergie) et amorti (perte d'énergie). La courbe oscillante en
bleu décrit l'évolution de la variable oscillante x dans le temps. La courbe spirale
rouge inférieure montre l'évolution dans le plan des phases rapporté aux axes x
et v/ω0. L'évolution converge vers le cycle limite (courbe rouge en trait gras),
indépendant des conditions initiales.

152
Discussion déterministe
Du point de vue du déterminisme scientifique, il arrive qu'une loi d'évolution :
 Dont on ignore la convergence vers une loi-attracteur, ou qu'on considère avec
un horizon de prévision d'évolution assez court, ne respecte pas le critère de
stabilité dans le temps. On doit alors la considérer comme non déterministe.
 Dont on sait qu'elle converge vers une loi-attracteur, peut être considérée
comme déterministe dans le cadre d'une prévision d'évolution à long terme.

Exemple. Un satellite placé sur une orbite basse perd peu à peu de l'altitude du fait du
frottement avec la haute atmosphère. Son orbite, elliptique sur quelques semaines, est
en fait une spirale descendante ; sa vitesse de descente accélère même au fur et à
mesure que son altitude lui fait rencontrer des couches d'air plus denses. Pour le
maintenir le plus longtemps possible sur l'orbite désirée (et pour contrôler son
orientation) on prévoit d'éjecter un peu de gaz de temps en temps, mais le réservoir
de gaz s'épuise tôt ou tard, limitant la durée de vie du satellite.

3.5.2.7 Système à évolution quasi périodique


Lorsque l'évolution temporelle d'un système peut être caractérisée par plusieurs
variables qui ont, chacune et indépendamment, une évolution périodique à une
certaine fréquence, l'évolution du système est alors qualifiée de « quasi périodique ».
Le caractère périodique ou quasi périodique est indépendant du caractère conservatif
ou dissipatif.
Exemple. Soit un système de coordonnées astronomiques centré au centre du
Soleil et dont les axes sont fixes par rapport aux étoiles lointaines. Dans ce repère,
la position d'un point à la surface de la Terre présente quatre périodes d'évolution
(en négligeant les perturbations induites par l'attraction des autres planètes) :
 La période d'évolution due à la rotation de la Terre autour de son axe (une
journée, soit 24 heures) ;

153
 La période d'évolution due à la rotation de la Terre autour du Soleil (une
année, soit 365.2425 jours) ;
 La période d'évolution due au mouvement de précession de l'axe de rotation
de la Terre, qui décrit un cône en 25800 ans ;
 La période d'évolution due au mouvement de nutation de l'axe de rotation de
la Terre, mouvement qui le fait osciller légèrement de part et d'autre de son
cône moyen de précession (période 19 ans).

Lorsqu'un système à évolution quasi périodique est dissipatif, l'évolution converge vers
un attracteur torique. C'est ainsi que l'évolution d'un système à deux fréquences de
base converge vers une courbe attracteur tracée à la surface d'un tore dans l'espace
habituel à 3 dimensions ; la courbe a deux fréquences de rotation : celle autour de
l'axe du tore et celle autour de la ligne centrale de son "cylindre".

3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation


Une évolution quasi périodique est déterministe, comme une évolution périodique : à
partir de conditions initiales données et d'un modèle d'évolution représenté par un
système d'équations différentielles, on peut calculer cette évolution au moins
numériquement de proche en proche, et la prédire aussi longtemps à l'avance que l'on
veut.

Il existe une méthode mathématique de caractérisation de l'évolution d'un système


permettant de déterminer sa prédictibilité, c'est-à-dire la possibilité de déterminer la
valeur d'une de ses variables, x(t + k) à l'instant t + k, connaissant la valeur x(t) à
l'instant t. Cette méthode consiste à étudier la variation d'une fonction dite
d'autocorrélation temporelle, C(k), qui caractérise la similitude des valeurs de x(t + k)
avec ses valeurs antérieures x(t). Si C(k)0 lorsque t∞ l'évolution n'est pas
prédictible ; elle n'est ni périodique ni même quasi périodique, elle n'a aucune
régularité. Au contraire, si C(k) reste non nul à long terme, l'évolution présente une
régularité qui la rend prédictible.

3.5.2.9 Imprédictibilité et hasard


En pratique, il est impossible de distinguer une évolution dont on a constaté
l'imprédictibilité (éventuellement par calcul d'autocorrélation) d'une évolution au
hasard, si on ne connaît pas la cause du phénomène qui évolue ou si son
déclenchement n'est pas suffisamment reproductible pour que son déroulement le soit
aussi. C'est pourquoi beaucoup de scientifiques et de philosophes des sciences
attribuent au hasard des évolutions déterministes à résultat imprédictible, comme
celles que leur nature chaotique rend sensibles aux conditions initiales. Ils confondent
alors imprécision sur ces conditions et évolution au hasard, erreur signalée dans
l'introduction et due à une connaissance insuffisante des phénomènes. Dans le cas de
la sensibilité aux conditions initiales, les mesures de variables initiales sont distribuées
selon des lois statistiques, et c'est là que le hasard intervient, pas dans les
conséquences d'évolution qu'en tire la nature. En pratique, une précision limitée de la
connaissance du présent entraîne toujours une précision limitée de la prévision du
futur.

Si on connaît une évolution par une suite de valeurs mesurées à des instants
successifs, qu'on ne connaît pas la cause de cette évolution, et que la suite de valeurs
ne présente aucune régularité au test d'autocorrélation, on peut être tenté de l'attribuer

154
à un hasard postulé. S'il s'agit d'un phénomène naturel, il faut pourtant se garder de le
faire, ces phénomènes relevant tous du déterminisme étendu, où le hasard n'intervient
qu'en tant que choix d'un élément d'un ensemble de solutions du modèle du
phénomène ou en tant que conséquence d'un excès de complexité ; et l'évolution du
phénomène peut être apériodique ou chaotique, nous le verrons plus bas. Il vaut donc
mieux chercher scientifiquement à comprendre le phénomène.

3.5.2.10 Systèmes apériodiques – Attracteurs étranges


Lorsque l'évolution à long terme d'un système n'est ni périodique ni quasi périodique,
elle est dite apériodique. Elle ne présente alors aucune régularité permettant de prévoir
un état futur connaissant un ou plusieurs états du passé ; sa fonction d'autocorrélation
tend alors vers zéro quand t∞. L'évolution d'un tel système n'est prévisible qu'à court
terme, et à condition d'en connaître la loi au moins expérimentalement.
Le déterminisme étendu régit même des lois de la nature à évolution apériodique ;
il le fait en décrivant ces lois le mieux possible en fonction des progrès
scientifiques.

Systèmes apériodiques dissipatifs - Attracteurs étranges - Déterminisme chaotique


On démontre qu'une courbe représentant l'évolution temporelle d'un système dissipatif
dans un espace des phases possédant au moins 3 dimensions (correspondant à au
moins 3 degrés de liberté) converge vers un attracteur d'un type particulier appelé
« attracteur étrange ». Cet attracteur a les propriétés suivantes :
 L'attracteur étrange est une courbe de dimension fractale (non entière) inférieure
au nombre de dimensions de l'espace des phases, comprise entre 2 et 3 dans le
cas d'un espace des phases à 3 dimensions.
 Deux trajectoires d'évolution sur l'attracteur, partant de points aussi proches que
l'on veut, divergent : au bout d'un temps donné, parfois court, elles atteignent
des points de l'attracteur qui peuvent être bien plus éloignés que leurs points de
départ.
Connaissant le point de départ d'une évolution (sur l'attracteur) avec une précision
parfaite, cette évolution est déterministe et calculable pour un avenir aussi lointain
que l'on voudra. Mais la moindre erreur sur ces conditions initiales peut entraîner
des différences d'évolution importantes (exemple 1, exemple 2).
Il y a là une sensibilité extrême aux conditions initiales, sensibilité qui rend
imprévisible en pratique, avant son début, la fin d'une évolution commencée sur
l'attracteur, faute d'une précision infinie ; on peut seulement affirmer que le point
représentant son état restera quelque part sur l'attracteur. L'évolution est alors dite
« déterministe chaotique », et il ne peut exister d'algorithme utilisable prédisant
l'état (la valeur d'une variable impactée par l'évolution) à l'instant t + k connaissant
l'état à l'instant t, faute de stabilité par rapport aux conditions initiales. Par contre,
un instant même court après son début, une évolution commencée sur l'attracteur
a un déroulement et une fin parfaitement prévisibles. Enfin, la connaissance de
l'état actuel ne permet de reconstituer aucun état passé.

Un tel attracteur est dit « étrange » parce que la dissipation d'énergie y fait converger
les courbes d'évolution en même temps que la sensibilité extrême aux conditions
initiales y fait diverger des évolutions commençant en des points très voisins.

155
Le chaos déterministe est donc un type d'évolution dont le résultat est calculable, mais
seulement quand il est trop tard, ce qui le rend inutilisable. Cette évolution n'est pas
quelconque (au hasard), elle respecte la position sur l'attracteur étrange (quand le
système est dissipatif) et les lois physiques, notamment celles de la thermodynamique.

Systèmes apériodiques conservatifs


Le phénomène de chaos déterministe peut aussi affecter des systèmes conservatifs :
la sensibilité aux conditions initiales n'est pas réservée aux systèmes dissipatifs.
Exemple : problème des trois corps.

Exemple d'évolution vers un attracteur étrange : le système de Lorenz


Pour tenter de comprendre pourquoi les prévisions météorologiques étaient si peu
fiables, le météorologue Edward N. Lorenz [294] modélisa la convection naturelle (air
chaud qui monte, air froid qui descend) en la simplifiant beaucoup. Il aboutit au
système d'équations différentielles suivant :

𝑑𝑥
= 𝑝( 𝑦 − 𝑥 )
𝑑𝑡
𝑑𝑦
= −𝑥𝑧 + 𝑟𝑥 − 𝑦
𝑑𝑡
𝑑𝑧
= 𝑥𝑦 − 𝑏𝑧
𝑑𝑡

où x, y et z sont les coordonnées dans un espace des phases à 3 degrés de liberté, p


est le nombre de Prandtl, b est un facteur de forme et r un paramètre de contrôle
proportionnel au nombre de Rayleigh [293]. Ce système d'équations non linéaires est
déterministe, mais il est impossible à intégrer analytiquement dans le cas général, ses
solutions (calculées point par point en ordinateur) sont chaotiques, les courbes
d'évolution tendent vers un attracteur étrange, et une évolution commencée sur cet
attracteur a une extrême sensibilité aux conditions initiales. Cette sensibilité explique
l'impossibilité d'une prévision météorologique à long terme, la situation initiale ne
pouvant jamais être connue avec une précision absolue.

Nous avons donc là un exemple d'évolution déterministe chaotique et imprédictible.

3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique


Il arrive que le changement de valeur d'un paramètre d'une loi d'évolution provoque un
changement de nature de la solution du modèle mathématique de cette loi lorsque
cette valeur franchit une certaine valeur, qualifiée de critique ; on peut ainsi, par
exemple, passer d'une solution stationnaire à une solution périodique, ou sauter d'un
bassin d'attraction à un autre.

Dans un espace des états où l'un des axes représente le paramètre à valeur critique
, et un autre axe une grandeur caractéristique x de la loi d'évolution considérée, la
courbe représentant x en fonction de  présente une bifurcation au point critique =c ;
cette bifurcation peut présenter deux ou plusieurs branches. Le point critique est un
point singulier du diagramme des phases. Une bifurcation correspond à la transition
d'un premier bassin d'attraction avec son attracteur à un autre bassin d'attraction avec
son attracteur.

156
Il peut ainsi arriver que, tant que <c, un système dissipatif évolue vers un point
attracteur, et dès que >c il évolue vers un cycle limite. La valeur =c est appelée
valeur critique du paramètre . Lorsque celui-ci franchit la valeur c, la solution des
équations d'évolution change. Ce changement peut être progressif, par exemple
lorsque la courbe d'évolution du système passe de la convergence vers un point
attracteur à la convergence vers un cycle limite de taille ponctuelle, qui grossit à
mesure que  s'éloigne de c. Le changement peut aussi faire passer d'une évolution
stable à une évolution instable, où l'une des variables de l'espace des états grandit
indéfiniment. On voit aussi sur l'exemple de la bifurcation le danger d'extrapoler ou
interpoler. Au sujet des bifurcations, voir aussi la turbulence [300].
Exemple. Le diagramme des phases d'un corps pur comme l'eau ci-dessous
représente les courbes de changement d'état en fonction du couple de variables
température et pression :
1 – courbe de sublimation
2 – courbe de fusion
3 – courbe de vaporisation
Pour une température et une pression au-delà du point critique, le changement de
phase entre liquide et gaz se produit sa façon continue, sans qu'une surface
séparatrice apparaisse. Au point triple, les trois phases coexistent.

Pression

Etat
Etat 2 liquide point
solide critique

point Etat
1 triple gazeux

Température

Diagramme des phases d'un corps pur comme l'eau

Il peut, enfin, arriver que le paramètre  présente une valeur critique c1 lorsque 
augmente, et une autre valeur critique, c2, lorsque  diminue. Cela se produit, par
exemple, lorsqu'il y a surfusion d'une eau très pure qui reste liquide à une température
inférieure à sa température de solidification à la pression donnée (courbe 2 du
diagramme ci-dessus) ; la surfusion cesse (l'eau se transforme brusquement en glace)
lorsque la température atteint environ -40°C ou lorsqu'on agite l'eau.

Sur le plan déterminisme, retenons que le respect de la règle de stabilité de la loi


d'évolution est une condition importante, qu'on ne peut négliger. Nous avons vu un

157
exemple d'instabilité de loi d'évolution en cosmologie : l'expansion de l'Univers
accélère depuis quelques milliards d'années. Voir aussi [313].

3.5.3 Etat quantique d'un système


L'état quantique d'un système à un instant donné est l'ensemble des valeurs de ses
variables de Mécanique quantique à cet instant-là ; il est décrit par sa fonction d'onde.
C'est ainsi que l'état quantique d'un électron comprend ses variables de position, de
vitesse et de spin [22]. Toutes ces variables sont scalaires [126]. Comme l'état
quantique représente tout ce qu'on peut savoir sur le système à l'instant donné (toute
l'information à son sujet) il prend en compte toutes les variables ; il n'y a pas de variable
supplémentaire (cachée) qui pourrait nous apprendre quelque chose de plus sur le
système ; sa taille atomique (de l'ordre de 1 Å = 10-10 m) et ses contours flous le
rendent invisible : on dit que la Mécanique quantique est complète. Elle décrit tout ce
qu'on peut savoir sur l'évolution d'un système avec des équations.

Deux électrons ont même masse et même charge électrique, caractéristiques qui sont
constantes et identiques pour tous les électrons, donc ne sont pas des variables, donc
ne font pas partie de leur état quantique. On peut distinguer deux électrons seulement
par une différence d'état quantique, c'est-à-dire une différence de position, de vitesse
ou de spin. Même remarque pour deux protons ou d'autres paires de particules : deux
particules de même type sont toujours identiques, interchangeables, elles ne diffèrent
que par une ou plusieurs valeurs de variables de leur état quantique.

3.5.3.1 Vecteur d'état


Les variables de l'état quantique d'un système à un instant donné constituent les
composantes d'un vecteur appelé vecteur d'état.

3.5.3.2 Espace des états


Les vecteurs d'état d'un système qui intéressent les physiciens ne sont pas
quelconques : ils appartiennent à un espace vectoriel [127] abstrait appelé « espace
des états » du système. Les vecteurs de cet espace ont des composantes qui varient
avec le temps si le système évolue.

Lorsque nous aborderons plus bas l'équation de Schrödinger, nous désignerons le


vecteur d'état associé à la fonction d'onde (r) par une notation due à Dirac |>,
appelée « ket psi ».

3.5.3.3 Réalité physique et représentation dans l'espace des états


La réalité physique d'un système nous est accessible par l'intermédiaire d'une
représentation mentale mathématique, élaborée en utilisant nos concepts, nos
méthodes d'abstraction et notre intuition.
C'est là un postulat matérialiste, point de vue systématiquement retenu dans ce
texte, par opposition à un point de vue idéaliste, comme celui de Platon, qui
n'accorde de réalité qu'à des Idées et prétend que la réalité physique est
inaccessible à l'homme.

La physique atomique moderne va plus loin : elle postule que :


 L'état d'un système est représenté par un vecteur de l'espace des états, vecteur
qui constitue tout ce que l'on peut savoir du système ;

158
 L'évolution de ce vecteur d'état dans le temps représente tout ce que l'on peut
savoir de l'évolution du système.

Ces postulats reviennent à affirmer que la seule réalité physique, objective et digne de
confiance pour prédire les évolutions, qui nous soit accessible lorsqu'il s'agit de
l'échelle microscopique, est cette représentation mathématique ; aucune
représentation issue de nos sens ou de notre intuition n'est suffisamment objective et
précise pour comprendre et prévoir, notamment pour les échelles infiniment petite et
infiniment grande par rapport à l'homme.
En somme, puisqu'il est impossible de voir un électron ou sa trajectoire, nous
devons faire confiance à la représentation mathématique qu'en donne la
Mécanique quantique. Puisqu'il est impossible de voir la courbure de l'espace
astronomique, nous devons faire confiance aux équations de la Relativité
Générale [328]. Puisqu'il est impossible de voir un trou noir, nous devons déduire
sa présence et sa masse des effets qu'il a sur l'espace environnant et sa matière.

Et lorsque nous verrons, dans la suite de ce texte, que cette représentation de la réalité
est souvent probabiliste, quantifiée, et plus généralement inaccessible à l'intuition née
de nos sens (quand elle ne la contredit pas carrément), nous devrons l'accepter quand
même, parce qu'elle a fait ses preuves par la qualité des explications de la réalité et
des prédictions de son évolution qu'elle fournit, et qu'elle n'a jamais été démentie.

Polémique
En matière de connaissance scientifique, les personnes qui refusent de « croire les
mathématiques » pour s'en tenir aux intuitions issues de leurs sens font preuve de
rigidité intellectuelle et d'excès de confiance en leur jugement. Elles postulent que
l'Univers est suffisamment simple pour que l'homme le comprenne d'instinct, ou que
l'homme est suffisamment génial pour que toute connaissance puisse être basée sur
ce qu'il sent ou imagine. Elles persistent dans leur erreur parce qu'elles ne mettent pas
leur représentation du monde à l'épreuve de la réalité, à laquelle elles croient moins
qu'à leur imagination et à leurs préjugés. (Voir le paragraphe "Intuition d'abord,
justification après" et l'exemple).

3.5.3.4 Espace des phases d'un champ et espace des états associé
Jusqu'ici nous avons considéré un système comprenant un nombre fixe n de
constituants, par exemple n points matériels pesants, et nous avons défini son
évolution dans l'espace des phases en fonction du temps. Cet espace des phases
avait un nombre fini de dimensions, par exemple 6n pour représenter les 6
composantes des positions et des vitesses des n points matériels.

Considérons à présent un champ, région de l'espace où règnent à la fois (par exemple)


des influences gravitationnelle, électrique et magnétique. Ce champ a une infinité de
points géométriques. En chaque point P on peut décrire l'état du champ par 3 vecteurs,
un pour le champ gravitationnel, un pour le champ électrique et un pour le champ
magnétique. L'ensemble de ces 3 vecteurs constituera le vecteur d'état (global) du
champ considéré en P, vecteur d'état qui a pour composantes les 9 composantes
scalaires [126] des trois vecteurs champ gravitationnel, champ électrique et champ
magnétique selon trois axes Ox, Oy et Oz de l'espace des états du champ.

159
Pour décrire l'état de l'infinité des points de l'espace des phases du champ, l'espace
des états associé aura un nombre infini de dimensions, à raison de 9 dimensions pour
chaque point géométrique du champ. Ce sera un espace vectoriel [127].

Retenons donc que la représentation de l'état et de l'évolution d'un système


comprenant un nombre fixe de constituants par un espace des états peut être utilisée
pour un champ comprenant une infinité de points.

3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes


La théorie physique traditionnelle d'équipartition prévoit que l'énergie disponible dans
un système se répartit uniformément entre tous ses degrés de liberté : c'est là une
conséquence de l'homogénéité de l'espace. Lorsqu'il y a un champ de force dans une
région de l'espace, par exemple un champ électromagnétique agissant sur des
particules chargées comme des électrons ou des protons, ce champ a un nombre infini
de points, donc un nombre infini de degrés de liberté à côté duquel le nombre de
degrés de liberté fini des électrons et protons d'un atome donné est négligeable.
Chaque degré de liberté d'un atome donné devrait ainsi être associé à une
quantité infiniment faible d'énergie. Par conséquent, si les électrons d'un atome étaient
des corpuscules matériels munis d'une masse (comme les expériences le prouvent)
ils devraient avoir une énergie cinétique de rotation infiniment faible, donc une vitesse
trop faible pour que la force centrifuge associée leur permette d'équilibrer l'attraction
électrostatique du noyau ; ils devraient donc tomber instantanément sur leur noyau,
rendant tout atome instable !

Cette instabilité des atomes - supposés avoir une structure "planétaire" composée d'un
noyau central positif autour duquel tournent des électrons négatifs - est prédite aussi
par les lois de Maxwell [123]. D'après celles-ci, les électrons – charges électriques
tournant autour d'un noyau - devraient émettre des ondes électromagnétiques, donc
perdre de l'énergie emportée par ces ondes ; cette perte d'énergie les ferait s'écraser
rapidement sur le noyau.

Ces théories traditionnelles de l'atome construit selon un modèle planétaire (répartition


uniforme de l'énergie entre les degrés de liberté, ondes électromagnétiques suivant
les équations de Maxwell) ont donc un problème que nous allons à présent aborder.

3.5.4 Les contradictions de la physique traditionnelle et de son


déterminisme
Les atomes sont stables, sinon notre Univers n'existerait pas ! La physique
traditionnelle, établie et vérifiée au niveau macroscopique et statistique, ne s'applique,
hélas, pas telle quelle au niveau atomique, nous venons de le voir. Ses lois
déterministes, si remarquablement précises et générales, sont fausses à cette échelle
minuscule où certains résultats sont probabilistes. Et le problème est très grave
puisque le postulat fondamental du caractère absolu de l'espace et du temps, admis
par Newton dans ses lois du mouvement [110] et par Maxwell dans sa théorie de
l'électromagnétisme [123], est contredit par l'expérience de Michelson et Morley, qui a
montré en 1887 que le postulat d'additivité des vitesses est faux lorsque l'une des
vitesses est celle de la lumière.

En 1900, la physique butait aussi sur le désaccord entre les résultats du calcul des
échanges d'énergie électromagnétique par rayonnement entre un corps chaud et un

160
corps froid, et les observations expérimentales. Cette contradiction ne fut résolue que
lorsque Max Planck proposa, cette année-là, que l'on considère la quantité d'énergie
d'une émission d'ondes de fréquence  comme discontinue, multiple d'un minimum h
où apparaît une constante universelle, le quantum d'action h, ce qui fait de cette
énergie une grandeur quantifiée. Cette approche ouvrit la porte à la physique
quantique.

Puis, en 1905, Einstein utilisa la théorie de Planck pour décrire les échanges d'énergie
entre lumière et électrons constatés dans l'effet photoélectrique, ce qui lui valut le prix
Nobel [60]. Une des conséquences de ces travaux était considérable : les ondes
électromagnétiques, donc la lumière, avaient à la fois un caractère ondulatoire (par
définition) et corpusculaire, ce qui contredisait la physique classique et son
déterminisme ! Ce déterminisme traditionnel finit d'être jeté bas la même année,
lorsqu'Einstein - encore lui - publia la théorie de la Relativité Restreinte [49], qui met
un terme au caractère absolu de l'espace et du temps de la physique newtonienne à
la base de ce déterminisme.

3.5.5 Des forces physiques étonnantes


Tout le monde sait depuis Newton [110] que l'attraction universelle entre deux corps
est inversement proportionnelle au carré de leur distance. L'attraction électrostatique
(ou magnétique) entre deux charges électriques (ou magnétiques) de signes opposés
(décrite par la loi de Coulomb [341]) est aussi inversement proportionnelle au carré de
leur distance. Ces champs de forces "en 1/d2" présents partout semblent être une règle
de la nature.

Hélas il n'en est rien, et la Mécanique quantique que nous aborderons plus bas
explique certaines lois pour le moins surprenantes, dont voici des exemples.
 La force de Casimir due à la polarisation du vide avec apparition de paires
particule-antiparticule est "en 1/d4".
 La loi de Van der Waals qui décrit l'attraction électrique entre deux atomes ou
molécules neutres assez proches est "en 1/d7", produisant des forces
extraordinairement intenses à courte distance (quelques angströms). Ces forces
sont dues aux fluctuations quantiques des dipôles électriques formés par deux
atomes voisins, qui s'attirent alors du fait d'une force dite "faible".
Ces forces sont responsables de la cohésion entre molécules de liquides. Elles
expliquent aussi l'aptitude d'un petit lézard, le gecko, à marcher sur n'importe
quelle surface solide en y adhérant facilement. Il peut ainsi marcher sur la face
inférieure d'une plaque horizontale de verre parfaitement lisse, à laquelle ses
pattes adhèrent grâce à des poils incroyablement fins (moins de 0.25 micron de
diamètre) dont les molécules attirent celles de la plaque de verre grâce aux forces
de Van der Waals.
 La force de répulsion moléculaire due au potentiel de Lennard-Jones est en
"1/d12". Elle apparaît quand il y a superposition des nuages de charge de deux
systèmes atomiques.
 La force nucléaire agit de manière attractive entre quarks du noyau atomique
pour en maintenir la cohésion sous forme de protons et neutrons, bien que deux
protons ayant des charges de même signe tendent à se repousser ; le quantum
d'interaction correspondant est appelé gluon [18].

161
Sa portée est très faible (environ 1 fermi = 10-15 m, un dixième du rayon d'un
noyau atomique [137]) et son intensité augmente avec la distance ! (Détails)

J'ai cité ces forces étonnantes pour illustrer le fait que le déterminisme n'a rien
d'évident ou d'intuitif lorsqu'on veut comprendre les lois physiques et prédire certains
comportements, et qu'il faut souvent recourir à la Mécanique quantique pour expliquer
ce qui se passe.

3.5.6 L'évolution nécessite une interaction avec échange d'énergie


L'évolution d'un système matériel sous l'action de forces ou d'un champ (électrique,
de gravitation, etc.) exige un échange d'énergie entre des parties du système et/ou
avec l'extérieur. Cet échange se produit dans le cadre d'une interaction [18] entre
parties du système et/ou entre le système et son environnement. La science qui étudie
les échanges dus à l'influence d'un champ (par opposition à l'influence d'une force de
contact) est la Théorie des champs.
La théorie classique des champs est née avec la description par Faraday puis
Maxwell de l'influence d'un courant électrique, propagée par des ondes
électromagnétiques, sur un autre courant ou une charge électrique. Exemple :
théorie du champ électrique de Coulomb [341].
La théorie quantique des champs est née avec la quantification par Planck des
échanges d'énergie électromagnétique, tous multiples de h (h est la constante
de Planck) pour une fréquence  donnée, échanges réalisés par des particules
appelées photons [117] porteuses des forces d'attraction et répulsion. Exemple :
électrodynamique quantique.

Le processus d'échange entre un système et un champ comprend trois étapes :


 (1) Rayonnement du champ par sa source ;
Exemple 1 : une lampe électrique émet de la lumière, champ électromagnétique
qui transporte l'énergie de ses photons, particules sans masse. Un photon de
fréquence  a une énergie quantifiée égale à h joules.
Exemple 2 : un ressort qui pousse une masse exerce sur elle une force par
l'intermédiaire de champs électromagnétiques au niveau atomique, où ils assurent
la cohésion de la matière dans le ressort et dans la masse.
 (2) Propagation du champ dans la matière ou dans le vide, à une vitesse
inférieure ou égale à la vitesse de la lumière dans le vide, c (il n'y a pas d'action
physique instantanée mettant en jeu de l'énergie, la Relativité l'interdit) ;
Dans l'exemple 1, la lumière se propage à partir de la lampe.
Dans l'exemple 2, les champs de cohésion du ressort liés aux atomes de celui-ci
se propagent jusqu'au contact des atomes de la masse, liés par leurs propres
champs de cohésion.
 (3) Absorption du champ par la cible.
Dans l'exemple 1, un atome de la cible éclairée par la source absorbe un photon
[117], par exemple, ce qui le fait passer dans un état supérieur d'énergie
potentielle. Ou un corpuscule touché par le photon reçoit une impulsion [20] qui
modifie sa quantité de mouvement [20], donc son énergie cinétique.

162
Dans l'exemple 2, le champ de cohésion du ressort exerce une force
électrostatique de pression sur les atomes de la masse ; le champ de cohésion de
la masse exerce une force de réaction sur les atomes du ressort, égale à la
précédente et de sens opposé.
Dans les deux exemples ci-dessus, les champs des processus d'interaction sont
toujours de type électromagnétique. En fait, il existe quatre types de champs de
force (voir [18]).

Il y a absence d'échange d'énergie lorsqu'aucune force ou champ n'intervient, comme


dans le mouvement rectiligne uniforme d'un système soumis à sa seule inertie, où
l'évolution est un simple déplacement sans poussée ni frottement.

3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états


Nous allons maintenant étudier successivement plusieurs phénomènes physiques
d'évolution dont les lois contredisent le déterminisme scientifique traditionnel, qu'il faut
donc étendre pour en tenir compte sous forme de déterminisme statistique, qui
complète le déterminisme scientifique pour en faire un déterminisme étendu.

3.5.7.1 Notions de Mécanique quantique


La Mécanique quantique est un ensemble d'outils mathématiques destinés à la
physique de l'infiniment petit, au niveau atomique, c'est-à-dire à une échelle de
dimension et de distance de l'ordre de taille d'un atome : 1 angström (Å) = 10-10 m. Ces
outils permettent le calcul et la modélisation des systèmes physiques en évolution ou
stables ; ils ne constituent pas une science expérimentale de l'infiniment petit, rôle que
tient la physique quantique [325]. (Détails sur les postulats de la Mécanique
quantique).

L'outil Mécanique quantique n'est justifié que par la rigueur de ses démonstrations et
l'adéquation à la réalité physique de ses modèles mathématiques. Cette adéquation
est prouvée par la vérification, faite d'innombrables fois, que les résultats des calculs
de Mécanique quantique sont conformes à la réalité expérimentale, que ce soit pour
expliquer une expérience qu'on vient de faire, ou prédire le résultat d'une expérience
qu'on va faire. En somme, la Mécanique quantique est une science mathématique ;
elle a la rigueur de toute science exacte.

Non seulement la Mécanique quantique modélise bien la réalité physique au niveau


atomique, mais c'est notre seule façon de "voir", de comprendre et de prévoir ce qui
se passe à cette échelle-là. En somme, nous voyons ce monde minuscule à travers
des équations et des fonctions, qui décrivent et prédisent le comportement de ses
particules avec une fidélité parfaite, compte tenu des inévitables erreurs et contraintes
expérimentales.

La Mécanique quantique représente une avancée scientifique considérable par


l'étendue de ses conséquences et la qualité de ses prédictions. Elle fournit aujourd'hui
l'explication fondamentale de la stabilité des atomes et molécules, de leurs échanges
d'énergie à la base des lois de la chimie, des phénomènes électromagnétiques comme
le laser et la finesse des lignes observées en spectroscopie, etc.

163
La Mécanique quantique nous oblige à réviser notre conception du déterminisme, si
nous voulons qu'il décrive toutes les conséquences des lois physiques de la nature.
Voici comment.

3.5.7.2 De la contingence à la probabilité


Depuis longtemps déjà, avant même qu'on parle de Mécanique quantique au XXe
siècle, les hommes ont dû compléter le concept philosophique de contingence par
celui de probabilité.
Définition : une chose est contingente lorsqu'elle est susceptible d'être ou de ne
pas être ; son existence ou inexistence ne résulte pas, alors, ni d'un
raisonnement logique ni d'une nécessité ou impossibilité physique.
Une situation que je constate en ce moment ne peut être contingente, puisque je
la constate, cela violerait le principe d'identité [16]. Elle a pu être contingente
dans le passé, tant qu'elle n'existait pas encore, mais elle ne l'est plus puisqu'elle
existe ; et (selon son évolution) elle sera peut-être contingente dans l'avenir.

Les hommes se sont aperçus que le concept de contingence ne suffisait pas pour
rendre compte de certaines situations, dont une description plus fidèle nécessitait une
probabilité d'existence. Exemple : si je lance un dé, le fait de sortir un 3 est contingent,
cela peut arriver ou non. Mais si je dis que la probabilité de sortir un 3 est d'une chance
sur six, je prédis le résultat du jet de dé avec plus de précision.

La Mécanique quantique utilise beaucoup les descriptions probabilistes. Elle montre,


par exemple, qu'on ne peut pas parler de position d'un électron à un instant donné,
mais de probabilité de position de cet électron à cet instant-là dans un espace de
dimension donnée autour d'un point précis. Si nous n'avions que la contingence
(« l'électron est en ce point ou il ne l'est pas ») la description de la réalité serait si
pauvre qu'elle serait inutilisable. Le concept de position précise d'une particule n'a pas
cours en Mécanique quantique, sinon en tant qu'approximation grossière.

L'évolution d'un système est calculée, en Mécanique quantique, à l'aide de lois


physiques parfaitement déterministes (au sens scientifique traditionnel) en utilisant un
formalisme appelé « hamiltonien » parce qu'il est basé sur l'énergie totale de la
particule. Lorsqu'on applique ces lois déterministes, le résultat d'évolution est
également parfaitement reproductible : une situation (état du système) donnée produit
toujours le même ensemble de comportements, décrits par un même ensemble de
résultats – ensembles qui ont en général plusieurs éléments, voire une infinité.
Exemple : dans une molécule d'ammoniac NH3 les 4 atomes sont reliés par des
forces électriques, les liaisons chimiques ; celles-ci imposent une structure où
l'atome d'azote N est à une certaine distance du plan des 3 atomes d'hydrogène
H, et à égale distance de chacun. Les calculs de Mécanique quantique montrent
qu'il y a 2 positions possibles de l'atome d'azote, de part et d'autre du plan des
atomes d'hydrogène, positions qui sont équiprobables et existent en même temps,
comme si l'atome d'azote oscillait entre elles : on dit que l'état de la molécule est
une superposition de deux états cohérents. (Détails)

L'ensemble des résultats d'évolution d'un système à partir d'un état initial ne décrit pas
un mouvement précis comme en mécanique classique, c'est-à-dire une trajectoire
définissant des positions successives précises à des instants précis. Il décrit

164
seulement, à chaque instant, des probabilités de présence et de vitesse de la particule
au voisinage de divers points de l'espace : la notion de trajectoire précise n'a plus
cours, comme dans la physique classique régie par le déterminisme traditionnel. Elle
est remplacée par une région de l'espace dont, à un instant précis, chaque point est
associé à une densité de probabilité de présence [28]. A chaque instant, la position de
la particule apparaît floue, elle est entachée d'imprécision ainsi que sa vitesse.

L'introduction de la notion de probabilité, mesurable par un nombre réel positif entre 0


et 1, est un progrès apporté par la démarche scientifique par rapport à la notion de
contingence des philosophes et au choix trop manichéen limité à "vrai" ou "faux".

3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes


Nous devons donc, pour respecter la réalité physique, compléter le déterminisme
traditionnel par la possibilité qu'une situation de départ précise produise, pendant et
après une évolution, de multiples résultats, chacun accompagné d'une probabilité.

La Mécanique quantique prédit qu'une situation de départ peut, à l'arrivée, donner un


ensemble de 1, 2, 3… ou même une infinité de résultats. (On peut aussi dire qu'elle
prédit un ensemble d'évolutions possibles, chacune donnant un résultat unique.)

Après un état initial précis, la position d'un corpuscule à un instant donné est floue
(autour d'un point de probabilité maximum) et sa vitesse est distribuée selon une loi
de probabilités autour d'une vitesse moyenne.

L'interprétation probabiliste de la position d'un corpuscule mobile à un instant donné


ne doit donc pas être « il est à une position précise que nous ne pouvons connaître
qu'assortie de sa probabilité ». Elle doit être « il est à la fois à toutes les positions d'un
ensemble prédéterminé, chacune affectée d'une probabilité » : on parle de positions
superposées. Notre conception habituelle d'une présence en un seul point à un instant
donné doit donc être étendue, dans le cas de la physique quantique, à une présence
simultanée en un ensemble de points où la probabilité totale est 1. Une photographie
théorique à temps de pose nul d'un corpuscule mobile serait donc floue.

Dire que « chaque point de l'espace a une densité de probabilité de présence de la


particule » [28] est conforme à la vérité ; c'est une représentation utile pour des
phénomènes comme l'effet tunnel.

Nous verrons plus bas que la nature interdit de concevoir la dimension ou la position
d'une particule pesante en mouvement avec une précision meilleure que sa longueur
d'onde de Compton c ; pour un proton, par exemple, l'imprécision minimum c est de
l'ordre de son diamètre.

3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique


Nous avons évoqué plus haut le Déterminisme statistique de l'échelle macroscopique.
En voici le complément indispensable, fondement de la physique quantique.

L'équation fondamentale de la Mécanique quantique, dite « de Schrödinger », qui


décrit l'évolution d'un système à l'échelle atomique dans le temps et l'espace, donne
des résultats multiples (voire une infinité) distribués selon une loi statistique. C'est une

165
équation déterministe, mais ses solutions étant distribuées statistiquement, on doit
parler d'un nouveau type de déterminisme, le déterminisme statistique.

Si dans une expérience de physique atomique nous mesurons une variable (dont la
valeur est un opérateur mathématique [278]), nous pouvons trouver une ou plusieurs
valeurs (appelées valeurs propres de l'opérateur [278]), la Mécanique quantique
précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous répétons la
même expérience un très grand nombre de fois en mesurant chaque fois la même
variable, nous constatons que chacun des résultats prévus par la théorie (chaque
valeur propre) apparaît un pourcentage prévu de fois ; selon l'expérience, les divers
résultats possibles sont parfois équiprobables et parfois associés à des probabilités
différentes.

Prédictions de résultats du déterminisme statistique


Le déterminisme statistique complète le déterminisme scientifique à l'échelle
atomique, en prédisant la distribution des résultats de mesures éventuelles et
l'évolution dans le temps et l'espace des valeurs des variables d'état d'un système.

Selon les postulats 3 et 4 de la Mécanique quantique, la mesure d'une grandeur


physique ne peut donner comme résultat qu'une des valeurs propres [278] de son
observable [30].
 Si le nombre de ces valeurs propres est fini (cas des variables discrètes),
chacune est affectée d'une probabilité de "sortir dans cette expérience" définie
par le postulat 4 (spectre discret).
 Si le nombre de ces valeurs propres est infini (variables continues), chacune est
affectée d'une densité de probabilité définie par le postulat 4 (spectre continu) ;
dans chaque volume dV autour d'une valeur propre [278], la probabilité que le
résultat soit dans ce volume est le produit de la densité par dV.

Stabilité du déterminisme statistique


Comme le déterminisme scientifique qu'il complète, le déterminisme statistique
respecte la règle de stabilité : pour une expérience donnée, l'ensemble des résultats
possibles est toujours le même.

3.5.7.3.2 Différence entre déterminisme statistique et hasard pur


Lorsque les résultats mesurés de l'évolution des variables d'état d'un système sont
distribués selon une loi statistique de probabilités dont les paramètres sont prévus par
la Mécanique quantique pour l'expérience considérée, ils ne relèvent pas du hasard
pur. Ces résultats (valeurs possibles de chaque variable d'état) appartiennent à un
ensemble prévu par la Mécanique quantique, chacun affecté d'une probabilité :
aucune valeur n'est quelconque. Plus précisément, cet ensemble est le spectre des
valeurs propres du dispositif de mesure : le hasard naturel est alors limité au choix
d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix ; nous avons déjà vu cela. Parfois un ensemble de résultats ne comprend que
des nombres entiers, parfois c'est un ensemble de nombres réels, ou de nombres
complexes, ou de vecteurs.

166
Exemple de résultats multiples d'une évolution par déplacement
Considérons l'expérience de Young de diffraction de la lumière monochromatique à
travers deux fentes, réalisée avec un faisceau si faible que ses photons [117] sont
émis un par un. Ces photons successifs arrivent sur l'écran en des points différents,
bien qu'ils soient tous produits et acheminés de manière identique : chaque position
de point est un résultat prédit par la Mécanique quantique avec une certaine probabilité
de se produire ; c'est là un comportement qui contredit le déterminisme traditionnel,
qui voudrait que tous les photons arrivent au même point.

Si le nombre de photons devient très grand, l'image globale formée par les impacts
donne bien des franges d'interférences, comme le prédit la théorie ondulatoire de la
lumière (voir schéma ci-dessous) : chaque photon est passé par les deux fentes à la
fois, les deux parties de son onde ajoutant ou soustrayant leurs amplitudes en tenant
compte des différences de phase, ce qui produit des franges d'interférence. Dans cette
expérience, un photon peut donc interférer avec lui-même.

Expérience de Young : diffraction de la lumière à travers deux fentes ("slits")


Sur l'écran ("screen") apparaissent des franges d'interférences

Un photon a une masse nulle [117], mais nous allons maintenant voir une possibilité
semblable de trajectoires simultanées pour des corpuscules pesants.

3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière


L'expérience de Young, réalisée ci-dessus avec des photons, peut aussi être réalisée
avec des atomes, de masse non nulle et même des molécules. Elle illustre un aspect
fondamental de la physique quantique : selon l'expérience, une particule de masse
non nulle peut tantôt être considérée comme un corpuscule de matière, tantôt comme
un « paquet d'énergie » propagé par une onde. Cette onde est analogue à l'onde
électromagnétique d'un photon, à cela près que c'est une onde de probabilité ; et c'est
la superposition de deux telles ondes résultant du passage par les fentes qui produit
le phénomène d'interférence.

167
Les ondes de matière de Louis de Broglie
Le physicien français Louis de Broglie a été récompensé en 1929 par un prix Nobel
pour avoir découvert les « ondes de matière » associées aux électrons (et aux
particules de matière en mouvement en général) et affirmé :
A toute particule matérielle de masse m et de vitesse v doit être associée une
onde stationnaire de matière de longueur d'onde  stable telle que :

h

mv

où h est la constante de Planck, h = 6.6261 .10-34 joule.seconde.

C'est ainsi que la longueur d'onde associée à un atome isolé de fer 56Fe se déplaçant
à 1000 m/s est de 7 fermis (1 fm = 10-15m), à peine moins que le diamètre de son
noyau, qui est de 9.2 fm [137]. Mais la longueur d'onde d'un objet de taille
macroscopique, même en déplacement lent, est si petite que ses propriétés
ondulatoires sont impossibles à mettre en évidence : pour un caillou de 20 g lancé à
10 m/s on trouve  = 3.3 .10-18 fm.

La théorie des ondes de matière explique le fait que des électrons ne peuvent parcourir
de manière stable, autour d'un noyau atomique, que certaines orbites avec des
niveaux d'énergie précis. Pour être stable (stationnaire), une onde doit avoir une
longueur d'onde de matière sous-multiple entier de la longueur de la trajectoire
circulaire d'un électron. De Broglie a pu ainsi retrouver et confirmer l'orbite de l'électron
d'un atome d'hydrogène calculée par Niels Bohr, avec son rayon de 0.529 Å.
(Dans l'hypothèse simplificatrice de Bohr, un électron d'un atome décrit des orbites
circulaires autour du noyau. L'existence des ondes de matière explique que cet
électron ne puisse parcourir que des trajectoires comprenant un nombre entier
d'ondes de matière, trajectoires qui correspondent à des états énergétiques bien
précis ; si la longueur d'une trajectoire ne correspondait pas à un nombre entier
d'ondes de matière, ces ondes s'annuleraient par interférences ; la trajectoire
étant alors instable, l'électron la quitterait pour une trajectoire stable.)

Une telle dualité onde-particule, impossible dans le cadre du déterminisme traditionnel,


est tout sauf intuitive : comment de la matière peut-elle aussi se comporter comme une
onde ? L'explication relève de la Mécanique quantique, et de son déterminisme
statistique. Pour avoir proposé cette théorie unificatrice en 1924, De Broglie peut être
considéré comme « le père de la Mécanique quantique ».

3.5.7.3.4 Trajectoire d'un corpuscule


Les résultats de la Mécanique quantique contredisent souvent notre intuition. Ils nous
obligent à comprendre la nature à travers des modèles mathématiques (voir détails).

Fonction d'onde
Au concept classique de trajectoire d'un corpuscule la Mécanique quantique substitue
celui d'état dépendant du temps t. Exemple : en négligeant le spin [22], l'état quantique
d'un corpuscule de masse non nulle tel que l'électron, avec ses composantes de
position et d'impulsion définissant un vecteur d'état, est caractérisé par une fonction

168
d'onde (r, t), prenant ses valeurs dans le corps des nombres complexes [126], qui
contient toutes les informations que l'on peut connaître sur le corpuscule ; dans (r, t),
la variable vectorielle r a pour composantes les coordonnées de position r x ; ry ; rz et la
variable t représente le temps (l'instant). Une fonction d'onde (r, t) donnée appartient
à un espace vectoriel dit "de Hilbert" [326].

La fonction d'onde évolue dans le temps de manière parfaitement déterministe au sens


traditionnel. Elle est interprétée comme une amplitude de probabilité de présence,
nombre complexe ayant un module et une phase. Les positions possibles, dont les
coordonnées définissent un vecteur r, forment un continuum (espace continu). La
probabilité pour que la particule soit, à l'instant t, dans un élément de volume
d3r = dxdydz autour du point r(rx ; ry ; rz) est proportionnelle à d3r et infinitésimale : on
la note dP(r, t). La densité de probabilité [28] correspondante est |(r, t)|² si l'on pose
dP(r, t) = C|(r, t)|² d3r, où C est une constante de normalisation définie par :

1
  |  (r, t) |2 d 3 r
C

Ne pas confondre le nombre réel positif ou nul densité de probabilité |(r, t)|² et le
nombre complexe amplitude de probabilité (r, t) : |(r, t)|² est le carré scalaire [127]
de (r, t), produit de (r, t) par son complexe conjugué *(r, t).

L'évolution dans le temps de l'état du corpuscule (notion qui se substitue à celle de


trajectoire) est alors décrite par les solutions de l'équation de Schrödinger - solutions
déterministes au sens traditionnel - et toute combinaison linéaire [29] de telles
solutions correspondant à une distribution de probabilités.

Nature de ces ondes


Les ondes dont il s'agit ici ne sont pas des ondes électromagnétiques comme la
lumière, ou des ondes de pression comme celles des sons, mais des ondes
d'amplitude de probabilité de présence. Une telle onde ne décrit pas les variations d'un
champ électrique ou d'une pression, elle décrit la manière dont une particule de
matière en mouvement se déplace ; c'est une fonction du temps et de la position,
nombre complexe avec son amplitude et sa phase par rapport à une origine.

Nous devons accepter cette dualité corpuscule-onde de probabilité, avec ses


conséquences déterministes qui la font apparaître tantôt comme de la matière, tantôt
comme une onde, selon les circonstances expérimentales. Ce déterminisme dual, qui
implique deux aspects très différents d'une même réalité, est loin du déterminisme
traditionnel de la physique de Newton ; il nous faut pourtant l'admettre et accepter
lorsque c'est nécessaire d'avoir deux représentations mentales de la réalité, avec des
comportements distincts qui se complètent sans jamais se contredire. Cette dualité de
représentations fait l'objet du principe de complémentarité.

Remarque : un double modèle de la réalité existe aussi concernant la masse au repos


m d'une quantité de matière et son énergie E, ces deux variables étant reliées par la
célèbre équation d'Einstein E = mc2, équation qui décrit comment l'une des formes
(par exemple la masse) se transforme en l'autre (ici l'énergie).

169
Conséquences de l'existence des ondes de probabilité de la fonction d'onde
Ces ondes pénètrent des barrières de potentiel d'un champ de force comme un son
pénètre un mur ; elles traversent la matière comme la force de gravitation. Exemple :
un noyau atomique lourd peut subir une désintégration radioactive et se décomposer
en un noyau plus léger et une particule alpha (noyau d'atome d'hélium comprenant
deux protons et deux neutrons). Bien que la particule alpha n'ait pas assez d'énergie
pour vaincre la barrière de force électrique entourant le noyau atomique lourd, sa
nature ondulatoire fait qu'elle a une probabilité non nulle de passer à travers cette
barrière et de s'éloigner du noyau, d'où la désintégration.

La nature ondulatoire d'un électron ou d'un proton lui permet :


 D'être en plusieurs endroits à la fois, avec des probabilités précises fonction de
l'endroit ;
 D'avoir une infinité de vitesses à la fois, proches d'une vitesse moyenne ;
 De parcourir une infinité de trajectoires à la fois, autour d'un parcours moyen.

Etat quantique et information


La Mécanique quantique postule à la fois le déterminisme scientifique et le
déterminisme statistique.
 Des informations complètes sur un système (son état quantique) à un instant
donné déterminent toute son évolution ultérieure (l'évolution de son état
quantique) ; aucune histoire d'évolution n'est prise en compte.
 Si, au début de l'évolution d'un système, on dispose de toute l'information
concernant ce système (pour autant de variables qu'il a de de degrés de liberté),
on doit disposer de la même quantité d'information à la fin de l'évolution ; aucune
perte d'information n'est concevable [304].
En outre, une particule peut se déplacer, mais à tout moment elle est quelque
part : sa probabilité totale de présence dans l'espace reste égale à 1.

Trajectoires d'un électron autour d'un noyau atomique : orbitales


Les déplacements et les configurations stables de particules, prévues par la
Mécanique quantique, résultent de l'équation de Schrödinger, que nous verrons un
peu plus loin ; elles sont surprenantes. C'est ainsi que, loin de tourner autour d'un
noyau atomique selon une trajectoire plane elliptique comme celle de la Terre autour
du Soleil, un électron peut parcourir, selon son énergie, une région de l'espace
(appelée orbitale) en forme de sphère, de paire de lobes, etc. (voir figure ci-dessous)
et il faudra interpréter ces "orbites" à trois dimensions comme des régions de l'espace
proche du noyau où chaque petit volume autour d'un point a une densité de probabilité
de présence de l'électron [28]. Dans la figure ci-dessous, issue de [124], les surfaces
en forme de sphère, à gauche, et de paire de lobes, à droite, représentent la partie de
l'espace autour du noyau où un électron a une probabilité maximale de se trouver.

170
Orbitales électroniques en forme de sphère ou de lobes
("nucleus" désigne le noyau de l'atome)

Dans le graphique ci-dessous, issu de [105] page 863, l'éloignement r du noyau (en
abscisse) est exprimé en rapports r/r1, où r1 est le rayon théorique de "l'atome
d'hydrogène de Bohr", r1 = 0.5 Å (où 1Å = 10-10m). La probabilité de trouver l'électron
à l'intérieur d'une coquille sphérique de rayons r et r+dr est W(r)dr=4r²|(r)|²dr, où
(r) est la fonction d'onde. On voit que :
 La probabilité de présence très près du noyau (où r tend vers 0) est non nulle
pour chacune des trois couches électroniques ! Ceci ne se produit que lorsque le
nombre quantique l de moment angulaire orbital [104] vaut l=0.
 La couche de niveau d'énergie n=1 a une distance de densité de probabilité [28]
maximum. La couche de niveau n=2, supérieur de 10.2 électronvolts (eV) au
niveau d'énergie de la couche 1, en a deux. La couche n=3, de niveau 12.1 eV,
en a trois.

Densité radiale de probabilité de présence de l'électron W(r)=4r²|(r)|²


dans les couches n=1, 2 ou 3 pour un atome d'hydrogène

171
On voit à quel point les "trajectoires" tridimensionnelles réelles de l'électron sont
éloignées du modèle "planétaire" plan. En fait, le mot trajectoire ne s'applique pas du
tout à la rotation d'un électron autour de son noyau ; il vaut mieux parler de position
floue par superposition ou de région de présence. Enfin, le "diamètre" même d'un
atome varie avec son énergie, et si on pouvait le voir à un instant donné avec ses
électrons l'image serait floue.

3.5.7.3.5 Théorie de la résonance chimique


Certaines molécules chimiques comme le benzène C6H6 ont plusieurs structures
possibles où les atomes de carbone sont reliés, entre eux et à des atomes
d'hydrogène, par des liaisons de valence partageant des électrons. On démontre en
Mécanique quantique que la structure stable (état stationnaire) d'une telle molécule,
correspondant à l'énergie potentielle la plus faible, a une fonction d'onde combinaison
linéaire des diverses fonctions d'onde des structures possibles. On peut considérer
que la structure stable de la molécule oscille en résonance entre les diverses
structures équiprobables de base. Nous verrons cela en détail avec l'équation de
Schrödinger.

3.5.7.3.6 Conséquences pour le déterminisme


A l'échelle atomique, le déterminisme naturel peut donc produire plusieurs
conséquences simultanées (dites "en superposition") à partir d'une même cause, alors
que le jet d'un dé peut produire une valeur parmi 6 seulement.
Il nous faut accepter cette forme étendue de déterminisme même si elle nous
paraît intuitivement déroutante. Si nous acceptons qu'une fonction de la forme
y = ax2 + bx + c, modèle de la composante verticale de la trajectoire d'un boulet
de canon, puisse avoir deux solutions (positions où le boulet est à une certaine
hauteur) et non une, pourquoi n'accepterions-nous pas que l'équation d'évolution
de Schrödinger en ait aussi plus d'une ?

Mesurée à un instant donné, la valeur d'une variable de l'état résultant est choisie
parmi celles d'une distribution statistique de valeurs prévues par la Mécanique
quantique, l'ensemble des valeurs propres [278] de l'opérateur représentant la
variable. Le hasard n'est pas, dans le cas d'une mesure, le résultat d'une connaissance
insuffisante de ce qui se passe. C'est la manière de la nature de choisir statistiquement
un résultat dans un ensemble prévu par la théorie, résultat muni d'une probabilité
calculable d'être trouvé si l'on refait une même expérience un grand nombre de fois.
Nous l'avons déjà vu en analysant la notion de hasard.

Notons bien que la valeur de chaque résultat de mesure possible n'est pas due au
hasard, c'est une valeur précise appartenant à un ensemble bien défini ; c'est le choix
entre les divers résultats possibles lors d'une mesure qui est fait au hasard comme
dans toute distribution statistique.

Résultat d'une mesure


En physique quantique, le résultat d'une mesure est un ensemble connu avant la
mesure, et le choix par la nature d'un élément de cet ensemble résulte du hasard
statistique (3ème et 4ème postulats de la Mécanique quantique). Il faut donc considérer
ce choix au hasard lors d'une mesure comme une évolution particulière de la
nature, évolution dont le résultat n'est prédictible qu'au niveau de l'ensemble,
pas à celui de l'élément choisi, tout comme l'ordre de décomposition radioactive des

172
atomes d'un échantillon d'uranium 238. Ce sont là des cas où la nature refuse de
satisfaire notre volonté de prédire de manière unique l'élément choisi.

Certains comportements déterministes de la nature,


comme les positions superposées d'un corpuscule en mouvement
et les choix aléatoires parmi les valeurs précises d'un ensemble,
impliquent de l'imprédictibilité.

Le déterminisme naturel n'est donc pas incompatible avec des


cas bien définis de comportement aléatoire, imprécis ou
imprédictible ; le déterminisme étendu en tient compte.

Le choix au hasard d'une valeur, discrète ou continue, par la nature (c'est-à-dire d'un
élément particulier d'un ensemble prédéterminé de solutions d'un modèle
mathématique) se produit dans un cas et un seul : en physique quantique, lors du
passage du niveau atomique au niveau macroscopique, phénomène d'évolution
physique dit « de décohérence », rencontré lors d'une mesure (où le dispositif de
mesure interagit avec le système mesuré) ou de l'interaction du système en
superposition à l'échelle atomique avec son environnement macroscopique. Je ne
connais pas d'autre cas où le hasard intervient dans une évolution naturelle. Et
comme la Mécanique quantique prévoit la probabilité de chaque choix de valeur par la
nature, on en a fait le 4ème postulat de la Mécanique quantique. Comme les autres
postulats de la Mécanique quantique, celui-ci a été vérifié d'innombrables fois depuis
des décennies et n'a jamais été contredit.

Chaîne et arborescence de causalité


Compte tenu de l'existence possible à l'échelle atomique de multiples conséquences
d'une cause donnée, on doit donc décrire l'évolution possible en termes
d'arborescence de causalité plutôt que de chaîne de causalité. Chaque état du
système est représenté par un nœud de l'arborescence qui peut être suivi de plusieurs
branches conséquences, voire d'une infinité. L'évolution effective d'un système, dont
on suit une variable (scalaire [126] ou vectorielle [127]) à l'échelle macroscopique, est
donc décrite par la suite unique des nœuds-états atteints dans l'arborescence des
évolutions possibles, suite qui représente la chaîne effective de causalité.

Position floue plutôt qu'aléatoire - Interprétation de la décohérence


Nous verrons au paragraphe suivant que l'équation fondamentale de la Mécanique
quantique, l'équation de Schrödinger, ne prédit pas de position aléatoire, mais des
positions superposées floues associées à des paquets d'ondes de probabilité. C'est la
mesure d'une variable qui introduit un choix aléatoire, et plus précisément le passage
de l'échelle atomique à l'échelle macroscopique avec son échange irréversible
d'énergie : on dit alors qu'il y a décohérence, avec réduction de la fonction d'onde.

173
Nous ne savons pas aujourd'hui pourquoi ce changement d'échelle provoque le choix
d'un élément de l'ensemble des valeurs possibles, ni pourquoi ce choix est aléatoire.
[91] suppose qu'il existe une influence non prise en compte par la Mécanique
quantique, probablement due à la gravitation et à la Relativité ; de son côté, la théorie
de Hugh Everett, mathématiquement inattaquable, exclut la décohérence en
introduisant un basculement de l'Univers qui conserve la fonction d'onde.

Irréversibilité du passage de l'échelle atomique à l'échelle macroscopique


La transition entre l'échelle atomique et l'échelle macroscopique introduit une évolution
régie par un déterminisme particulier, d'un type nouveau inconnu du déterminisme
classique, la décohérence. C'est une évolution irréversible qui se produit dès qu'une
mesure, ou l'interaction du système atomique avec son environnement
macroscopique, a perturbé le résultat ensembliste. Cette évolution a un résultat non
calculable ; on suppose qu'il le restera tant qu'il n'existe pas de théorie relativiste de la
physique quantique [325], basée sur une interaction gravitationnelle quantifiée [18].

Nous avons vu plus haut que la décohérence est le seul cas où le hasard statistique
intervient dans une évolution naturelle ; et ce cas disparaît en admettant la théorie de
Hugh Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité.)

3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger)


L'équation fondamentale qui décrit l'évolution dans le temps du vecteur d'état
(ket |(t)> en notation de Dirac) d'un objet quantique en fonction de l'observable [30]
H(t), opérateur associé à l'énergie totale du système (son hamiltonien), est l'équation
différentielle de Schrödinger. Elle s'écrit :

iä d/dt|(t)> = H(t)|(t)>

où i2=-1 et ä est un quantum de spin [22] qui vaut ä = 1.0542 .10-34 joule.seconde
(ä = h/2 où h est la constante de Planck).

Cette équation décrit une évolution invariante par une symétrie temporelle qui change
le sens du temps. Elle est du premier ordre par rapport au temps t et complètement
déterministe : les mêmes conditions initiales produisent le même ensemble de
solutions, c'est-à-dire la même évolution dans le temps et l'espace. L'équation de
Schrödinger décrit donc une évolution déterministe.

Cette équation de description de l'évolution temporelle et spatiale d'un corpuscule en


Mécanique quantique joue le même rôle que les équations du mouvement qui
déterminent une trajectoire en mécanique classique, équations elles aussi
déterministes et symétriques par rapport au temps. Mais un résultat de l'équation de
Schrödinger est un vecteur d'état |(t)> fonction du temps, d'où on peut déduire la
densité de probabilité [28] de présence de l'objet en chaque point de l'espace à chaque
instant t. Ce n'est pas une trajectoire, et à un instant donné l'objet n'est pas en un point
précis mais en tous les points à la fois d'un voisinage de ce point, où la probabilité de

174
le trouver est maximale et diminue avec l'éloignement ; et l'instant suivant, son
mouvement l'emportera un peu plus loin.

Contrairement, donc, aux interprétations erronées que l'on trouve ici et là sur ses
résultats, l'équation de Schrödinger est parfaitement déterministe. Mais ses solutions
qui s'appliquent à un déplacement ne décrivent pas une trajectoire de particule, elles
décrivent l'évolution de son vecteur d'état en fonction du temps, dont on peut déduire
à tout instant donné une position nécessairement floue de probabilité maximum.

Combinaison linéaire d'états, superposition et imprécision


Le caractère linéaire de l'équation de Schrödinger fait que toute combinaison linéaire
[29] de ses vecteurs solutions (associés à des fonctions d'onde) est aussi une solution,
à condition que sa probabilité de présence dans l'espace tout entier soit 1. Il en résulte :
 La possibilité pour un état quantique d'être la somme (cas particulier d'une
combinaison linéaire) de deux états ou plus. Exemple : l'état d'un électron qui
serait à deux endroits à la fois. On dit qu'un tel état est une superposition d'états.
 La possibilité pour une fonction d'onde d'être combinaison linéaire d'une infinité
de fonctions d'onde dont la superposition définit un paquet d'ondes de probabilité
accompagnant une particule en mouvement. La position de cette particule à un
instant donné a alors un caractère flou ; imprécise, elle ne peut être définie à
mieux qu'une demi-largeur près du paquet d'ondes qui l'accompagne.

Combinaison linéaire d'une infinité de fonctions d'onde (superposition)


Une solution de l'équation de Schrödinger combinaison linéaire d'un nombre infini de
fonctions d'onde, où le coefficient (« poids ») de chaque fonction est tel que la
probabilité de présence dans l'espace entier est 1, peut se traduire par l'interprétation
suivante, due à Feynman : pour aller d'un point A à un point B, un corpuscule emprunte
simultanément toutes les trajectoires possibles entre ces deux points, chaque
trajectoire étant affectée d'une probabilité correspondant à son poids dans la
combinaison linéaire : on dit qu'il y a superposition des trajectoires-solutions [275].

Une combinaison linéaire d'un nombre infini de fonctions d'onde permet aussi de
passer des états de position d'une particule à ses états d'impulsion, ou inversement
[125]. Cette possibilité purement mathématique de deux descriptions différentes traduit
l'unicité de la réalité physique : ces deux types d'états d'une particule sont
conséquences des mêmes lois de mouvement et de la même énergie totale ; ce sont
donc des formulations de la même fonction d'onde (r, t) dans deux bases différentes
d'espaces vectoriels de fonctions.

Un postulat fondamental
L'équation de Schrödinger fait partie des postulats de la Mécanique quantique.

3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle


La Mécanique quantique remplace les trajectoires exactes de la mécanique classique
par des zones de présence floues sans renoncer à la symétrie temporelle. Cette
symétrie entraîne une limitation lourde de conséquences : basée sur l'équation
fondamentale de Schrödinger ci-dessus et la symétrie CPT, la Mécanique quantique,
est inadaptée à la description de phénomènes où le temps ne peut aller que du présent
vers le futur, notamment ceux qui sont irréversibles.

175
Pourtant, ces phénomènes sont nombreux à l'échelle de la physique quantique.
Exemples :
 Désintégration spontanée de particules par radioactivité, où une particule
désintégrée ne peut spontanément se recomposer ;
 Désexcitation d'un atome qui revient à son état d'énergie fondamental en
émettant un photon [117], et qui ne peut de lui-même s'exciter de nouveau pour
revenir à l'état précédent ;
 Mesure d'un résultat, qui interfère nécessairement avec le système mesuré,
nous l'avons déjà signalé : toute mesure de physique quantique entraîne une
irréversibilité. Il y a là un problème que la physique quantique a donc été obligée
de prendre en compte en dépassant l'équation fondamentale de Schrödinger.
Nous dirons plus bas quelques mots sur l'irréversibilité au sens Mécanique
quantique et au sens thermodynamique.
Insistons sur un point : l'équation de Schrödinger décrit l'évolution dans le temps
et l'espace d'un système tant que celle-ci est réversible. Elle ne décrit pas
l'évolution irréversible qu'est la décohérence, qui transforme une superposition
d'états en un état unique choisi parmi les valeurs propres [278] de l'observable du
dispositif. Ce choix d'état unique est fait statistiquement, la Mécanique quantique
prévoyant la fréquence d'apparition de chaque valeur possible.

3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste


La Mécanique quantique suppose aussi un espace plat [109], donc l'absence d'effet
gravitationnel de courbure de l'espace, résultant de la présence d'une masse selon la
Relativité Générale. Les efforts des scientifiques depuis les années 1930 pour
développer une physique à la fois quantique et relativiste n'ont abouti qu'à des progrès
modestes.

Il est possible, comme le suggère [91] pages 475 et suivantes, que la décohérence -
choix aléatoire d'un état parmi tous ceux qui existent simultanément en superposition
- provienne de l'influence perturbatrice de la gravitation, avec sa courbure d'espace ;
la gravitation est la seule des 4 forces fondamentales [18] à pouvoir agir sur l'état
quantique cohérent lorsqu'on passe de l'échelle atomique à l'échelle macroscopique.
Cette possibilité est vraisemblable au vu des conclusions de l'expérience de
décohérence faite au laboratoire LKB de l'Ecole Normale Supérieure, mais nous
n'avons pas encore de théorie unifiant la Mécanique quantique et la Relativité (voir le
paragraphe "Validité des lois de la Mécanique quantique à l'échelle macroscopique").

3.5.7.5 Etats finaux d'un système macroscopique


La possibilité que l'état initial d'un système ait pour conséquences possibles après
évolution plusieurs états finaux, équiprobables ou non, existe même à l'échelle
macroscopique dans des situations particulières. C'est ainsi que lors de l'écoulement
turbulent d'un fluide (écoulement dont le vecteur vitesse en un point critique peut subir
des variations irrégulières de direction et de grandeur), un point caractéristique P de
son espace des phases peut évoluer vers n'importe lequel des points P1, P2, P3, etc. :
on dit qu'il y a « diffusion » dans l'espace des phases.

176
La diffusion est un phénomène chaotique faisant passer, à chaque transformation, un
système d'un état initial avant un point critique de bifurcation à un état final après
bifurcation choisi parmi plusieurs états finaux plus ou moins dispersés. Ce phénomène
est irréversible et augmente l'entropie du système [25].

Parfois, après une certaine évolution de ce type, la présence du point représentatif de


l'état du système est beaucoup plus probable au voisinage de certains points de
l'espace des phases appelés « attracteurs », points vers lesquels l'évolution converge.

A l'évidence, l'existence et le caractère chaotique du phénomène de diffusion à


l'échelle macroscopique, ainsi que la convergence de son état vers un point attracteur
choisi parmi plusieurs, nous obligent à étendre le déterminisme même en dehors de
l'échelle atomique lors du franchissement d'un point de bifurcation (et seulement dans
ce cas) :
 un état initial avant bifurcation peut avoir pour conséquences possibles après
bifurcation un ensemble d'états finaux, dont un seul se réalisera à l'issue de
chaque transformation ;
 une transformation peut être chaotique et/ou irréversible. (Nous reviendrons plus
bas sur l'irréversibilité.)

3.5.8 2e extension du déterminisme : superpositions et décohérence


Dans l'exposé précédent, l'état d'un système était "choisi" par une mesure entre
plusieurs états possibles, chacun assorti d'une probabilité (ou d'une densité de
probabilité) qui décrit une fréquence d'apparition lorsqu'on multiplie les mesures ; ces
états s'excluaient mutuellement. Une expérience donnée ne produisait donc qu'un
résultat mesuré unique, même si celui-ci faisait partie d'un ensemble de résultats
possibles.
Exemple : à un instant donné, la mesure d'énergie d'un atome donnait une valeur
unique, choisie par l'appareil de mesure (macroscopique) parmi l'ensemble des
valeurs prévues par la Mécanique quantique (valeurs propres [278] de l'opérateur
représentant le dispositif de mesure).

Le choix étant imprévisible, même s'il a lieu avec une probabilité prédéterminée dans
un ensemble prédéterminé, on dit que cette évolution de la nature relève d'un
déterminisme statistique, qu'il faut se garder de confondre avec un hasard pur où le
résultat serait n'importe quoi. Dans ce cas-là, en physique quantique, une évolution
déterministe produit un résultat reproductible qui est un ensemble.

Il est indispensable que le choix du résultat unique d'une mesure soit limité à des
valeurs de l'ensemble qui ne contredisent pas une loi de la physique, comme la
conservation de l'énergie ou du moment cinétique du début à la fin de l'expérience.

3.5.8.1 Superposition d'états et décohérence


Mais ce choix de résultat n'est pas nécessairement instantané : il peut arriver qu'un
certain nombre d'états de l'ensemble coexistent pendant un certain temps, avant que
l'un d'eux soit choisi par une interaction avec l'environnement macroscopique telle
qu'une mesure et perdure. Les états qui coexistent temporairement sont alors appelés
« états cohérents » ou « états superposés ».

177
Une mesure est une transcription à l'échelle macroscopique (la position d'une
aiguille...) de l'état d'un système quantique [1] ; c'est une opération de choix qui en
retient un seul à l'échelle macroscopique, une évolution particulière appelée
décohérence. Tant que la décohérence n'a pas eu lieu, l'état qu'elle choisirait n'existe
que virtuellement et on ne peut le connaître.
(Rappelons-nous qu'on peut aussi interpréter la multiplicité d'états superposés
comme le fait qu'un état de départ a pour conséquences un ensemble
d'évolutions, chacune terminée au bout d'un certain temps par un état unique, dont
celui choisi par la nature lors de la décohérence (voir l'expérience du laboratoire
LKB.)

C'est ainsi qu'à un instant donné :


 Une molécule peut se trouver simultanément dans plusieurs états d'énergies
différentes ; son état quantique global (unique, par définition) est une
superposition d'états.
 Un photon peut se trouver dans deux états de polarisation opposés.
 Un électron peut se trouver simultanément en deux endroits différents, ou même
dans l'infinité d'endroits de son paquet d'ondes.
 Le "chat de Schrödinger" pourrait être à la fois mort et vivant, dans ces deux
états superposés, si l'interaction avec leur environnement ne limitait pas si
fortement la durée de vie superposée de systèmes macroscopiques, où l'état
visible unique a été choisi statistiquement.

La fonction d'onde d'une superposition d'états quantiques est une combinaison linéaire
des fonctions d'onde de chacun des états quantiques composants.

Une superposition d'états quantiques formant un état quantique unique est analogue
à la superposition des sons émis par plusieurs cordes de piano vibrant simultanément
pour produire un son unique. Lorsqu'une mesure d'une superposition produit une
décohérence donnant un résultat unique, les probabilités des divers résultats possibles
dépendent des proportions relatives avant décohérence des divers états quantiques
superposés, proportions prédites par la Mécanique quantique sous forme de
probabilités.

Il n'y a pas d'équivalent macroscopique d'un état global superposition de plusieurs


états cohérents, car sa durée serait trop faible pour être observée. La superposition
d'états est un exemple de plus de réalité naturelle qui défie notre intuition, et nous
devons étendre la définition du déterminisme pour la prendre en compte.

3.5.8.2 Superposition de trajectoires


Nous avons déjà vu dans l'expérience précédente des « fentes de Young », réalisée
avec des atomes au lieu de photons [117], un exemple de parcours de deux
trajectoires en même temps : un atome parcourt en fait simultanément deux chemins
dans l'appareil, entre source et détection, passant par les deux fentes à la fois comme
le ferait une onde lumineuse. Comme il est impossible d'observer la figure
d'interférence et en même temps de savoir par quelle fente un atome donné est passé
(en vertu du principe de complémentarité), il faut considérer que dans cette expérience

178
l'atome s'est comporté comme une onde de probabilité passant par les deux fentes à
la fois, pas comme un corpuscule matériel obligé de passer par une seule des fentes.

3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires


Il faut nous faire violence pour accepter la vérité physique représentée par la
superposition d'états ou de trajectoires, notre intuition marquée par le déterminisme
traditionnel ne parvenant pas à imaginer comment un atome peut être en plusieurs
endroits à la fois ou parcourir deux trajectoires différentes en même temps, surtout si
elles ont des points distants de plusieurs milliers de diamètres atomiques !
(La difficulté pour la compréhension intuitive humaine vient de la représentation
d'un corpuscule en mouvement par des ondes de probabilité, qui passent par deux
fentes à la fois aussi facilement que les ondes électromagnétiques. Elle vient aussi
de notre difficulté d'accepter qu'une cause soit suivie de multiples conséquences
(évolutions) simultanées, superposées en combinaison linéaire d'états, et qui
restent distinctes jusqu'à la décohérence.)

Cette pluralité expérimentale est d'autant plus difficile à accepter que toute mise en
évidence expérimentale des chemins parcourus par un atome n'en trouve qu'un seul,
du fait de la décohérence qui se produit automatiquement lors de cette mise en
évidence au passage de l'échelle microscopique à l'échelle macroscopique. Il a fallu
aux chercheurs du laboratoire LKB de l'Ecole Normale Supérieure beaucoup de génie
pour réaliser l'expérience célèbre qui prouve la superposition et observe la
décohérence au bout d'un certain temps [1] - [10].

La décohérence est d'autant plus rapide que :


 le système observé est plus grand, donc soumis à davantage d'interactions (par
échange de photons et/ou de chaleur) avec le milieu environnant ;
 la distance énergétique entre les états cohérents est plus grande, produisant une
plus grande instabilité de la superposition d'états.

En pratique, la durée de cohérence (durée d'une superposition avant décohérence)


peut aller d'une fraction de seconde si courte qu'elle n'est pas mesurable à un certain
nombre de minutes, voire plus. Un système peut être dans un état superposition de
plusieurs états quantiques même s'il a des milliards d'atomes, même si sa température
atteint des centaines de degrés [365].

Nous sommes donc conduits à compléter le déterminisme par la possibilité d'existence


d'un état global d'un système qui combine (superpose) un certain nombre d'états de
base avant que l'échange d'énergie avec l'environnement en choisisse un au hasard
au bout d'un certain temps.
L'état unique choisi après décohérence a donc plusieurs prédécesseurs ayant
coexisté en superposition, une situation considérée comme impossible par le
déterminisme et la physique traditionnels !

Après une décohérence, nous devons considérer la superposition d'états qui l'a
précédée comme un état global unique, combinaison linéaire [29] d'états élémentaires
superposés dont l'un est devenu permanent. En utilisant la description par fonctions
d'ondes, en superposition d'états la fonction d'onde  d'un système est une

179
combinaison linéaire de vecteurs propres i [278], alors qu'après décohérence la
fonction d'onde est réduite à celui de ses vecteurs propres qui a été choisi au hasard,
k. La transformation d'un système par décohérence produit donc une « réduction de
sa fonction d'onde ».

En somme, l'évolution d'un système à l'échelle atomique est celle d'une superposition
d'états régie par l'équation de Schrödinger tant qu'il n'y a pas eu échange d'énergie
avec l'environnement (notamment par mesure), puis par sa fonction d'onde réduite à
un vecteur d'état choisi au hasard, après : toute mesure détruit la superposition et
change l'état du système d'une manière qui n'est prévisible qu'en probabilité.
Dérangeant, non ?

Irréversibilité
La décohérence est un processus irréversible : après le choix au hasard d'un état final
unique k par décohérence, on ne peut revenir en arrière et reconstituer l'état
superposé . On ne peut même pas "passer le film des événements à l'envers"
comme dans un phénomène à symétrie temporelle, car il n'y a pas d'équation de
décohérence où on pourrait changer la variable t en -t.

En fait, une décohérence n'est pas à proprement parler une évolution régie par une loi
physique décrite par l'équation de Schrödinger. C'est pourquoi Hugh Everett a proposé
de la considérer comme un choix d'un Univers parmi l'ensemble de ceux qui étaient
superposés avant la décohérence, un basculement qui emporte l'expérimentateur qui
ne constate que l'existence de l'unique état après évolution qu'il contient ; l'équation
de Schrödinger s'applique alors jusqu'au bout.

Unicité philosophique de la chaîne de causalité en remontant le temps


Plus généralement, il faut remplacer le postulat d'unicité de la chaîne de causalité du
déterminisme philosophique [200] dans le sens qui remonte le temps par la certitude
que toute situation a une cause au moins. En général on ne peut pas reconstituer le
passé en pensée en remontant une chaîne de prédécesseurs uniques d'un état.
Exemple : si après une addition nous avons comme résultat le nombre 8, avant
l'addition la paire de nombres ajoutés pouvait être (1+7), ou (2+6), etc.
A un état final d'un système peuvent correspondre plusieurs prédécesseurs.
A l'échelle atomique (et seulement à cette échelle-là) l'état précédent peut avoir
été une superposition d'états cohérents.

3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III


Pour éliminer l'embarrassante question sur l'absence de mécanisme physique et de
loi expliquant et décrivant la décohérence et le résultat aléatoire que produit sa
réduction, le physicien américain Hugh Everett a posé en 1957 un postulat radical :

La fonction d'onde est irréductible.

180
Pour lui il n'y a jamais de décohérence, puisque l'évolution d'un système est toujours
déterministe, toujours unitaire et régie par la même équation de Schrödinger, qu'il y ait
une mesure ou non. [323]

Everett a proposé une fonction d'onde universelle, représentant un système à la fois


aux échelles atomique et macroscopique. Cette fonction d'onde intègre toujours des
variables de mesure macroscopique d'une expérience en plus des variables
microscopiques. Un résultat macroscopique donné est toujours possible dès le début
d'une évolution décrite par l'équation de Schrödinger, avec une probabilité connue.
Lorsqu'un observateur en constate un en particulier, c'est qu'il a évolué avec le reste
du système de la façon qui le fait constater la valeur qu'il lui trouve.

Pour Everett, donc, il faut considérer l'ensemble du système expérimental - y compris


un éventuel appareil de mesure et l'homme qui observe le résultat - comme un tout,
un univers décrit par une fonction d'onde universelle. La mesure fait passer sans
décohérence de l'état superposé de ce système à l'état macroscopique, par une
évolution régie par l'équation de Schrödinger du départ.

Tout se passe comme si l'expérience transformait l'Univers unique du début en une


superposition comprenant autant d'univers qu'il y a de résultats possibles, chacun avec
son expérience et son expérimentateur. En vertu de l'équation de Schrödinger tout ce
qui peut arriver arrive !

Lors de la mesure d'un système à l'état superposé, chaque expérimentateur (toujours


dans un état unique) suit son système dans une branche de l'arborescence des
possibilités d'évolution superposées créées par l'expérience à partir du nœud de l'état
avant mesure. Pour lui, le déterminisme de l'équation de Schrödinger a fait évoluer
l'univers tout entier – appareil de mesure et lui-même inclus – vers l'état correspondant
à la valeur propre qu'il mesure. Les autres univers (système et observateur) existent
désormais en même temps, en superposition. Mais ils sont invisibles pour lui, qui ne
peut voir que l'univers dans lequel il vit et fait son expérience depuis le début : chaque
observateur croit toujours être unique, la même équation de Schrödinger n'ayant
jamais cessé de s'appliquer pour décrire l'évolution du système ; il n'y a plus de
décohérence à expliquer, plus de hasard.

Bien entendu, ce déterminisme arborescent régit toutes les transformations dont les
lois ont des solutions multiples, avec ou sans observateur ou dispositif de mesure. Il
contredit l'interprétation classique de la physique quantique (dite « interprétation de
Copenhague » parce qu'elle était proposée par le Danois Niels Bohr), interprétation
selon laquelle les solutions et prédictions de la Mécanique quantique ne s'appliquent
pas au domaine macroscopique. Mathématiquement irréfutable, l'élégante
interprétation d'Everett est acceptée de nos jours par certains physiciens. Elle est
ignorée par les autres, qui ne l'aiment pas bien qu'ils ne puissent prouver qu'elle est
fausse ; ils se contentent de dire qu'une mesure réduit la fonction d'onde du système
par décohérence, et que le croire ne les empêche pas de faire des calculs justes.

Avec cette interprétation :


 La célèbre expérience de pensée du chat de Schrödinger crée simultanément
deux chats, l'un mort et l'autre vivant ; et selon l'Univers où l'observateur a
basculé, il voit le chat mort ou vivant sans avoir pu prédire le résultat.

181
 L'expérience du comportement non séparable de deux photons intriqués ne
prouve plus la non-séparabilité : quel que soit l'Univers où on a basculé lors de
l'émission simultanée des deux photons dont les états quantiques sont
superposés, la mesure donne toujours un résultat cohérent, sans qu'il soit
nécessaire d'envisager une transmission d'information ou une non-séparabilité.
 Le caractère surprenant de la valeur de tant de constantes de l'Univers, qui
semblent choisies « juste comme il faut » pour que l'homme ait pu naître, n'a
plus rien de surprenant, le choix faisant partie des choix possibles. L'étonnement
des idéalistes partisans du principe anthropique n'a donc plus de raison d'être.

L'objection de la dualité onde-particule invisible à l'échelle macroscopique


L'équation de Schrödinger prévoit que la superposition des résultats d'une évolution a
tantôt un aspect particule, tantôt un aspect onde. L'aspect onde produit des
interférences ; il permet par exemple à une particule de passer par deux fentes à la
fois et à un objet d'être en plusieurs endroits à la fois.

De son côté, l'équation universelle d'évolution de Hugh Everett, qui s'applique aux
objets macroscopiques comme aux particules, prévoit qu'un objet macroscopique peut
parfois avoir un comportement ondulatoire, existant par exemple en deux endroits à la
fois ou sujet à des interférences. Or on a eu beau faire soigneusement des
expériences, on n'a jamais pu mettre en évidence un tel comportement ; voici
pourquoi.

Représentation de la fonction d'onde généralisée par une matrice de densité


On peut représenter une fonction d'onde généralisée par une matrice de densité ([68]
page 436), tableau qui regroupe les informations de la fonction d'onde et celles d'une
connaissance de ses résultats mesurés (ce que l'on sait, en probabilité). Cette
matrice est régie par une équation fondamentale de la Mécanique quantique,
équivalente à celle de Schrödinger mais formulée par Born, Heisenberg et Jordan.
Son élément ligne i colonne j appelé ρij, se calcule à partir du nombre complexe i
associé à la valeur propre i de la fonction d'onde  par ρij = ij* où j* est le
conjugué de j. Ainsi, par exemple :
 Les deux valeurs propres équiprobables de la fonction d'onde auront des
probabilités de 0.5 situées sur la diagonale principale d'une matrice 2x2.

0.5
0.5

 L'incertitude sur la connaissance de ces valeurs propres est représentée par les
deux nombres de l'autre diagonale, par exemple deux fois 0 s'il n'y a pas
d'incertitude (connaissance certaine). Il y a eu alors décohérence et une des
valeurs propres est mesurée avec certitude, mais nous ne savons pas laquelle.

0.5 0
0 0.5

182
Si ces deux dernières probabilités sont aussi égales à 0.5, le système est dans un
état de superposition ; nous ne savons pas laquelle des valeurs propres serait
choisie lors d'une décohérence, et quelle serait sa valeur scalaire.

0.5 0.5
0.5 0.5

Exemple : mesure utilisant le spin d'un électron polarisé


Si par exemple le résultat macroscopique de l'expérience est donné par la mesure du
spin [22] d'un électron parfaitement polarisé, celle-ci tiendra compte de la décohérence
éventuelle et nous pourrions savoir qu'il y a ou non superposition. Mais si l'électron est
non-polarisé ou s'il y a trop d'électrons pour une mesure de polarisation, le spin est
dans un état indéterminé et nous ne pouvons conclure sur la superposition (valeurs
propres multiples ou valeur propre isolée).

C'est ce genre de difficulté qui gêne dans la mise en évidence d'un éventuel état
superposé d'un objet macroscopique que nous voyons : nous en recevons trop de
photons à la fois, des milliards de milliards donnant une image unique qui nous paraît
nette : les autres images sont atténuées par la décohérence avant que nous puissions
les voir. Et si nous mesurons la polarisation d'un électron que nous avons omis de
polariser dans l'expérience, celle-ci ne pourra évidemment pas conclure.

Il y a même une difficulté supplémentaire. Une mesure effectuée à l'aide d'une


particule (comme un photon ou un électron) ne pouvant être plus précise que la demi-
largeur de son paquet d'ondes, il restera toujours une incertitude sur la possibilité de
distinguer entre états superposés et non-superposés, en même temps qu'une
probabilité non-nulle de trouver chacune des valeurs propres, comme dans l'effet
tunnel.

L'interprétation par univers parallèles de Hugh Everett est donc utilisable.

Voir aussi [324].

Pourquoi notre cerveau ne nous permet de voir des objets qu'après décohérence
Sources : [136]-Tegmark et [325]

Lorsque notre œil reçoit des images provenant d'un objet macroscopique, le nerf
optique et divers neurones transmettent ces images à l'inconscient [353] du cerveau.
Celui-ci les analyse et ne les passe à la conscience que s'il les juge suffisamment
prometteuses ou menaçantes, et nous ne les percevons que dans ce cas-là et après
ce traitement cérébral [339].

Ce processus comprend un certain nombre de transmissions d'informations entre


neurones, en passant par leurs axones (émetteurs) et dendrites (récepteurs). Comme
le nerf optique, un neurone soumet une éventuelle superposition quantique à une
décohérence, car il ne peut transmettre à travers un axone qu'une seule information à
la fois et qu'il est un objet macroscopique interférant avec l'échelle atomique ; en outre,
cette décohérence se produit avant l'évaluation par la barrière de conscience et
infiniment plus vite qu'elle [1]. La transmission d'une région du cerveau à une autre par

183
plusieurs neurones en parallèle ne change rien à la décohérence, qui survient toujours
avant l'évaluation par la barrière de conscience.

Conclusion : lorsque nous sommes conscients de voir un objet nous n'en voyons
qu'une seule image, même si l'objet est à l'état de superposition.

3.5.9 3e extension du déterminisme : quantification et principe d'incertitude

3.5.9.1 Quantification des niveaux d'énergie et des échanges d'énergie


L'étude des spectres d'émission et d'absorption de rayonnements électromagnétiques
des divers types d'atomes a mis en évidence un fait inexplicable avec les lois à
variation continue d'énergie de la physique traditionnelle : ces spectres sont constitués
de raies fines. L'interprétation de cette finesse est la suivante : un atome d'un type
donné n'émet ou n'absorbe que des photons de certaines fréquences - donc certaines
énergies et longueurs d'onde - bien déterminées. L'énergie potentielle d'un atome est
donc quantifiée : elle ne peut prendre que certaines valeurs discrètes. Chaque
absorption ou émission d'un photon [117] de fréquence  par un atome fait varier
l'énergie de celui-ci de la valeur exacte h, où h est une constante universelle appelée
"constante de Planck" ou "quantum d'action" et valant h = 6.6261 .10-34 joule.seconde.

3.5.9.2 Les trois constantes les plus fondamentales de l'Univers


On mesure une grandeur en la comparant à une unité. Il y a des constantes de
l'Univers qui constituent des unités fondamentales, qu'il est judicieux de poser a priori
pour en faire dépendre d'autres unités. En voici trois :
 La constante de Planck, h = 6.6261 .10-34 joule.seconde, dont on utilise aussi
une valeur dérivée appelée ä ("h barre") : ä = h/2 = 1.05 .10-34 joule.seconde.
 La vitesse de la lumière dans le vide, c = 299 792 458 m/s (un peu moins de
300 000 km/s). C'est là une valeur exacte, une unité internationale.
 La constante universelle de gravitation G = 6.67.10-11 Nm2/kg2 (voir [110])

Il y en a plusieurs dizaines d'autres, comme la charge électrique de l'électron


e = 1.602 .10-19 coulomb. Voir aussi Distance, temps, densité et masse de Planck.

3.5.9.3 Position et vitesse d'une particule


Nous avons vu ci-dessus à propos de la trajectoire d'un corpuscule qu'en Mécanique
quantique la position et la vitesse d'un corpuscule à un instant donné doivent être
interprétées avec une certaine probabilité dans un volume donné autour d'une position
de probabilité maximum. De ce fait :
Les descriptions des états initial et final ont une précision limitée : elles sont
entachées d'incertitude, les positions et les vitesses sont approximatives.

3.5.9.4 Paquet d'ondes et étalement dans le temps

3.5.9.4.1 Description d'un paquet d'ondes de probabilité


Une autre caractéristique des solutions de l'équation de Schrödinger est encore plus
déroutante : l'étalement dans le temps des paquets d'ondes de probabilité. La position
d'une particule matérielle qui se déplace conformément à l'équation de Schrödinger
est décrite par un paquet d'ondes, superposition d'un ensemble d'ondes d'amplitude

184
de probabilité. Ces ondes sont souvent planes et monochromatiques, de fréquences
et phases différentes ; leurs amplitudes s'ajoutent en donnant une probabilité
maximum de présence de la particule au centre du paquet, et une probabilité
s'annulant rapidement dès que l'on s'éloigne du centre.

C'est ainsi qu'un paquet d'ondes de probabilité à une dimension se déplaçant dans la
direction des x croissants de l'axe Ox a une équation de la forme :

1 
 ( x, t ) 
2 
f (k )e i ( kx t ) dk

où :
 (x, t) est un nombre complexe donnant l'amplitude et la phase d'une onde de
probabilité de la particule au voisinage de la position x à l'instant t ;
 à chaque valeur de k entre - et + correspond une onde du paquet ;
  est la pulsation (fréquence multipliée par 2), reliée à k, à la masse m de la
particule et à la constante ä = h/2 par la relation :

k 2

2m

 t est l'instant considéré ;


 f(k) est la fonction d'amplitude qui détermine la distribution des amplitudes des
diverses ondes composantes du paquet en fonction de la variable k ;
 le rapport /k est appelé v, vitesse de phase de l'onde correspondant à k, égale
à c dans le vide mais égale à c/n(k) dans un milieu dispersif dont l'indice vaut
n(k).

L'amplitude du paquet d'ondes à un instant t donné est représentée par le graphique


ci-dessous, qui montre que la probabilité n'est significative que dans un petit intervalle
Δx et diminue puis s'annule rapidement en dehors.

Amplitude du paquet d'ondes à l'instant t d'une particule se déplaçant à la vitesse v

185
En somme, un paquet d'ondes accompagne une particule qui se déplace, et c'est
parce que ce paquet d'ondes a une largeur approximative Δx non nulle que la position
de la particule à un instant donné ne peut être définie avec une précision meilleure
qu'une demi-largeur de paquet autour de son centre, et que la particule apparaîtrait
floue si on pouvait la voir.

3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule


La vitesse de déplacement de la particule et de son paquet d'ondes, v, vaut 2 fois la
vitesse de phase v de l'onde dont le maximum est au centre du paquet. Le temps
passant, les ondes de probabilité se rattrapent et se chevauchent, et le paquet d'ondes
s'étale tout en se déplaçant. Le graphique ci-dessous illustre cet étalement, en
montrant que t secondes après l'instant initial t=0 sa densité de probabilité [28]
maximum |(x)|2 a diminué et sa largeur Δx a augmenté.

Densité de probabilité maximum |(x)|2 aux instants 0 et t d'un paquet d'ondes

La conséquence de cet étalement est qu'après un calcul de position qui a donné un


résultat x à l'instant t (à l'incertitude Δx près), l'incertitude sur la position de la particule
en déplacement augmente. En quelque sorte, l'image de la particule devient
rapidement encore plus floue.
En Mécanique quantique la précision de position en mouvement après une
estimation se dégrade rapidement, contrairement à la physique classique.

Mais (surprise !) cette dégradation n'existe pas pour la quantité de mouvement Δp [20]
d'une particule : l'étalement du paquet d'ondes de quantité de mouvement à l'instant
d'une évaluation reste le même après cette évaluation :

Δp(t=0) = Δp(t>0)

186
Cela se comprend facilement si l'on se souvient qu'une particule libre (c'est-à-dire qui
n'est pas accélérée par un changement de potentiel) a une quantité de mouvement
constante.

3.5.9.4.3 Cas d'une onde de photon


Nous venons de voir l'étalement du paquet d'ondes accompagnant une particule de
masse non nulle, c'est-à-dire un corpuscule. Pour un photon, de masse toujours nulle
[117], les choses sont un peu différentes. L'onde électromagnétique du photon dure le
temps  que met un atome (ou une molécule) à l'émettre en passant d'un niveau
d'énergie à un niveau inférieur. La vitesse de cette onde et du photon est la vitesse de
la lumière, c. Si on connaît l'émetteur (atome ou molécule), on connaît ses divers
niveaux d'énergie, la fréquence  du photon, et la longueur de l'onde émise (celle de
sa suite d'alternances) c. L'incertitude sur la fréquence  du photon et sa longueur
d'onde  = c/ proviennent des incertitudes sur les différences entre deux niveaux
d'énergie de l'émetteur. L'incertitude Δx sur la position du photon est égale à sa
longueur d'onde, et l'incertitude sur son impulsion s'en déduit en appliquant le principe
d'incertitude de Heisenberg (voir ci-dessous). Il n'y a pas d'étalement dans le temps.

Si on fait passer de la lumière monochromatique à travers une fente qu'on ouvre


pendant un court instant puis qu'on referme, il y a une incertitude sur la durée
d'ouverture de la fente, donc une incertitude sur la longueur du train d'ondes
lumineuses qui l'a franchie (voir ci-dessous).

3.5.9.5 Incertitude sur la détermination simultanée de 2 variables (Heisenberg)


La Mécanique quantique impose une limite inattendue sur les précisions de la position
et de l'impulsion [20] d'un système en évolution comme le mouvement d'une particule
lorsqu'on les mesure simultanément : le produit des incertitudes (exactement : des
indéterminations) sur la position Δx et l'impulsion Δp doit être toujours supérieur à un
minimum de l'ordre de ½ä (prononcer "h barre"), où

h

2

h est une constante universelle appelée "constante de Planck" ou "quantum d'action"


et valant h = 6.6261 .10-34 joule.seconde ; donc ä = 1.05 .10-34 joule.seconde et
½ä = 0.527 .10-34 joule.seconde.

L'inégalité traduisant ce produit minimum s'écrit :

Δx . Δp  ½ä (a)

La contrainte décrite par l'inégalité (a) est le « principe d'incertitude de Heisenberg »,


découvert en 1927. Voici sa signification : plus le volume considéré autour d'une
position de particule en mouvement est petit (plus cette position est déterminée avec
précision) et plus l'incertitude sur l'impulsion (ou la quantité de mouvement pour un
corpuscule pesant, donc sa vitesse) en ce point est grande, et réciproquement.
 Lorsque la particule a une masse, l'incertitude sur l'impulsion est en fait une
incertitude sur sa quantité de mouvement [20], c'est-à-dire sur sa vitesse si sa
masse est constante comme la Mécanique quantique le suppose.

187
Exemple 1 : un atome de fer ayant un rayon de 1.26 angström (1Å = 10-10 m),
supposons que l'imprécision sur la position d'un électron soit du même ordre, soit
Δx = 1Å. L'incertitude sur la quantité de mouvement de l'électron est alors d'au
moins ½ä/Δx = 0.53 .10-24 kg.m/s ; et puisque la masse au repos de l'électron est
0.9 .10-30kg, l'incertitude sur sa vitesse est 0.6 106 m/s, c'est-à-dire 600 km/s ! Par
contre, si l'on accepte une incertitude de 1mm sur la position, l'incertitude sur la
vitesse tombe à 6 cm/s.
Exemple 2 : les incertitudes sur la position et l'impulsion d'un objet de taille
macroscopique sont insignifiantes. Un grain de poussière de diamètre
1 m = 10-6 m, pesant environ m = 10-15 kg et se déplaçant à la vitesse de 1 mm/s,
dont on mesure la position avec une précision extrême de 0.01 m a une
incertitude sur son impulsion de Δp = mΔv = 0.5 .10-26 kg.m/s, c'est-à-dire une
incertitude sur sa vitesse de 0.5 .10-8 mm/s : La précision sur la vitesse est
meilleure qu'un cent-millionième de mm/s.
 Lorsque la particule mesurée n'a pas de masse, comme c'est le cas pour un
photon [117], il n'y a pas d'incertitude sur sa vitesse - toujours égale à c - mais il
y a incertitude sur sa position du fait de sa longueur d'onde. Pour augmenter la
précision d'une mesure de position utilisant un rayonnement électromagnétique il
faut donc diminuer sa longueur d'onde, c'est-à-dire accroître son énergie.
 L'incertitude sur deux mesures simultanées doit être comprise axe par axe. C'est
ainsi que la composante selon l'axe Oz de l'impulsion, p z, peut être mesurée en
même temps que la composante selon l'axe Ox de la position, x, sans que la
limitation Δx . Δpz  ½ä intervienne.
 Ne pas confondre l'incertitude due au principe de Heisenberg, qui porte sur des
estimations simultanées de la position et de la vitesse, avec la dégradation de la
précision de positionnement d'une particule en mouvement due à l'étalement de
son paquet d'ondes avec le temps qui passe.

Le principe d'incertitude exprime une forme d'incompatibilité entre précisions des


déterminations simultanées de la position et de l'impulsion, incompatibilité qui existe
aussi pour un autre couple de variables, l'énergie ΔE et la durée Δt :

ΔE . Δt  ½ä (b)

L'inégalité (b) peut être interprétée comme une instabilité de l'énergie, une non-
reproductibilité d'expériences mesurant une énergie répétées trop peu de temps l'une
après l'autre : si on fait l'expérience "2" longtemps après l'expérience "1", Δt est grand
et ΔE peut être très petit, la reproductibilité peut être excellente ; mais plus tôt on
réalise l'expérience "2" après l'expérience "1", plus ΔE pourra être grand, ce qui
dégradera la reproductibilité. Le manque de reproductibilité est dû à une instabilité
naturelle, des fluctuations traduisant un refus de précision et de stabilité de la nature.

L'inégalité (b) peut aussi être interprétée comme l'impossibilité de mesurer avec
précision l'énergie d'un phénomène extrêmement bref, ou l'impossibilité de dater avec
précision l'échange d'une très faible quantité d'énergie. Exemple : lorsqu'un atome
perd une énergie ΔE par l'émission d'un photon, la durée de cette transition et de

188
l'émission du photon ne peut être déterminée avec une imprécision meilleure que
ä/2ΔE.

Enfin, le principe d'incertitude joue aussi pour la position angulaire α et le moment


cinétique L en imposant que Δα . ΔL  ½ä.

3.5.9.6 Remarques sur l'incertitude et l'imprécision


En toute rigueur mathématique le principe d'incertitude de Heisenberg décrit une
relation entre les largeurs des spectres de valeurs propres [278] de deux opérateurs
qui ne commutent pas (opérateurs de position et d'impulsion, d'énergie et de durée,
etc.), largeurs qui ne sont pas à proprement parler des incertitudes.

Il y a aussi une incertitude sur la position d'un corpuscule conséquence de la largeur


du paquet d'ondes accompagnant le déplacement d'une masse non nulle. Il y a
également une incertitude due au fait que, souvent, une particule n'est pas ponctuelle
et n'a pas de dimension précise, bien qu'elle soit tout à fait réelle et porteuse d'énergie,
tant pis si ce caractère flou défie notre intuition !
C'est ainsi que dans l'expérience des fentes de Young réalisée avec des atomes,
un même atome sort des deux fentes avec deux distributions de probabilité de
présence, chacune munie de points de probabilité maximum, et les probabilités
de ces distributions vont s'ajouter en amplitude et en phase sur l'écran en
produisant des franges d'interférences. L'atome aura bien emprunté deux chemins
distincts en même temps, avec deux ondes de probabilité se propageant chacune
avec son amplitude et sa phase, d'où les interférences lors de leur rencontre. Cette
existence de deux parcours simultanés est une forme de superposition de
résultats, nous l'avons déjà signalé.

Mais l'habitude d'appeler « incertitude » une largeur de paquet d'ondes est devenue
une véritable tradition, qui fait oublier à certains que toutes les valeurs d'amplitude d'un
intervalle d'incertitude n'ont pas la même probabilité.

Quelle que soit l'interprétation, la conséquence de ces deux types d'incertitude (la
largeur du paquet d'ondes et le principe d'incertitude de Heisenberg) sur le
déterminisme demeure : la précision de nombreuses déterminations est limitée, inutile
d'espérer des progrès techniques ! Mais attention : précision limitée ne signifie pas
inexistence de la particule, ou indéterminisme au sens « conséquence imprévisible
d'une cause ».
Ce n'est pas parce qu'un voltmètre a une précision de 0.5 % que la différence de
potentiel réelle qu'il mesure n'existe pas, ou qu'elle est une conséquence non
déterministe des paramètres du circuit : elle existe avec une valeur probabiliste,
de probabilité maximale au milieu d'un intervalle dont la largeur est 0.5 % de la
tension maximale mesurable ; nous aurions préféré que cette valeur soit précise
avec une infinité de décimales, mais la réalité se moque de nos préférences.
Voir aussi plus bas : "Exemple : portée des forces et masse des particules".

L'imprécision :
 Limite la précision d'une mesure, dont la valeur réelle existe mais est définie
dans un intervalle au lieu d'être exacte. En langage statistique, l'intervalle est de

189
type « intervalle de confiance » et signifie, par exemple, que la valeur réelle a
une probabilité de 95 % d'être entre ses bornes, et une probabilité faible mais
non nulle d'être à l'extérieur aussi loin que l'on voudra.
 Limite notre aptitude à prévoir le résultat exact d'une mesure, donc la
conséquence précise d'une évolution. Et après une mesure de position d'une
particule de masse non nulle en mouvement, (mesure qui a la précision qu'elle
peut), la valeur prédite « s'étale » jusqu'à la prochaine mesure, si on en fait une.

Cette imprécision est un phénomène naturel incontournable, qui nous oblige donc à
revoir notre conception du déterminisme : une évolution ne peut toujours être prévue
avec une précision infinie. Ce phénomène est dû au rapport étroit qui existe, à l'échelle
atomique, entre un corpuscule en mouvement et le paquet d'ondes qui l'accompagne.

Nous verrons aussi, plus bas, que pour des valeurs extrêmement petites de la longueur
ou du temps (longueur et temps de Planck) nos lois physiques ne s'appliquent plus.

3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure


Dans certaines circonstances de physique atomique il y a des variables qui sont
instables : leur valeur peut changer d'une mesure à l'autre sans cause autre que le
temps qui passe ; dans ces cas-là, le postulat de causalité ne s'applique pas.
Exemple : l'énergie potentielle en un point quelconque de l'espace (d'un atome,
d'une galaxie…) peut fluctuer autour d'une valeur moyenne par « emprunts de
courte durée » d'énergie potentielle à l'espace environnant.

A l'échelle atomique, l'incertitude de Heisenberg interdisant de mesurer avec précision


la valeur d'une variable lorsqu'on mesure précisément celle d'une autre, et que les
deux variables font partie d'un couple « incompatible » (couple d'observables dont les
opérateurs associés ne commutent pas), est due à la brutalité d'une mesure, opération
physique irréversible qui fait passer de l'échelle atomique à l'échelle macroscopique.
Cette brutalité entraîne une perte d'information sur l'état quantique du système
atomique, perte qui est à l'origine de l'incertitude.
Exemple : une tentative de mesurer avec précision la vitesse d'un électron en
mouvement à l'aide de photons suffisamment énergétiques pour que cette mesure
soit précise déplace l'électron de manière assez brutale et imprévisible pour
perturber gravement une mesure de sa position. Des détails sur ce phénomène
sont fournis par l'analyse de l'effet Compton.

Mais l'incertitude énergétique due aux fluctuations quantiques n'est pas mesurable, on
ne la connaît que par calcul, et les particules qu'elle crée pendant un court instant sont
considérées comme virtuelles.

3.5.9.7 Incertitude contextuelle


L'incertitude de Heisenberg concerne des couples d'observables A et B mesurées
simultanément, observables « incompatibles » en ce sens qu'elles ne commutent pas
(l'observable produit AB n'est pas égal à l'observable produit BA, ce qu'on écrit
[A,B]0). Mais voici une autre condition d'incompatibilité, dite « contextuelle »,
découverte par Simon Kochen et Ernst Specker en 1967 [43].

190
Considérons trois grandeurs, A, B et C, telles que les observables de B et C
commutent avec celle de A ([A,B]=0 et [A,C]=0) mais pas entre elles ([B,C]0). D'après
le principe d'incertitude, une mesure de A étant compatible avec une mesure
simultanée de B ou de C, on s'attend à ce que la valeur propre [278] trouvée pour A
soit la même en présence de B ou en présence de C. Or le théorème de Kochen-
Specker montre que ce n'est pas le cas : à chaque mesure, la valeur propre trouvée
pour A dépend de la totalité du système, et notamment des autres grandeurs
mesurées : on dit qu'une mesure de physique quantique est toujours contextuelle.

A la différence de l'incertitude de Heisenberg, il ne s'agit pas ici d'une indétermination,


d'une précision limitée. Il s'agit du choix d'une valeur propre dans l'ensemble des
valeurs propres possibles, choix qui peut dépendre d'autres variables du système,
variables de Mécanique quantique mais jamais variables « cachées ».

Le caractère contextuel de la Mécanique quantique est un argument supplémentaire


contre l'existence de valeurs de variables indépendamment de toute mesure, comme
en physique macroscopique. On ne peut donc pas, en physique quantique, affirmer
qu'une variable a une valeur indépendamment de tout système de mesure. Malgré
tout, il existe des propriétés de physique quantique indépendantes des mesures,
comme les formes, dimensions et niveaux d'énergie des orbitales électroniques d'un
atome donné.

3.5.9.8 Incertitude due à l'effet Compton


Une autre conséquence des ondes de matière découvertes par Louis de Broglie est
l'effet Compton, qui en fut la première preuve expérimentale en 1923. Un rayonnement
électromagnétique de haute énergie (rayon X ou gamma) interagit avec la matière qu'il
atteint de trois façons :
 En provoquant la création d'une paire particule-antiparticule électron-positon ;
(on dit aussi positron au lieu de positon) ;
 En extrayant des électrons d'atomes de la matière par effet photoélectrique ;
 Par diffusion élastique des photons par des électrons libres ou à faible énergie
de liaison, diffusion appelée effet Compton.
Lorsqu'un photon incident de longueur d'onde  rencontre un électron, il produit
un photon diffusé de longueur d'onde ' et l'électron recule dans une direction qui
fait un angle  avec celle du photon incident. L'impulsion et l'énergie du photon
incident se trouvent partagées entre le photon diffusé et l'électron de recul. En
appelant me la masse de l'électron, la relation de l'effet Compton est :

h
  ' (1  cos  )
mec

où le terme h/mec est appelé longueur d'onde de Compton de l'électron.


La longueur d'onde de Compton d'une particule de masse m est celle pour laquelle
l'énergie des photons est égale à l'énergie au repos de la particule, mc2.

191
La relation de l'effet Compton montre que la position ou la dimension d'une particule
de masse m ne peuvent être définies à mieux que sa longueur d'onde de Compton
près. [134] Cette forme d'incertitude est négligeable en physique macroscopique.

3.5.9.9 Mesures, incertitude et objectivité

3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée


En physique quantique, toute expérience réalisée avec un appareil à l'échelle
macroscopique modifie le système microscopique qu'elle manipule ; elle détruit son
état initial, devenant de ce fait irréversible.

On ne peut pas, par exemple, mesurer ou simplement observer le passage d'un photon
sans le détruire ; la seule manière de le prendre en compte dans une expérience est
de lui faire céder son énergie, toute son énergie h  car elle est quantifiée, c'est-à-dire
indivisible [117].
On peut quand même absorber le photon en excitant un atome puis le recréer
lorsque celui-ci se désexcite ; mais il faut alors prendre en compte le temps
nécessaire à ce processus, qui peut introduire une incertitude sur l'état du photon
[21].
On peut également, en utilisant l'énergie d'un champ auxiliaire, faire que la
rencontre d'un photon et d'un atome provoque le changement de niveau
énergétique de celui-ci sans absorption du photon [174].

En physique quantique on ne peut même pas copier un état quantique tout en laissant
l'état d'origine inchangé, comme on copie un fichier en informatique ou une page dans
un photocopieur : voir ci-dessous.

3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple


Soit à déterminer expérimentalement la direction d'un mouvement dans un plan,
détermination qui exige de repérer cette direction par l'angle qu'elle fait avec un des
axes orthogonaux constituant notre repère. Supposons, pour fixer les idées, qu'il s'agit
de déterminer le vecteur unitaire up qui décrit la direction de polarisation d'une onde
lumineuse plane monochromatique, c'est-à-dire de connaître les composantes de ce
vecteur par rapport aux axes du repère Ox et Oy.

Pour déterminer la direction du vecteur up, nous disposons d'un analyseur de


polarisation, appareil qui a deux directions privilégiées dont nous appellerons les
vecteurs de longueur unité ux et uy. Cet analyseur transmet les polarisations parallèles
à ux et absorbe les polarisations parallèles à uy. Derrière l'analyseur il y a une cellule
photoélectrique qui nous informe sur les photons qui l'ont franchi. (Rappel : ou un
photon franchit l'analyseur, ou il est absorbé, il n'y a pas de photon partiellement
transmis, nous venons de le voir.)

Nous supposerons que tous les photons à analyser ont exactement la même direction
de polarisation up, par exemple parce que nous leur avons fait franchir un polariseur
(la réflexion sur un simple miroir incliné, par exemple) avant l'analyseur.

192
x
ux

up

Direction de propagation

uy
y

Si nous envoyons les photons polarisés un par un vers l'analyseur, certains photons
le traverseront et d'autres seront absorbés. A moins que tous les photons soient
transmis (ce qui prouverait que up = ux), ou que tous soient absorbés (ce qui prouverait
que up = uy), l'expérience ne nous permet pas de savoir quels angles up fait avec ux
et uy. D'où une première conclusion :
Un appareil ne mesure que ce qu'il a été fait pour mesurer, pas ce que nous
souhaiterions mesurer.

Dans l'exemple précédent, l'analyseur mesure dans deux directions privilégiées et


elles seules. Les résultats donnés par l'appareil sont les valeurs propres [278] de son
observable, conformément au 3e postulat de la Mécanique quantique ; avec un
analyseur comme le précédent il y en a deux, associées à ses vecteurs propres ux et
uy. Plus précisément, l'analyseur ne mesure que dans la seule direction ux, pour
laquelle il ne fournit qu'une réponse de type binaire : OUI si un photon a été transmis,
NON dans le cas contraire ; dans la direction uy il ne fournit que des NON. Il est donc
impossible de déterminer la direction de polarisation d'un photon avec un analyseur
en s'y prenant comme nous venons de le faire.

La conclusion ci-dessus - impossibilité de mesurer la direction de polarisation d'un


photon - est vraie pour beaucoup d'autres grandeurs de physique quantique ;
exemple : la direction d'un vecteur spin [22]. On ne peut souvent déterminer qu'une
réponse de type binaire pour une valeur testée (comme la direction ux), et encore en
perturbant la grandeur mesurée. Et on ne peut pas connaître la valeur avant la mesure,
c'est-à-dire en l'absence de mesure : à part le cas particulier où l'état du système
correspond déjà à une valeur propre avant toute mesure, on ne peut pas, en physique
quantique, supposer qu'un résultat mesuré existe avant sa mesure ; c'est cette mesure
qui crée le résultat, en choisissant une valeur propre !

3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire


Des physiciens astucieux ont eu l'idée de copier un état quantique, en reproduisant la
particule ou le système d'origine à l'identique. Ils voulaient ainsi disposer d'une copie,

193
voire d'un grand nombre de copies identiques, pour pouvoir effectuer les mesures à
loisir. Mais cette idée est vouée à l'échec : à l'échelle atomique (celle de la physique
quantique) toute copie implique une action sur l'objet copié, donc un échange
d'énergie, donc une perturbation, exactement comme une mesure. Et une mesure
donne une certitude sur l'état après elle, pas sur l'état avant, où elle n'avait pas encore
perturbé l'objet. En physique quantique on ne peut donc copier l'état quantique d'un
système ou une particule sans le (la) détruire ou en modifier l'énergie.

Impossibilité du clonage par copie de structure moléculaire et de la téléportation


Il résulte de ce qui précède que le clonage par copie exacte de structure moléculaire
envisagé dans [96] est impossible, donc que la « téléportation » imaginée par les
auteurs de science-fiction l'est aussi. Mais cette impossibilité théorique peut être
contournée, toujours en théorie, grâce à l'effet Einstein-Podolsky-Rosen [368].

3.5.9.9.4 Mesure grâce à un grand nombre de particules


La loi d'optique expérimentale de Malus nous apprend que si on envoie à l'entrée de
l'analyseur ci-dessus un très grand nombre de photons par seconde représentant une
intensité lumineuse i, l'intensité transmise à la sortie sera icos², où  est l'angle de up
avec ux, c'est-à-dire qu'on aura up = uxcos + uysin (figure ci-dessus).
Ce comportement est dû à la nature d'une onde plane, qui se comporte comme la
résultante de deux vibrations dans des plans perpendiculaires. Une onde plane
d'amplitude A se décompose ainsi en deux ondes de même fréquence et
d'amplitudes respectives Acos et Asin. Et comme l'intensité d'un rayonnement
est proportionnelle au carré de son amplitude, les intensités mesurées dans deux
directions perpendiculaires seront proportionnelles respectivement à cos² et
sin². L'intensité étant proportionnelle au nombre de photons par seconde, la
probabilité que des photons traversent l'analyseur est proportionnelle à cos².

Le vecteur d'état up cherché est combinaison linéaire des vecteurs de base ux et uy


de l'analyseur. La probabilité qu'un des photons incidents franchisse l'analyseur est
donc proportionnelle au carré de cos, et la probabilité qu'il soit arrêté est
proportionnelle au carré de sin.

D'où les conclusions :


 Avec une mesure unique (un photon) nous ne pouvons pas connaître la
polarisation avant la mesure, et après la mesure elle ne peut être que ux ou uy :
l'analyseur a perturbé la mesure sans pour autant nous fournir le résultat
souhaité.
 Avec un très grand nombre de mesures (le rayonnement lumineux analysé
durant un certain temps), nous pouvons estimer les probabilités des divers
résultats de mesure, qui seront les carrés des composantes du vecteur cherché
up par rapport aux vecteurs de base ux et uy.

3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique


quantique
 La réalité objective d'un système, c'est-à-dire indépendante de toute mesure et
de tout observateur, existe bien avant une mesure : par définition c'est son état,

194
repéré par un point ou un vecteur de l'espace des états ; elle peut être, par
exemple, une superposition d'états.
Le problème est que cette réalité nous est inaccessible, puisque sans mesure on
ne la connaît pas et avec une mesure on la perturbe en la mesurant !
 La réalité ne nous est accessible qu'à travers une mesure, qui la perturbe tout en
donnant un résultat certain... mais choisi avec une certaine probabilité parmi les
valeurs propres de l'observable [278] mesurée par l'expérience. Et après une
mesure, la réalité d'avant n'existe plus. Il faut même, parfois, un grand nombre
de mesures pour estimer des probabilités pour les coefficients des vecteurs de
base.

A l'échelle atomique, l'inaccessibilité de la réalité objective autrement que par un


modèle mathématique (qui la prédit à partir de postulats, et qu'on estime conforme du
fait de la précision de ses prédictions et de l'absence d'expériences qui la réfuteraient)
fait affirmer à des gens qui ont mal compris la physique quantique que cette réalité
objective n'existe pas, nous en verrons un exemple ci-dessous. Leur raisonnement
implicite est que la réalité physique est limitée à ce qui est perceptible. Pourtant ces
personnes, qui ne voient pas les électrons, croient à leur existence après avoir touché
les fils nus d'une prise de courant !

Et comme ils aggravent parfois leur cas en interprétant le principe d'incertitude de


Heisenberg comme une preuve de non-existence de la réalité - autre preuve de leur
ignorance - nous allons voir quelques détails complémentaires de ce principe.

3.5.9.9.6 Contraintes de non-indépendance de variables


La contrainte de non-indépendance de certaines variables par rapport à d'autres
formant avec elle un couple de variables dites complémentaires, comme l'énergie ΔE
et la durée Δt ci-dessus, est une particularité de la physique quantique susceptible
d'en perturber les mesures : nous avons vu que le produit d'incertitudes ΔE.Δt des
variables d'un tel couple, lorsqu'on les mesure simultanément, est au moins égal à ½ä.

Exemple de non-indépendance : portée des forces et masse des particules


Voici un exemple d'impact de la non-indépendance de certaines variables
complémentaires formant un couple d'observables qui ne commutent pas,
conformément au principe d'incertitude de Heisenberg : l'existence d'une portée
maximale des forces résultant des interactions [18]. Comme nous le verrons un peu
plus loin, les interactions sont quantifiées, c'est-à-dire matérialisées par des échanges
de particules ayant une énergie E qui équivaut d'après la Relativité Restreinte à une
certaine masse m : E = mc2.

Considérons donc une particule porteuse d'une force d'interaction et ayant une masse
m. Cette particule va être émise et se propagera pendant un temps court Δt avant
d'être absorbée et de céder son énergie ΔE = mc2 correspondant à sa masse m. Or le
principe d'incertitude démontre que l'énergie d'un phénomène qui a une durée Δt ne
peut être définie à mieux que ä/(2ΔE) = ä/(2mc2) près. Comme la particule se
déplacera à une vitesse nécessairement inférieure à celle de la lumière, c, la distance
maximale qu'elle pourra atteindre est d = cΔt = ä/(2mc) : c'est l'ordre de grandeur de
la portée de la force correspondant à la particule d'interaction.

195
 Si la particule a une masse nulle, comme un photon, la distance d peut être
infinie : c'est pourquoi la portée de l'interaction électromagnétique est infinie.
La force de gravitation ayant aussi une portée infinie, si comme les trois autres
forces [18] elle est due à une particule, celle-ci a nécessairement une masse nulle.
 Si la particule a une masse non nulle, la portée de l'interaction correspondante
est de l'ordre de ä/(2mc). C'est ainsi que pour la particule appelée méson , dont
la masse est 0.24 .10-27 kg, la portée est de l'ordre de 0.7 .10-15 m, (environ
1 fermi), voisine du diamètre d'un noyau atomique, environ 100 000 fois plus
petit que celui de l'atome.

La notion de portée d'une force apparaît et s'explique en Mécanique quantique ; elle


n'a pas d'équivalent en physique classique, où l'effet du principe d'incertitude est
négligeable. Il faut donc, là aussi, enrichir notre définition du déterminisme.

Voici la portée approximative des 4 forces fondamentales [18] en fermi (fm), où


1 fm = 10-15m :
 Interaction faible : 2 .10-3 fm ;
 Interaction forte : 1 fm ;
 La force de gravitation est beaucoup plus faible que la force électromagnétique ;
exemple : entre deux protons, la force de gravitation est environ 10 36 fois plus
faible que la force électrostatique de Coulomb [341] ; mais la portée de ces deux
forces est infinie.

Voir le schéma du Modèle standard [59].

3.5.9.9.7 Objectivité des mesures


En physique macroscopique une loi déterministe permet des prévisions de résultat
indépendantes de l'expérience, donc aussi objectives et indépendantes de
l'observateur. Par contre, selon certains non-physiciens, une mesure de physique
quantique est nécessairement perturbée par l'interprétation de l'expérimentateur, ce
qui l'empêche d'être objective. Nous allons d'abord voir la différence entre mesures
actives et mesures passives, puis développer le sujet de l'objectivité.

Mesures actives
J'appelle mesure active une mesure dont le dispositif expérimental échange
nécessairement de l'énergie avec l'objet ou le phénomène mesuré ; c'est le cas, par
exemple, de toutes les mesures de physique quantique. Une telle mesure ne peut pas
ne pas perturber son résultat, même si c'est souvent de manière négligeable en
physique macroscopique ; et la perturbation causée est toujours irréversible.
Exemple : si je mesure au laser la distance de la Terre à la Lune, en émettant un
faisceau laser de la Terre qui se réfléchit sur un réflecteur posé sur la Lune, puis
en calculant la distance à partir du temps mis par la lumière à faire l'aller-retour,
un non-physicien croit que j'effectue une mesure qui ne perturbe pas la distance
Terre-Lune, contrairement à une mesure de physique quantique. Pourtant, en
toute rigueur, la mesure au laser produit une impulsion [20] lumineuse qui exerce
une poussée sur le réflecteur lunaire, modifiant ainsi la distance mesurée. L'erreur

196
ainsi introduite est si minime qu'il n'est pas question d'en tenir compte
quantitativement, mais elle existe.
Autre exemple : une mesure de tension au voltmètre perturbe la tension mesurée
du fait de la petite consommation de courant du voltmètre, dont l'aptitude à peu
perturber se mesure en ohms par volt ; un voltmètre à 20 000 ohms/volt est plus
perturbateur qu'un voltmètre à 100 000 ohms/volt.

Mesures passives
J'appelle mesure passive une mesure qui n'échange pas d'énergie avec l'objet ou le
phénomène mesuré. Si je mesure la hauteur d'une étoile au-dessus de l'horizon grâce
à la lumière que j'en reçois, je ne perturbe pas ma mesure par un échange d'énergie ;
de même si je mesure la largeur d'un livre en la comparant à la graduation d'une règle
posée à côté.

Objectivité d'une mesure - Les erreurs de certains non-physiciens


Lorsque des non-physiciens considèrent que la perturbation introduite par une mesure
en physique quantique en perturbe aussi l'objectivité, ils se trompent. Le résultat d'une
telle mesure est une valeur propre de l'observable mesurée [278], valeur qui dépend
de l'expérience mais pas de l'expérimentateur. Mais un non-physicien ne sait pas ce
qu'est une valeur propre d'opérateur auto-adjoint associé à une quantité mesurable…

Certains non-physiciens - notamment certains philosophes – considèrent à tort qu'une


mesure ne perturbe ce qu'elle mesure que si elle est mal organisée. Et lorsqu'ils
apprennent qu'en physique quantique toute mesure perturbe la grandeur mesurée,
certaines personnes qui ont mal compris la physique quantique en déduisent qu'à cette
échelle-là il n'existe pas de réalité objective, mais seulement des cas particuliers de
réalité associés à un contexte où l'homme qui mesure intervient nécessairement par
ses représentations mentales de la réalité.

3.5.9.9.8 La « mathématicophobie » et l'ignorance


Beaucoup de personnes sont intimidées par les sciences à base de mathématiques
comme la physique et l'astronomie. Elles sont victimes d'une pédagogie déficiente,
pas d'une incapacité pour une intelligence normale à assimiler des outils
mathématiques, incapacité qui n'existe pas plus que l'incapacité à maîtriser
l'orthographe.

L'impossibilité de décrire une réalité en soi à l'échelle atomique à partir de concepts


issus de nos sens adaptés à l'échelle macroscopique, et l'obligation de la décrire à
l'aide des mathématiques de la Mécanique quantique paraît à certains un vice
rédhibitoire de la méthode scientifique. Cette attitude est puérile, car elle postule
l'obligation de faire découler toute représentation du monde de concepts issus de nos
sens. Et comme nos sens ne peuvent percevoir ni les sons trop aigus ou trop graves,
ni les ondes électromagnétiques hors du spectre visible (longueur d'onde 0.4 à 0.7
μm), ni bien d'autres phénomènes, refuser toute représentation abstraite non basée
sur nos sens est absurde.
Décrire quelque chose exige d'en construire une représentation abstraite, et rien
n'impose de limiter les abstractions à celles issues directement de nos sens ; celles
issues de concepts a priori de l'entendement comme les outils mathématiques
conviennent tout aussi bien sinon mieux, car ils sont moins ambigus.

197
Polémique
Je constate que je n'ai rencontré de personnes qui contestent l'existence d'une réalité
en soi (comme la matière) que parmi les philosophes comme l'immatérialiste Nietzsche
[205]. Ces personnes tentent de justifier les intuitions de leur doctrine (voir discussion
sur l'objectivité et la subjectivité). En niant l'existence d'une réalité en soi, ces
philosophes veulent réfuter le déterminisme, pour faire triompher la croyance en une
intervention transcendante de l'esprit dans tout ou partie des phénomènes physiques ;
leur combat est idéologique. C'est pourquoi, dans le débat [61], le philosophe
matérialiste André Comte-Sponville a répondu à l'un d'entre eux :
"Vous avez écrit 500 pages pour enfoncer une porte ouverte : montrer que la
croyance en Dieu est toujours possible. Mais qui le nie ? Vous ne verrez aucun
philosophe sérieux affirmer qu'il est impossible de croire en Dieu ! D'un point de
vue logique et métaphysique [371], chacun sait depuis longtemps - lisez Kant ou
Hume, Pascal ou Montaigne - que la croyance en Dieu est possible, que nous ne
pouvons prouver ni son existence ni son inexistence !"

Certains idéalistes invoquent "l'interprétation de Bohr" pour nier que la physique


quantique soit une représentation de la réalité. En 1927, Bohr avait conseillé aux
physiciens qui n'arrivaient pas à croire au modèle contre-intuitif de la Mécanique
quantique de faire confiance à ses mathématiques (équation de Schrödinger, etc.)
pour faire des calculs et des prédictions justes dans chaque expérience, sans essayer
d'interpréter ses résultats comme une description de la réalité perceptible. Cette réalité
existe bien objectivement, mais chaque expérience en est un cas particulier où la
mesure accessible à l'homme intervient par passage irréversible à l'échelle
macroscopique qui ne fournit qu'un résultat après mesure, pas avant.
80 ans après la prise de position de Bohr, le consensus des scientifiques sur les
modèles mathématiques de la Mécanique quantique est le suivant :
 Ces modèles représentent bien - et en totalité - la réalité physique. Ils en
décrivent tout ce qu'on peut savoir, les postulats qui l'affirment n'ayant jamais été
réfutés mais ayant été confirmés un nombre immense de fois.
 Ces modèles et les résultats des mesures sont objectifs, c'est-à-dire
indépendants de l'observateur et de ce que son esprit comprend ou non.

Nous devons admettre qu'à l'échelle atomique la réalité a pour représentation des
équations produisant des fonctions d'onde probabilistes, et des opérateurs auto-
adjoints appelés "observables" avec leurs valeurs propres [278]. Ces notions ne sont
pas issues des sens ; et c'est parce que notre esprit doit se faire violence en admettant
des représentations si abstraites que Bohr conseillait de ne pas perdre de temps à
s'en faire des représentations mentales, mais d'accepter les prévisions calculées, y
compris avec les limitations de précision dues aux incertitudes.

3.5.9.10 Quantification des interactions et conséquences sur le déterminisme


L'existence du quantum d'action h révèle une propriété fondamentale de toute
interaction : pour qu'une source influence physiquement une cible (action mécanique,
électrique, échange thermique, rayonnement, etc.) elle doit émettre un nombre entier
de quanta d'interaction qui se propageront jusqu'à cette cible. Par exemple l'influence
d'un champ électromagnétique échange des quanta d'interaction appelés photons
[117] ; cette influence est un rayonnement. La propagation se fait à une vitesse qui ne

198
peut dépasser celle de la lumière dans le vide, appelée c, et valant exactement (par
définition, car c'est une unité fondamentale) c = 299 792.458 km/s. Il y a 4 types
d'interaction physique [18].
Exemple : tout échange d'énergie par rayonnement électromagnétique (par
exemple lorsqu'un corps chaud se refroidit en émettant un rayonnement) met en
jeu un nombre entier de photons. L'énergie d'un photon de fréquence  est
exactement égale à h, et l'échange d'énergie par rayonnement de fréquence 
ne peut se faire que par quantités discontinues multiples de h.

Voir aussi le paragraphe "Nécessité d'une interaction avec échange d'énergie".

3.5.9.10.1 Différence entre quantification et imprécision


Le caractère discontinu d'un échange d'énergie électromagnétique, qui pour chaque
fréquence  échange une quantité d'énergie multiple de h, introduit une impossibilité
d'échanger certaines quantités non multiples de h. Il ne faut pas confondre cette
impossibilité, qui rend discrète la variable énergie, avec une imprécision qui
empêcherait de préciser sa valeur.

Voici un exemple de différence entre une variable discrète (ici l'énergie d'un
rayonnement électromagnétique) et une variable continue à valeur imprécise (ici une
position dans l'espace). Une source lumineuse monochromatique de fréquence 
rayonne chaque seconde une quantité d'énergie sous forme d'ondes
électromagnétiques, quantité discontinue multiple entier du quantum h. Mais la
position d'un électron en mouvement sous l'action d'un champ électrique est une
grandeur continue, dont la détermination à un instant donné est entachée d'une
incertitude au moins égale à la plus grande des deux largeurs suivantes :
 La demi-largeur du paquet d'ondes accompagnant le déplacement de l'électron,
qui rend sa position imprécise ;
 L'existence d'une longueur d'onde de Compton associée à la masse de l'électron
[134], longueur qui détermine une précision maximale de taille ou de position.

3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie


Lorsque des particules chargées électriquement comme les électrons interagissent,
elles le font par échange de photons [117]. Conformément au 1 er principe de la
thermodynamique [25], chaque échange conserve l'énergie totale, entre le moment où
il débute et un photon est émis, et le moment où il prend fin et le photon est absorbé.
Mais pendant le court instant Δt où l'échange a lieu, il n'y a pas nécessairement
conservation de l'énergie : le principe d'incertitude de Heisenberg permet une variation
d'énergie ΔE telle que ΔE.Δt ≥ ½ä : tout se passe comme si le photon échangé
"empruntait" une quantité d'énergie de l'ordre de ΔE pendant environ Δt secondes à
l'énergie potentielle du milieu (vide) environnant, et la restituait ensuite à la fin de
l'échange. Ce photon à énergie empruntée puis restituée est appelé « virtuel », car on
ne peut le mettre en évidence expérimentalement ; et il existe des particules virtuelles
soumises au principe d'incertitude pour toutes les interactions [18], sauf peut-être la
gravitation.
Voir aussi les paragraphes "Exemple : portée des forces et masse des particules"
et "Un vide plein d'énergie".

199
La non-conservation de l'énergie pendant un emprunt à l'espace environnant,
phénomène bien réel mais négligeable en physique classique, nous oblige elle aussi
à revoir la notion de déterminisme que nous devons à Newton et Lagrange.

3.5.9.10.3 Conséquences de la quantification des interactions : extension du


déterminisme
Le déterminisme des lois physiques doit donc être étendu pour tenir compte du
caractère discret et quantifié de toutes les interactions (sauf peut-être la gravitation),
contrairement à l'intuition qui nous faisait croire qu'elles étaient continues parce que le
quantum d'action h est extrêmement petit à l'échelle humaine (il faut l'énergie de 12
milliards de milliards de photons [117] de lumière orangée pour chauffer 1 gramme
d'eau de 1 degré C !).

Nous avons vu ci-dessus qu'une cause de départ, origine d'une interaction, pouvait
avoir plusieurs conséquences, dont une seule sera choisie au hasard lors de la
décohérence. Nous savons maintenant, en plus, que toute interaction (toujours sauf
peut-être la gravitation) est quantifiée et qu'à l'échelle atomique certaines valeurs
numériques associées à un état conséquence d'une interaction sont discrètes.

Le déterminisme des lois physiques doit donc être étendu pour tenir compte de la
nature quantifiée des interactions, ainsi que de la nature discrète possible des
variables d'état d'une conséquence.

Voir la citation du mathématicien René Thom sur le hasard [226].

3.5.9.10.4 Quantification des vibrations - Phonons et frottements


Toute action sur de la matière agit sur ses atomes [108]. L'énergie des vibrations
mécaniques en tout genre est aussi quantifiée. Le quantum d'énergie vibratoire est
appelé phonon. Lorsqu'un groupe d'atomes vibre, qu'il s'agisse de vibrations par ondes
sonores ou par réaction à des champs électromagnétiques alternatifs, l'énergie de
chacun de ses atomes est quantifiée, contrairement à notre intuition qui voudrait la
croire capable de varier de manière continue. Un atome qu'une vibration a écarté de
sa position d'équilibre par translation ou rotation transmet un écart à ses voisins, la
perturbation s'étendant de proche en proche. Du reste, il n'y a pas que l'énergie
échangée qui soit quantifiée, l'impulsion [20] et le moment cinétique le sont aussi.

A part les divers types de vibrations, le quantum qu'est le phonon intervient dans toutes
sortes de phénomènes de physique du solide comme la conductivité électrique, la
chaleur spécifique, la conductivité thermique, la supraconductivité, la ferroélectricité…

Nous devons donc nous habituer à ce que toutes sortes de phénomènes soient
quantifiés, donc discontinus et n'apparaissant qu'au-delà d'un certain seuil minimum.
C'est ainsi que lorsque deux objets sont en contact et que l'on veut déplacer l'un par
rapport à l'autre, l'existence de frottements a des effets atomiques et entraîne
l'existence d'un effort minimum et d'un bond minimum : un déplacement avec
frottement ne peut être continu. Notre déterminisme intuitif doit être révisé aussi dans
tout ce qui concerne les vibrations et les mouvements avec frottement.

200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière
L'absorption ou l'émission de lumière - ou plus généralement des photons [117] d'un
rayonnement électromagnétique - par de la matière a trois sortes d'effets mécaniques
ou thermiques :
 Un échange d'énergie thermique ;
 Un échange d'impulsion lumineuse des photons contre de la quantité de
mouvement de l'objet matériel, qui a tendance à prendre ou céder de la vitesse
en vertu du principe de conservation de l'impulsion ;
Un photon de longueur d'onde  a une impulsion p = h/ [20]. Malgré sa petitesse,
cette impulsion peut avoir un effet perceptible à l'échelle macroscopique :
lorsqu'un rayonnement lumineux tombe sur une surface ou en part, celle-ci subit
une poussée mécanique. Cette poussée se manifeste, par exemple :
 Par la rotation d'un petit tourniquet à ailettes ;
 Par la stabilité de certaines étoiles, dont l'enveloppe gazeuse subit une
pression des rayonnements venus du noyau qui équilibre la gravitation ;
 Par la poussée que subit la Terre sous l'influence du rayonnement solaire :
environ 6 109 newtons (~600 000 tonnes-force), ce qui est peu par rapport à
la force de gravitation.
La lumière émise exerce une pression qui repousse la surface qui l'émet.
 Un échange de moment cinétique entre les photons et l'objet matériel.
C'est ainsi qu'une lumière polarisée circulairement exerce un couple de rotation
sur une surface sur laquelle elle tombe, couple extrêmement faible mais non
nul ; chaque photon apporte un moment cinétique multiple entier de ä :
-2ä, -1ä, 0, +1ä, +2ä… dont le signe dépend du sens de rotation.
Voici des exemples de fronts d'onde polarisées circulairement cités par [330] :

-1ä 0ä +1ä +2ä +3ä

Fronts d'onde de lumière polarisée circulairement

Les phénomènes d'échange de chaleur sont connus de tout le monde, mais les
phénomènes d'échange d'impulsion et de moment cinétique ne sont connus que par
peu de personnes. Ils peuvent pourtant être lourds de conséquences :
 En 28 mois, l'orbite du satellite artificiel Vanguard 1 ("Pamplemousse"), de 16 cm
de diamètre, a été déplacée de 1600 m par la pression du rayonnement solaire,
selon [105] page 823.
 L'une des méthodes envisagées pour protéger l'humanité contre un astéroïde
qui risquerait de percuter la Terre consiste à y envoyer une équipe qui en
recouvrirait une partie d'un matériau réfléchissant comme une feuille de

201
plastique aluminisé, changeant ainsi la poussée de la lumière solaire sur lui,
donc sa trajectoire.

3.5.9.10.6 Effets photoélectriques


Lorsque de la lumière est absorbée par de la matière, il y a – en plus des effets
mécaniques et thermiques ci-dessus – trois effets dits photoélectriques :
 L'émission photoélectrique : lorsque de la lumière frappe de la matière avec une
énergie suffisante, elle détache des électrons de certains atomes, électrons qui
peuvent être attirés ou repoussés par un champ électrique.
 La photoconductivité : augmentation de la conductivité d'un semi-conducteur qui
absorbe la lumière. Cette propriété peut être utilisée, par exemple, pour mesurer
la quantité de lumière.
 L'effet photovoltaïque : transformation directe de la lumière en énergie
électrique, qui apparaît sous forme de différence de potentiel entre les deux
côtés d'une jonction. Cette propriété est utilisée, par exemple, dans des
panneaux solaires qui produisent de l'électricité.

3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme


 L'imprécision sur des valeurs de variables introduit dans certaines
transformations à étapes multiples l'existence de branches supplémentaires
dans l'arborescence de conséquences issue de l'état initial. Elle ne fait ainsi que
multiplier les évolutions possibles entre lesquelles un choix s'opère.
Le déterminisme des lois physiques doit être étendu pour tenir compte des
imprécisions, qui introduisent des branches supplémentaires dans l'arborescence
de conséquences issue d'un état initial.

Exemple du mouvement brownien : considérons un récipient cubique fermé de


quelques centimètres de côté, supposé parfaitement vide à l'exception d'une
molécule de gaz unique. Du fait de la température, cette molécule se déplace tout
le temps, son énergie cinétique résultant de la température. Dans son
déplacement, la molécule rebondit sur les parois. Pour fixer les idées, la vitesse
d'une telle molécule est de l'ordre de 1 km/s ; elle rebondit donc chaque seconde
de nombreuses fois sur les parois et sa trajectoire est une ligne brisée très
complexe. Du fait de l'incertitude sur les positions d'impact due à la largeur d'un
paquet d'ondes, chaque point où on prévoit que la molécule heurtera la paroi est
en fait une petite surface ayant une certaine étendue, et le vecteur vitesse du choc
est lui-même défini avec une certaine imprécision - en grandeur comme en
direction.
Comme à l'échelle atomique la surface du récipient présente des aspérités, le
moindre déplacement d'un point d'impact peut introduire une variation importante
de la direction dans laquelle la molécule rebondit, direction qui s'avère donc
imprévisible car entachée de trop d'incertitude. Le rebond suivant pourra donc être
très différent selon la direction du rebond précédent.
En plus, lorsqu'il y a plus d'une molécule dans le récipient et que deux
molécules A et B entrent en collision, un choc de A à un endroit légèrement

202
différent de B - ou avec un vecteur vitesse légèrement différent - pourra faire
rebondir A et B avec des vecteurs vitesse très différents.
On voit donc que les trajectoires possibles de la molécule (unique ou non), à partir
d'un point précis donné où elle avait un vecteur vitesse précis, peuvent être
représentées par une arborescence de conséquences où chaque nœud
représente un rebond et chaque branche une direction possible à partir de ce
nœud. Il y a bien multiplication des branches possibles de l'arborescence de
conséquences : la prévision d'une trajectoire à multiples rebonds est impossible,
on sait seulement que la trajectoire qui sera effectivement observée est l'une des
trajectoires possibles, associée à l'une des innombrables chaînes de
conséquences de l'arborescence des évolutions possibles.

Convergence possible des fins de trajectoires multiétapes, c'est-à-dire des


conséquences finales d'une cause de départ - Attracteurs
En pratique, il peut arriver que les diverses chaînes de causalité de l'arborescence
des trajectoires possibles ne soient pas équiprobables. On observe alors parfois
des points - (ou dans l'espace des phases des couples {point, vecteur vitesse en
ce point}) - au voisinage desquels la probabilité de fin d'une trajectoire est bien
plus grande qu'ailleurs. Ces points sont appelés « attracteurs », parce que les fins
de trajectoires possibles convergent dans leur voisinage ; nous avons déjà évoqué
cette notion. Pour d'autres exemples d'attracteurs voir "Attracteurs multiples" et
"Accidents de la réplication du génome".

Impossibilité de remonter d'une conséquence à sa cause


Autre conséquence de cette incertitude sur la trajectoire d'une molécule, on ne
peut pas remonter à son origine : à partir d'un point P atteint après des milliers de
rebonds, même si on connaît les incertitudes sur la position P et la vitesse en P,
ces grandeurs mesurées ne permettent pas de reconstituer la trajectoire de la
molécule, c'est-à-dire de savoir où elle se trouvait une seconde auparavant,
contrairement à ce que voudrait le déterminisme philosophique [200].
Pourtant, au niveau macroscopique de la thermodynamique, le comportement du
gaz est déterministe au sens classique. A volume de récipient constant, par
exemple, la pression du gaz intérieur est strictement proportionnelle à sa
température absolue [121], d'après la loi des gaz parfaits pv=nRT.
 Du fait des incompatibilités de détermination simultanée de certains couples de
variables, leurs valeurs ne peuvent pas être déterminées de manière
indépendante dans une expérience donnée. La connaissance de la plage d'une
des valeurs contraint (limite) ce qu'il est possible de connaître de l'autre,
déterminant ainsi sa propre plage de valeurs : une plage impacte l'autre.
Le déterminisme des lois physiques doit aussi être étendu pour tenir compte de la
non-indépendance de certaines variables d'état et de l'interdépendance de leurs
imprécisions.
 Des principes considérés comme évidents en physique macroscopique peuvent
être violés en physique quantique. Nous devons donc réviser nos notions sur
l'évidence, notamment celles sur la causalité. Voici des exemples.

203
 Le principe de conservation de l'énergie peut être violé dans des
expériences où l'intervalle de temps Δt est très court : du fait de la relation
ΔE . Δt  ½ä, une paire particule-antiparticule peut naître en empruntant son
énergie à l'espace environnant, se propager sur une courte distance et
disparaître par recombinaison en restituant l'énergie empruntée.
Cela se produit notamment lorsqu'un trou noir « s'évapore » en rayonnant des
particules et des antiparticules, processus connu sous le nom « d'effet (ou
rayonnement) Hawking ». Du fait du principe d'incertitude, plus l'intervalle de
temps Δt considéré est petit, plus la violation temporaire de la conservation
de l'énergie peut être grande (ΔE grand).
Autres violations possibles pendant un temps court : la conservation de
l'impulsion ; la conservation du nombre de particules (certaines peuvent
apparaître, d'autres peuvent disparaître ou se transformer…)
 « L'effet tunnel » permet à un corpuscule de franchir une barrière de
potentiel, alors qu'en principe son énergie est insuffisante. C'est ainsi que,
dans certains transistors, un électron peut passer à travers un isolant. C'est
là un effet de la nature également ondulatoire de ce corpuscule : les ondes
de probabilité de présence traversant la matière, il existe une probabilité de
présence non nulle des deux côtés de la barrière (nous l'avons déjà vu).
Une mise en évidence expérimentale de la position d'une particule subissant
l'effet tunnel ne peut donner qu'un seul résultat, comme lors d'une
décohérence, alors que la particule a une probabilité de présence non nulle
dans toute une région de l'espace.
 Autre paradoxe : la règle relativiste qui empêche une interaction de se
propager plus vite que la lumière conduit dans certains cas à l'apparition
dans les calculs de particules d'énergie négative. En renversant le sens du
temps, c'est-à-dire de la causalité, une énergie négative se comporte
comme une énergie positive. On interprète donc une particule d'énergie
négative qui remonte le temps comme une antiparticule d'énergie positive
qui le descend, l'antiparticule ayant la même masse que la particule d'origine
mais une charge électrique opposée.
Antiparticule : Pour que la causalité se produise bien dans le sens du présent
vers l'avenir, il faut qu'existe pour chaque particule chargée électriquement
une antiparticule de charge opposée et de même masse : l'électron de charge
négative -e [150] a pour antiparticule le positon (on dit aussi positron) de
charge +e ; au proton correspond l'antiproton ; à l'atome d'hydrogène
proton + électron correspond l'antihydrogène antiproton + positon, etc. C'est
ainsi que Dirac a découvert les antiparticules par raisonnement, avant que
leur existence soit prouvée expérimentalement. Et lorsqu'une particule
rencontre son antiparticule, elles s'annihilent en libérant de l'énergie et/ou en
créant une autre paire particule-antiparticule…
 La validité du principe d'incertitude rend très approximatif le modèle atomique
proposé par Niels Bohr en 1913, modèle où un électron de masse m tourne à la
vitesse v autour de son noyau d'atome d'hydrogène selon une trajectoire
circulaire de rayon r analogue à celle de la Terre autour du Soleil [341].
En effet, pour que ce modèle soit plausible il faudrait que les incertitudes Δx sur
la position x de l'électron, et Δp sur son impulsion p = mv, soient négligeables

204
devant r et p respectivement, ce qui est loin d'être le cas pour les trajectoires de
niveau d'énergie habituel. (Nous avons déjà présenté les trajectoires
électroniques).

3.5.10 4e extension du déterminisme : lois de conservation et symétries


Voici quelques détails supplémentaires concernant l'uniformité de l'Univers.

3.5.10.1 Invariance de valeurs, invariance de lois physiques


Certaines lois physiques de conservation sont connues depuis longtemps et nous
paraissent évidentes, relevant du simple bon sens et du déterminisme traditionnel.
Exemples :
 La conservation de la charge électrique impose que toute évolution d'un système
fermé conserve sa charge électrique totale, qui ne peut ni croître ni décroître.
 Masse m et énergie E sont deux propriétés indissociables d'un système, dont les
variations sont reliées par la célèbre équation d'Einstein ΔE = Δm.c². Toute
évolution d'un système fermé conserve la somme masse + énergie.

Les deux exemples ci-dessus illustrent des conservations de valeurs de variables


(charge électrique, masse + énergie…) lorsqu'un système évolue. Mais puisque toute
évolution physique est déterministe (obéit à des lois stables), on doit aussi se poser la
question de l'invariance des lois qui régissent les évolutions : par exemple, que devient
une de ces lois lorsque l'on change le repère des coordonnées d'espace-temps ?

Par définition, si une équation représentant une loi physique reste invariable lors d'un
changement, on dit qu'elle est symétrique par rapport à ce changement : la symétrie
est ici synonyme d'invariance.

3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps


 L'invariance par déplacement (translation et rotation) traduit l'homogénéité et
l'isotropie de l'espace : un changement du repère R(Ox ;Oy ;Oz) en repère
R'(O'x' ;O'y' ;O'z'), où R' se déduit de R par déplacement de l'origine des axes
d'un vecteur OO' suivi d'une rotation autour d'un axe quelconque, laisse la loi et
son équation inchangées. C'est le cas, par exemple, pour la loi fondamentale de
la dynamique f = mr'', où r'' est la dérivée seconde du vecteur r par rapport au
temps.
Ce type de symétrie est appelé symétrie euclidienne, car elle traduit deux
propriétés de l'espace euclidien, l'homogénéité et l'isotropie.
 L'homogénéité de l'espace a pour conséquence la conservation du vecteur
mv, quantité de mouvement [20] d'un corps de masse m, et celle du vecteur
impulsion p d'une particule sans masse.
 Moment cinétique - L'isotropie de l'espace a pour conséquence la
conservation du vecteur moment cinétique r  mv ou r  p, où :
 r est le vecteur associé à la distance OA entre le point matériel A de
masse m et vitesse v, et le point O par rapport auquel on évalue le
moment cinétique ;
 p est le vecteur impulsion d'une particule sans masse ;
  est l'opérateur de produit vectoriel.

205
 L'invariance par translation dans le temps traduit la stabilité des lois physiques
dans le temps. Si on change l'origine des temps, par exemple en faisant
commencer notre calendrier au début du XXI e siècle, le 1er janvier 2001, les lois
physiques sont inchangées. Cette invariance a une conséquence importante, la
conservation de la masse et de l'énergie d'un système isolé.
Ce type de symétrie est appelé symétrie temporelle, dénomination qui introduit
une confusion possible avec celle qui laisse invariante une équation par
changement de t en -t.
 Invariance par changement de repère galiléen. Par définition, un changement de
repère galiléen fait passer d'un repère R(Ox ;Oy ;Oz) à un repère
R'(O'x' ;O'y' ;O'z') d'axes parallèles à ceux de R et en mouvement rectiligne
uniforme parallèle à Ox à la vitesse v par rapport à R ; à l'instant t=0, les origines
des deux repères O et O' coïncident. Dans un tel changement, un vecteur r de R
devient r - vt dans R'.
Cette symétrie traduit le fait que certaines lois physiques sont les mêmes pour
deux observateurs en mouvement rectiligne uniforme l'un par rapport à l'autre. Elle
implique notamment le « principe d'additivité des vitesses » [36], dont voici un
exemple : si, dans un train qui roule à 100 km/h, je marche de l'arrière vers l'avant
à la vitesse de 5 km/h, ma vitesse par rapport au sol est 100 + 5 = 105 km/h.
Ce type de symétrie est appelé symétrie galiléenne du nom du physicien Galilée.
Elle fait partie des hypothèses de base de la mécanique rationnelle de Newton
[110], qui suppose l'existence d'un espace (et d'un temps) absolus. Ces
hypothèses et la symétrie galiléenne sont des approximations, acceptables
seulement lorsque les vitesses sont négligeables par rapport à la vitesse de la
lumière, c : nous allons voir cela à propos de l'invariance relativiste.
 Invariance relativiste. En 1887, Michelson et Morley ont observé que la vitesse
de la lumière est constante dans toutes les directions de l'espace. Elle ne
s'ajoute donc pas à la vitesse de déplacement de la Terre autour du Soleil
(30 km/s), à celle du Soleil en direction de l'étoile  de la Lyre (20 km/s), à celle
due à la rotation de la Galaxie, etc. La vitesse de la lumière est donc une donnée
invariante, une constate de l'Univers.
Pour tenir compte de cette invariance, Lorentz a proposé en 1904 une
transformation linéaire permettant un changement de repère qui préserve
l'invariance des lois de la dynamique. Il suffit de remplacer la loi galiléenne
r' = r - vt par une loi qui change simultanément l'espace et le temps ; on passe
alors du repère (R) où les coordonnées sont (x ; y ; z ; t) à un repère (R') où elles
sont (x' ; y' ; z' ; t') comme suit :

𝑣

𝑥 − 𝑣𝑡 𝑡− 𝑥
𝑥 = 𝑡′ = 𝑐²
y'  y z'  z
√1 − 𝑣² √1 − 𝑣²
𝑐² 𝑐²

Transformation de Lorentz utilisée en Relativité Restreinte

206
(On a choisi les axes de (R) et (R') parallèles, le mouvement de (R') par rapport à
(R) parallèle à Ox à vitesse constante v, et l'instant 0 de (R) coïncidant avec
l'instant 0 de (R') ).
Ce type de symétrie est appelé symétrie relativiste ; c'est celle de la théorie de la
Relativité Restreinte d'Einstein [49].
Lorsque la vitesse relative v est très faible par rapport à c, cette loi de changement
de repère équivaut à la loi galiléenne d'additivité des vitesses :
x' = (x - vt) ; y' = y ; z' = z ; t' = t
La symétrie relativiste :
 Contracte ou dilate l'espace (les longueurs) selon le sens du déplacement
par rapport à un observateur ; mais (surprise !) une sphère en mouvement
reste sphérique, elle ne devient pas un ellipsoïde.
 Dilate le temps pour une horloge en mouvement, qui prend du retard par
rapport à une horloge fixe (par exemple lors des voyages en avion).
 Sépare deux événements simultanés distincts de (R), distants de Δx, à la
fois dans l'espace et dans le temps dans (R').
La relativité affecte la causalité, donc le déterminisme : si deux événements
situés en des endroits distincts A et B sont simultanés, l'un ne peut être cause
de l'autre ; mais vus d'un troisième point, C, distinct de A et B, ils ne sont plus
simultanés. Si l'observateur en C ne connaît pas l'emplacement spatial de A
et B et ne sait pas qu'ils sont simultanés, il peut croire que l'un est cause de
l'autre. Pour plus de détails voir l'espace-temps de Minkowski.
La symétrie relativiste conserve les lois de la dynamique à condition de
transformer les longueurs, les durées et les masses conformément aux équations
de Lorentz. C'est ainsi, par exemple, que la masse m d'un corps qui vaut m0 au
repos varie avec la vitesse v selon la loi

m0
m

1

qui implique l'impossibilité pour un corps pesant d'atteindre la vitesse de la lumière


c, où sa masse m serait infinie. L'énergie relativiste totale de ce corps est :

m0 c ²
E

1

Cette énergie tend vers l'infini lorsque v tend vers c : pour accélérer une masse
au repos m0 jusqu'à la vitesse c, il faudrait une énergie infinie ; aucun corps pesant
ne peut donc atteindre la vitesse de la lumière, et les plus puissants accélérateurs
de particules ne peuvent accélérer celles-ci au-delà d'une énergie de l'ordre de

207
10 000 GeV (1.6 .10-6 joule), correspondant pour un proton à 99.9999995 % de la
vitesse de la lumière.

3.5.10.3 Invariances et lois de conservation (lois fondamentales de la physique)


En 1918, Emmy Noether a démontré que l'invariance d'une théorie physique par
rapport à une transformation continue se traduit toujours par l'existence d'une loi de
conservation d'une quantité. Toutes les symétries que nous venons de voir sont
continues, qu'il s'agisse de la symétrie euclidienne, de la symétrie temporelle, de la
symétrie galiléenne ou de la symétrie relativiste. Il y en a d'autres, dont voici des
exemples.
 La conservation de la charge totale dans toute transformation est vraie
séparément pour la charge électrique, la charge baryonique et la charge
leptonique.
 La symétrie par rapport à un plan, celle qui intervient dans la formation d'une
image dans un miroir, laisse inchangées les interactions gravitationnelle,
électromagnétique et nucléaire décrites dans [18], mais pas l'interaction faible.
Les lois fondamentales de la dynamique sont invariantes par cette symétrie.
On parle alors de conservation de la parité ou de « symétrie P ». La symétrie
d'opérateur P génère une image miroir de la fonction d'onde : P(r) = (-r).
 La symétrie par changement du sens du temps est en fait un renversement de
l'évolution, un « déroulement du film à l'envers ». Nous en avons vu un exemple.
Les interactions fondamentales, dont les quatre types sont cités dans [18], sont
invariantes par cette symétrie, appelée « symétrie T ».
Les lois fondamentales de la dynamique sont aussi invariantes par symétrie T.
 La conjugaison de charge, appelée aussi « symétrie C » est celle qui fait passer
d'une particule à son antiparticule dans les équations. Toute particule a son
antiparticule, qui a même masse et même durée de vie, mais des nombres
quantiques de charge opposés. Ne pas confondre la conjugaison de charge
avec la conservation de la charge ci-dessus.
Les lois fondamentales de la dynamique sont invariantes lorsque toutes les
charges sont remplacées par des charges de signe opposé.
Comme les symétries d'opérateurs P et T, la symétrie d'opérateur C a la propriété
suivante : deux opérations successives ramènent à l'état initial.
Pour respecter la symétrie de conjugaison de charge, l'Univers devrait être
électriquement neutre et avoir autant de particules de chaque espèce que
d'antiparticules. Mais, hélas, les observations montrent qu'il n'en est rien et la
raison de cette asymétrie est inconnue.
 L'invariance CPT est celle des lois d'évolution qui se conservent si on applique
simultanément les trois symétries C, P et T. Une telle loi serait identique dans
notre Univers et dans un univers hypothétique où les particules seraient
devenues des antiparticules, la droite serait devenue la gauche comme dans un
miroir, et le temps s'écoulerait à l'envers !
Si une loi décrivant un phénomène physique violait l'invariance CPT, elle serait en
contradiction avec toutes les lois fondées sur la théorie quantique des champs et

208
même avec le principe de causalité. L'invariance CPT est donc un des principes
fondamentaux du déterminisme scientifique [9].

Lois fondamentales de la physique


A l'échelle atomique nous avons vu, en abordant l'état quantique d'un système, qu'il
représente tout ce qu'on peut savoir sur le système à un instant donné (toute
l'information à son sujet). La Mécanique quantique et l'Electrodynamique quantique
permettent de manipuler mathématiquement les variables de cet état quantique en
décrivant des comportements statiques ou évolutifs dans des circonstances données.
L'étonnant est que la nature se comporte exactement comme ces outils l'affirment :
chaque comportement de système permis mathématiquement se réalise dans la
mesure où il respecte toutes les lois de conservation.

Les lois physiques de conservation sont donc des lois fondamentales de la nature.
Elles régissent des comportements fondamentaux respectés par les autres lois.

Les mesures physiques sont basées sur les constantes fondamentales de l'Univers
que sont la vitesse de la lumière c, la charge de l'électron e, la constante de Planck h,
la constante de gravitation G, etc., dont sont dérivées toutes les unités utilisées. Les
valeurs numériques des variables dépendent du système d'unités. Le plus utilisé
aujourd'hui est le Système International (SI) dont les unités fondamentales sont le
mètre, le kilogramme, la seconde, l'ampère, le degré de température kelvin, l'intensité
lumineuse en candélas et la mole (quantité de molécules ou d'atomes correspondant
au Nombre d'Avogadro [24]).

3.5.10.4 Un vide plein d'énergie


Le terme « vide » représente pour nous un espace sans matière ni énergie. Nous
allons voir que cette conception est simpliste, ne serait-ce que parce que tout point de
l'espace cosmique est parcouru par des rayonnements électromagnétiques porteurs
d'énergie.

3.5.10.4.1 Le vide de la physique quantique


En physique, le vide est l'espace qui entoure la matière (faite de leptons et quarks) et
véhicule des interactions [18] résultant de champs de force. C'est aussi l'espace entre
atomes d'une molécule et entre électrons et noyau d'un atome.

Fluctuations quantiques
Le principe d'incertitude de Heisenberg ΔE.Δt  ½ä, fait qu'en un point donné on ne
peut pas définir une énergie avec une incertitude meilleure que ΔE pendant un temps
donné Δt. Cette incertitude (instabilité) énergétique permet au vide quantique d'être le
siège de « fluctuations quantiques » d'énergie, avec apparition d'états dits « virtuels »
parce qu'on ne peut les mettre en évidence expérimentalement. Ces fluctuations
peuvent se matérialiser (spontanément ou en réponse à une excitation - particule ou
rayonnement), en faisant apparaître une paire particule-antiparticule, paire qui
emprunte son énergie ΔE au vide environnant pendant un temps Δt  ½ä / ΔE. Dès
leur apparition, les quatre interactions [18] agissent sur la particule et l'antiparticule :
celles-ci s'attirent, se rejoignent et s'annihilent en restituant l'énergie empruntée ; en
outre par effet Lamb, les particules virtuelles apparaissant dans un atome en modifient
légèrement les niveaux d'énergie.

209
Le regroupement des particules d'une paire est rapide et inévitable dans un
espace-temps plat ou à courbure très faible. Mais au tout début de l'Univers,
lorsque l'espace-temps avait une forte courbure, et particulièrement pendant la
courte et brutale période d'inflation, les particules d'une paire ont pu se trouver
séparées trop vite pour s'attirer et disparaître, elles ont pu devenir durables. Ce
phénomène se poursuit de nos jours lorsqu'un trou noir « s'évapore ».

La présence d'une telle paire de charges opposées crée une polarisation et une
déformation relativiste du vide, donc un champ qui agit sur la charge électrique ou la
couleur d'une particule.
L'action d'un champ sur une particule décroît avec la distance de la particule
lorsqu'il s'agit du champ électrique ou gravitationnel. Mais lorsqu'il s'agit du champ de
couleur agissant sur un quark [18], nous avons vu que l'action croît avec la distance
(ce qui est absolument contraire à l'intuition et au déterminisme traditionnel !) : pour
séparer les quarks d'une paire on devrait fournir une énergie qui croît avec la distance
entre ces quarks, et dès que cette énergie suffit pour séparer les deux quarks elle est
absorbée par la création d'une nouvelle paire de quarks, un nouveau quark
apparaissant pour se coller à chacun des deux anciens quarks séparés ! Ce
phénomène interdit donc aux quarks d'être isolés pendant plus d'une infime fraction
de seconde.

L'effet Casimir
Cette polarisation du vide avec apparition de paires particule-antiparticule est mise en
évidence par « l'effet Casimir », prévu en 1948 et observé en 1996 : la présence de
deux plaques conductrices distantes de quelques millièmes de millimètre élimine
certaines charges et diminue l'énergie de l'ensemble, d'où l'apparition entre les
plaques d'une « force de Casimir » inversement proportionnelle à la puissance 4 de
leur distance (1/d4). Cette force a été mesurée avec des résultats conformes à la
théorie.

Fluctuations d'énergie cinétique et de l'espace-temps


Les fluctuations du vide dues au principe d'incertitude ne concernent pas que des
paires particule-antiparticule. Elles peuvent aussi générer des paires où l'une des
particules a une énergie cinétique positive et l'autre une énergie négative
correspondant au "trou d'énergie" laissé dans le "vide" par l'apparition de la première.

Les particules d'une telle paire peuvent s'annihiler si elles se rencontrent. Mais si la
particule d'énergie positive est générée près de l'horizon d'un trou noir à l'extérieur de
celui-ci, alors que la particule d'énergie négative est générée à l'intérieur, la première
peut s'éloigner du trou noir alors que la seconde, piégée par l'horizon, retombe dans
le trou. Pour un observateur extérieur à l'horizon, tout se passe comme si le trou noir
a rayonné une particule et perdu la masse correspondante, la particule d'énergie
négative additionnant celle-ci algébriquement à celle du trou : un trou noir "s'évapore" !

Enfin, le phénomène des fluctuations quantiques peut aussi affecter l'espace-temps


relativiste lui-même, l'horizon d'un trou noir ayant une très forte courbure relativiste.
Cela explique l'attraction des particules d'énergie négative à l'intérieur de l'horizon par
le trou noir, qui les voit positives.

210
Conclusions
Contrairement à notre intuition, le vide dans et autour des atomes et autres particules
est le siège de champs quantiques et « plein » d'énergie. En outre, des fluctuations
quantiques peuvent faire brièvement varier l'énergie en un point par « emprunts » et
« restitutions » ; elles peuvent aussi faire apparaître des champs de force.

La fluctuation quantique est un exemple d'instabilité de l'énergie, instabilité à ne pas


confondre avec du hasard : nous avons vu qu'il s'agit de l'instabilité d'un couple de
variables, pas du choix d'une valeur, bien que les deux entraînent l'imprédictibilité.
Lorsqu'une fluctuation d'énergie se produit spontanément, c'est-à-dire en l'absence
d'excitation (donc de cause) externe, on ne peut prédire :
 Ni les endroits où apparaîtront simultanément la particule et l'antiparticule ;
 Ni l'instant de cette apparition ;
 Ni la quantité d'énergie qui sera empruntée ;
 Ni la durée de vie séparée de ces particules avant annihilation avec restitution
au vide de leur énergie.

Fluctuations et conservation de la densité moyenne d'énergie


En l'absence de perturbation extérieure, une fluctuation en un point donné de l'espace
qui fait apparaître une paire de particules virtuelles à un instant imprévisible y conserve
la densité moyenne d'énergie, car sauf évaporation ce qui est emprunté est restitué.

Une violation temporaire du deuxième principe de la thermodynamique


A l'occasion d'une fluctuation quantique, il y a violation temporaire du deuxième
principe de la thermodynamique : l'entropie commence par décroître lorsque la paire
particule-antiparticule est créée, puis elle croît et revient à sa valeur initiale lorsqu'elle
se transforme en énergie.

3.5.10.4.2 Champ et boson de Higgs


Il y a deux sortes de masses [110] :
 La masse gravitationnelle, qui intervient dans l'attraction de deux corps pesants,
comme celle d'un objet par la Terre ;
 La masse d'inertie, qui intervient dans la nécessité d'une force pour changer le
mouvement uniforme (ou l'immobilité) d'un corps en lui communiquant une
accélération.

Pour un même objet ces deux masses s'expriment dans la même unité, le kilogramme,
et 1 "kg gravitationnel" = 1 "kg inertie".

Le champ de force de Higgs, présent dans tout l'espace - de l'échelle atomique à


l'échelle astronomique - agit comme un frein sur la masse d'inertie : pour provoquer
une accélération donnée, la force nécessaire est proportionnelle à la masse de l'objet :
c'est la 2ème loi de Newton [110]. C'est l'existence du champ de Higgs qui explique la
masse d'inertie des corps pesants ; si le champ de Higgs disparaissait dans une
certaine région, les particules fondamentales (quarks et leptons) en mouvement y
perdraient la partie de leur poids qui ne correspond pas aux interactions forte et faible.
(Voir [18] et [59])

211
En physique quantique, la particule de l'interaction quantifiée entre champ de Higgs et
corps pesants (leptons et quarks) est appelée boson de Higgs et sa masse est proche
de 125 GeV c-2, c'est-à-dire environ 134 fois celle du proton au repos.

3.5.10.4.3 Distance, temps, densité et masse de Planck


La notion d'incertitude (non-définition, instabilité, fluctuation) de Heisenberg s'applique
aussi à l'incertitude sur une distance lp, en dessous de laquelle l'espace physique lui-
même ne peut plus être considéré comme continu et nos lois physiques (y compris
celles de la Mécanique quantique) ne s'appliquent plus. Cette distance minimum est
appelée « distance de Planck » ou « longueur de Planck » lp et vaut :

𝐺
𝑙𝑝 = √ = 1.6 .10-35 m
𝑐3

Au début de l'Univers, avant le Big Bang, la densité d'énergie cinétique (température)


était si élevée qu'elle pouvait faire se rapprocher des particules à une distance
inférieure à la distance de Planck. Mais l'Univers a immédiatement commencé à se
dilater par inflation (en créant littéralement de l'espace et de la matière-énergie, à
densité constante [313]), puis plus lentement par expansion en diluant son énergie. Et
l'expansion continuant encore de nos jours, il n'y a plus jamais eu d'endroit où la
densité d'énergie était suffisante pour contraindre des particules à s'approcher plus
près que lP… sauf dans les trous noirs.

A des distances de l'ordre de celle de Planck et des densités d'énergie suffisantes pour
la création d'un trou noir, la Mécanique quantique et la Relativité Générale
s'appliqueraient toutes deux… si on en avait une synthèse, qu'on n'a pas hélas.

Aucune distance inférieure à lp n'a de sens pour un phénomène physique. Le postulat


de continuité de l'espace n'est pas vrai pour des distances inférieures.

Au début de l'Univers, avant le Big Bang, il y a aussi eu une durée pendant laquelle la
densité d'énergie permettait à toutes les particules de fusionner en s'approchant à une
distance inférieure à lP. Pendant cette durée nos lois physiques actuelles ne
s'appliquaient pas. Cette durée est le « temps de Planck » tP mis par la lumière pour
parcourir la distance de Planck lP. Il vaut lP/c :

ℏ𝐺
𝑡𝑝 = √ = 0.5391 .10-43 s
𝑐5

Au temps de Planck tP l'Univers était extraordinairement dense, sa densité étant


appelée « densité de Planck » DP et valant :

𝑐5
𝐷𝑝 = = 5.1 .1096 kg/m3
ℏG²

212
Où G est la constante universelle de gravitation G = 6.67 .10-11 Nm2/kg2.
Cette densité est colossale : elle correspond approximativement à celle résultant de la
compression d'une centaine de galaxies dans le volume d'un noyau atomique !

La « masse de Planck » mP, matière-énergie contenue dans un cube de lP de côté, est


donnée par la formule :

ℏc
mp = √ = 2.177 .10-8 kg
G

Un objet de masse mP et de dimension lP serait un trou noir quantique de diamètre lP.


Or ce diamètre est proche de la longueur d'onde de Compton de l'objet [134], distance
en dessous de laquelle une particule est « floue », c'est-à-dire de position et dimension
mal définies au sens Mécanique quantique.

En conclusion : lorsque l'espace, le temps ou l'énergie sont inférieurs à leur « valeur


de Planck », ou qu'un objet a une dimension proche de sa longueur d'onde de
Compton :
 Il est impossible de considérer comme continus l'espace, le temps et l'énergie :
ils sont discontinus et quantifiés (chaque valeur est multiple d'un minimum
appelé quantum) ;
 On ne peut même pas appliquer les lois de la Mécanique quantique, à part le
principe d'incertitude de Heisenberg ;
 Les lois physiques du déterminisme scientifique sont alors erronées, Mécanique
quantique et Relativité Générale ne s'appliquant plus ; il faudrait en découvrir
une synthèse que nous n'avons pas encore.
Aucune causalité ne peut donc remonter aujourd'hui au-delà du temps de Planck
et la notion philosophique de « cause ultime » n'a pas de sens au-delà.[17]

Remarque
La distance, le temps, la densité et la masse de Planck s'expriment en fonction des
trois constantes fondamentales de l'Univers : h, G et c.

3.5.10.4.4 Le vide de l'espace cosmique


A l'autre bout de l'échelle des distances, le « vide » de l'espace cosmique contient au
total bien plus que la matière que nous voyons dans toutes les étoiles, planètes,
astéroïdes, poussières et gaz à faible pression, même si on y ajoute l'énergie des
divers rayonnements qui le parcourent (addition justifiée par l'équivalence masse-
énergie représentée par la formule E = mc² de la Relativité). En ajoutant la masse des
trous noirs que nous ne voyons pas, mais dont nous voyons les effets gravitationnels
(qui montrent que la masse de certains peut dépasser un milliard de fois celle du
Soleil), nous sommes toujours loin du compte. La masse totale des corps célestes
lumineux ou sombres que nous connaissons, avec ses quelque 400 milliards de
galaxies, représente seulement environ 4.9 % de la masse de l'Univers.

213
L'étude des mouvements des galaxies, de leurs satellites et des amas d'étoiles
qui les entourent montre qu'il existe nécessairement, dans chaque galaxie et dans
son voisinage, une masse énorme que nous ne voyons pas, parce qu'elle n'émet
pas de lumière et n'en absorbe pas. Cette masse représente environ 5 fois celle
de la matière-énergie visible dans l'Univers, c'est-à-dire environ 27 % de l'énergie
totale ; on l'appelle « matière sombre », « matière noire » ou « matière
cachée » (dark matter).
Dans l'Univers primitif il y avait des zones à peu près sphériques de matière
sombre appelées « halos », au centre desquelles les galaxies que nous voyons
se sont formées. Ces halos existent toujours, et leur masse importante explique
la vitesse de rotation étonnamment élevée des amas et galaxies satellites des
galaxies principales.

3.5.10.4.5 Expansion de l'Univers visible


Les mesures précises effectuées sur les distances et vitesses des galaxies lointaines
montrent que l'Univers visible est en expansion, son rayon augmentant à la vitesse de
la lumière, c [313]. Depuis le moment où il avait 380 000 ans jusqu'à nos jours son
rayon a été multiplié par environ 1000, et il continue d'augmenter. Après les premiers
8 ou 9 milliards d'années environ, où l'expansion ralentissait (c'est-à-dire depuis 5
milliards d'années) l'expansion est de plus en plus rapide [290]. Ainsi, nous recevons
aujourd'hui la lumière d'astres situés à 23 milliards d'années-lumière, lumière qui est
partie il y a 12 milliards d'années [314] et [111] [370]
Il ne faut cependant pas croire que l'Univers grandit en prenant de la place dans
un Univers englobant vide : il grandit par accroissement de ses dimensions ; chacun
de ses points s'éloigne de tous ses autres points. Comme l'inflation qui l'a précédé, le
Big Bang ne fut pas une explosion dans l'espace, mais une explosion de l'espace,
sans point central [118].
Il y a dans l'Univers deux forces qui s'opposent : la gravitation, qui tend à
rapprocher les galaxies et produit sur Terre l'attraction de la pesanteur, et une
mystérieuse pression négative, gravitation négative qui tend à les éloigner de plus en
plus vite en dilatant l'espace lui-même. Cette gravitation négative est attribuée à une
« énergie sombre » ou « énergie noire » (dark energy), dont on ne sait rien à part
qu'elle existe puisque ses effets existent et satisfont la Relativité Générale ; et elle
représente environ 68 % de la masse-énergie totale de l'Univers.

214
Schéma de l'expansion de l'Univers d'après [267] montrant les influences opposées de
l'énergie sombre et de la gravitation Le temps depuis le Big Bang croît selon l'axe vertical

Gravitation contre expansion


La gravitation, qui a pour effet la concentration de la matière pour former des étoiles
et des trous noirs, n'empêche nullement l'expansion de l'espace. Celle-ci continue
depuis le Big Bang, accélérée par l'énergie sombre, qui éloigne les galaxies les unes
des autres de plus en plus vite. La galaxie d'Andromède (notre voisine, à 2.5 millions
d'années-lumière) se rapproche de nous sous l'influence de la gravitation, alors que
des galaxies très lointaines (1 milliard d'années-lumière et plus) s'éloignent sous
l'influence de l'expansion de l'Univers. Aux très grandes distances, la gravitation
négative due à l'énergie sombre est prépondérante par rapport à la gravitation [118] et
accélère l'expansion.

Pendant les 7 à 8 premiers milliards d'années de l'Univers la pression d'expansion a


diminué avec le temps sous l'effet de la gravitation, rendant cette expansion de moins
en moins rapide. Pendant ce temps-là, la pression négative accélératrice de l'énergie
noire augmentait automatiquement avec le volume de l'espace ; elle a fini par inverser
le sens de variation de l'expansion, qui depuis s'accélère.

Les forces de gravitation dues à la matière baryonique et à la matière noire conservent


la forme des galaxies (dimension : environ 100 000 années-lumière) et celle des amas
de galaxies (environ 10 millions d'années-lumière) : à leur échelle l'expansion est

215
négligeable. Mais l'énorme volume intergalactique produit assez de pression négative
pour que l'expansion de l'Univers dans son ensemble accélère.

La courbure de l'Univers due aux masses à l'origine de la gravitation est sans rapport
avec son expansion [269], les forces correspondantes étant distinctes. La croissance
de l'entropie conformément au 2 e principe de la thermodynamique [25] se produit à la
fois lorsque la gravitation concentre la matière et lorsque l'expansion de l'espace la
dilue, ces deux phénomènes indépendants respectant tous deux la thermodynamique.

Il faut alors expliquer pourquoi l'expansion de l'Univers ne fait pas éclater en mille
morceaux la matière et les structures cosmiques comme le système solaire et la
galaxie. La raison est simple : les 4 forces du modèle standard [18] responsables de
la cohésion de la matière (atomes, molécules et structures cristallines) sont beaucoup
plus fortes que la force d'expansion ; même la gravitation, la plus faible de ces 4 forces
(qui explique la cohésion des systèmes planétaires, des galaxies et des amas de
galaxies) est bien plus forte qu'elle. Cette dernière ne joue donc que loin de toute
matière visible et matière sombre, c'est-à-dire entre des amas de galaxies, sur des
distances de l'ordre d'au moins 100 millions d'années-lumière.

3.5.10.5 Conclusions sur les symétries et lois de conservation


Les quatre types d'interaction [18] conservent :
 l'énergie ;
 la quantité de mouvement ou l'impulsion ;
 le moment cinétique ;
 les charges électrique, baryonique et leptonique ;
 le spin [22].

216
La table ci-dessous indique l'origine physique des lois de conservation :

Lois de conservation Origines physiques


Homogénéité du temps
Energie d'un système isolé
(invariance par translation dans le temps)
Information totale d'un système Réversibilité dans le temps de l'équation de
isolé Schrödinger
Quantité de mouvement ou Homogénéité de l'espace
impulsion d'un système isolé (invariance par translation dans l'espace)
Moment cinétique Isotropie de l'espace
d'un système isolé (invariance par rotation)
Invariance par le couple
Symétrie gauche-droite de l'espace
de symétries CP
Symétrie du temps en changeant
Invariance par la symétrie T
dans les équations t en -t
Charge électrique
Inconnue
d'un système isolé
Charge baryonique
Inconnue
d'un système isolé
Charge leptonique
Inconnue
d'un système isolé
Etrangeté (propriété de
Inconnue
certaines particules)

Origine physique des lois de conservation

La discussion précédente des lois de symétrie et de conservation montre que le


déterminisme de la nature a de nombreux comportements qui sont tout sauf évidents
ou intuitifs. Certains comportements sont inexpliqués ; on ne sait pas, par exemple,
pourquoi l'Univers est fait exclusivement de matière et ne comprend pas d'antimatière,
nos théories prédisant la création de masses égales de matière et d'antimatière. Et
nous avons vu que le principe d'incertitude permet des violations locales de très courte
durée de la conservation de l'énergie.

3.5.11 5e extension du déterminisme : complexité, imprévisibilité, calculabilité


Certains phénomènes physiques semblent n'obéir à aucune loi simple, ce qui fait
paraître imprévisible leur évolution. Voici des exemples.

217
3.5.11.1 Combinaison de nombreux phénomènes déterministes

Exemple 1 : mouvement brownien


Les molécules d'un gaz n'arrêtent pas de bouger. Leur agitation, appelée mouvement
brownien, résulte de la température du gaz. A la température absolue T [121] chaque
molécule a une énergie cinétique moyenne de 3/2 kT, où k est la constante de
Boltzmann [122], k = 1.38066 .10-23 joule par degré Kelvin ; nous avons déjà vu cela.

En bougeant sans cesse, chacune indépendamment des autres, les molécules


s'entrechoquent. Leur nombre étant très grand (2.7 1025 molécules/m3 à la pression
atmosphérique normale) et leur vitesse considérable, le nombre de chocs par seconde
dans un tel volume est colossal. La trajectoire d'une molécule particulière est donc
parfaitement imprévisible, bien qu'entre deux chocs son mouvement soit rectiligne et
uniforme car sans frottement, et que les chocs aient lieu sans perte d'énergie. Si on
perce un petit trou dans la paroi de l'enceinte contenant le gaz, la prévision de la
première molécule qui sortira par ce trou est impossible.

Exemple 2 : forme des flocons de neige


Un flocon de neige résulte de la formation d'un ou plusieurs cristaux de glace à
symétrie hexagonale. Du fait du nombre de variables qui interviennent, la complexité
du phénomène de formation de ces cristaux est telle qu'ils peuvent prendre des
dizaines de formes différentes [288]. Le nombre de combinaisons de ces formes en
flocons est si grand qu'on peut considérer qu'un flocon donné a une forme unique, ou
qu'on ne retrouvera peut-être un flocon identique que dans cent ans. Les phénomènes
physiques intervenant dans la formation des cristaux de glace et leur regroupement
en flocons sont déterministes et assez bien connus. Pourtant on ne peut jamais prévoir
quelle forme exacte de flocon se formera dans des conditions données, même lorsque
celles-ci sont créées avec précision en laboratoire.

Ces exemples sont généralisables : chaque fois qu'un grand nombre de phénomènes
déterministes interagissent, l'évolution de l'un quelconque de ces phénomènes est
imprévisible, de même que l'évolution du résultat de leur interaction. Le déterminisme
n'est pas en cause, l'imprévisibilité du résultat provient de la seule multitude des
interactions. Pour rendre compte de cette cause naturelle d'imprévisibilité, le
déterminisme doit être complété par la précision que l'action simultanée de trop
nombreux phénomènes déterministes (au sens traditionnel) donne un résultat
impossible à prédire ou extrêmement difficile à calculer.

Le résultat d'un grand nombre de phénomènes déterministes


simultanés est imprévisible parce que trop difficile à calculer.

Cependant, on peut souvent représenter la situation d'ensemble (c'est-à-dire


statistique) des variables d'un système (comme sa température moyenne, sa pression
moyenne, et les proportions des corps qui le composent s'il s'agit d'une solution

218
chimique) par celle de la densité de probabilité [28] d'apparition de son point
représentatif dans un espace des phases rapporté à ces variables. A chaque instant t,
par exemple, on saura pour chaque volume élémentaire au voisinage d'un point de cet
espace la probabilité qu'il a d'être atteint. Pour un ensemble donné de valeurs des
variables, on pourra connaître l'évolution de sa probabilité d'existence dans le temps.
Cette approche probabiliste utilisant l'espace des phases diffère de l'approche
traditionnelle basée sur des trajectoires dans l'espace géométrique ; elle a été étudiée
notamment par Ilya Prigogine, qui l'a décrite dans [26] ; elle convient aussi aux
systèmes dont l'évolution est irréversible, contrairement à l'approche basée sur les
trajectoires.

3.5.11.1.1 Mécanique statistique


Cette branche de la physique applique les méthodes et outils statistiques aux lois de
la Mécanique classique et à celles de la Mécanique quantique. Elle le fait pour
expliquer et prédire les propriétés mesurables de systèmes macroscopiques à partir
des propriétés et lois d'évolution de leurs composants microscopiques.
Exemple : la Mécanique statistique explique et calcule l'énergie thermique à partir
de l'énergie de particules atomiques animées de mouvements désordonnés ; elle
déduit la température de l'énergie d'ensemble de ces particules.

Pour éviter de calculer à partir des propriétés individuelles des milliards de particules
d'un système, la Mécanique statistique utilise des lois de probabilité pour trouver les
valeurs moyennes pour des particules de même type. Ainsi, elle interprète l'énergie
cinétique moyenne des molécules sous forme de température moyenne du système,
et déduit les lois de la thermodynamique [25] de telles propriétés statistiques. Elle
contourne donc la difficulté de calculer séparément l'évolution dans le temps (position,
vitesse) de chaque molécule en ne s'intéressant qu'aux moyennes des vitesses dans
leur population.

3.5.11.2 Déterminisme + complexité = imprévisibilité


Nous avons déjà vu que l'effet d'un grand nombre de processus déterministes
simultanés régis par une même loi peut rendre le résultat de chacun d'eux imprévisible
en pratique. Il n'est donc pas étonnant que l'effet global d'un grand nombre de
processus déterministes simultanés régis par des lois distinctes soit en général
également imprévisible. Dans les deux cas, l'imprévisibilité est d'autant plus grande
que les processus sont nombreux et interagissent davantage.

Ce phénomène d'imprévisibilité se présente aussi dans les logiciels extrêmement


complexes comme les systèmes d'exploitation d'ordinateurs ou les logiciels de
simulation de vol, ainsi que dans les processus physiologiques.

Exemples : un système d'exploitation de la famille Windows exécute en général un


millier de threads, processus qui se déroulent en parallèle en se démarrant ou
s'arrêtant l'un l'autre, en s'envoyant des messages, en échangeant des données, en
s'attendant ou en se donnant rendez-vous dans certaines circonstances, etc. C'est
ainsi que pendant que j'écris ce texte avec WORD d'Office 365 - 64 bits sous Windows
7 professionnel 64 bits, mon système d'exploitation exécute 1413 threads en parallèle,
appartenant à 89 processus distincts.

219
De son côté, un corps humain a des centaines de mécanismes indépendants ou
interdépendants, régis par le logiciel hypercomplexe qu'est le génome interprété par
la machinerie cellulaire, ainsi que par le cerveau et ses 100 milliards de neurones.

Le comportement de ces systèmes complexes nous paraît cependant d'autant plus


prévisible que les circonstances se reproduisent fréquemment. Leur réponse à un
événement fréquent a été observée si souvent qu'elle est devenue prévisible par
habitude. Je sais parfaitement déplacer un fichier d'un répertoire à un autre de mon
PC, et n'ai jamais de surprise en constatant son comportement lorsque je fais un
« glisser-déposer » de l'icône du fichier avec la souris. Je sais aussi prévoir la réponse
de mon organisme à des situations particulières comme la pose de ma main sur un
objet trop chaud, qui provoque une sensation de brûlure. Mais des circonstances ou
événements rares entraînent des comportements imprévisibles et surprenants d'un
système complexe.
Exemple : un message reçu par Internet, qui provoque un débordement de buffer
(zone mémoire tampon) dans mon PC en exploitant un défaut de protection d'un
objet logiciel du système d'exploitation, peut se transformer en logiciel de prise de
contrôle qui asservira mon PC à un autre système, situé à des milliers de
kilomètres, pour le faire participer à des attaques dévastatrices de serveurs
bancaires. Si les concepteurs du système d'exploitation de mon PC avaient pu
prévoir ce type d'attaque, ils auraient mis en place les protections nécessaires.
Mais comme il existe des attaques auxquelles ils n'ont pas pensé, le message
Internet en question provoque une réaction imprévue.

Conclusion : bien que tous les logiciels aient des algorithmes déterministes, une
combinaison complexe de logiciels et de circonstances (événements et données) peut
avoir un effet imprévisible, et même difficile à expliquer après coup connaissant ses
effets. Tout se passe alors comme si la complexité d'un système parfaitement
déterministe l'avait rendu imprévisible, le faisant apparaître comme non déterministe
aux yeux de personnes qui (hélas !) ne distinguent pas déterminisme et prédictibilité.

De même, il y a des cas où un médecin ne sait pas diagnostiquer le mal de son malade.
Certaines douleurs, par exemple, peuvent demeurer inexpliquées malgré
d'innombrables examens et la prise de médicaments. Le corps humain est non
seulement complexe, mais ses processus sont loin d'être aussi bien connus que les
algorithmes des logiciels ; et la complexité de l'esprit est encore plus grande [51].

En résumé, la complexité d'un système, et des circonstances ou enchaînements de


circonstances rares, peuvent le rendre imprévisible même si tous ses processus sont
déterministes.

3.5.11.3 Modélisation des systèmes complexes, notamment ceux du vivant


Jusqu'à ce point de l'exposé nous avons considéré une situation physique comme
cause d'une évolution déterministe prévisible. C'est là une simplification qui ne
convient pas à des systèmes vraiment complexes comme un corps humain, son
psychisme [347], ou l'économie d'un pays. Dans un tel système, une situation à un
instant donné prend en compte des milliers de processus se déroulant en même
temps, certains interagissant avec d'autres. Dans le corps humain, par exemple, le
génome contrôle des milliers de réactions chimiques participant au fonctionnement de

220
tous les organes. Dans un cerveau humain, un grand nombre de pensées se déroulent
en même temps dans l'inconscient [353], en plus de la pensée consciente [268] - [339].

Le nombre et la variété des processus qu'on rencontre dans des systèmes comme les
êtres vivants fait qu'en général on ne les connaît pas assez pour en décrire un modèle
[51] ; l'absence de modèle rend alors la prévision de leur comportement impossible.

Un système modélisable ne comprend que des processus et interactions à logique


connue et descriptible en langage informatique. Le nombre de processus se déroulant
en parallèle ne pose pas problème, dans la mesure où un ordinateur moderne peut
exécuter des logiciels simulant des milliers de processus simultanés. La connaissance
d'un processus ou d'une interaction implique celle de ses variables d'entrée (reçues
de l'extérieur du système ou d'autres processus), de ses variables de sortie (fournies
à l'extérieur ou à d'autres processus), de la logique de réponse aux diverses
sollicitations avec les temps de réponse correspondants, etc.

Un modèle informatique à processus simultanés multiples se comporte comme autant


d'ordinateurs indépendants, calculant en même temps et capables de communiquer
entre eux et avec l'extérieur. Un processus peut en lancer ou en arrêter un autre,
échanger avec lui des messages, attendre un événement venant de l'extérieur ou d'un
autre processus, exécuter un calcul en fonction de données reçues ou trouvées en
mémoire, tenir compte du temps pour aller à la même vitesse que la réalité qu'il simule,
etc. Un processus peut en coordonner d'autres. Il peut aussi leur fournir des services
comme la reprise sur incident, la gestion des files d'attente de messages, la
journalisation des événements du système à des fins de traçabilité, la protection contre
des intrusions, les télécommunications, etc.

3.5.11.3.1 Des avancées très prometteuses en matière de modélisation


En pratique, on simule un ensemble de processus simultanés qui interagissent avec
un logiciel orienté objets comme C++, où chaque processus est un objet indépendant.
Les divers objets peuvent être exécutés simultanément dans un même processeur
d'ordinateur en utilisant des tâches et/ou des threads simultanés ; on peut aussi les
répartir entre plusieurs ordinateurs qui communiquent en réseau, pour ajouter leurs
puissances de calcul. Cette architecture matérielle-logicielle permet d'exécuter
simultanément des dizaines de milliers de processus, donc d'émuler le fonctionnement
de systèmes extrêmement complexes.

Modélisation de processus cellulaires à partir de la biologie moléculaire déterministe


L'article [279] rend compte de la simulation de toutes les fonctions d'un
microorganisme dont le génome comprend 525 gènes, sur 128 ordinateurs tournant
en parallèle. A partir de la connaissance des mécanismes individuels de niveau
moléculaire, y compris ceux de l'ADN, de l'ARN, des protéines et des métabolites, on
a simulé ainsi tous les événements et processus de la vie de ce microorganisme, un
microbe pathogène autonome.

Les conséquences de cette possibilité de modélisation sont colossales :


 On peut ainsi désormais remplacer des tests biologiques de laboratoire par des
simulations informatiques, processus reproductible, plus rapide et moins
coûteux ; la compréhension des comportements du vivant et la mise au point de
médicaments efficaces en sera considérablement facilitée.

221
 On a une preuve matérielle de la possibilité, avec une grande puissance de
calcul et une architecture logicielle à processus parallèles, de simuler tous les
processus du vivant, des fonctions cellulaires de bas niveau à celles de la
pensée, en décomposant chacune en niveaux hiérarchiques dont le plus bas est
celui de la biologie moléculaire, complètement déterministe statistique. Avec le
temps et la croissance de la puissance informatique disponible, on pourra
constituer une bibliothèque de fonctions et comportements de base du vivant,
sur laquelle on basera la compréhension de comportements de plus en plus
complexes.

Des modèles si fiables qu'on peut leur confier la vie humaine


On sait faire des modèles informatiques complexes si fiables qu'on peut leur confier la
vie humaine ; c'est le cas, par exemple, des commandes électriques de vol des avions
modernes et de leurs systèmes de pilotage et d'atterrissage automatique sans
visibilité. Le danger, alors, vient d'un défaut de spécification où l'homme aurait oublié
de prévoir certains événements ou situations, et n'aurait pas introduit dans le modèle
la logique nécessaire pour y répondre. On résout ce problème en faisant de nombreux
tests – certains avec des valeurs aléatoires de variables initiales (comme dans la
méthode de Monte-Carlo avec algorithme Metropolis), d'autres en accumulant de
l'expérience ; par souci de sécurité on permet toujours à un homme de reprendre le
contrôle en cas d'urgence.

La modélisation informatique permet, par exemple, de reconstituer des phénomènes


astronomiques ayant duré des millions d'années comme la formation d'un système
planétaire à partir de gaz et poussières interstellaires. Elle le permet parce que les lois
de la dynamique sont connues, ainsi que les paramètres à fournir au départ de la
simulation.

Il reste cependant beaucoup à faire


Notre connaissance actuelle de l'économie ne nous permet de réaliser que des
modèles trop grossiers pour prévoir les crises économiques ou même simplement
financières, même lorsque la situation politique est supposée stable (détails : [301]).

3.5.11.4 Analyse statistique de systèmes complexes


Il est fréquent que nous n'ayons pas besoin des niveaux de compréhension et de
précision fournis par un modèle à processus déterministes pour résoudre un problème.
C'est ainsi que, pour soigner certaines maladies, il n'est pas nécessaire d'avoir un
modèle de certaines fonctions vitales de l'homme ; il suffit d'avoir le bon médicament
ou la bonne association de médicaments. On peut donc souvent se contenter d'étudier
la réponse d'un système complexe à certaines actions ou circonstances sans chercher
vraiment à le comprendre.

On fait alors des expériences (ou des statistiques sur une population) où l'on fait varier
certains paramètres en notant à chaque fois la réponse du système. C'est ainsi, par
exemple, qu'on teste sous un certain climat et dans un certain type de sol le rendement
de diverses variétés d'une céréale alimentaire, en présence d'apports de divers
engrais avec divers dosages. L'organisation des expériences doit alors produire le plus
possible d'informations avec le minimum d'expériences ou la population testée la plus
réduite possible. On utilise pour cela des méthodes statistiques dont nous nous

222
contenterons ici d'évoquer des noms : analyse de variance, plans factoriels, carrés
latins, analyse de régression, corrélations, etc.

Ces méthodes apportent des informations sur la réponse à certaines combinaisons de


valeurs de certaines variables, sur le niveau de confiance qu'on peut avoir dans ces
informations, et sur l'influence probable d'autres variables non prises en compte.

Ces méthodes permettent même parfois de trouver la combinaison de valeurs de


paramètres qui maximise une fonction économique, c'est-à-dire l'ensemble de valeurs
de variables qui conduit à un optimum. C'est ainsi que j'ai fait pendant quatre ans des
expériences permettant de trouver les paramètres de conception, d'affûtage et
d'utilisation de forets qui maximisent la vitesse de perçage dans divers types de fonte
ou d'acier, tout en garantissant une qualité géométrique de trou et une durée de vie
imposée entre affûtages ; les résultats ont été spectaculaires et l'industrie automobile
française en a profité.

3.5.11.5 Complexité et décisions médicales


Le domaine de la médecine comprend de nombreux cas de situation complexe. Les
connaissances disponibles sont partielles et incertaines :
 Partielles parce qu'on ne connaît qu'une partie des phénomènes qui
interviennent ;
 Et incertaines parce que les lois d'évolution qui s'appliquent sont du type "avec
ce médicament on observe 70 % de guérisons à 5 ans, et sans ce médicament
on observe 80 % de décès dans les 2 ans."

Dans de tels cas il n'existe pas de décision sans risque, alors que – s'il s'agit d'un
malade – il risque parfois sa vie. On peut envisager des raisonnements probabilistes
si des statistiques sur une population suffisante sont disponibles et significatives. Mais
si ce n'est pas le cas, par exemple parce qu'il s'agit d'une maladie rare où les
statistiques portent sur une population réduite, que faire ?

Les raisonnements probabilistes consistent à envisager toutes les décisions possibles


et à évaluer expérimentalement pour chacune la probabilité de succès, ainsi que le
bénéfice et les effets secondaires escomptables (exemple : nombre d'années de
survie, pathologies pendant ce temps-là, etc.). On résume les conclusions dans un
tableau, qu'elles soient ou non chiffrées et quelle que soit leur précision, on discute
entre médecins et si possible avec le patient, et on décide.

Dans des cas moins graves ou moins urgents, les médecins appliquent souvent un
raisonnement basé sur des facteurs de risque et des facteurs de protection.

Facteur de risque
On appelle facteur de risque un facteur qui prédispose à la maladie concernée.
Exemple : fumer est un facteur de risque dans le cancer du poumon. Un facteur de
risque donné accroît le risque de développer la maladie, mais il ne suffit pas pour la
déclencher : il y a de gros fumeurs morts à un âge avancé sans avoir souffert de cancer
du poumon (exemple : Winston Churchill) ; mais des statistiques sur une population
importante montrent que les gros fumeurs ont bien plus souvent un cancer du poumon
que les non-fumeurs.

223
Une circonstance est un facteur de risque lorsque d'autres facteurs interviennent, qu'ils
soient connus ou non, et qu'on dispose de statistiques significatives ou seulement de
corrélations. Un cas particulier important est celui où un facteur de risque A ne joue
qu'en présence d'un autre facteur de risque, B.
 Si A exige B, il peut se faire qu'en réalité le risque de développer la maladie n'est
pas associé à A mais seulement à B, et que le plus souvent quand B est présent
A l'est aussi, d'où la tendance à penser que A est un facteur de risque. Il faut
alors des études sérieuses pour déterminer les rôles respectifs de A et B.
 Si A exige B, il peut aussi arriver qu'il y ait une interaction entre A et B. Par
exemple, B renforce l'effet de A lorsqu'il est présent au-delà d'une certaine limite.

D'un point de vue quantitatif, on associe à un facteur de risque, chaque fois que c'est
possible, un taux de risque ou risque relatif qui est un coefficient multiplicateur de la
probabilité que le facteur de risque induise la maladie. On dit, par exemple, qu'une
personne qui présente ce facteur de risque a 15 % de chances de plus que la
population moyenne de développer la maladie avant 50 ans.

Facteur de protection
Il est fréquent qu'on sache qu'un facteur de risque joue moins en présence d'un autre
facteur, appelé pour cette raison facteur de protection. Un facteur de protection n'a pas
nécessairement en lui-même de rôle bénéfique, il ne joue que pour atténuer le risque
d'une pathologie ou l'effet d'un de ses facteurs de risque. Cela peut se produire de
deux manières :
 Soit le facteur de protection est défini comme la négation du facteur de risque.
Affirmer, alors, la présence du facteur de protection revient à nier celle du facteur
de risque, ou à affirmer que sur une échelle continue de risque on est plutôt du
côté « protégé » ou plutôt du côté « à risque ». Exemple : un fort taux de
cholestérol est un facteur de risque d'obstruction des artères coronaires, alors
qu'un faible taux de cholestérol est un facteur de protection pour cette
pathologie.
 Soit le facteur de protection est défini comme une cause qui s'oppose à la
pathologie ou à un de ses facteurs de risque, qui l'empêche de jouer ou diminue
son effet. Exemple : l'acquisition d'une immunité par vaccination empêche le plus
souvent de développer la maladie.

Exemple de raisonnement (chiffres tirés d'expériences sur une population malade)


 J'ai une arythmie cardiaque (exactement : une fibrillation auriculaire
paroxystique) qui, compte tenu de mes autres facteurs de risque et de
protection, a une probabilité de 12 % de déclencher un infarctus mortel dans
l'année qui suit. Si je prends un médicament anti-arythmique appelé Amiodarone
200 mg, ma probabilité d'infarctus est divisée par 3, ce médicament apportant un
facteur de protection ; l'Amiodarone ayant de redoutables effets secondaires, la
division du risque par 3 en tient compte pour l'infarctus, mais pas pour d'autres
inconvénients comme l'effet perturbateur de l'iode qu'il contient. Ai-je intérêt à
prendre ce médicament ?
Si je le prends, ma probabilité de mourir d'infarctus dans l'année passe de

224
12 % à 4 %, effets secondaires pris en compte : du point de vue du seul
infarctus, j'ai intérêt à prendre ce médicament.
 Supposons à présent qu'un autre médicament, le Kardegic 160 mg, puisse lui
aussi diviser par 3 ma probabilité de décès d'infarctus dans l'année, mais sans
effet secondaire. Si on peut le prendre en même temps que l'Amiodarone, pour
que leurs effets s'ajoutent, il faut le faire. Mais s'il faut choisir entre les deux
traitements, c'est celui qui a le moins d'effets secondaires qui devient préférable.

Conclusions
Cette approche me paraît correcte, compte tenu de l'état des connaissances en
médecine. Mais je constate qu'à force de réfléchir et de décider dans un domaine où
les connaissances manquent tellement, certains médecins que je connais ont souvent
des raisonnements peu rigoureux : désaccords entre eux sur les faits et sur les
méthodes statistiques, prises de position idéologiques et manque d'ouverture d'esprit.
Je pense que l'enseignement de la médecine et les pratiques en matière de publication
ne prédisposent pas assez à la rigueur intellectuelle, exactement comme ma formation
en sciences exactes ne me prédispose pas au sens de l'humain.

3.5.11.6 Résultats remarquables de certains processus calculables

3.5.11.6.1 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers


(Définition d'un algorithme : voir [69])

Considérons la suite des décimales du nombre Pi ( = 3.1415926535…), nombre


parfaitement calculable dont on connaît, paraît-il, les 200 premiers milliards de
décimales (voir programme Java [342]). D'après les tests d'autocorrélation effectués,
la représentation décimale connue de Pi ne présente aucune régularité permettant de
prédire une décimale connaissant les précédentes ; c'est une raison de la considérer
comme toute entière imprédictible… jusqu'à preuve du contraire.

Exemple : la formule de calcul de Pi donnée par John Machin au XVIIIe siècle est :
 2 k 1
x
  16 Arctg
1
5
 4 Arctg
1
239

où Arctg x  (1) k
k 0 2k  1

On peut aussi calculer /4 en sommant directement la série Arctg 1 :


𝜋 1 1 1 1 1
= 1− + − + − +⋯
4 3 5 7 9 11

Comme il n'existe pas de logiciel de calcul de précision infinie, mais seulement des
logiciels garantissant une précision de N chiffres dans chaque opération (où N peut
atteindre des milliers de décimales), le calcul de la somme d'une série comme Arctgx
a une précision limitée, d'autant plus limitée qu'il faut sommer de nombreux termes.
L'algorithme de calcul de Pi est bien déterministe au sens traditionnel. Son
résultat, le nombre réel , est calculable avec une approximation qui ne dépend que
de la précision des calculs. Comme la représentation décimale de  ne présente
aucune régularité connue permettant de prédire une décimale connaissant tout ou

225
partie des précédentes, on a là un exemple de processus à déroulement déterministe
dont une représentation numérique du résultat présente des irrégularités imprévisibles.
Cette imprévisibilité existe quelle que soit la base, même si ce n'est pas 10.
En somme, pour tout entier M>0, tout algorithme de calcul de Pi est un générateur
de suites de nombres entiers imprévisibles de M chiffres, nombres obtenus en
considérant des « tranches » successives de M chiffres dans la suite (infinie et non
périodique) des décimales de Pi [98]. Comme on ne peut prouver que cette suite de
chiffres est aléatoire, on l'appelle pseudo-aléatoire.

Le caractère déterministe d'un processus n'entraîne donc pas nécessairement


l'existence d'une représentation de son résultat qui ait une régularité ou une
prévisibilité quelconque : précision, périodicité, symétrie, etc.: nous l'avons déjà vu
plus haut.
Contrairement à une fraction, par exemple, dont la suite des décimales est
nécessairement périodique (exemple : 22 divisé par
7 = 3.142857 142857 142857 où la suite de 6 chiffres 142857 se répète
indéfiniment) certains nombres réels comme  ont une représentation décimale
sans périodicité ni loi permettant de prévoir la décimale de rang p connaissant
tout ou partie des décimales précédentes [56].

Conclusion
Lorsqu'une suite de valeurs ou de concepts semble aléatoire parce que nous n'y
trouvons pas de régularité, elle peut résulter d'un phénomène déterministe apériodique
comme celui des suites de groupes de M décimales successives de  générées par
un algorithme ; mais nous n'avons la certitude ni de son caractère imprévisible (hasard
postulé), ni de son caractère stochastique (relevant du calcul des probabilités).

3.5.11.6.2 Dynamique des populations


Dans les études d'évolution d'une population humaine ou animale limitée par la
capacité du milieu à la supporter interviennent parfois des suites de la forme :
xn+1 = axn(1-xn)
où l'indice n repère le temps (par exemple l'année), x n est la valeur (constante ou
moyenne) de la variable x (exemple : effectif de la population à l'instant n), et a est une
constante. Par exemple avec a = 4 et x1 = 0.7 cette suite donne des valeurs
successives de x lorsque l'instant n varie de 1 à 251 représentées par le graphique ci-
après :

226
Suite des valeurs xn+1 = 4xn(1-xn) où x1 = 0.7 et n varie de 1 à 251

Cet exemple illustre une deuxième catégorie de processus déterministes, dont les
résultats varient de manière erratique bien qu'ils soient prévisibles puisqu'on peut les
calculer. Lorsqu'un expérimentateur trouve une suite de résultats ressemblant à ceux-
là, il est tenté d'en déduire à tort que le phénomène sous-jacent n'est pas déterministe,
mais aléatoire.

Le déterminisme d'un phénomène n'est donc pas toujours apparent au vu de son


évolution ou de ses résultats. Dans ces cas-là, si on ne sait pas trouver sa loi par
raisonnement (par exemple en considérant son spectre de fréquences de Fourier et

227
sa fonction d'autocorrélation) elle peut rester cachée, particulièrement si on ne peut
vérifier si elle donne des évolutions reproductibles.

3.5.11.7 Déterminisme et durée


Le mathématicien anglais Alan Turing a démontré en 1936 qu'il n'existe pas
d'algorithme universel permettant de savoir si un programme (logiciel) donné
s'exécutera ou non en un temps fini. Or si le calcul d'un résultat demande un temps
infini ou très grand, ce résultat ne peut pas être qualifié de calculable, car il arrive qu'on
ne puisse pas le connaître ou en deviner une approximation avant la fin du calcul.

Un algorithme est un processus déterministe, car on sait exactement ce qu'il fait et il


satisfait aux conditions de la définition du déterminisme scientifique. Mais il peut
s'avérer non calculable en pratique si le temps nécessaire pour que son résultat
apparaisse est infini ou plus grand que notre patience [114].

Et comme d'après la démonstration de Turing on ne peut savoir d'avance, en général,


au vu d'un algorithme et de ses données initiales, si son temps d'exécution sera infini,
il faut exécuter le logiciel de l'algorithme et considérer arbitrairement comme infini un
temps qui nous paraît trop long… Pour aller plus loin, il faut si possible étudier
mathématiquement sa vitesse de convergence.

Le déterminisme lui-même, puisqu'il régit l'évolution d'une situation initiale (la cause)
à une situation finale (la conséquence), implique un intervalle de temps « acceptable »
entre ces deux situations.
 Un intervalle de temps nul fait qu'on ne parle plus de déterminisme mais de
conséquence logique. On ne peut plus séparer cause et conséquence en tant
que phénomènes, la conséquence est une simple déduction logique de la cause.
Exemple : si la cause du phénomène est "X > 6", la conséquence "X + 1 > 7" est
vraie en même temps et ne constitue pas une évolution.
Voir aussi l'importante discussion "séparabilité/non-séparabilité" plus bas.
 Un intervalle de temps infini, ou simplement beaucoup plus long que l'échelle de
temps du phénomène, fait qu'on n'attend plus la conséquence ; parfois on la
découvre des années après.
Exemple : en général le temps de réponse de mon PC est de l'ordre d'une
seconde. Il m'est arrivé plusieurs fois, après une longue minute d'attente, de
considérer qu'il tournait en rond et d'interrompre brutalement le traitement ;
comme ce système exécute environ 1 milliard d'instructions par seconde, je
n'imagine pas qu'une application de bureautique puisse prendre si longtemps pour
traiter une transaction. Parmi la vingtaine d'applications que j'utilisais jusqu'en
2006 une seule demandait 30 à 40 minutes de traitement, la conversion des 450
pages d'un de mes livres du format ".doc" de WORD en format ".pdf" d'Adobe
Reader, et après l'avoir interrompue à tort deux fois, j'ai appris à patienter.
Heureusement, depuis la version WORD 2007, ce logiciel de traitement de textes
effectue lui-même la conversion de son format natif en format ".pdf", et le fait en
une dizaine de secondes pour le même document.
 Un intervalle de temps acceptable a une durée du même ordre que celle que
notre esprit ou la théorie associent à la cause, le résultat attendu ou l'évolution

228
de l'une à l'autre. L'acceptabilité est un critère subjectif, bien entendu, mais par
quoi pourrait-on le remplacer ?
Exemple : le service public de La Poste doit acheminer une lettre neuf fois sur dix
en 1 jour ouvrable. En considérant qu'une lettre qui n'est pas arrivée au bout de 5
jours n'est pas partie ou a été perdue, je ne me trompe que rarement.

3.5.11.7.1 Nombres réels et problèmes non calculables

Définitions
Par définition, un nombre réel est dit calculable s'il existe un algorithme permettant de
le calculer en un temps fini. Une racine carrée, par exemple, est calculable avec toute
précision (nombre de chiffres exacts) imposée.
 Un résultat est dit calculable s'il existe un algorithme permettant de l'obtenir en
un nombre fini d'opérations de durée finie (donc en un temps fini). [114]
Tout algorithme mettant en jeu un nombre fini d'étapes de durée finie est donc
calculable ; sa logique est déterministe.
 Un ensemble d'entiers E est dit calculable s'il existe un algorithme permettant de
savoir en un nombre fini d'étapes si un entier donné X appartient à E. Il existe
des ensembles d'entiers non calculables, dont un exemple est cité par [91] page
158.

S'il est bien conçu, un algorithme comprend des tests de fin lui permettant de s'arrêter
lorsque le nombre de décimales calculées ou de termes calculés est suffisant, ou que
le temps de calcul a dépassé une certaine durée ; cet arrêt est indispensable pour que
l'algorithme fournisse un résultat, s'il n'en imprime pas une partie (une des décimales
successives ou des termes successifs) à chaque étape.

Nombres réels non calculables


Hélas, il existe des nombres réels non calculables. Un exemple de procédé pour
prouver l'existence d'un tel nombre (sans le calculer) est cité dans [91] page 108 ; ce
nombre a une infinité de décimales telle que sa décimale de rang n est définie comme
prenant la valeur 1 ou la valeur 0 selon que la machine de Turing de rang n calculant
sur le nombre n s'arrête ou non, ce qu'il est impossible de savoir d'avance au moyen
d'un algorithme (impossibilité démontrée par Turing).
J'avoue être pris de vertige quand je songe à un nombre réel (bien nommé, car il
existe vraiment !) qu'on ne peut écrire parce qu'on ne peut le calculer ! Et je ne
suis pas seul : il y a des gens, les intuitionnistes, qui refusent de croire à l'existence
d'un tel nombre.

Voir aussi l'exemple d'onde définie par sa fonction de propagation dont l'amplitude à
l'instant t=0 est calculable et l'amplitude à l'instant t=1 est continue mais non calculable
[115].

Conséquence pour le déterminisme


L'existence de nombres réels non calculables - il en existe une infinité - illustre une
limite de prédictibilité du déterminisme : il y a des algorithmes déterministes qui
prouvent l'existence de quelque chose (ici un nombre) qui ne peut être décrit (sa
représentation n'est pas calculable) à l'exception de propriétés particulières (l'unicité

229
par exemple, dans le cas de nombres réels de propriétés données). Le déterminisme
permet alors d'en prévoir l'existence et certaines propriétés, mais pas la valeur.
Nous avons défini le déterminisme étendu comme un principe régissant toutes les
lois de la nature. La définition du déterminisme scientifique traditionnel s'applique
aussi aux algorithmes, processus intellectuels qui ne sont pas des évolutions
naturelles ; mais la convergence d'un algorithme en un temps fini et la régularité
d'une suite de résultats qu'il génère ne sont pas nécessairement prédictibles. Plus
généralement, la pensée humaine est imprévisible à partir de la hiérarchie des
phénomènes qui la composent, hiérarchie commençant avec la génétique et se
terminant par les divers niveaux du « logiciel » psychique ; cela vient, par
exemple, de l'effet de l'inconscient [353]. Nous étudierons cela plus bas.

L'existence de nombres réels non calculables peut sembler n'intéresser que des
mathématiciens. Mais la limite correspondante du déterminisme apparaît aussi dans
des phénomènes physiques observables : dans l'Univers il existe de la matière sombre
dont l'existence est prouvée mais dont on ne peut rien « voir » d'autre que l'effet
gravitationnel à distance; et les particules atomiques ne sont "visibles" que sous forme
mathématique.

Voir en complément la discussion des conditions de prise en défaut du déterminisme.

Exemple de problème non calculable : le pavage du plan


Enoncé : étant donné un ensemble fini de formes planes polygonales différentes,
existe-t-il un algorithme pour décider si en les juxtaposant d'une certaine façon on peut
paver (c'est-à-dire recouvrir) la totalité du plan ?

C'est le « problème du carreleur » : comment disposer ses carreaux pour couvrir un


sol sans trou ni recouvrement ? Voici un exemple issu de [147] :

Pavage de Penrose

Le plan est pavé de carreaux en forme de losange. Les carreaux à bords parallèles
horizontaux sont grisés et alignés en colonnes séparées tantôt par des intervalles
étroits (S) ou larges (L). Le pavage forme des motifs qualifiés de quasi périodiques ; il

230
est déterministe en ce sens que l'ordre de juxtaposition des carreaux peut être généré
par un algorithme.

Selon [91] page 176, Robert Berger a démontré en 1966 qu'il n'existe pas, en général,
d'algorithme permettant de disposer des carreaux polygonaux donnés de manière à
paver le plan : ce problème-là est sans solution. Sa démonstration prouve l'existence
de pavages du plan qui ne contiennent pas de parallélogramme répétitif, appelés
"pavages non périodiques". En voici un exemple dû à [148] :

Pavage non périodique

Voici trois exemples de pavage répétitif dus à [148] :

3.5.11.7.2 Il y a infiniment plus de réels non calculables que de réels calculables


Les programmes que l'on peut écrire dans un langage de programmation donné
(exemple en langage Java : [342]) forment un ensemble dénombrable (ensemble qui
compte autant d'éléments-programmes que l'ensemble des entiers naturels 0, 1, 2,
3… compte d'entiers. En effet, un tel programme est une combinaison de taille finie

231
d'un nombre fini de symboles de base (signes alphanumériques). Un programme,
défini comme un couple (logique de calcul, données initiales) peut donc calculer un
nombre réel et un seul. Le nombre de nombres réels calculables par des programmes
est donc une infinité dénombrable.

Or l'ensemble des nombres réels n'est pas dénombrable : il y a infiniment plus de


nombres réels que de nombres entiers naturels (on dit que l'ensemble des réels a « la
puissance du continu »). Comme le nombre de programmes est une infinité
dénombrable, il y a nécessairement une infinité de nombres réels qui ne sont pas
calculables.

Approfondissons un peu cette situation en partitionnant l'ensemble des nombres réels


en deux catégories, les nombres algébriques et les nombres transcendants [56] :
 On appelle nombre algébrique un nombre réel qui est racine d'un polynôme à
coefficients entiers, c'est-à-dire d'une équation de la forme :

a0xn + a1xn-1 + a2xn-2 +….+ an = 0

où les coefficients ai et l'exposant n sont tous entiers.


 Un nombre réel non algébrique comme  est dit transcendant : il n'est racine
d'aucune équation polynomiale à coefficients entiers [56].

On démontre que :
 L'ensemble des nombres réels algébriques est dénombrable, c'est-à-dire que
chaque nombre algébrique peut être associé à un entier naturel et un seul ;
 L'ensemble des nombres réels, algébriques ou transcendants, n'est pas
dénombrable ; il y a infiniment plus de nombres réels que de nombres entiers
naturels ; il y a donc infiniment plus de nombres transcendants que de nombres
algébriques ;
 Tout nombre algébrique est calculable : on peut écrire au moins un programme
informatique qui le calcule en un nombre fini d'étapes ;
 L'ensemble des nombres réels transcendants comptant infiniment plus
d'éléments que l'ensemble des entiers naturels, il existe une infinité de réels
pour lesquels on ne peut écrire de programme de calcul, c'est-à-dire de réels
non calculables.

3.5.11.7.3 Propositions indécidables


Il y a une limite du déterminisme sur laquelle nous reviendrons à propos de la pensée
humaine : certaines affirmations peuvent être formulées, mais ni démontrées ni
infirmées avec un algorithme calculable [114] ; lorsqu'on peut prouver que leur véracité
ne peut être ni démontrée ni infirmée on les qualifie d'indécidables. [6] Certaines de
ces affirmations se révéleront exactes dans de très nombreux cas et ne seront fausses
dans aucun cas connu, mais on ne pourra pas prouver qu'elles sont toujours vraies ;
d'autres se révéleront fausses, un seul cas suffisant alors si on fait l'hypothèse qu'une
affirmation est toujours vraie ou toujours fausse [99].

232
Nous préférerons désormais l'expression proposition logique (ou simplement
proposition) à celle d'affirmation, car on a pris l'habitude de parler de calcul des
propositions.

Une proposition logique est indécidable dans deux cas :


 Si on peut prouver qu'il n'existe pas d'algorithme pour calculer si elle est vraie ou
si elle est fausse ;
 Ou si la démonstration de sa valeur logique ("vrai" ou "faux") peut exiger un
algorithme qui ne s'arrête pas, obligeant ainsi à attendre indéfiniment sa
réponse.

3.5.11.8 Calculabilité, déterminisme et prévisibilité


Considérons deux nombres réels calculables. Il est important de savoir s'ils sont égaux
ou non. Si on connaît une démonstration (par raisonnement) de cette égalité ou
inégalité, on a une réponse théorique à la question. Mais si on n'en connaît pas, on
peut se demander s'il existe un algorithme à qui la donnée de ces deux nombres (ou
la comparaison de paires de décimales successives, une de chaque nombre) permet
de répondre à la question de leur égalité.

Hélas, la réponse à la question sur leur égalité est "en général, non". Par exemple,
deux nombres réels irrationnels ayant une suite infinie et non périodique de décimales,
un algorithme qui comparerait une par une les décimales de même rang ne se
terminerait pas s'il continuait à comparer les décimales tant qu'elles sont égales ; on
n'en connaîtrait donc jamais, alors, le résultat.

La comparaison de deux nombres irrationnels n'est pas la seule opération de durée


éventuellement infinie, donc par définition non calculable, puisque nous savons que :
 Un algorithme est toujours déterministe, car il effectue seulement des opérations
déterministes (voir les hypothèses [114]).
 Comme un algorithme n'a que des opérations déterministes, la calculabilité exige
le déterminisme : un phénomène non déterministe au sens scientifique
traditionnel, s'il existait, ne pourrait être modélisé de manière calculable. Mais
nous avons vu à propos du hasard qu'il n'en existe qu'un dans la nature, le
déterminisme statistique de la décohérence, et l'évolution par choix au hasard de
valeur propre correspondante est régie par le déterminisme étendu.
 Partant de données initiales, un algorithme peut :
 S'arrêter après un nombre fini d'opérations, et son résultat est alors, par
définition, calculable ;
 Ne pas s'arrêter, et son résultat est alors, par définition, non calculable.
Mais avec des données initiales différentes son comportement peut être autre.
(Et comme signalé plus haut, il n'existe pas d'algorithme général pour savoir
d'avance, sans l'exécuter, si un algorithme s'arrêtera.)
Il y a autant d'algorithmes qui ne s'arrêtent pas que l'on veut, puisque :
 On peut écrire autant de programmes qui bouclent que l'on veut ;

233
 Il existe une infinité de programmes qui bouclent pour certains cas de
données initiales et pas pour d'autres ;
 Un programme calculant une suite ou une série non convergente peut
tourner indéfiniment sans converger.
 Un autre cas de non-calculabilité est celui où le résultat à calculer est infini, ce
qui se produit dans certaines théories physiques mal adaptées à la réalité [119].

D'où la confirmation de la conclusion déjà énoncée : il y a des processus déterministes


dont le résultat n'est pas calculable, parce qu'il faudrait :
 Soit un nombre infini d'opérations, donc un temps infini. Ce sont en fait des
processus multiétapes, qui en comptent un nombre infini dont chacune a une
durée finie (et non infiniment courte !) ;
 Soit calculer des valeurs infinies, ce qui n'a pas de sens ;
 Soit parce qu'ils définissent un nombre ou un concept non calculable, problème
déjà évoqué ;
 Soit parce qu'ils ont construit une proposition indécidable [6].
Exemple informatique : étant donné un nombre entier n, valeur initiale fournie à
un algorithme, affecter au résultat de l'algorithme la valeur 1 si la machine de
Turing de rang n lancée avec le nombre n s'arrête, et 0 si elle ne s'arrête pas.
Puisqu'on ne peut savoir d'avance (sans la faire tourner) si la machine de Turing
s'arrêtera dans ce cas, la proposition est indécidable et l'algorithme peut ne jamais
s'arrêter, son résultat étant donc non calculable.
Exemple psychologique : les processus psychiques se déroulent dans
l'inconscient [353] sous forme de changement de l'état et des interconnexions de
neurones. Comme tout processus de la vie est une combinaison, au plus bas
niveau, de réactions de biologie moléculaire (régies par le déterminisme
statistique) on pourrait s'attendre à ce que les processus inconscients soient aussi
déterministes. Ils ne le sont pas parce que leurs fonctions dépendent de
paramètres corporels et psychiques qui varient constamment selon le contexte, et
que nous ignorons car ils sont inaccessibles puisque hors de la conscience ; en
outre, l'inconscient effectue des associations et transformations d'images
mentales et de représentations indépendamment des règles de logique et
d'écoulement du temps.
Les "pensées" de l'inconscient (images mentales indifférentes au temps et à la
logique) apparaissent donc d'une manière imprévisible et non reproductible.
Lorsque la conscience a accès à une de ces pensées ou subit l'influence d'un
processus inconscient, la pensée dont elle est consciente est apparue de façon
inexplicable ; ses qualités de véracité, de non-contradiction, etc. sont donc
indécidables.

Autre exemple de processus déterministe à résultat non calculable


Source : [91] page 243. Les équations différentielles de propagation d'onde sont
déterministes au sens traditionnel : leurs solutions sont telles que les données de
l'instant t=0 déterminent complètement l'onde à tout instant ultérieur. Or il existe des
cas où une solution a des données initiales calculables et des valeurs ultérieures non
calculables [116] ; dans une telle solution à un problème physique déterministe,

234
certaines fonctions ont des valeurs tantôt calculables, tantôt non calculables. Et
pourtant la nature n'hésite pas : à partir de toute situation initiale elle déclenche une
évolution conforme à ses lois !

Conclusion
Dans des cas particuliers rares, en physique ou dans des expériences de pensée
construites à cet effet, le résultat d'une formule ou d'un processus physique
déterministe peut être non calculable, ou tantôt calculable tantôt non calculable. Si le
processus est une évolution physique, la non-calculabilité n'empêche pas l'évolution,
elle empêche seulement de prévoir son résultat.

3.5.11.8.1 Calculabilité d'une prédiction


En généralisant par induction nos observations sur les évolutions des systèmes
physiques, nous avons postulé que les phénomènes de l'Univers sont déterministes.
A part comprendre une situation, connaître le déterminisme sert à prévoir l'avenir. Il
est important de savoir si, dans une situation donnée, il existe nécessairement un
algorithme de prédiction de son évolution. Cette question se pose d'autant plus que
nous venons de voir qu'il y a des processus déterministes dont le résultat n'est pas
calculable ; nous savons aussi déjà qu'un algorithme est toujours déterministe, mais
qu'il ne fournit pas toujours un résultat.

Indécidabilité prouvée et indécidabilité pratique


Considérons l'affirmation inquiétante : « La guerre atomique qui détruira l'humanité
commencera dans 30 ans. » Nous ne savons pas si cette affirmation est décidable,
c'est-à-dire s'il existe aujourd'hui un algorithme (raisonnement déductif formel)
permettant de la déclarer vraie ou fausse. Nous savons, en revanche, que le nombre
de paramètres d'un tel algorithme permettant d'y répondre est immense, tellement
immense que l'effort pour trouver cet algorithme est décourageant. En pratique, donc,
nous considérerons cette affirmation comme indécidable.

D'où une première constatation : une proposition peut être indécidable à coup sûr,
parce que cette indécidabilité a été démontrée dans le cadre d'une axiomatique [67],
ou être indécidable en pratique, parce que l'effort pour le savoir est hors de portée ou
parce que nous n'avons pas les connaissances nécessaires.
Remarquons aussi, en passant, que l'affirmation ci-dessus est infalsifiable : il
n'existe pas de moyen pratique de prouver qu'elle est fausse 30 années à
l'avance. C'est le cas de toutes les prédictions « boule de cristal » que les auteurs
d'horoscopes formulent soigneusement pour qu'elles soient infalsifiables.

Considérons à présent l'affirmation « La guerre atomique qui détruira l'humanité


commencera dans 30 minutes. » Cette affirmation a beaucoup de chances d'être
fausse, parce que la situation mondiale grave conduisant à une telle guerre n'existe
pas en ce moment, et qu'il faudrait plus de 30 minutes pour qu'elle apparaisse. On voit
qu'une différence minime, le remplacement du mot "ans" par le mot "minutes", peut
changer la prédictibilité pratique d'un résultat d'évolution. Cette calculabilité (ou, plus
généralement, cette prédictibilité) pratique n'est donc pas une propriété exclusivement
formelle, elle dépend aussi de la sémantique. Donc, en général :

235
 On ne peut prédire le résultat du déroulement d'un algorithme au vu de son texte
et de ses données initiales, il faut attendre la fin de son déroulement ; cela peut
prendre du temps, et si ce temps est trop long…
 On ne peut prédire l'évolution d'une situation complexe par un simple
raisonnement déductif formel, il faut prendre en compte les valeurs de ses
paramètres, leur signification et leur impact. Parfois, il faudra attendre que la
situation ait déjà un peu évolué avant de pouvoir prédire la suite de cette
évolution.

Déterminisme et prédiction de l'avenir


Nous savons maintenant qu'il y a des phénomènes déterministes dont le résultat n'est
pas prédictible par raisonnement logique ou calcul, en théorie (indécidabilité) ou en
pratique. Mais leur caractère déterministe n'en est pas moins certain puisqu'ils
satisfont les deux critères de la définition : la condition nécessaire et suffisante et la
stabilité.
C'est ainsi que tous les phénomènes biologiques du vivant sont déterministes en
tant que résultats d'un ensemble de phénomènes composants déterministes (de
biologie moléculaire), alors que les conséquences des mécanismes
physiologiques et psychologiques basés sur eux sont souvent imprévisibles :
 Parce qu'on ne connaît pas – ou pas assez bien - tous ces composants [51]
- notamment lorsqu'interviennent des mécanismes mentaux non conscients ;
nous verrons plus bas cette conséquence de la complexité.
 Parce que la reproductibilité (stabilité des circonstances complexes) n'est
pas assurée.
L'homme est souvent imprévisible bien qu'il fasse partie de l'Univers, dont les
phénomènes physiques sont tous déterministes, mais dont les interactions
(exemple : phénomènes psychologiques) ne le sont pas nécessairement (en
psychologie du fait de l'inconscient [353]). Il faut donc bien, en pratique, limiter la
promesse de prédictibilité du déterminisme traditionnel, que ce soit celui de
Laplace [200] ou le déterminisme scientifique. Nous l'avions déjà remarqué.

3.5.11.8.2 Phénomènes déterministes à conséquences imprévisibles et erreurs


philosophiques
Nous savons à présent qu'il existe des phénomènes dont le déroulement est
déterministe, mais dont le résultat ne peut être prédit au départ :
 Soit parce qu'il faut un temps de calcul infini pour que l'algorithme calcule le
résultat ;
 Soit parce qu'au vu d'un algorithme et de ses données initiales on ne peut savoir
à l'instant du lancement s'il s'arrêtera, s'il se bloquera sur une opération
impossible comme une division par zéro, ou s'il fournira un résultat en un temps
fini assez court pour que nous l'attendions ;
 Soit parce que la complexité du phénomène (nombre de phénomènes
déterministes composants trop élevé, interactions trop complexes), la présence
d'imprécisions (paquet d'ondes, Compton) ou celle d'instabilités (Heisenberg),
rendent son évolution imprévisible en pratique, même si elle est prévisible en
théorie ;

236
Le cas le plus grave d'impossibilité de prédire une évolution est certainement celui
dû au principe d'incertitude de Heisenberg. Lorsque, conformément à ce principe,
la valeur d'une variable à un instant donné n'est pas définie et peut changer sans
cause, on ne peut même pas décrire l'état actuel ; il est alors impensable de
décrire son évolution. Ainsi, on ne peut prédire les fluctuations quantiques.
 Soit parce que l'instabilité du contexte du phénomène ou sa sensibilité aux
conditions initiales rend celui-ci imprévisible en pratique ;
 Soit parce qu'il n'existe pas d'algorithme pour calculer le résultat
(exemple : problème du pavage du plan avec des carreaux polygonaux, qui n'a
pas d'algorithme dans le cas général, mais dont tout pavage réalisé par un
homme l'a nécessairement été de manière déterministe).

Cette situation a été à l'origine d'erreurs de raisonnement sur le déterminisme,


commises par des philosophes qui confondaient impossibilité de toujours prévoir par
algorithme (raisonnement logique) le résultat d'une évolution, et non-déterminisme.

3.5.11.8.3 Calculabilité par limitations et approximations


Dans un ordinateur, un programme ayant un nombre d'instructions fini de durée
individuelle finie, ne peut durer indéfiniment que s'il exécute un nombre infini
d'opérations, soit en bouclant, soit en exécutant un algorithme non convergent. Ces
cas impliquent l'oubli par le programmeur d'inclure des tests de convergence.
Excluons-le désormais.

Un programme qui manipule des nombres réels travaille sur des approximations
binaires finies de ces nombres ; chaque opération de calcul a donc une durée finie.
L'égalité de deux nombres est définie à une décimale du dernier ordre près. Les
opérations (comme la multiplication et la division) qui génèrent plus de décimales que
le logiciel n'en peut traiter se terminent par une troncature des décimales en surnombre
du résultat. Les calculs approchés ayant des règles précises, ils sont déterministes.
L'utilisation de valeurs numériques approchées est justifiée parce que :
 la précision des grandeurs physiques, scientifiques, financières ou autres
qu'elles représentent est elle-même limitée ;
 nous ne savons pas créer et manipuler des nombres de précision infinie.

L'esprit humain effectue, lui aussi, des opérations approchées, notamment lorsqu'il
raisonne par analogie, lorsqu'il compare deux objets en ne considérant qu'une partie
de leurs propriétés, ou lorsque l'inconscient [353] fait des rapprochements
surprenants. Cette possibilité est bénéfique, car une connaissance exhaustive est rare,
et un résultat approché obtenu rapidement est souvent plus utile dans la vie courante
qu'un résultat plus précis obtenu trop tard. Nous verrons plus bas que ces opérations
mentales approchées sont en général non déterministes, parce qu'elles mettent en
œuvre des critères de qualité (précision, rigueur, etc.) non reproductibles ; ces critères
peuvent être basés, par exemple, sur des quantités de neurotransmetteur ("molécules
d'anticipation, de désir") positives (agréables) ou négatives (désagréables) dans le
cortex préfrontal du cerveau, quantités qui peuvent varier avec les circonstances
externes (environnement, santé, etc.) [51]

237
3.5.11.9 Déterminisme et convergence des processus et théories
Le déterminisme est un principe qui régit l'évolution d'une cause vers sa conséquence.
Nous avons vu que si cette évolution est celle d'un algorithme qui demande un temps
de calcul infini on ne peut plus parler de calculabilité, même si chaque étape de calcul
peut se faire en un temps fini. Il est donc naturel de définir arbitrairement comme non
déterministe un processus de calcul de durée infinie, au motif que son résultat est
inaccessible, donc qu'il ne répond pas au besoin de prévoir.

Si on accepte d'imposer au déterminisme cette contrainte de finitude, d'autres cas


apparaissent où elle ne peut être satisfaite, cas que nous qualifierons de non
convergents ou de divergents. Tous ces cas auront en commun de définir un résultat,
de type scalaire, vectoriel, matriciel, tensoriel, ou autre :
 Soit comme la somme d'un nombre infini de termes dus aux étapes
intermédiaires, somme que les mathématiciens appellent série, et une série peut
converger ou non vers une somme limite finie, un nombre complexe déterminé,
etc. ;
 Soit comme la limite d'une suite infinie de termes, qui peuvent tendre vers une
limite finie ou non.

Exemple : considérons la course entre le rapide Achille et une tortue [19]. Celle-ci part
avec une avance a sur Achille et progresse à une vitesse v (petit v) tandis qu'Achille
part en même temps et progresse à la vitesse V (grand V). Nous savons qu'Achille
rattrapera la tortue en un temps a/(V-v) à la position aV/(V-v). Zénon (philosophe
sceptique grec du IIIe siècle avant J.C.) calculait le temps nécessaire au rattrapage
comme la somme d'une série ayant une infinité de termes [19], et comme il ne savait
pas qu'une telle série peut être convergente si ses termes successifs décroissent
suffisamment vite, il en concluait (par goût du paradoxe) qu'elle divergeait et qu'en
réalité Achille ne rattraperait jamais la tortue !

L'exemple précédent montre l'intérêt d'un minimum de culture mathématique, la


connaissance des cas de convergence et de divergence des séries et des suites de
valeurs étant indispensable aux raisonnements déterministes comprenant un grand
nombre d'étapes.

Il y a d'abord la convergence dans l'espace, cas où les étapes successives d'un


processus déterministe qui en compte une infinité ajoutent chacune de la distance au
résultat ; celui-ci peut alors s'éloigner à l'infini ou devenir infiniment étendu si les ajouts
successifs ne décroissent pas assez vite.

En généralisant ce raisonnement à un espace des phases, un processus comptant


une infinité d'étapes sera déclaré non déterministe pour cause de divergence si l'une
des variables de son espace des phases est décrite par une suite ou une série
divergente.

Les exemples de convergence qui viennent naturellement à l'esprit comprennent une


limite unique, mais il existe des convergences vers plusieurs limites comme dans le
cas des attracteurs multiples.

Enfin, on peut parler de convergence d'une théorie : voir [219].

238
3.5.11.10 Logique formelle. Calcul des propositions. Calcul des prédicats

3.5.11.10.1 Logique formelle et logique symbolique

La logique formelle
La logique formelle est l'étude des affirmations, propositions et déductions considérées
du point de vue logique, abstraction faite de leur application et de leur sémantique. Elle
s'intéresse à la manière de déduire logiquement des propositions les unes des autres,
avec des implications ou des exclusions. C'est une étude a priori, sans caractère
expérimental ; elle n'utilise que des raisonnements logiques déductifs, sans jamais
recourir à l'observation, l'expérimentation ou la critique du sens.
 Exemple 1 : l'affirmation « Le petit chat est mort » ne peut être que vraie ou
fausse (principes de logique dits de contradiction et du tiers exclu, voir [99]) ; si
j'admets qu'elle est vraie, je ne puis en même temps affirmer « Le petit chat est
vivant », quel que soit mon raisonnement.
 Exemple 2 : le respect de la logique formelle est une condition nécessaire de
validité d'une proposition. Si j'écris « le chat noir est blanc », c'est formellement
impossible, parce que j'affirme à la fois une chose et son contraire, ce qui est
illogique.
Mais la validité en logique formelle n'est pas une condition suffisante pour qu'une
proposition soit acceptable. La phrase « l'escargot déploya ses ailes et s'envola »
est parfaite sur le plan du formalisme grammatical, mais son sens est absurde.

La logique symbolique
La logique symbolique fait partie de la logique formelle. Elle consiste d'abord à décrire
de manière symbolique une axiomatique [67] comprenant :
 Des propositions (c'est-à-dire des formules ou des affirmations logiques
désignées par une lettre minuscule comme p, q, r, ou s) ; exemples :
 p : « Un camion a heurté violemment le petit chat »
 q : « Le petit chat est mort »
 r:«x<5»
 s:«x=8»
 0=0 (formule, proposition particulière non désignée par une lettre).
La proposition contraire de p, appelée « non p » est notée ¬p.
La valeur logique d'une proposition p ne peut être que 1 (vrai) ou 0 (faux) ;
si p est vraie on écrit simplement p ou p=1, si elle est fausse on écrit ¬p ou p=0.
 Des opérations logiques sur ces propositions. Exemples :
 L'inférence "DONC" (c'est-à-dire si « proposition 1 » est vraie, alors
« proposition 2 » est aussi vraie) notée  ;
 Les conjonctions "ET" notée  et "OU" notée , etc.)
Ces opérations enchaînent deux ou plusieurs propositions ; exemples :
 p  q (« si un camion a heurté violemment le petit chat, alors le petit chat
est mort ») ;
 r  ¬s (si x < 5, alors x=8 est faux, c'est-à-dire x8)

239
 ¬(r  s) = 1 (affirmer à la fois « x < 5 » et « x = 8 » c'est énoncer quelque
chose de faux, mais son contraire est vrai).

Le calcul logique symbolique consiste ensuite, une fois la notation posée, à écrire un
algorithme (c'est-à-dire un raisonnement) qui enchaîne propositions et opérations pour
arriver à une conclusion : c'est un calcul de propositions, abordé ci-dessous.

La logique formelle est une activité parfaitement justifiée dans sa forme, mais qui ne
se préoccupe pas de la signification et des implications de ses conclusions. En fait,
elle exclut toute sémantique des propositions qu'elle manipule, laissant cette
sémantique à une métalogique qui a ses propres règles. Elle est à la portée d'un
ordinateur à qui elle permet, par exemple, de trouver des démonstrations en combinant
de toutes les manières possibles les axiomes fournis au départ et les propositions déjà
établies.

La logique formelle ne convient ni aux raisonnements nuancés, ni à ceux dont on ne


peut énoncer les axiomes de départ et les règles de déduction de manière complète
et non ambiguë. Voir aussi l'important complément [221].

3.5.11.10.2 Calcul des propositions


Le calcul des propositions est la mise en œuvre de la logique formelle. Il est basé sur
une axiomatique [67] appelée algèbre de Boole, qui applique aux propositions les
concepts suivants :
 L'ensemble non vide de propositions appelé A, dont les éléments sont x, y, z…
 Les opérateurs d'appartenance à un ensemble  (appartient) et  (n'appartient
pas) ; exemple : x  A ;
 Les opérations logiques associatives "ET" notée  et "OU" notée  ;
 L'opérateur unaire (c'est-à-dire portant sur une seule proposition) "NON" noté ¬ ;
 Les paires de parenthèses ou de crochets "(" et ")" et "[" et "]" entourant une
proposition à considérer comme un tout, avec une priorité d'autant plus grande
que la paire est intérieure à une autre ;
 Les valeurs logiques 1 (vrai) ou 0 (faux) ;
 Le symbole = désignant un résultat de calcul logique.

Les axiomes de l'algèbre de Boole sont d'après [128] :


 xA yA (x  y)  y = y ;
(quels que soient x et y appartenant à A, la proposition (x  y)  y équivaut à y, ce
qui est une tautologie)
 xA yA (x  y)  y = y ;
 xA yA zA x  (y  z) = (x  y)  (x  z) ;
 xA yA zA x  (y  z) = (x  y)  (x  z) ;
 xA x  ¬x = 0 ;
 xA x  ¬x = 1 ;

240
 xA x  0 = x ;
 xA x  1 = x .

Le calcul des propositions peut aussi se baser sur des tables comme la suivante, où
la 3e ligne, par exemple, se lit : si p est faux et q est vrai, alors p  q est faux, p  q est
vrai et p  q est faux.

p q pq pq pq

1 1 1 1 1

1 0 0 1 0

0 1 0 1 0

0 0 0 0 1

Exemple de table pour le calcul de propositions

On voit l'extrême concision du calcul des propositions et son caractère automatique :


il suffit d'appliquer les axiomes et les tables de règles.

Voir aussi l'important complément [221].

3.5.11.10.3 Calcul des prédicats


Un prédicat est une proposition logique fonction d'une ou plusieurs variables.
Exemples : P(x) et Q(y,z) (noter les majuscules pour les prédicats et les minuscules
pour les variables). Selon les valeurs de ses variables, un prédicat prend la valeur 1
s'il est vrai, ou 0 s'il est faux.

Le calcul des prédicats est le langage par excellence des raisonnements


mathématiques. Il utilise :
 Tous les symboles du calcul des propositions, sauf les lettres minuscules qui
désignent des propositions comme p et q ;
 Les nombres entiers non négatifs : 0 ; 1 ; 2 ;… et l'opérateur "successeur de",
noté "s" faisant passer de l'un de ces entiers au suivant (exemple : 1=s0) ;
 Les variables comme x, y, z, qui peuvent être de type quelconque (scalaire,
vecteur, variable logique, etc.) ;
 L'opérateur d'affirmation d'existence d'au moins 1 élément :  ;
exemple : x(x>5) (il existe un x qui est supérieur à 5) ;
 L'opérateur "quel que soit" :  ;
exemple : z(z2+3  k) (quel que soit z tel que z2+3  k) ;

Exemple de prédicat fonction des variables entières non nulles x, y, z, n :


le théorème de Fermat s'énonce :

241
x y z n [(n>2)  (xn + yn  zn)]

On voit que grâce à son symbolisme et à sa rigueur, le calcul des prédicats est à la
portée d'un ordinateur, notamment pour des démonstrations automatiques de
théorèmes : on dit que les algorithmes de calcul des prédicats sont calculables.

Voir aussi l'important complément [221].

3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations diophantiennes


On dit qu'un problème mathématique est insoluble lorsqu'on a démontré qu'il n'existe
pas d'algorithme permettant de le résoudre. C'est le cas, par exemple, du problème
de savoir si l'exécution d'un algorithme donné se termine en un nombre fini d'étapes,
permettant d'obtenir son résultat (c'est-à-dire pour savoir s'il converge).

Etant donné un problème, tant qu'on n'a ni trouvé de solution, ni démontré qu'il n'y en
a pas, on ne peut rien affirmer en dehors d'éventuels cas particuliers. L'exemple le
plus célèbre d'un tel problème, qui a fait le désespoir de nombreux mathématiciens
depuis 1630 jusqu'en 1994, est le théorème de Fermat. En voici l'énoncé.

En 1630, Fermat avait affirmé - sans donner de preuve - que l'équation

xn + yn = zn, où les quatre variables x, y, z et n sont des entiers naturels

n'a pas de solution non nulle pour n>2.


(Pour n = 2, une solution connue est par exemple 3 2 + 42 = 52).

Cette affirmation, appelée "théorème de Fermat" ou "grand théorème de Fermat" ou


"dernier théorème de Fermat" n'a été démontrée qu'en 1994 par Andrew John Wiles.
Pendant 364 ans on ne l'a vérifiée que dans des cas particuliers : certains
mathématiciens obstinés l'avaient même vérifiée jusqu'à une puissance n voisine de
125 000, selon [91] page 135.

Cette équation est un cas particulier d'équation diophantienne, nom qui désigne toute
équation de la forme f(x1, x2,…, xp) = 0, où f est un polynôme à coefficients entiers dont
on cherche les solutions, ensemble de p variables x1, x2,…, xp qui sont aussi des
nombres entiers.

Nous avons depuis 1970 une démonstration du fait qu'il n'existe pas d'algorithme
universel permettant de savoir en un nombre fini d'opérations si une équation
diophantienne donnée a ou non une solution en nombres entiers.

Il existe donc des problèmes qui ont à coup sûr une solution calculable et d'autres qui
n'en ont pas. Parmi ces derniers, certains ont une solution dont l'existence est prouvée,
même si on ne sait - ou on ne peut - la calculer. (Exemple)

Concernant le déterminisme, lorsqu'un problème a été « mis en équation », tous les


cas précédents peuvent se produire.

242
3.5.11.12 Certitude de l'existence d'une démonstration dans une axiomatique
Dans une axiomatique [67], soit une proposition P formée selon les règles (donc dite
« syntaxiquement correcte »). Tous les théorèmes possibles dans cette axiomatique
peuvent être générés automatiquement en combinant les divers axiomes et théorèmes
précédemment démontrés selon les règles de déduction.
En pratique, il faut se fixer une limite aux nombre de d'étapes déductives
permettant la construction de théorèmes, car rien ne permet de limiter a priori la
longueur d'un raisonnement déductif. On doit aussi vérifier, dans le processus de
génération de déductions, qu'on ne génère pas une sous-arborescence déjà
construite. Le raisonnement qui suit est donc théorique.

Avec cette génération automatique, s'il existe un théorème (enchaînement déductif de


propositions) prouvant que la proposition P est vraie ou qu'elle est fausse, il sera trouvé
et démontré. S'il existe, car nous savons d'après les théorèmes d'incomplétude de
Gödel [6], que certaines propositions sont indécidables, c'est-à-dire indémontrables
parce qu'il n'existe pas (et ne peut exister) de théorème pour en prouver la véracité ou
la fausseté.

3.5.11.13 Génération de nombres "aléatoires" avec une formule déterministe


Considérons la suite xn+1 = axn(1-xn) que nous avons rencontrée plus haut à propos de
la dynamique des populations, et choisissons x1 = 0.7 et a = 4. La suite des valeurs de
xn pour n entre 100 et 500 est représentée par le graphique ci-dessous :

Suite xn+1 = axn(1-xn) pour x1=0.7, a=4 et 100 ≤ n ≤ 500

La succession de valeurs de cette suite semble n'avoir aucune régularité, elle paraît
imprévisible, donc aléatoire. Elle est pourtant générée par un algorithme parfaitement
déterministe, et à résultats prévisibles puisqu'on peut calculer chaque élément x n+1 de
la suite connaissant le précédent, xn. Cet exemple montre qu'une évolution irrégulière
peut résulter de l'itération d'une formule déterministe.
La trajectoire d'une molécule animée d'un mouvement brownien dans un fluide est
elle aussi irrégulière, car soumise à la loi d'innombrables rebonds. Il en va de
même pour les numéros produits par une « machine de tirage du loto ».

243
La génération par calcul et sa prédictibilité n'entraînent donc pas forcément la
régularité des suites générées. L'approche ci-dessus permet de générer des
ensembles de nombres paraissant aléatoires si on ignore leur mode de génération ou
qu'on les considère sur un intervalle large comme ci-dessus.

Nous avons vu une autre méthode pour générer une suite de nombres "aléatoires". Il
suffit de considérer la suite des nombres en base 2 dont celui de rang n vaut 1 lorsque
la machine de Turing calculant sur n s'arrête, et 0 si elle ne s'arrête pas. Comme l'arrêt
du programme correspondant ne peut être prévu par aucun algorithme, cette suite de
chiffres binaires est aléatoire (au sens imprédictible). Mais cette méthode n'est pas
exploitable en pratique, parce qu'il faudrait exécuter l'algorithme de la machine de
Turing pour savoir si elle s'arrête…

Par ignorance ou manque de rigueur, la plupart des gens qualifient d'aléatoire une
suite imprédictible de valeurs, certains informaticiens la qualifiant de pseudo-aléatoire.

3.5.11.14 Attracteurs multiples


Dans certaines conditions, les évolutions d'un processus chaotique peuvent
converger, au bout d'un certain nombre d'étapes, pour se regrouper au voisinage de
plusieurs points de l'espace des phases appelés attracteurs, notion que nous avons
déjà présentée. Une fois dans le voisinage d'un attracteur, le système continue à
évoluer mais ne peut s'en éloigner. C'est le cas de la suite précédente xn+1 = axn(1-xn)
pour certaines valeurs de a. Le graphique ci-dessous illustre cette suite, commençant
toujours avec x1 = 0.7, après remplacement de a = 4 par a = 3 : après adaptation de
l'échelle et de l'origine de l'axe vertical, on voit l'apparition de deux attracteurs au
voisinage de x = 0.655 et x = 0.678. Les attracteurs sont des points d'accumulation
[101] de l'espace des phases.

244
Suite des valeurs xn+1 = 3xn(1-xn) où x1 = 0.7 et n varie de 1 à 251 :
on voit les attracteurs au voisinage de x = 0.655 et x = 0.678

3.5.11.15 « Accidents » de la réplication du génome et évolution vers la complexité


Voici un autre exemple important d'évolution avec attracteurs.

L'existence de conséquences multiples d'un état initial peut aussi produire des
« accidents » (par exemple des liaisons moléculaires à probabilité faible qui
s'établissent néanmoins) notamment lors du mécanisme de réplication du génome
d'un être vivant. Dans l'immense majorité des cas le génome est parfaitement répliqué,

245
mais il y a de temps en temps des accidents appelés mutations. Bien que rares, ces
accidents sont la première explication de l'évolution des espèces. L'apparition d'une
espèce nouvelle à partir d'une espèce précédente est si surprenante qu'elle est
considérée par certains comme un phénomène non déterministe ; elle relève pourtant
du déterminisme statistique, comme une mesure en physique quantique qui choisit un
résultat dans un ensemble avec une certaine probabilité. (L'évolution des espèces se
produit aussi par évolution de l'expression des gènes décrite plus bas).

On a constaté que l'évolution des espèces se produit par mutations génétiques


importantes et pas par petites variations : il y a alors discontinuité, pas continuité
comme Darwin l'avait pensé à l'origine [42]. Cette évolution est illustrée par le
graphique ci-dessous, résultat de travaux publiés par The New York Times du
16/11/2006 dans l'article [303] :

Evolution des hominiens vers le néanderthalien et l'homme

On voit (partie supérieure du graphique étiquetée "Hominid family tree") une première
séparation des hominidés en homme + néanderthalien et chimpanzé il y a 6.5 millions
d'années. La partie droite de ce graphique est dilatée en dessous ; elle représente la
période à partir de -706 000 où hommes et néanderthaliens se croisaient, puis une
divergence brusque entre hommes et néanderthaliens vers -370 000. Les
néanderthaliens ont disparu vers -28 000.

Les travaux du prix Nobel de chimie 1977 Ilya Prigogine sur les structures dissipatives
loin de l'équilibre thermodynamique ont complété et justifié ceux de Darwin, en
montrant que de multiples phénomènes de diffusion peuvent conduire à des
probabilités plus fortes en certains points de l'espace des phases appelés attracteurs
étranges, lorsque le système qui évolue dissipe de l'énergie (comme c'est le cas pour

246
les êtres vivants). Compte tenu des mutations génétiques, l'état du système converge
alors vers ces attracteurs.

Au lieu d'évoluer en se désorganisant, comme le prévoit le deuxième principe de la


thermodynamique pour des systèmes isolés proches de l'équilibre, un système qui
échange de l'énergie avec l'extérieur peut évoluer, par auto-structuration, vers plus de
complexité. C'est pourquoi l'évolution des espèces a produit des êtres vivants de plus
en plus complexes, ce qui a priori semblait contredire la thermodynamique et servait
d'argument aux idéalistes adversaires de l'évolutionnisme matérialiste de Darwin.

La diversification accompagne la complexification. Elle résulte du fait que chaque


génome provient à parts égales du père et de la mère. La sélection naturelle produit,
sur l'être vivant résultant, à la fois de la complexification et de la diversification.
Détails supplémentaires.

3.5.11.16 Approche heuristique du déterminisme

Approche axiomatique ou approche heuristique ?


L'approche axiomatique [67] utilise une présentation structurée d'un domaine
scientifique. A partir de cette présentation, elle établit un résultat en appliquant à des
données fournies les axiomes et règles de déduction posés a priori, dont elle requiert
donc la connaissance.

Lorsqu'on ne peut structurer la description d'un domaine de connaissance avec la


rigueur formelle d'une axiomatique, on peut parfois décrire un certain nombre de cas
particuliers où la donnée des conditions initiales (la cause) permet de déterminer avec
certitude le résultat final : on a ainsi une approche heuristique du déterminisme.
Exemple : lorsque le botaniste Mendel a établi les lois de l'hybridation en 1865, il
n'avait pas de connaissances en matière de génétique, science basée sur ces lois
et apparue en 1906, le terme gène datant même de 1909. Les lois de Mendel
décrivent des cas particuliers de descendance (première génération, générations
suivantes) associés à des probabilités d'apparition ; elles ont été construites par
induction, en généralisant une approche heuristique.

Une approche heuristique examine tous les cas qui se présentent, un par un :
 Pour trouver celui ou ceux qui constituent la solution cherchée et éliminer ceux
qui ne conviennent pas ;
 Ou pour décrire l'évolution de chaque situation initiale, et parfois aussi évaluer
son résultat en fonction d'un critère d'intérêt ;
 Ou enfin pour vérifier l'absence de cas qui contredirait une théorie.

Cette approche peut être intégrée à une approche axiomatique en posant comme
axiomes des tables qui spécifient la décision à prendre ou le calcul à effectuer dans
chacun des cas qui peuvent se présenter.

Mais ce n'est pas parce qu'on ne sait décrire l'enchaînement des causes et des
conséquences que dans les cas particuliers de l'heuristique que le déterminisme en

247
est modifié ; on est simplement en présence d'un domaine qui n'est pas complètement
exploré, pour lequel on ne connaît pas de loi générale.

3.5.12 6e extension du déterminisme : irréversibilité thermodynamique


La symétrie temporelle du déterminisme traditionnel est contredite par la
thermodynamique, dont le deuxième principe (dit « Principe de Carnot » ou de Carnot-
Clausius) exige que l'entropie d'un système isolé en évolution croisse jusqu'au
maximum possible, atteint à l'équilibre thermique [25], donc que le temps s'écoule du
passé vers l'avenir (on parle de « flèche du temps ») ; l'évolution du système est alors
déterministe du présent vers l'avenir et interdite en sens opposé : nous devons étendre
notre définition du déterminisme pour en tenir compte. Ce phénomène a été abordé
au paragraphe "Comprendre le deuxième principe de la thermodynamique".
Le deuxième principe de la thermodynamique s'applique en pratique chaque fois
que les énergies des molécules sont distribuées selon une loi probabiliste de
physique statistique, et il rend les évolutions des systèmes réels irréversibles ; une
transformation réversible n'est possible que si l'entropie totale du système qui se
transforme est constante : si elle croît ou décroît, la transformation est
irréversible ; ainsi, puisque effacer les données d'une zone mémoire d'un
ordinateur en les remplaçant par d'autres est une opération irréversible, elle
génère nécessairement de la chaleur.

Le principe thermodynamique de croissance de l'entropie (c'est-à-dire de la


désorganisation obligatoire [25]) constitue une condition de possibilité statistique : un
gramme de sel en cristaux ne peut se dissoudre dans un litre d'eau pure que parce
que l'entropie de l'eau salée résultante est supérieure à celle du système où l'eau et le
sel sont séparés ; et l'eau salée ne se sépare pas spontanément en eau pure et sel
parce que l'entropie décroîtrait (exactement : la probabilité d'observer une telle
séparation, théoriquement possible, est extrêmement faible). La dissolution du sel
dans l'eau pure est un exemple d'irréversibilité. La radioactivité en est un autre
exemple abordé ci-dessous.

Il ne faut pas déduire de ce qui précède que l'irréversibilité d'un processus ne peut
résulter que du deuxième principe de la thermodynamique. Une onde
électromagnétique sphérique émise par un point P de l'espace à l'instant t1 s'éloigne
de P dans toutes les directions à la vitesse de la lumière, c ; à l'instant t2 elle a atteint
tous les points d'une sphère S de centre P et de rayon c(t2-t1). Ce phénomène n'est
pas réversible tout simplement parce qu'il n'existe pas de moyen physique de
l'inverser, d'obliger la sphère S (sur laquelle l'énergie initiale est répartie) à se
contracter jusqu'à se réduire au point P, ou de contracter tout l'espace comme lors de
l'hypothétique "Big Crunch" de l'Univers. Par contre, en « passant le film des
événements à l'envers » on verrait la sphère se contracter : on voit là un exemple de
la différence entre réversibilité (ici physiquement impossible) et changement de sens
du temps (changement de t en -t dans les équations de propagation).

Complément : lien entre variation d'entropie et échange d'information [366].

3.5.12.1 Evolution unidirectionnelle du temps


Comprendre la raison de l'évolution unidirectionnelle du temps est essentiel à la
compréhension du principe de causalité. Voici deux exemples de théories à ce sujet.

248
Attribution à l'expansion de l'Univers
Selon certains cosmologistes comme Hermann Bondi, cité par [249], l'évolution du
temps n'est possible que dans un seul sens, du présent vers le futur, parce que
l'Univers est en expansion. C'est ainsi que lorsque deux corps à des températures
différentes sont mis en contact, l'égalisation de leurs températures serait un processus
irréversible du fait de l'expansion de l'Univers. La croissance continue de l'entropie de
l'Univers serait aussi une conséquence de son expansion.

Depuis la fin de l'inflation, l'expansion se fait sans créer de matière ou d'énergie,


comme une bulle de savon qui se dilate à masse de savon constante : cette certitude
résulte aujourd'hui du succès de la théorie du Big Bang.

Attribution à la structure de l'espace-temps


Une théorie cosmologique moderne [276] attribue le caractère unidirectionnel de la
flèche du temps à une nécessité structurelle de l'espace-temps, lorsqu'on essaie de
rendre sa structure compatible à la fois avec la Mécanique quantique et la Relativité
Générale [328] dans le cadre d'une géométrie fractale à l'échelle atomique.

Complément : lien entre variation d'entropie et échange d'information [366].

3.5.12.2 Radioactivité naturelle et stabilité des particules atomiques ou nucléaires


Le noyau atomique de certains éléments peut se décomposer spontanément en
plusieurs noyaux, en émettant de l'énergie sous forme de photons [117] et autres
particules : on dit alors qu'il est radioactif. La radioactivité traduit un état d'énergie
instable d'un noyau, état qui a tendance à évoluer vers plus de stabilité. Cette évolution
est irréversible.
Exemple : l'uranium de masse atomique 238, élément n°92 de la classification de
Mendeleev parce que son noyau a 92 protons, se décompose en thorium 234
(élément 90) en émettant une particule alpha (atome d'hélium ionisé) et en
dégageant une énergie Q = 4.268 MeV (1 MeV = 1.6021 .10-13 joule), réaction
symbolisée par :
238 234
92U → 90Th + 42He (Q = 4.268 MeV)

Par la suite, le thorium 234 234


90Th se décompose à son tour en protactinium 91Pa (oui,
234
même masse atomique 234 que 90Th mais avec 1 proton en plus, résultant de la
décomposition d'un neutron du noyau en un proton, un électron et un
antineutrino) ; la décomposition émet un électron e -, un antineutrino * et
0.263 MeV d'énergie :
234
90Th → 234
91Pa + e− +  ∗ (Q = 0.263 MeV)

La décomposition d'un noyau peut aussi se produire sous l'action d'un choc, par
exemple lorsqu'un neutron rapide percute un noyau d'uranium si violemment que celui-
ci se déforme puis se brise ; c'est ce qui se produit dans le processus de fission des
bombes atomiques, en libérant une énergie dévastatrice et des atomes d'éléments
plus légers, parfois eux-mêmes radioactifs, ainsi que des rayonnements
électromagnétiques extrêmement dangereux.

249
Mais dans le phénomène naturel de radioactivité cette décomposition se produit
spontanément, sans cause externe ; cette spontanéité est expliquée dans la
présentation de l'ouvrage et dans [23]. Les physiciens russes Flerov et Petrzhak ont
découvert en 1941 que l'uranium 238 se décompose spontanément. En fait, dans un
échantillon d'uranium 238, la moitié des atomes se décomposent en 4.5 milliards
d'années : on dit que la demi-vie de l'uranium 238 est 4.5 109 ans. Cette durée est
extrêmement longue (environ 1/3 de l'âge de l'Univers, qui est de 13.8 109 ans). Mais
le nombre d'atomes d'uranium 238 dans un petit échantillon de 1 milligramme étant de
l'ordre de 3 1017, on observe environ 1 décomposition spontanée par seconde, assez
pour faire réagir un compteur de particules.

La décomposition spontanée est constatée dans plusieurs éléments lourds de masse


atomique égale ou supérieure à 230. Certains éléments lourds ont une demi-vie bien
plus brève que l'uranium 238 : le fermium 256, par exemple, a une demi-vie de l'ordre
de 3 heures.

La décomposition spontanée se produit aussi pour des particules élémentaires. C'est


ainsi que la demi-vie d'un neutron non soumis à un champ quelconque est de l'ordre
de 13 minutes. Heureusement pour la stabilité de la matière de l'Univers, les neutrons
sont presque toujours soumis à un champ et sont stables, sans quoi nous ne pourrions
pas exister ! Et de leur côté les protons sont bien plus stables, puisque leur demi-vie
est estimée à au moins 1032 ans. En revanche, certaines particules ont une demi-vie
extrêmement brève, champ externe ou pas : le méson appelé 0 (pion zéro) a une
demi-vie de l'ordre de 10-16 seconde.

Cette décomposition spontanée résulte d'une instabilité énergétique, elle-même


propriété intrinsèque des noyaux et particules atomiques [23]. Du point de vue
causalité, il nous faut admettre que la nature crée à l'occasion des noyaux et particules
instables, et que l'homme sait en créer aussi lorsqu'il fabrique des éléments
transuraniens comme le fermium ou des particules comme les mésons. Le
déterminisme naturel peut donc se manifester par de l'instabilité, où l'état présent
évoluera sans cause externe vers un état plus stable au bout d'un temps plus ou moins
long, un phénomène expliqué en Mécanique quantique par le Principe d'incertitude.

Conséquences pour le déterminisme


Nous devons donc en conclure qu'en plus de l'irréversibilité qu'il manifeste parfois, le
déterminisme peut être :
 Multiétapes (lorsque des évolutions s'enchaînent comme celles qui se terminent
par une décohérence) ; en fait tout système naturel évolue, et évoluera jusqu'à la
fin des temps, les étapes n'étant que des abstractions humaines…
 Plus ou moins rapide en ce qui concerne la durée d'une évolution-conséquence
(et la durée est elle-même relative, puisque variant de manière relativiste avec la
vitesse de l'observateur : une horloge en mouvement rapide semble tourner plus
lentement qu'une horloge au repos) ;
 Stochastique, en ce sens que nul ne peut prédire l'ordre dans lequel les noyaux
d'un objet se décomposeront, ni l'instant où un noyau donné se décomposera.

250
La causalité qui agit dans la décomposition de noyaux ou de particules ne s'explique
pas parfaitement de nos jours [23]. L'instabilité énergétique n'est pas une cause
agissante [39], c'est une propriété ; et la conséquence - qui n'apparaît qu'au bout d'un
certain temps, d'ailleurs variable - n'agit pas sur un noyau ou une particule donnée,
mais statistiquement sur un nombre de noyaux ou de particules. Nous touchons là aux
limites des postulats de causalité et de déterminisme, certaines propriétés des
évolutions-conséquences étant imprévisibles au niveau atomique. Plus exactement,
certains effets déterministes ne peuvent être décrits correctement que de manière
statistique portant sur toute une population, pas sur une particule individuelle. Même
si cet aspect global du déterminisme nous choque, nous devons l'accepter dans le
cadre du déterminisme étendu parce que c'est une réalité objective.

3.5.12.3 L'irréversibilité est une réalité, pas une apparence


D'après [26] pages 29-30, de grands savants comme le prix Nobel de physique 1969
Murray Gell-Mann (auteur de la théorie des quarks), ont soutenu que l'irréversibilité
n'était qu'une apparence, un résultat de notre connaissance insuffisante des
phénomènes. Cette opinion était basée sur le fait que l'entropie mesure effectivement
un manque d'information [25], manque qui pourrait cesser - espéraient-ils - avec les
progrès de la science.
Einstein avait fait la même erreur en considérant les théories probabilistes de la
Mécanique quantique comme une représentation provisoire des phénomènes
masquant notre ignorance, représentation destinée selon lui à être remplacée un
jour par une modélisation non probabiliste ; l'évolution des systèmes par fonctions
d'onde est une image fidèle de la réalité, pas un artifice.

L'irréversibilité est une propriété réelle de certains processus naturels. Dans certains
phénomènes physiques, la croissance de l'entropie traduit une évolution naturelle de
l'ordre vers le désordre, évolution irréversible bien réelle qu'aucun progrès de nos
connaissances ne saurait interpréter différemment. C'est le cas, par exemple, de la
radioactivité naturelle dont nous avons parlé.

Une évolution réversible ne peut exister que dans un système théorique, idéal et
stable, car proche de son équilibre thermodynamique où il n'y a plus d'échange
extérieur d'énergie.

Mais un système réel est instable, évolutif. La croissance de l'entropie n'y est pas
inéluctable, et l'irréversibilité peut exister même si l'évolution du système le conduit
vers plus d'ordre, plus d'organisation. La flèche du temps, dans l'évolution naturelle
irréversible de systèmes qui échangent de l'énergie avec leur environnement, peut
dans certains cas conduire à moins d'entropie, c'est-à-dire plus d'organisation
(exemple ci-dessous).

Concernant la flèche du temps, voir aussi la discussion sur la Relativité et l'écoulement


du temps.

3.5.12.4 Décroissance de l'entropie. Structures dissipatives. Auto-organisation


Voici un exemple, cité par [26] page 31, de système qui échange de la chaleur avec
son environnement et évolue de manière irréversible vers plus d'organisation, c'est-à-
dire moins d'entropie [25] - contrairement à ce qu'une compréhension superficielle du
déterminisme thermodynamique pourrait croire possible.

251
Considérons un système de deux boîtes closes reliées par un tuyau (figure ci-
dessous). Mettons-y au départ un mélange de deux gaz, hydrogène H 2 et azote N2.
Ces deux gaz se mélangent jusqu'à ce qu'il y ait, dans chaque boîte, la même
proportion d'azote par rapport à l'hydrogène et la même température T, opération qui
fait croître l'entropie jusqu'à un maximum obtenu à l'équilibre thermique.

T1 T2

Chauffons alors la partie gauche de la boîte à la température T 1 tout en refroidissant


l'autre à la température T 2 < T1. Le flux de chaleur, phénomène irréversible, détruit
l'homogénéité du mélange, diminuant ainsi l'entropie et augmentant l'organisation : la
concentration en hydrogène devient plus élevée dans la partie chaude, et la
concentration en azote plus élevée dans la partie froide (explication : [27]).

Conclusion : un échange de chaleur avec l'extérieur peut faire évoluer un système vers
plus d'organisation (moins d'entropie) ; l'irréversibilité peut avoir un rôle constructif ! Le
déterminisme peut, selon le cas, conduire vers moins ou davantage de désordre.
Comme le souligne [26] page 32, les processus irréversibles jouent un rôle constructif
dans la nature, ce qu'une mauvaise compréhension de la thermodynamique fait
considérer comme impossible.

Loin de son équilibre thermique, et notamment si un système échange de l'énergie et


de la matière avec son environnement (système dissipatif) et s'il est non linéaire, la
croissance de son entropie n'est plus obligatoire, l'entropie peut décroître et le système
peut évoluer vers plus d'organisation : c'est ce que nous apprennent les travaux d'Ilya
Prigogine sur la convergence dans l'espace des phases vers des points attracteurs.
(De toute manière l'entropie du système global, comprenant le système qui
échange de l'énergie et son environnement, doit croître : une création d'ordre
quelque part est toujours compensée par une création au moins aussi grande de
désordre ailleurs, c'est une loi thermodynamique.)

Voici des extraits de [26] pages 76 à 78, qui illustrent le comportement de certaines
réactions chimiques loin de l'équilibre thermodynamique :
"…un ensemble de nouveaux phénomènes se produit : nous pouvons avoir des
réactions chimiques oscillantes, des structures spatiales de non-équilibre, des
ondes chimiques. Nous avons nommé « structures dissipatives » ces nouvelles
organisations spatio-temporelles."

252
"…les structures dissipatives augmentent généralement la production
d'entropie."
"Je ne décrirai pas ici cette réaction. Je veux seulement évoquer notre
émerveillement lorsque nous vîmes cette solution réactive devenir bleue, puis
rouge, puis bleue à nouveau […] Des milliards de molécules évoluent ensemble,
et cette cohérence se manifeste par le changement de couleur de la solution.
Cela signifie que des corrélations à longue portée apparaissent dans des
conditions de non-équilibre, des corrélations qui n'existent pas à l'équilibre."
(Lorsque des milliards de molécules évoluent ensemble, leur synchronisme
témoigne d'un déterminisme global, à longue portée, phénomène dont nous avons
déjà donné des exemples.)

Ces citations montrent une possibilité d'auto-organisation des composants d'une


solution chimique, auto-organisation qui peut, par exemple, être oscillante ou traversée
par des ondes de réaction chimique… L'oscillation rappelle alors celle que nous avons
constatée dans l'exemple mathématique des attracteurs multiples.

Voici un dernier extrait de [26] page 79, qui montre que les structures dissipatives de
non-équilibre sont un phénomène très général, une caractéristique du déterminisme
étendu appliqué aux processus irréversibles :
"…les structures dissipatives de non-équilibre ont été étudiées dans beaucoup
d'autres domaines, par exemple en hydrodynamique, en optique ou dans les
cristaux liquides."

3.5.12.5 Programme génétique et déterminisme


Chaque cellule d'un corps humain comprend 23 paires de chromosomes, chaînes de
molécules responsables de l'hérédité et comprenant des sous-chaînes appelées
gènes. Dans chaque paire, un des chromosomes provient de la mère et l'autre du père.

Les gènes sont des longues chaînes d'acides aminés porteurs des instructions (au
sens programme informatique) de fabrication d'environ 100 000 protéines différentes
intervenant dans la vie cellulaire. Chacun des quelque 25 000 gènes humains
(constitué par des millions de paires de bases formant un segment d'ADN) participe à
un ou plusieurs caractères héréditaires, dont il contribue à la transmission. La structure
et les fonctions de chaque cellule sont définies par un programme génétique dont les
instructions et données sont stockées dans les structures de molécules d'ADN des
chromosomes, des plasmides, des mitochondries et des chloroplastes.

Le génome peut être considéré comme un programme dont l'exécution (un


informaticien préciserait : l'interprétation) crée des protéines et des cellules vivantes
par l'intermédiaire de mécanismes appropriés mettant en jeu l'ARN [85]. L'existence
et le fonctionnement de ce programme génétique font de la création de ces protéines
et cellules vivantes un phénomène déterministe.

Toutes les cellules d'un individu donné possèdent le même génome, provenant d'une
seule cellule initiale, l'œuf. Mais un mécanisme de différenciation irréversible permet,
avec ce même génome, la création d'un grand nombre de types différents de cellules,
environ 200 chez l'homme. Chaque type est spécialisé et présente une morphologie
et un fonctionnement propres.

253
L'hérédité fait, par exemple, que des chats engendrent des chats de la même espèce :
le programme génétique est donc transmis à la fois chez un même individu à partir de
l'œuf initial, et d'un individu à ses descendants par hérédité. Il y a donc un
déterminisme inscrit dans le programme génétique qui garantit la reproductibilité de
ces deux types de transmissions, ainsi que la différenciation en types spécialisés de
cellules.

Le programme génétique ne peut s'exécuter correctement que dans certains


contextes. Ainsi, par exemple, certaines protéines ne sont synthétisées que si
certaines parties du programme se sont déjà déroulées correctement auparavant.
Le programme génétique a donc pour fonction de générer des protéines. Mais
cette génération elle-même exige la présence de certaines protéines. On peut
donc se poser la question du type « qui fut le premier, de la poule ou de l'œuf ? » :
est-ce l'ADN qui est apparu avant les protéines, ou le contraire ? Des scientifiques
travaillent sur ce sujet. [85] [86]

3.5.12.5.1 Gènes et comportement humain


Chaque mois qui passe, les chercheurs découvrent de nouvelles propriétés des gènes
concernant leur influence sur le comportement humain. Parfois un seul gène est
associé à un comportement, parfois il en faut plusieurs [51]. La terrible maladie de
Huntington est associée à un seul gène, la mucoviscidose aussi. L'ouvrage [154]
pages 130-131 cite le gène D4DR, situé sur le chromosome 11 : le nombre
d'occurrences de ce gène sur le chromosome détermine le niveau de production de
dopamine, un neurotransmetteur [176] dont nous décrirons le rôle en matière de de
désir, d'anticipation agréable plus bas. Dans ce paragraphe, il nous suffit de savoir que
la dopamine stimule l'activité de l'organisme : son absence ou un trop faible niveau
entraînent la léthargie, tandis qu'une surabondance entraîne la suractivité, la
recherche de la nouveauté, le désir et la prise de risques. Exemple cité par [230] : des
mésanges qui font preuve de plus de curiosité que les autres ont la même forme
particulière du gène D4DR que les humains particulièrement curieux.

Mais il ne faut pas penser que les séquences de gènes D4DR expliquent à elles seules
la tendance d'une personne à rechercher ou non la nouveauté et à être ou non
hyperactive ; elles n'en expliquent qu'une petite partie. Dans la plupart des
expériences sur la relation entre gènes et comportement, on trouve des explications
partielles, des corrélations, et il faut plusieurs gènes pour expliquer un comportement.
Plus généralement, la génétique intervient pour une partie du caractère inné d'un trait
de personnalité ou d'une aptitude, mettons 20 % à 60 % de la variance ([51] page 4),
et l'acquis culturel pour le reste. Et la proportion varie avec le trait considéré et
l'individu. (Voir les exemples [228] et [231]).

Un individu donné n'est donc que partiellement déterminé par son hérédité génétique
à sa naissance. Si un savant surdoué mais laid épouse une reine de beauté sotte il
n'est pas certain que leur progéniture ait l'intelligence du père et la beauté de la mère.
Cela peut arriver, mais il peut aussi arriver qu'un de leurs enfants ait la beauté du père
et l'intelligence de la mère, en plus de caractères hérités de grands-parents…

254
3.5.12.5.2 Renouvellement biologique et persistance de la personnalité
Pendant la vie d'un homme la plupart des cellules de son corps se renouvellent
plusieurs fois. On appelle renouvellement biologique le phénomène continu du vivant
d'apparition, de disparition ou de modification de cellules. Selon les cellules, chez
l'homme, le renouvellement peut avoir lieu, par exemple, au bout de quelques jours ou
de quelques mois. Le renouvellement biologique est accompagné d'échanges de
matière et d'énergie du corps avec son environnement.
Le renouvellement d'une cellule donnée peut concerner une fraction de son
cytoplasme. Il peut aussi concerner la cellule entière, en remplaçant une cellule
éliminée par une autre, résultant d'une mitose (division d'une cellule-mère en deux
cellules).
Incapables de mitose, certaines cellules ne se renouvellent pas. C'est le cas, par
exemple, des cellules cardiaques et des cellules nerveuses [138]. L'absence de
mitose - qui n'empêche pas la génération ou le renouvellement cellulaire (par
exemple, pour les neurones, par renouvellement du neuroplasme) - a un
avantage : les cellules correspondantes ne peuvent être cancéreuses.
Le renouvellement d'une molécule complexe peut remplacer toute la molécule ou
seulement un de ses constituants. Mais - et c'est là une des propriétés
fondamentales de la physique - une molécule de formule et structure données (par
exemple la molécule d'eau H2O) est exactement la même, qu'elle soit dans un
corps humain ou dans l'eau d'un lac, qu'elle ait été produite par un mécanisme
biologique ou une réaction de chimie minérale. Et les constituants de la matière
que sont les atomes et leurs protons, neutrons et électrons sont exactement les
mêmes dans un être vivant terrestre ou de la matière interstellaire ; un atome de
fer 56Fe est parfaitement identique dans un poisson et dans une portière de
voiture. On pourrait donc changer atome par atome tous les atomes d'un être
humain vivant (si on savait le faire) sans aucune modification visible de son corps
ou de sa personnalité - à condition de respecter les niveaux d'énergie des atomes
et les structures moléculaires.
Les caractéristiques statiques et de comportement d'un être vivant ne sont donc
pas dues à des propriétés de ses atomes, mais à la structure de ses molécules
(ordre de ses atomes et de leurs liaisons moléculaires), qui constitue l'ensemble
"logiciel+données" responsable de toutes ses caractéristiques. (Voir remarques
[96] et [51]). Nous reviendrons à plusieurs reprises plus bas sur la modélisation
des êtres vivants par un ordinateur et son logiciel.

Malgré le renouvellement biologique et les réparations du génome (évoquées plus bas


et dans [32]), malgré les divers mécanismes d'adaptation de l'organisme à son
environnement et son mode de vie, beaucoup de caractéristiques externes d'un
organisme sont persistantes.
Exemples : la couleur des yeux ne change que rarement après les premières
années, la personnalité de l'individu est assez stable, et le renouvellement
biologique ne lui fait pas perdre la mémoire.

Cette persistance illustre l'importance du code génétique, ce "logiciel" de l'homme si


stable qu'il transmet les caractéristiques d'un individu par hérédité. Comme un
ordinateur dont le fonctionnement perceptible de l'extérieur dépend de son logiciel et
pas de son matériel (à part la performance), la personnalité de l'homme dépend (en

255
plus de son acquis) de son logiciel génétique et pas des cellules de son corps. C'est
pourquoi l'application de la doctrine matérialiste à l'homme ne peut se contenter
d'expliquer son comportement dans un contexte donné à partir de ses seules cellules
(correspondant au matériel d'un ordinateur), elle doit prendre aussi en compte son
logiciel génétique et les conséquences psychiques de ce qu'il a appris. [339]

En matière de personnalité humaine le déterminisme est à la fois génétique (l'inné), et


adaptatif (l'acquis), comme nous allons le voir [51].

3.5.12.5.3 Evolution du programme génétique


Au fur et à mesure du développement de l'individu (ontogenèse [78]) et des
circonstances de sa vie, et au fur et à mesure qu'on passe d'une génération à sa
descendance, certains mécanismes de création de protéines et de création cellulaire
peuvent se modifier : une partie du programme génétique est capable de se modifier
et de s'adapter par autoprogrammation.

Cette adaptation par autoprogrammation génétique a été mise en évidence par les
recherches citées dans [258], dont voici une citation :
"Il ne faut que 15 générations pour que le génome de certaines mouches évolue
dans un sens qui leur permettre d'apprendre plus vite. Au début de l'expérience,
il faut beaucoup d'heures aux mouches pour apprendre la différence entre deux
types d'aliments dont l'odeur est appétissante, mais dont l'un est nocif. Les
mouches dont le génome s'est adapté à un apprentissage rapide n'ont besoin
que de moins d'une heure."

Autre exemple d'adaptation génétique, voici des extraits de [80] :


"Vers les années 1946-1948, Boris Ephrussi observait qu'une culture de levure
diploïde ou haploïde donne après repiquage, dans les quelques jours qui
suivent, une colonie identique aux cellules mères sauf, dans quelques cas, 1 à
2 % de cellules plus petites. Les mutants « petite colonie » ne donnent que des
petites colonies. La mutation est irréversible. Le traitement des cellules de la
souche sauvage par l'acriflavine fait passer le taux de mutation de 1-2 % à
100 %. Ces mutants poussent lentement car ils ne peuvent respirer, leur
métabolisme est uniquement fermentaire, ils ont perdu la capacité de synthétiser
un certain nombre d'enzymes respiratoires."
"Ephrussi devait arriver à la conclusion que la souche sauvage et les mutants
« petites colonies » diffèrent par l'absence, dans le dernier cas, d'unités
cytoplasmiques requises génétiquement pour la synthèse de certains enzymes
respiratoires."
"En 1968, on devait démontrer que la mutation « petite colonie » est due à une
altération importante de l'ADN mitochondrial. Cette molécule contient 75 000
paires de bases… la mutation « petite colonie » correspondrait à une excision et
amplification de fragments d'ADN terminés par des séquences CCGG, GGCC."

Ces modifications, appelées mutations, sont parfois dues à des accidents, comme
nous l'avons vu. D'autres sont dues à des agressions de l'environnement, comme
l'absorption de substances chimiques nocives ou l'action de rayonnements ionisants
(rayons X ou ultraviolets, par exemple). Souvent, les mutations sont inopérantes et

256
leurs conséquences néfastes sont annulées par des mécanismes réparateurs de
l'ADN comme les enzymes du « système S.O.S. » [32]. D'autres mutations sont
nécessaires à l'adaptation de l'individu à son environnement, comme celles qui
produisent des anticorps de résistance à une infection.

Autres exemples de mutations :


 L'adaptation de nombreux insectes aux pesticides, la résistance croissante de
nombreuses bactéries aux antibiotiques et les mutations de virus.
 Les habitants des pays asiatiques qui ont depuis des siècles une alimentation
plus riche en amidon que celle des Européens, ont dans leur génome des copies
supplémentaires d'un gène facilitant la digestion de l'amidon, alors que les
Européens n'ont pas ces copies : le génome s'adapte à des habitudes de vie et
ces adaptations se transmettent entre générations.

3.5.12.5.4 Evolution d'une population


Une population évolue quand des individus porteurs de certains caractères (exemple :
la taille) ont une descendance plus nombreuse que les autres individus ; ces
caractères deviennent alors plus fréquents dans les générations suivantes.

Lorsque les caractères génétiques d'une population se modifient avec le temps, on dit
que cette population subit une évolution biologique. Lorsqu'une telle évolution
correspond à une amélioration des capacités de survie ou de reproduction, on parle
d'adaptation de cette population à son environnement. La sélection naturelle (étudiée
par Darwin [42]) favorise la survie et la multiplication des populations les mieux
adaptées et défavorise les autres.

Lorsque l'évolution d'une espèce vivante A produit des individus suffisamment


différents de ceux de cette espèce, mais suffisamment semblables entre eux pour
constituer une espèce B, on dit qu'il y a spéciation. Ce phénomène s'explique par
l'existence d'attracteurs multiples. Les individus de l'espèce B ont de nombreux points
communs avec leurs ancêtres de l'espèce A. La biodiversité résulte de nombreuses
spéciations successives.
Remarque : il est faux d'affirmer que « l'homme descend du singe » : la vérité est
qu'ils ont un ancêtre commun.

La théorie darwinienne de l'évolution est prouvée par :


 La paléontologie, qui montre qu'il a existé des espèces intermédiaires entre
celles d'aujourd'hui et d'autres, plus anciennes ;
 Les caractéristiques physiologiques et génétiques communes à des espèces
ayant un ancêtre commun ;
 L'observation de modifications génétiques dans une même population,
notamment lors d'un croisement d'espèces provoqué par l'homme ;
 La séparation et la dérive des continents, qui explique :
 L'existence d'une même espèce ou d'espèces ayant un ancêtre commun
dans des masses continentales distinctes qui se sont séparées il y a environ
200 millions d'années ;

257
 La présence en certains endroits seulement d'espèces ayant évolué après
cette séparation.

Une des rares erreurs de Darwin a été de croire que les mutations produisant des
spéciations étaient progressives : nous savons aujourd'hui qu'elles produisent des
sauts assez importants. Mais cette erreur ne met en cause ni les fondements de la
théorie de l'évolution que sont les mutations génétiques, ni la sélection naturelle. Nous
verrons cela plus en détail un peu plus bas.

3.5.12.5.5 Evolution due à une modification de l'expression de gènes


L'article [89] décrit les résultats de recherches récentes qui montrent que l'évolution
darwinienne par mutations génétiques, qui agit à long terme (sur des milliers
d'années), est accompagnée d'une évolution due à une mutation de l'expression de
gènes, c'est-à-dire de la manière dont la machinerie cellulaire interprète les gènes pour
fabriquer des protéines. Cette mutation de l'expression provient parfois d'un processus
très simple affectant un seul gène, et produisant un résultat dès la génération suivante,
voire au bout de quelques mois ; parfois la mutation concerne un ensemble de gènes ;
parfois même elle agit immédiatement [227].
Le compte-rendu de recherches récentes [243] confirme qu'il suffit parfois qu'un
simple radical méthyle (CH3, 4 atomes seulement) se lie à un gène pour inhiber
l'expression de celui-ci, produisant alors des effets considérables sur l'organisme.
Il existe ainsi plusieurs types de "commutateurs chimiques" qui déclenchent ou
inhibent l'expression d'un gène, avec des effets importants sur la plupart des
affections non infectieuses (cancer, obésité, désordres neurologiques, etc.) Ces
déclenchements ou inhibitions peuvent avoir un effet pendant toute la vie de
l'organisme ou seulement pendant un temps. Ce sont des effets "tout-ou-rien",
parfaitement déterministes et analogues aux effets de commutateurs logiciels sur
des programmes informatiques.

Le développement d'un organisme par ontogenèse [78] est déterminé par une
hiérarchie de gènes, dont chaque niveau commande le niveau inférieur. Cette
hiérarchie fonctionne en favorisant l'évolution de certaines formes d'organes et en
interdisant certaines autres. Une hiérarchie de gènes donnée est le plus souvent
héréditaire, conduisant à ce qu'à partir de la génération suivante tous les descendants
aient la même hiérarchie, commandant la même expression de ses gènes.
Exemple 1 : les gènes de la famille PAX6 déterminent le développement des yeux
dans des êtres aussi différents que l'homme et la mouche.
Exemple 2 : aux îles Galápagos, tous les fringillidés (oiseaux de la famille des
pinsons, bouvreuils et chardonnerets) descendent d'un même ancêtre venu du
continent. Mais ils sont très différents des fringillidés continentaux, par la forme et
la taille de leur bec (adapté aux nourritures disponibles dans ces îles), ainsi que
par la taille générale de certains oiseaux, nettement plus importante et procurant
plus de robustesse, et par d'autres caractéristiques témoignant d'une adaptation.
Extrait traduit :
"En 30 ans, la mesure annuelle des fringillidés a montré que les tailles du bec et
du corps ont toutes deux évolué de manière significative. Mais elles n'ont pas
varié d'une manière continue et progressive ; la sélection naturelle a tâtonné,
changeant souvent de sens d'évolution d'une année sur l'autre."

258
Les chercheurs ont découvert que toutes ces évolutions s'expliquaient par une
expression plus importante du gène BMP4, qui produit une quantité de protéine
(appelée aussi BMP4) proportionnelle à l'expression du gène. En augmentant
artificiellement la production de cette protéine dans des embryons de poulets, ils
obtinrent des poulets plus grands avec des becs nettement plus forts, ce qui
confirmait que c'est bien le BMP4 qui est à l'origine de ces évolutions rapides.

La découverte de l'importance de l'expression des gènes dans l'évolution, et le fait


qu'une modification d'expression (parfois d'un seul gène) peut déterminer une
évolution à très court terme, constituent un développement récent fondamental de la
théorie de l'évolution, qui ne considérait jusqu'à présent que la mutation du génome,
avec ses effets à long terme.

Nous savons aujourd'hui que de nouvelles espèces d'êtres vivants peuvent apparaître
à la suite d'une évolution de l'expression de gènes existants, non mutés.
Des scientifiques ont découvert que les gènes nécessaires à l'apparition des
pattes et des doigts, indispensables pour qu'un animal aquatique puisse sortir de
l'eau et se déplacer sur la terre ferme, existaient depuis longtemps dans de très
anciens poissons (les Tiktaalik) lorsqu'une évolution dans leur expression a
permis la croissance de ces nouveaux types d'organes et la sortie de l'eau des
nouveaux animaux, les tétrapodes [90].

Nous savons aussi qu'une habitude de vie, un changement important de mode de vie
ou un entraînement intensif conduisent à une adaptation de l'organisme par
modification de l'expression de gènes chez l'individu concerné. Cette modification a
des conséquences comme :
 L'adaptation de certains neurones, qui peuvent par exemple se multiplier et
multiplier leurs synapses [268] pour adapter l'organisme à une pratique
fréquente (pianiste qui s'exerce 8 heures par jour, athlète qui s'entraîne
fréquemment, etc.)
 L'adaptation d'organes (muscles, os, etc.).

3.5.12.5.6 Conclusion sur le déterminisme génétique


Le déterminisme existe bien dans le domaine du vivant sous la conduite du programme
génétique. Certains mécanismes déterministes assurent la vie des cellules, d'autres la
réplication héréditaire, d'autres la résistance aux agressions de l'environnement,
d'autres encore l'adaptation à des conditions de vie qui changent. Le programme
génétique est auto-adaptatif dans certaines limites, cette auto-adaptation étant une
caractéristique du déterminisme dans le cas des êtres vivants. Nous approfondirons
ce sujet, qui impacte fortement la définition du déterminisme étendu, plus bas.

Mais d'ores et déjà nous pouvons affirmer que les êtres vivants sont soumis à un
déterminisme génétique, qui est adaptatif et agit à long terme par mutation du génome
dans l'hérédité, ou à court terme par modification de l'expression de gènes dans
l'adaptation aux conditions de vie.

Voir aussi les universaux [168], à l'origine d'une part importante du déterminisme
humain.

259
3.5.12.6 Vie, organisation, complexité et entropie
En recourant à un dualisme [95] simple, la vie est caractérisée par deux sortes
d'organisations, dont l'ordre s'oppose au désordre (ou à l'ordre très simple) de la
matière inanimée :
 L'organisation architecturale, statique :
 du code génétique, où l'ordre des molécules constitue un programme dont la
logique détermine des fonctions comme la spécialisation des enzymes ;
 des cellules, dont il existe de nombreux types spécialisés différents (les
cellules du sang sont d'un type différent de celles des neurones…).
 L'organisation fonctionnelle, dynamique, qui coordonne par exemple les milliers
de réactions chimiques des fonctions vitales de l'être vivant. Dans cette
organisation, on trouve aussi bien des rythmes réguliers, périodiques, comme
celui du cœur, et des mécanismes arythmiques comme les processus
neurologiques du cerveau.

Ces deux sortes d'organisations sont intimement liées, chacune conditionnant l'autre.
Voir aussi : Ensemble de définition d'une loi déterministe.

Tout être vivant est un système dissipatif : il échange constamment de la matière et


de l'énergie avec son environnement, ce qui prouve son instabilité permanente
(thermodynamique et chimique), instabilité et échanges qui ne prennent fin qu'avec la
mort. Pendant toute sa vie, des parties de cet être sont détruites et crées, l'instabilité
étant une condition nécessaire du fonctionnement de ses processus vitaux et de l'auto-
organisation qui lui permet de s'adapter constamment à son environnement [33].

L'élaboration d'un être vivant à partir de molécules (quand il se nourrit ou se


développe) constitue une complexification, un progrès vers l'organisation de la
matière. Cette complexification diminue l'entropie [25] de l'être vivant qui s'organise,
en augmentant celle de son environnement. Le deuxième principe de la
thermodynamique (augmentation de l'entropie du système global) est bien respecté,
mais la diminution d'entropie de sa partie être vivant résulte d'un processus particulier :
la dissipation d'énergie et l'échange de matière par l'être qui vit et se trouve loin de
l'équilibre thermodynamique et chimique.
En somme, la complexification des êtres vivants résulte d'une succession
d'instabilités, sans lesquelles la vie ne peut subsister. Notre conception du
déterminisme doit donc tenir compte des exigences d'instabilité et de dissipation
d'énergie et de matière de la vie.

3.5.12.6.1 Apparition de la vie et évolution des espèces


A une échelle de temps assez grande, de l'ordre du million d'années, l'évolution des
espèces étudiée par Darwin peut aussi progresser vers la complexité. Mais cette fois
ce sont les mutations génétiques accidentelles qui sont responsables, et la sélection
naturelle favorise les espèces les mieux adaptées ; les variations d'expression de
gènes favorisent bien plus l'adaptation que la complexification.
Nous avons vu que, contrairement à l'hypothèse de Darwin, qui pensait que
l'évolution d'une espèce se fait de manière quasi continue, « par petites touches »
ne modifiant que très peu à la fois de l'être vivant concerné, la présence
d'attracteurs étranges fait que l'évolution se produit par changements importants,

260
tels que l'apparition soudaine d'une espèce nouvelle comme l'homme de
Neanderthal.

Schématiquement, les étapes qui conduisent aux mutations génétiques pérennes sont
les suivantes :
 Le système vivant subit les contraintes de son milieu, contraintes qui
déterminent des seuils d'instabilité dans l'espace des phases ;
 Certaines fluctuations sont amplifiées au voisinage d'un seuil, d'où des
bifurcations et des évolutions vers tel attracteur de l'espace des phases plutôt
que tel autre. Il n'y a pas de hasard dans ce processus, mais seulement
amplification ou non d'une fluctuation au voisinage d'un point critique.

3.5.12.6.2 Preuves de l'évolution darwinienne des espèces


Il s'agit ici des preuves de l'évolution du programme génétique vue plus haut.

Une théorie scientifique est considérée comme prouvée lorsque :


1. Elle explique des faits constatés et non expliqués avant elle, ou mal expliqués ;
2. Ou elle prédit des faits précédemment inconnus, ses prédictions étant vérifiées ;
3. Et elle n'est pas contredite par des conséquences qu'on en tire ou des faits avérés,
bien qu'elle ait été soumise à la communauté scientifique pour accord consensuel
ou réfutation.

(Pour plus de détails, voir "Définition d'une théorie appliquée à un domaine pratique"
et "Critères à respecter pour qu'une théorie scientifique soit acceptable").

L'évolutionnisme de Darwin répondait aux conditions 1 et 3 depuis la publication de


son ouvrage "De l'origine des espèces", en 1859 [42]. Son interprétation génétique,
plus récente, est basée sur des mutations génétiques accidentelles, nous venons de
le voir. Ces mutations sont dues à des liaisons moléculaires au niveau du génome qui
parfois s'établissent alors qu'elles ne le font pas en général, ou parfois ne s'établissent
pas alors qu'elles s'établissent le plus souvent. La probabilité de ces accidents résulte
directement de la Mécanique quantique.

L'article [192] montre que la condition 2 ci-dessus est remplie depuis les années 1920 :
on a montré à l'époque qu'en favorisant les perturbations accidentelles de l'énergie de
liaison moléculaire du génome de l'orge au moyen de rayons X on provoquait de
multiples mutations artificielles. On a ainsi obtenu des plantes de couleur blanche,
jaune pâle ou à bandes de couleurs alternées. Depuis cette date, des mutations
artificielles sont déclenchées dans de nombreux pays, pour obtenir des espèces
nouvelles de plantes ayant des propriétés intéressantes. On a ainsi obtenu des
espèces plus résistantes et d'autres donnant de meilleurs rendements.

La différence entre cette technique de mutation artificielle (par perturbation des liaisons
moléculaires du génome sous l'influence de rayonnements X ou gamma) et les
manipulations génétiques produisant des "organismes génétiquement modifiés" est
simple : la mutation due au rayonnement agit comme la nature en modifiant un
génome, alors que l'approche OGM ajoute délibérément un gène étranger à un
organisme. La mutation artificielle se contente de rendre plus fréquents les accidents

261
peu probables affectant des liaisons moléculaires ; l'homme n'a plus qu'à tester les
propriétés des nouvelles espèces produites et à retenir celles qui lui sont utiles.
C'est ainsi que, de nos jours, environ la moitié du riz cultivé en Californie provient
d'un mutant artificiel appelé Calrose 76, et que les trois quarts des
pamplemousses qui poussent au Texas proviennent de deux variétés mutantes
de couleur rouge, Star Ruby (créée en 1971) et Rio Red (créée en 1985). La
technique d'obtention de plantes nouvelles par mutation artificielle est aussi
utilisée en Europe et en Asie.

Comme la création d'espèces nouvelles par mutation est un processus naturel


simplement déclenché ou accéléré, cette technique n'a jamais provoqué d'incident ni
fait l'objet de protestations, contrairement à celle des OGM.

3.5.12.6.3 L'obstination des tenants du créationnisme


Voilà donc environ 80 ans que l'apparition d'espèces par mutation génétique est
prouvée et que l'homme sait s'en servir à volonté. Il est donc ahurissant de constater
qu'il reste tant de personnes qui nient la réalité de l'évolutionnisme au nom du respect
de la vérité biblique, qui prétend que Dieu a fait chaque espèce telle qu'elle est de nos
jours. Aux Etats-Unis il y avait fin 2005 au moins 16 états où un débat sur la théorie
qu'il fallait enseigner (l'évolutionnisme, le créationnisme, ou les deux bien qu'elles
s'excluent mutuellement) faisait rage, l'évolutionnisme étant parfois présenté comme
l'une des théories, l'autre étant le créationnisme de la Bible [244]. Et nous avons vu
dans la 1ère partie de cet ouvrage qu'en 2005 un porte-parole on ne peut plus officiel
de l'Eglise catholique, Mgr. Schönborn, cardinal-archevêque de Vienne et proche du
pape Benoît XVI, a écrit au New York Times pour rappeler que l'Eglise catholique
considère l'évolutionnisme comme une théorie fausse : il n'y a pire sourd que celui qui
ne veut pas entendre ! Heureusement, le pape Benoît XVI, son supérieur dans la
hiérarchie de l'Eglise catholique, a admis l'évolutionnisme et affirmé seulement que
l'origine du monde est la volonté créatrice de Dieu [D7].

Le grand philosophe Kant définissait les organismes vivants par leur capacité à
posséder des finalités internes, résultant d'une intelligence supérieure qui oriente les
phénomènes de la vie vers des objectifs finaux. Cette explication téléologique, due à
sa foi en Dieu et à l'absence à son époque de connaissances scientifiques contredisant
le finalisme, a été démentie par les théories modernes d'auto-organisation, qui
montrent comment les structures et fonctions complexes du vivant résultent de
phénomènes naturels déterministes. Nous avons vu cela dans la première partie, à la
section "Faiblesse des preuves téléologiques".

3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs


L'effondrement gravitationnel d'une étoile est un exemple d'irréversibilité qui a des
conséquences particulières sur notre définition du déterminisme. Voici d'abord un
résumé du phénomène d'effondrement gravitationnel.

Evolution d'une étoile


Pendant la plus grande partie de sa vie, une étoile est stable. La fusion
thermonucléaire de l'hydrogène en hélium dans son cœur y dégage du rayonnement
électromagnétique au prix d'une légère perte de masse, et la pression de radiation de
ce rayonnement sur les couches extérieures de l'étoile suffit à équilibrer l'attraction
gravitationnelle de ces couches. Mais peu à peu le « combustible » nucléaire qu'est

262
l'hydrogène s'épuise : notre soleil (désigné ci-dessous par le caractère  et sa masse
par M) perd chaque seconde 4.3 millions de tonnes d'hydrogène transformé en
rayonnement. (Sa masse est si colossale - M = 2 1030 kg - qu'il pourra continuer à
se permettre ce niveau de perte de masse pendant des milliards d'années).

L'hydrogène du  se transformant progressivement en hélium plus dense, la masse


du cœur de l'étoile augmente peu à peu tandis que son diamètre diminue sous la
pression de la force de gravitation. En même temps, la température du cœur et des
couches externes augmente, l'étoile se dilate et devient une géante.
La température du cœur du  passera ainsi de 15 millions de degrés K aujourd'hui
à 120 millions de degrés K dans quelques milliards d'années, température
suffisante pour que l'hélium lui-même se transforme par fusion en éléments plus
lourds comme le béryllium, l'oxygène, le silicium et le carbone. L'étape finale est
une transformation du noyau de l'étoile en fer, élément le plus stable, incapable
de subir d'autres réactions de fusion.

A force de se dilater, les couches externes de l'étoile se refroidissent et sa couleur vire


au rouge : elle devient une géante rouge. Dans environ 5 milliards d'années, notre 
enflera, son diamètre actuel de 1.4 million de km devenant 100 à 250 fois plus grand,
arrivant ainsi peut-être à englober l'orbite de la Terre.

L'épuisement de son combustible nucléaire se poursuivant, la géante rouge se


contracte jusqu'à ce qu'il ne reste plus que son cœur, d'un rayon voisin de celui de la
Terre (6378 km), ce qui est très petit pour une étoile : celle-ci est alors devenue naine.
Comme sa température élevée la fait briller d'un éclat blanc, on dit que l'étoile est une
naine blanche.

La densité d'une naine blanche est très élevée, correspondant à la grande majorité de
la masse initiale de l'étoile dans un diamètre 200 fois plus petit, donc un volume
6 millions de fois moindre ; elle est de l'ordre de 108 à 1012 kg/m3, c'est-à-dire entre
100 000 et 1 milliard de fois celle de l'eau liquide. La pression gravitationnelle atteinte
dans la matière d'une naine blanche est donc fantastique.

Comment la matière fait-elle pour résister à de telles pressions ? Il y a deux « lignes


de défense » successives, toutes deux basées sur un important théorème de
Mécanique quantique connu sous le nom de principe d'exclusion de Pauli.

3.5.12.7.1 Principe d'exclusion de Pauli


Ce principe affirme que deux particules distinctes de type fermion (comme des
électrons ou des protons) ne peuvent être dans le même état quantique, décrit par la
même fonction d'onde, alors que deux particules de type boson le peuvent. Cela veut
dire, par exemple, que deux électrons (tous deux fermions) ne peuvent être au même
endroit en même temps s'ils ne diffèrent pas par une autre variable d'état, par exemple
le spin [22].

Par contre, un nombre quelconque de particules de type boson (comme le photon ou


un noyau d'atome d'hélium) peuvent être en même temps dans le même état
quantique : un nombre quelconque de telles particules peuvent être au même endroit
en même temps, propriété surprenante ! Ces particules peuvent être, par exemple :

263
 Des photons de même fréquence, propriété utilisée dans un laser.
 Des noyaux d'hélium, dont on explique ainsi la superfluidité de la phase de très
basse température appelée hélium II : écoulement sans frottement, liquide qui
escalade les parois de son récipient, conductibilité thermique très grande, etc.

3.5.12.7.2 La masse limite de Chandrasekhar - Supernova


Le physicien indien Chandrasekhar a démontré que lorsque la masse du cœur d'une
étoile est devenue du fer par fusion et dépasse 1.44 M (masse dite "de
Chandrasekhar"), la pression gravitationnelle sur ses atomes devient si élevée que
leur résistance mécanique due au principe d'exclusion de Pauli appliqué aux électrons
ne suffit plus : ceux-ci n'arrivent plus à rester à l'écart des noyaux des atomes. Ils
fusionnent alors avec leurs protons, qui deviennent des neutrons.

La première ligne de défense de l'étoile contre la pression gravitationnelle vient alors


de céder : les protons et électrons des noyaux des atomes du cœur forment des
neutrons ; l'étoile est devenue une étoile à neutrons, ou même un trou noir si sa masse
dépasse quelques M. Les couches externes de l'étoile attirées par le cœur n'étant
plus soumises à une pression de radiation s'effondrent environ 1 seconde après et,
tombant de milliers de km de haut, rebondissent sur le noyau en créant une onde de
choc. Cette onde se propage alors vers l'extérieur avec une explosion extrêmement
violente nommée supernova, dont l'éclat lumineux peut dépasser pendant plusieurs
jours celui d'une galaxie entière comptant 100 milliards d'étoiles. Cette explosion
éjecte une partie de la masse de l'étoile sous forme d'un nuage de gaz chaud qui
s'étend rapidement, à une vitesse de l'ordre de 10 000 km/s [285]. La photo ci-dessous
représente un tel nuage, la nébuleuse de la constellation du Crabe, au centre duquel
on voit encore aujourd'hui l'étoile à neutrons du cœur initial.

Il existe un autre mécanisme d'explosion en supernova [285]. Il se déclenche


spontanément lorsque le noyau d'une naine blanche, susceptible de fusionner, atteint
une masse critique, notamment lorsque la masse de la naine blanche augmente par
accrétion de matière d'une étoile voisine formant avec elle un système binaire. C'est
une colossale explosion thermonucléaire due à la fusion des couches carbone et
oxygène de l'étoile en nickel radioactif, fusion qui dégage une énergie énorme. Cette
énergie se propage de manière explosive vers l'extérieur de l'étoile, qui est
complètement détruite. Les restes gazeux de l'explosion sont alors éclairés pendant
des semaines ou des mois par le rayonnement de décomposition radioactive du nickel.

264
Nébuleuse du Crabe formée par explosion thermonucléaire, observée en 1572 [131]

Pour la plupart des étoiles, qui comme notre  ont une masse inférieure à 1.44 M,
cette explosion ne se produira pas : après avoir été géantes rouges elles deviendront
des naines blanches qui finiront par « s'éteindre » (se refroidir) lorsque leur
combustible nucléaire sera épuisé.

3.5.12.7.3 Les étoiles à neutrons


Le résultat de l'effondrement gravitationnel d'une étoile dont le cœur pèse un peu plus
de 1.44 M est appelée étoile à neutrons. Ses atomes sont devenus des neutrons,
serrés les uns contre les autres de manière si dense que son rayon est d'une dizaine
de km. La densité d'une telle étroite défie l'imagination, puisqu'elle est de l'ordre de
100 millions de fois celle d'une naine blanche, déjà énorme ! Les neutrons de l'étoile
sont si serrés qu'ils se comportent comme un noyau atomique unique géant.

L'étoile à neutrons concentre tout le moment cinétique du noyau stellaire dont elle est
née dans un rayon environ 1000 fois plus petit ; conformément au principe de la
conservation du moment cinétique, elle tourne très vite autour de son axe, 30 fois par
seconde dans le cas de l'étoile à neutrons du centre de la nébuleuse du Crabe. Cette
rotation est accompagnée d'émissions de rayonnements électromagnétiques de
fréquence extrêmement stable, qui a fait donner à ces étoiles le nom de pulsars.

265
3.5.12.7.4 Les trous noirs
L'effondrement gravitationnel d'une étoile à neutrons peut être arrêté par une
deuxième ligne de défense, due elle aussi au principe d'exclusion de Pauli, mais
appliqué cette fois aux neutrons, dont deux ne peuvent partager le même état
quantique car ce sont des fermions. Mais cette ligne de défense peut céder, elle aussi,
lorsque la masse résiduelle de l'étoile à neutrons après l'explosion en supernova
dépasse quelques M. Les calculs théoriques montrent alors que plus rien ne peut
arrêter l'effondrement gravitationnel : la totalité de la masse-énergie de l'étoile à
neutrons s'effondre jusqu'à ce que son diamètre soit infiniment faible : l'étoile est
devenue un trou noir.

Ici intervient la Relativité Générale, qui associe à chaque densité de masse en un point
de l'Univers une courbure de l'espace-temps environnant [328]. La masse d'un trou
noir pouvant atteindre, voire dépasser, 20 milliards de M (le trou noir NGC 4889, à
336 millions d'années-lumière, pèse 23 milliards de M), l'espace au voisinage est
très fortement courbé, il a une géométrie sphérique [109]. Dans cet espace courbe,
les géodésiques (lignes de plus courte distance entre deux points) ne sont plus droites.
Bien que la vitesse de la lumière, c, reste la même, les cônes de lumière le long d'une
ligne d'univers représentant de la matière en effondrement gravitationnel sont penchés
en direction du centre de l'étoile.

Lorsque la matière qui s'effondre atteint une certaine distance du centre appelée
horizon ou rayon de Schwarzschild, R, l'inclinaison du cône de lumière par rapport à
l'axe vertical ct du diagramme d'espace-temps de Minkowski devient telle qu'aucune
particule ne peut plus s'écarter du centre, qu'elle ait ou non de la masse : la particule
est alors piégée dans le trou noir, dont elle ne peut plus sortir. L'espace au voisinage
du trou noir est si courbé que rien, même la lumière, ne peut plus en sortir ; le nom de
trou noir vient de ce qu'on ne peut le voir, puisque aucune lumière n'en sort et aucune
ne le traverse.
Si on ne peut voir un trou noir, sa présence se signale par :
 De la matière qui tourne autour, par exemple une étoile satellite du trou ;
 Du gaz interstellaire qui tombe en spirale dans le trou, où il disparaît par
absorption (voir schéma).
Ce phénomène peut être d'une luminosité fantastique, le trou noir avec sa
spirale étant alors appelé quasar (de l'anglais "quasi-stellar object") et
produisant - à des milliards d'années-lumière de distance - mille fois plus de
lumière à lui seul qu'une galaxie entière comme la nôtre (environ 100 milliards
d'étoiles, largeur 100 000 années-lumière) ;
 Deux jets d'électrons, dits relativistes car ils sont accélérés à une vitesse
proche de celle de la lumière, qui créent des lobes immenses (parfois plus
d'une année-lumière de longueur) de part et d'autre du quasar ;
 Des particules accélérées par leur rencontre avec la sphère horizon du trou,
en rotation rapide, et qui s'éloignent à grande vitesse.
Enfin, la formation d'un trou noir ou son absorption d'un autre astre se signalent
par des ondes gravitationnelles que les scientifiques espèrent détecter [313].

Lorsqu'une galaxie contient un trou noir (ce qui est très fréquent), celui-ci dévie les
rayons lumineux provenant d'une éventuelle galaxie située derrière lui et qui passent

266
à proximité dans leur chemin vers la Terre, en suivant les géodésiques courbes de
l'espace voisin (espace d'autant plus courbé que l'on est près du trou noir). Les rayons
passant d'un côté du trou noir et ceux passant de l'autre côté (ou au-dessus et au-
dessous) donnent des images différentes et distinctes de la même galaxie cachée,
images multiples qui constituent un mirage gravitationnel. Une galaxie lointaine,
ponctuelle vue de la Terre, a le même effet de « lentille gravitationnelle » qu'un trou
noir pour l'image d'une autre galaxie située derrière.

Horizon des événements d'un trou noir - Rayon de Schwarzschild


Si la dimension du trou noir proprement dit est infiniment faible, la portion sphérique
d'espace environnant dont rien ne sort a un rayon fini appelé horizon des événements
du trou noir (ou simplement horizon). En pratique, toute matière ou tout rayonnement
intérieur à cet horizon étant invisible à l'extérieur, tout se passe comme si le trou noir
avait un rayon R égal à cet horizon, donné par la formule :

2GM
R
c2

où :
 G est la constate universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ;
 M est la masse du trou noir ; (la masse du soleil est M = 2 1030 kg) ;
 c2 est le carré de la vitesse de la lumière, approximativement 9 1016 m2/s2.

Le rayon R ci-dessus est appelé « rayon de Schwarzschild », « rayon gravitationnel »


ou simplement rayon du trou noir. Ce rayon augmente avec sa masse ; pour un trou
de 10 M, le rayon est d'environ 30 km. Dans une sphère de rayon R, un trou noir se
forme :
 dès que la masse de matière qu'elle contient dépasse c2R/2G, ou
 dès que sa densité dépasse 3c2/8GR2.

Un trou noir peut donc se former même avec une masse modeste, lorsqu'elle est
concentrée dans une sphère suffisamment petite, de rayon R < 2GM/c2.

3.5.12.7.5 Masses et dimensions dans l'Univers


Nous avons jusqu'ici présenté le phénomène de formation d'un trou noir comme lié à
l'effondrement d'une étoile de masse supérieure à quelques M. En fait il peut se
produire chaque fois que, dans une région de l'espace, la densité (masse par unité de
volume) est suffisante pour entraîner un effondrement gravitationnel.

Le diagramme ci-dessous, issu de [132], caractérise divers objets allant d'un noyau
atomique à un amas de galaxies et l'Univers observable [111] tout entier, par leur
masse (en abscisse) et leur dimension (en ordonnée).

267
Le coin en bas à droite, délimité par la droite du rayon gravitationnel, est la plage de
formation de trous noirs. Comme un trou noir commence à se former lorsque la densité
de matière environnante est suffisante il peut se former pour de tout petits objets très
denses. Un noyau atomique d'un diamètre de l'ordre de quelques fermis
(1 fm = 10-15 m) a une densité de l'ordre de 2.7 .1017 kg/m3, donc supérieure à la
densité de la sphère horizon du trou noir de 10 M (1.8 .1017 kg/m3) : on ne pourrait
pas le comprimer beaucoup avant qu'il ne s'effondre en trou noir.

3.5.12.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée


Effondré ou non, un astre de masse M attire un corps de masse M' situé à une distance
d de son centre en exerçant une force F = GMM'/d2. Cette force applique à la masse
M' une accélération a donnée par F = M'a. Donc GMM'/d2 = M'a, d'où l'accélération
due à l'attraction de l'astre de masse M à la distance d :

GM
a
d2

Chiffrons cette accélération sur des exemples :


 A la surface de la Terre, l'accélération de la pesanteur est g = 9.8 m/s2.

268
 Située à environ 150 millions de km du , la Terre est soumise de sa part à une
accélération de 0.006 m/s2, 1600 fois plus faible que g.
 A 10 000 km du centre d'une étoile naine blanche de masse 1 M (c'est-à-dire
près de sa surface), l'accélération est 1.3 .106 m/s2, c'est-à-dire 130 000 fois la
pesanteur terrestre g.
 A 10 km du centre d'une étoile à neutrons de masse 2 M (là aussi près de sa
surface), l'accélération est 26.7 .1011 m/s2, c'est-à-dire 272 milliards de fois la
pesanteur terrestre g.
 A 1 million de km d'un trou noir de masse 10 M (distance 33 000 fois
supérieure à son horizon) l'accélération est 1340 m/s2, c'est-à-dire 140 fois la
pesanteur terrestre g.

On voit qu'un astre mort attire fortement toute matière située dans son voisinage. Cette
matière finit par tomber sur lui et fusionner avec lui.

Etoiles binaires
Dans un système stellaire binaire, deux étoiles tournent l'une autour de l'autre,
chacune tournant en fait autour de leur centre de gravité commun. Cette configuration
est très fréquente, la moitié environ des étoiles de l'Univers formant des systèmes
binaires avec une voisine ; notre  est une exception.
Lorsque l'une des étoiles est une étoile ordinaire, naine comme le  ou plus
grande, que les deux étoiles sont proches, et que l'autre étoile est une naine blanche,
une étoile à neutrons ou un trou noir, l'étoile très dense attire si fortement la matière
de l'étoile ordinaire qu'elle en détache continuellement des morceaux qui tombent sur
elle en décrivant une spirale : elle « dévore » l'étoile normale, grossissant de ce fait
continuellement. Le schéma ci-dessous, dû à la NASA
http://antwrp.gsfc.nasa.gov/apod/image/9912/accretiondisk_hst_big.gif, illustre ce
phénomène.
A force de grossir, une naine blanche peut finir par s'effondrer en étoile à neutrons,
et une étoile à neutrons peut s'effondrer en trou noir.

269
Etoile très dense d'un système binaire « mangeant » sa compagne :
la matière arrachée tombe en formant un disque d'accrétion

Cisaillement gravitationnel
La force d'attraction exercée par un astre effondré sur un corps voisin varie très
rapidement d'un point à l'autre de ce corps. Un corps pesant M' kg situé à x mètres du
centre de gravité d'un astre effondré pesant M kg subit une force d'attraction
F(x) = GMM'/x2. Lorsque la distance x varie, la force varie comme la dérivée de la
fonction F(x) précédente, dF/dx = -2GMM'/x3, fonction en "1/d3".

Exemple : supposons un homme qui franchit les pieds en avant l'horizon d'un trou noir
de masse M = 10 M, situé à x = 30 km de son centre. Entre ses pieds et sa tête, sur
une distance de 1.7 m, chaque kg de son corps subit une différence de force
d'attraction donnée par dF = (-2GM/x3)dx = 1.7 107 kgf, c'est-à-dire 17 000 tonnes ! La
traction gravitationnelle étant supérieure sur les pieds à ce qu'elle est sur la tête, le
pauvre homme est littéralement déchiqueté par étirement. Et il est aussi écrasé par
compression dans les deux directions perpendiculaires à son déplacement, son
volume total demeurant constant.
Heureusement (si l'on peut dire dans ces circonstances tragiques !) la torture du
pauvre homme est de courte durée, car sa chute dans le trou est extrêmement
rapide du fait de l'énorme attraction gravitationnelle, environ 150 milliards de g !

On appelle ce phénomène cisaillement gravitationnel. Il détruit toute matière tombant


sur un astre effondré, y compris chaque molécule, chaque atome et même chaque
noyau atomique, incapables d'y résister. Ce phénomène est le même, à l'ampleur près,
que celui des marées terrestres, où l'attraction de la Lune (ou du ) est plus forte sur
la mer du côté Lune (ou ) que sur la Terre, elle-même plus attirée que la mer du côté

270
opposé. En exagérant l'effet de ces différences d'attraction, on obtient le schéma
suivant :

Mer

Lune ou
soleil

Terre

3.5.12.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir
En oubliant le cisaillement ci-dessus, un observateur A en train de tomber dans un trou
noir ne remarquerait rien de particulier sur la montre qu'il porte lors du franchissement
de l'horizon. Par contre, un observateur B extérieur à l'horizon verrait A qui tombe se
déplacer de plus en plus lentement, et devenir immobile en arrivant sur l'horizon, car
sur cette surface le temps vu de l'extérieur ne s'écoule plus. Ainsi, pour l'observateur
extérieur B, rien n'entre dans un trou noir, tout s'arrête sur son horizon : c'est un des
paradoxes de la Relativité Générale [328].

En fait, l'image que A donnerait à B lors du franchissement de l'horizon deviendrait


rapidement de moins en moins lumineuse et nette pour B, car elle proviendrait d'une
partie de plus en plus petite de l'image de A, restée à l'extérieur de l'horizon : B verrait
A disparaître par affaiblissement de son image ; et comme le trou noir est invisible, B
ne verrait bientôt plus rien, ou seulement le rayonnement émis par la matière qui
continue à tomber en spirale dans le trou noir et s'échauffe par compression et
frottement en tournant autour de son horizon.

3.5.12.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel


La fusion de l'hydrogène en hélium dans une étoile est irréversible, car une éventuelle
fission de l'hélium en hydrogène serait contraire à l'exigence thermodynamique de
croissance de l'entropie. En fait, si la masse disponible et la température atteinte le
permettent, une étoile est le siège de fusions successives se terminant par un noyau
de fer, élément si stable que la nature ne peut en créer de plus lourds en dehors des
colossales énergies des explosions de supernova. Donc toutes les réactions
nucléaires de la vie d'une étoile sont irréversibles, y compris celle de son éventuelle
explosion en supernova.

Un effondrement gravitationnel est à l'évidence aussi irréversible. Une naine blanche,


une étoile à neutrons ou un trou noir ne peuvent que grossir tant qu'il y a de la matière

271
à "dévorer" à proximité, et "attendre" indéfiniment quand il n'y en a pas (on parle alors
d'état stationnaire). Deux de ces astres peuvent aussi fusionner lors d'un choc.

L'irréversibilité du phénomène d'effondrement gravitationnel respecte les lois de


conservation :
 La masse-énergie de l'astre effondré est celle de la matière d'origine (compte
tenu de son énergie cinétique et de son énergie potentielle de gravitation) moins
l'énergie perdue par rayonnement lors de l'effondrement, dans le disque
d'accrétion et par ondes gravitationnelles ;
 Le moment cinétique de l'astre effondré est celui de l'astre ou de la matière
absorbée d'origine ; mais comme l'astre effondré a un diamètre beaucoup plus
petit que l'étoile d'origine, il tourne sur lui-même beaucoup plus vite ;
 La charge électrique de l'astre effondré est celle de l'astre ou de la matière
absorbée d'origine, aux atomes éventuellement ionisés.

3.5.12.7.9 Caractéristiques d'un trou noir


En principe, un trou noir stationnaire (c'est-à-dire qui n'est pas en train d'absorber de
la matière) se contente de 3 paramètres pour sa description : deux nombres réels
représentant sa masse et sa charge électrique, et un vecteur représentant son moment
cinétique. Donc lorsqu'un trou noir atteint la stabilité après absorption d'une masse de
matière, il ne garde aucune mémoire de celle-ci en dehors de la variation de ces 3
paramètres : on ne sait plus rien de la forme, la couleur, la nature des atomes,
molécules, etc. des corps et rayonnements qui ont traversé son horizon ! Cette
simplicité d'un trou noir est rappelée par un dicton bien connu des physiciens :

"Un trou noir n'a pas de cheveux"

Ce dicton veut dire qu'en principe un trou noir n'a pas de paramètre descriptif
supplémentaire (de cheveu) en plus des trois cités. Deux trous noirs de mêmes
masses, charge électrique et moment cinétique sont identiques.

D'après la thermodynamique, un corps à une température absolue non-nulle devrait


rayonner ; inversement, s'il rayonne sa température absolue est non-nulle.

Température d'un trou noir


D'après ce qui précède, un trou noir absorbe tout, matière et rayonnement, et ne
restitue rien ; en particulier il ne rayonne pas. D'après la thermodynamique, sa
température doit donc être très proche du zéro absolu. C'est le cas, en effet, pour un
observateur très éloigné de son horizon : celui-ci mesure sur cet horizon une
température absolue inversement proportionnelle à la masse M du trou noir. Plus un
trou noir est lourd, plus il est froid et plus il absorbe tout rayonnement, car par rapport
à lui toute matière est plus chaude. Mais plus l'observateur s'approche de l'horizon,
plus la température qu'il mesure augmente, et sur l'horizon elle est infinie !

Entropie très élevée d'un trou noir


En thermodynamique classique (où on néglige l'effet de la gravitation), lorsque de la
matière se concentre en une dimension plus petite (exemple : lorsqu'un gaz se liquéfie)
et que sa structure se simplifie, son entropie diminue. Dans le cas de l'effondrement

272
de matière vers un trou noir, c'est l'inverse : l'entropie du trou noir augmente. C'est là
un effet de sa masse et de l'énergie cinétique due à la gravitation. Cet effet est
conforme au 2ème principe de la thermodynamique, qui veut que toute transformation
irréversible s'accompagne d'une croissance de l'entropie.
En effet, la matière qui s'effondre dans un trou noir y apporte, en plus de son
énergie de masse E = mc2, une énergie cinétique due à la transformation de son
énergie potentielle de gravitation lors de la chute. En principe cette énergie ne
peut plus s'échapper du trou noir, par rayonnement ou autrement ; en fait nous
verrons qu'elle s'échappe par rayonnement de Hawking.

La sphère horizon d'un trou noir ne peut que croître lorsque celui-ci absorbe de la
matière. Du fait de cette matière absorbée, l'entropie d'un trou noir est très élevée.
Cela rend sa formation irréversible, dans la mesure où elle devrait augmenter encore
pour qu'il se désagrège tout en respectant le deuxième principe de la
thermodynamique. [25] Précisons tout cela avec quelques formules.

Selon [133], la notion d'entropie d'un trou noir peut être interprétée comme suit :
 C'est le nombre de ses états internes de matière et de gravitation ;
 C'est l'entropie de la relation entre degrés de liberté à l'intérieur et à l'extérieur de
la sphère horizon ;
 C'est le nombre d'états gravitationnels de la sphère horizon ; etc.

Quelques formules d'un trou noir


L'aire de l'horizon d'un trou noir sphérique augmente comme le carré du rayon R du
trou noir, lui-même proportionnel à la masse. Donc l'aire de la sphère horizon d'un trou
noir sphérique augmente comme le carré de sa masse. Donc l'entropie du trou noir,
proportionnelle au quotient de la masse par la température, doit être proportionnelle à
l'aire de son horizon. La formule exacte reliant l'entropie S d'un trou noir et l'aire A de
son horizon est, d'après [133] :

A kc3
S ( )
4 G

Dans cette formule, à part l'aire A, il n'intervient que des constantes :


 k est la constante de Boltzmann, k = 1.38066 .10-23 joule par degré K ;
 c est la vitesse de la lumière, c = 299 792 458 m/s ;
 G est la constante universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ;
 ä = h/2 = 1.05 .10-34 joule.seconde, où h est la constante de Planck.

Dans le cas d'un trou noir à horizon sphérique, A = 4R2, où R est le rayon de l'horizon,
donc l'aire A se calcule en fonction de la masse M par la formule :

8G 2 2
A 4 M
c

273
Donc l'entropie S du trou noir se calcule en fonction de sa masse par la formule :

2kG 2
S M
c

Lorsqu'un trou noir absorbe de la matière son entropie augmente ; quand il rayonne
elle diminue.

La formule ci-dessus montre que lorsque deux trous noirs se rencontrent et fusionnent,
l'entropie résultante est supérieure à la somme de leurs entropies respectives,
puisqu'elle est proportionnelle au carré de la somme de leurs masses. Lorsqu'au
centre d'une galaxie il y a un énorme trou noir de 1 milliard de M, son entropie S est
1 milliard de milliards de fois celle d'un trou noir de 1 M, et son entropie par unité de
masse S/M - qui est proportionnelle à la masse M - est 1 milliard de fois celle du trou
noir de 1 M.

En fait, la perte d'information lorsque de la matière ou du rayonnement franchit


l'horizon d'un trou noir est affectée par la Relativité Générale :
 Pour un observateur tombant dans le trou, le temps s'écoule comme d'habitude,
il n'y a pas de perte d'information.
 Pour un observateur à l'extérieur de l'horizon, toute chute de matière ou
absorption d'onde électromagnétique semble s'arrêter à l'horizon. Elle est
irréversible. Il y a croissance de la masse, du rayon d'horizon et de l'entropie du
trou noir. Mais l'information d'origine de ce qui est tombé n'est pas perdue, elle
est incorporée à celles tombées précédemment : nous pensons aujourd'hui que
l'information d'un trou noir est stockée sur sa sphère d'horizon, conformément au
principe holographique [304].

Lors de la chute dans un trou noir, le déterminisme d'un observateur qui participe à la
chute n'est pas le même que pour un autre qui reste à l'extérieur de l'horizon :
les événements s'enchaînent différemment, les situations décrites par leurs états sont
tout autres. C'est là un effet de la Relativité Générale.

Remarque
On connaît des propriétés d'ensemble d'un trou noir, comme la proportionnalité entre
l'aire de son horizon et son entropie. Mais on ne sait en déduire le détail. Tout se passe
comme si, dans l'exemple du lanceur à 10 000 pièces d'importance vitale, on savait
que l'entropie est un nombre de 31 chiffres en base 10 sans connaître sa valeur, donc
celles des bits qui décrivent l'état de chacune des10 000 pièces. C'est pourtant ces
bits-là qu'il faut connaître pour décider où il faut œuvrer pour améliorer les chances de
succès du lanceur.

3.5.12.7.10 Et en plus, un trou noir s'évapore !


Source : [327] pages 283 et suivantes.
Les travaux de Stephen Hawking et quelques autres chercheurs ont montré que des
particules s'échappent d'un trou noir selon le mécanisme d'apparition de paires de
particules, qui emprunte de l'énergie au trou noir selon le principe d'incertitude de

274
Heisenberg. Mais contrairement au premier cas des fluctuations particule-antiparticule
que nous avons étudié, un phénomène de fluctuations d'énergie cinétique existe aussi
et explique qu'un trou noir "s'évapore" : on dit qu'il émet un rayonnement de Hawkins.
Un trou noir n'est donc pas complètement noir !

Lorsque le trou noir s'évapore ainsi peu à peu, il restitue de l'information qu'il détenait
à partir de matière et d'énergie absorbée et son entropie diminue. En fait, cette
évaporation est extrêmement lente, pouvant durer des centaines de milliards
d'années, et n'accélère que lorsque le trou noir est devenu très petit.

En outre, les particules émises par un trou noir s'en éloignent en s'opposant à son
formidable champ gravitationnel. Pour un observateur éloigné leur longueur d'onde
augmente, il les voit donc d'autant plus froides que la masse du trou noir est grande ;
c'est ainsi qu'un trou noir de la masse du  est vu, de loin, avec une température de
moins de 10-6 degré K, inférieure aux 2.7 degrés K du fond diffus cosmologique.

Nous sommes loin du déterminisme de Newton et Laplace !

3.5.12.7.11 Quantité d'information dans un volume délimité par une surface


Source : [327] pages 289 et suivantes

Considérons un volume quelconque, de taille fixe et contenant une quantité de matière


fixe sous n'importe quelle combinaison de formes : objets solides, liquides et gaz. Soit
S0 l'aire de la surface qui l'enveloppe. Exprimons les aires en unités de Planck (carrés
dont le côté est égal à la distance de Planck, 1.6 .10-35 m). Puisqu'un tel carré est la
plus petite surface qui a un sens dans notre physique, admettons qu'il puisse contenir
la plus petite quantité d'information possible, 1 bit. Et puisque l'entropie d'un trou noir
est proportionnelle à l'aire S de sa sphère horizon (et non pas au volume de cette
sphère), admettons qu'exprimée en bits elle est égale à S en unités de Planck.

Lorsqu'un trou noir se forme par effondrement de matière, le volume de sa sphère


horizon est nécessairement plus petit que le volume initial de cette matière ; et l'aire
de la sphère horizon, S, est inférieure à celle, S0, de l'enveloppe du volume initial. Or,
d'après le 2ème principe de la thermodynamique, l'entropie du trou noir est supérieure
à celle de la matière dont il est issu. D'où le théorème :
La quantité d'information contenue dans une région de l'espace est inférieure à
celle de l'horizon du trou noir virtuel (mesurée en unités de Planck) que sa matière
pourrait créer en s'effondrant.
(La taille minuscule de la distance de Planck fait qu'un bit d'information occupe
2.5 .10-70 m2 de la sphère horizon. Une telle sphère a donc une capacité de
stockage colossale, même pour de petits volumes de matière : l'information d'un
disque d'ordinateur de 1 TB, contenant environ 1013 bits, tiendrait dans une sphère
d'aire 2.5 .10-57 m2.)

Puisque toute l'information d'un volume d'espace tient dans la sphère horizon d'aire S
de son trou noir virtuel, elle peut à fortiori tenir dans la surface d'aire S0 qui l'enveloppe,
car S0 > S. D'où un deuxième théorème :
L'information contenue dans une région de l'espace tient dans toute surface qui
l'enveloppe.

275
3.5.12.7.12 Surface nécessaire pour décrire une évolution - Principe holographique
Pour décrire l'évolution d'un objet physique, il faut décrire toutes les informations de
son état initial à l'instant t0 et les lois d'évolution qui s'appliquent. Considérons l'état qui
résulte de cette évolution à l'instant t1 > t0. Si toutes les informations sont codées sous
forme numérique et les lois d'évolution sont décrites par des programmes d'ordinateur,
l'évolution de l'objet est représentée par l'exécution informatique de ces programmes.
(Nous supposons pour cela que toutes les lois physiques étant déterministes, on
peut les modéliser parfaitement sur un ordinateur. C'est une position théorique,
qui suppose que toutes lois physiques sont connues ainsi que les programmes
correspondants et des méthodes de représentation numérique convenables, qu'il
n'y a pas de situation de non-calculabilité ou d'imprécision comme le chaos, et
qu'on ne tente pas de représenter des phénomènes non déterministes comme les
fluctuations quantiques.)

L'ensemble des informations qui décrivent l'évolution entre les instants t0 et t1 est alors
celui d'un certain volume minimum d'espace physique V contenant l'objet dans tous
les états nécessaires. D'après les théorèmes précédents, ces informations peuvent
être contenues dans une surface S entourant le volume, surface qui constitue le
domaine de définition des données du modèle.

Calculer l'évolution avec les lois physiques habituelles appliquées dans le volume
physique réel V peut donc, en théorie, être remplacé par un calcul dans une surface S
contenant les données-images en format numérique. La projection de l'espace V sur
la surface S ressemble à une projection holographique d'une image 3D d'un volume
sur une plaque photographique 2D. La validité théorique de cette projection est
postulée par le Principe holographique [304]. Selon [327] page 300 et suivantes, la
Théorie des cordes met en œuvre explicitement le Principe holographique pour
simplifier les calculs. Cette théorie est très prometteuse, mais pas encore vérifiée par
des mesures physiques en 2014.

3.5.12.8 Le Big Bang, phénomène irréversible


Depuis l'invention du terme, on a appelé « Big Bang » le commencement de l'Univers,
il y a 13.8 milliards d'années. Il était alors très petit et il a commencé son expansion,
croissance de son diamètre qui se poursuit toujours.

On pensait que le Big Bang avait été suivi, une fraction de seconde après, par une très
courte période d'expansion explosive des milliards de fois plus rapide, l'inflation, elle-
même suivie par l'expansion actuelle, bien plus lente. Nous savons depuis peu qu'il
n'en est rien : l'inflation a précédé le Big Bang (détails : [313]). Dans ce texte et par
respect des habitudes, l'expression Big Bang désignera toujours le début de
l'expansion actuelle il y a 13.8 milliards d'années, car la véritable naissance de
l'Univers, avant l'inflation, n'a pas de nom particulier et la durée entre cette naissance
et le Big Bang est extrêmement courte.

L'expression Big Bang est tellement connue - et la phase d'inflation si peu connue et
si courte - que la plupart des auteurs qui connaissent l'inflation la considèrent comme
le début du Big Bang et ne parlent donc que de ce dernier.

276
L'inflation
(Important : pour comprendre la suite voir : [313])
Nos connaissances de physique (2015) nous permettent de comprendre, après
l'instant initial de l'Univers, l'enchaînement de l'inflation, puis du Big Bang, puis de
l'expansion de l'Univers. Entre le temps zéro et l'inflation, nos lois physiques ne
s'appliquent pas, par exemple parce que la force de gravitation est discontinue et
quantifiée. Il y a eu, avant le Big Bang, un très court moment (de l'ordre de
10-35 seconde) appelé inflation, pendant lequel la dimension de l'Univers a augmenté
infiniment plus vite que la vitesse de la lumière, son diamètre étant multiplié par un
facteur colossal de l'ordre de 10 78 ! Et pendant cette croissance exponentielle, de la
matière-énergie s'est créée à partir d'une baisse de l'énergie potentielle de l'espace.

Sa taille croissant après le Big Bang l'Univers s'est refroidi, tout simplement parce que
sa densité d'énergie a diminué. La longueur d'onde des photons lumineux porteurs
d'énergie en train de se déplacer a augmenté du fait de la dilatation de l'espace (ils se
sont « dilatés »).

Voici une interprétation du Big Bang proposée par Ilya Prigogine dans [26] page 191 :
"Nous considérons le Big Bang comme le processus irréversible par excellence.
L'irréversibilité résulterait de l'instabilité du pré-univers, instabilité induite par les
interactions entre la gravitation et la matière. Dans cette perspective, notre
univers serait né sous le signe de l'instabilité."

Bibliographie : trous noirs et Big Bang : [136] ; théorie de la gravitation quantique.

3.5.12.9 Univers à plus de 4 dimensions


Notre Univers a trois dimensions d'espace et une de temps formant le continuum
espace-temps décrit par la Relativité Générale. Certaines théories supposent que
l'Univers a d'autres dimensions, 10 ou 11 en tout notamment. Mais notre cerveau et
nos instruments étant incapables de « voir » ces autres dimensions, nous ne pourrions
avoir de leur existence que des preuves indirectes, de la même nature que les preuves
mathématiques données par la Mécanique quantique et l'électrodynamique quantique
concernant les invisibles particules atomiques et subatomiques, et leur évolution.
Si une théorie décrivant un Univers à plus de 4 dimensions faisait une prédiction
physique vérifiable dans notre Univers et que rien ne contredit, nous pourrions la
considérer comme vraie jusqu'à plus ample informé.

C'est ainsi qu'une théorie actuelle tente d'expliquer la conversion automatique de


neutrinos-électrons en neutrinos-muons et réciproquement par un parcours à travers
une dimension externe à notre Univers classique. Si une expérience physique
confirme cette théorie alors qu'aucune de ses prédictions et aucune autre expérience
ne la contredit, elle peut être considérée comme vraie au moins provisoirement.

Du point de vue philosophique, il faut donc interpréter l'affirmation « nous ne saurons


jamais rien sur l'extérieur de notre Univers » en précisant que le mot « extérieur »
désigne une région de l'espace-temps « dont le contenu n'a, avec l'Univers qui nous
est accessible, aucune relation de causalité décrite par une loi » ; il n'y a pas, par
exemple, de transmission d'onde électromagnétique ou gravitationnelle susceptible de
transmettre de l'information.

277
3.5.13 7e extension du déterminisme : Relativité, écoulement du temps

Ecoulement du temps
La notion même de déterminisme régissant les évolutions repose sur l'écoulement du
temps, sans lequel elle ne se conçoit pas. Or la Relativité Restreinte [49] nous apprend
que pour deux observateurs en mouvement l'un par rapport à l'autre le temps s'écoule
à des vitesses différentes et la notion de simultanéité n'a plus la signification habituelle.

Plus grave encore, il y a des situations où, pour un observateur situé au point M,
l'événement A précède l'événement B, alors que pour un observateur situé en un autre
point, P, c'est l'événement B qui précède l'événement A. Lorsque l'observateur en M
aura connaissance de l'événement A il ne saura pas encore que B aura lieu, alors que
lorsque l'observateur en P saura que B a eu lieu il ne saura pas encore que A aura
lieu ! (Explication).
Dans ces conditions, que deviennent la causalité et le déterminisme ? Ne pourrait-
on considérer que la dimension temps joue le même rôle que les trois dimensions
d'espace dans le continuum espace-temps de la géométrie de Minkowski, et donc
que la certitude des deux événements A et B était acquise d'avance pour un
observateur extérieur à cet espace à 4 dimensions ?
C'est ce qu'Einstein avait conclu selon [130], admettant alors le déterminisme
philosophique [200], qui prétend que la totalité du passé et de l'avenir forme une
chaîne de causalité unique et qu'il n'existe aucun écoulement objectif du temps.
Mais pour Kant, pour moi, comme pour beaucoup d'autres la réponse est non : se
placer à l'extérieur de l'espace-temps est comme se mettre à la place de Dieu,
c'est une spéculation pure, qu'aucun raisonnement rationnel ne peut justifier,
exactement comme l'existence de Dieu ; nous savons cela depuis Kant. En outre,
l'irréversibilité prouvée de certains phénomènes comme la croissance de l'entropie
impose d'admettre que le temps s'écoule.

De son côté, le principe si intuitif de l'additivité de deux vitesses [36] est de moins en
moins valable au fur et à mesure qu'une au moins des vitesses approche celle de la
lumière. Enfin, la vitesse d'un corps matériel pesant accéléré peut approcher celle de
la lumière, c, mais ni la dépasser ni même l'atteindre, tant pis pour les auteurs de
science-fiction ; seules les particules sans masse comme les photons se déplacent à
la vitesse de la lumière - et elles ne peuvent jamais aller moins vite ou plus vite.
(Remarque : la vitesse de la lumière dépend du milieu où elle se propage ; celle qu'on
désigne habituellement par c est la vitesse dans le vide.)

De son côté, la Relativité Générale [328] montre que lorsqu'un mouvement entre deux
points A et B traverse un champ gravitationnel, la vitesse d'écoulement du temps
change par rapport à un mouvement entre les mêmes points ne traversant pas un tel
champ, car sa trajectoire est autre. En outre, la courbure de l'espace changeant du fait
du champ, la lumière s'y propage selon une trajectoire différente et l'unité de longueur
en un point change avec le champ de gravitation en ce point.
On cite souvent le « paradoxe des jumeaux », appelé aussi « paradoxe du
voyageur de Langevin ». Considérons deux jumeaux, Pierre et Paul. Pierre reste
sur Terre pendant que Paul part (et voyage à une vitesse inférieure à celle de la
lumière, bien entendu). Paul décrit une certaine trajectoire (ligne d'univers dans
l'espace-temps de Minkowski) qui finit par le ramener au point de départ sur Terre,

278
où Pierre l'attend. Les deux jumeaux constatent alors que Paul, le voyageur, a
vieilli moins que Pierre : le temps s'écoulait plus lentement pour Paul que pour
Pierre ! (Voir le raisonnement et le dessin explicatif.)

La différence de vitesse d'écoulement du temps entre deux observateurs en


mouvement l'un par rapport à l'autre est une caractéristique importante du
déterminisme due à la Relativité.

Equivalence masse -énergie


La Relativité fournit une équation que tout le monde connaît :

E = mc2

Cette formule pose l'équivalence de la masse et de l'énergie, qui sont deux aspects
distincts d'une même réalité. La masse peut se transformer en énergie dans une
bombe atomique et dans la chaîne de réactions qui transforment de l'hydrogène en
hélium dans le Soleil, en convertissant de la masse en énergie calorifique (agitation
thermique) et lumineuse (photons). Et à part dans les particules de masse nulle comme
le photon [117], porteuses d'énergie et toujours en mouvement à la vitesse de la
lumière, l'énergie a aussi, toujours, une masse associée : selon l'expérience, on mettra
en évidence la masse, l'énergie ou les deux.
Exemple : considérons un ressort au repos, c'est-à-dire ni comprimé ni tendu.
Pesons-le avec une grande précision : nous trouvons une masse m. Comprimons-
le en y emmagasinant une énergie mécanique potentielle E, qui pourrait se libérer
en poussant un autre corps si on lâchait le ressort. Après compression, une
seconde pesée très précise du ressort fait apparaître une masse m' telle que :

E
m'  m 
c2

La masse m' est plus lourde que m ; l'énergie potentielle E emmagasinée dans le
ressort est détectée par la balance sous forme de masse supplémentaire !
Pour comprendre pourquoi on ne s'était pas aperçu expérimentalement de cette
équivalence entre énergie et masse avant la publication de la théorie de la
Relativité Restreinte par Einstein en 1905 [49], il faut savoir qu'un gros ressort de
suspension de train, comprimé de 10 cm par une force de 1 tonne ne voit sa
masse augmenter que de 10-5 microgramme. Mais à une échelle plus grande, le
Soleil (diamètre : 1.4 million de km, masse : 2 1027 tonnes) perd chaque seconde
environ 4.3 millions de tonnes d'hydrogène transformé en rayonnement.

L'équivalence de la masse et de l'énergie, qui n'a rien d'intuitif, est une raison
supplémentaire d'enrichir la définition du déterminisme pour prendre en compte la
Relativité. Elle nous oblige à reformuler le principe de conservation de la masse de la
physique newtonienne en conservation de la somme masse + énergie. Pour plus de
détails, notamment la conservation de l'impulsion, voir plus bas.

La Relativité affecte aussi la masse d'un corps, qui n'est pas la même pour un
observateur fixe par rapport à lui ou un observateur en mouvement. Elle affecte

279
également la durée de vie d'une particule instable en mouvement, qui paraît plus
courte pour un observateur accompagnant la particule que pour un observateur fixe.
Sans la théorie de la Relativité, nous n'aurions ni l'énergie atomique (E = mc2), ni
une astronomie précise, ni le positionnement GPS à quelques centimètres près,
ni même une compréhension du magnétisme (qui est un effet relativiste d'un
champ électrique sur des charges en mouvement)…

On peut multiplier ce genre d'exemples. Or le déterminisme traditionnel suppose un


espace homogène et isotrope sans courbure. Il suppose aussi un temps absolu, le
même pour tous les observateurs, fixes ou en mouvement, champ gravitationnel ou
pas. Ce déterminisme est celui des lois de Newton [103] [110] et de la philosophie de
Kant ; il convient pour la plupart des phénomènes de la vie courante, mais doit être
étendu pour avoir de la précision dès que les vitesses, les accélérations ou les champs
de gravitation exercent une influence mesurable, c'est-à-dire dès que la Relativité
s'impose.

L'extension du déterminisme imposée par la Relativité traduit le fait que la causalité


elle-même est extrêmement différente de celle dont on a l'habitude, selon la manière
dont la distance physique entre deux événements se compare au temps mis par la
lumière à la parcourir : l'explication, simple à comprendre, est donnée plus bas.
Les notions de temps, de longueur, de masse, de plus court chemin (qui n'est une
ligne droite que dans un espace à courbure nulle, espace qui suppose l'absence de
champ gravitationnel) sont relatives, pas absolues. Contrairement à l'intuition et au
déterminisme traditionnel, les mesures correspondantes changent avec le lieu et la
gravité qui y règne, ainsi qu'avec le déplacement relatif de l'observateur.

3.5.13.1 Relativité et irréversibilité


Nous avons d'innombrables preuves, factuelles et incontestables, de l'existence de
phénomènes irréversibles, dont la Relativité ne remet pas en cause l'irréversibilité.
Exemple : la décomposition radioactive d'un atome, dont la Relativité peut mettre en
cause (pour les préciser) la position et l'instant, mais pas le fait qu'une fois décomposé
l'atome ne se reconstitue jamais.

Concernant une éventuelle relation entre Relativité et irréversibilité, voici ce qu'on lit
dans [26] page 193 :
"…la révolution associée à la relativité n'affecte pas nos conclusions
précédentes. L'irréversibilité, le flux du temps, conserve sa signification dans la
cosmologie relativiste. On pourrait même soutenir que l'irréversibilité joue un rôle
d'autant plus important que nous allons vers des énergies plus élevées, c'est-à-
dire vers les premiers moments de l'Univers."

3.5.13.2 Particules virtuelles. Electrodynamique quantique


La Mécanique quantique est non relativiste, en ce sens qu'elle suppose que la
gravitation et la vitesse relative n'ont pas d'effet sur les masses, que les particules ne
peuvent être ni créées ni détruites et que leurs vitesses restent suffisamment faibles
pour que l'espace et le temps ne soient pas relativistes. Pour lever cette hypothèse,
on a créé l'électrodynamique quantique.

280
L'électrodynamique quantique fait la synthèse de la Mécanique quantique, de la
Relativité Restreinte et des équations de Maxwell de l'électrodynamique classique
[123]. Cette théorie décrit mathématiquement les interactions [18] des particules
chargées électriquement (électron, proton…) avec un champ électromagnétique et
avec d'autres particules chargées.

L'électrodynamique quantique constitue une des vérifications les plus précises des
postulats et méthodes mathématiques de la Mécanique quantique. Elle a été vérifiée
avec une précision extraordinaire dans de nombreuses expériences, par exemple en
fournissant la valeur du moment magnétique d'un électron avec une précision relative
de 10-8 [104]. Cette précision est celle qu'aurait une mesure de la distance Paris-New
York à quelques centimètres près !

Non seulement cette précision est une caractéristique intéressante du déterminisme


étendu en matière de physique quantique, mais l'électrodynamique quantique met en
lumière aussi d'autres aspects de la physique quantique. Ainsi, par exemple,
l'interaction entre deux particules chargées se fait par échange de « photons virtuels »,
chacun représentant un quantum d'énergie. Ces photons [117] sont virtuels car il
n'existe aucun moyen de les capturer pour les voir. Ils se manifestent en agissant
comme des forces quantifiées qui transmettent leur énergie entre deux particules
mobiles en interaction, et dont le vecteur vitesse change de direction et de grandeur
lorsqu'elles émettent ou absorbent un tel photon. Ainsi donc, une force peut agir entre
deux particules, par exemple lors d'un choc, en transmettant un quantum d'énergie ou
plusieurs, et cette action est parfaitement déterministe dans le cadre d'un
déterminisme étendu prenant en compte des discontinuités quantifiées.

Autre ajout à la Mécanique quantique, l'électrodynamique quantique introduit, pour


chaque particule, une antiparticule de même masse et même spin, mais avec des
propriétés de charge électrique, moment magnétique et saveur opposées : le positon
correspond ainsi à l'électron, l'antiproton au proton, etc. Une particule qui rencontre
son antiparticule peut s'annihiler avec elle en libérant une énergie égale à la masse
disparue, conformément à la Relativité (ΔE = Δmc2). Inversement, un photon d'énergie
électromagnétique peut parfois se transformer en matière, par exemple en une paire
électron-positon. Enfin, un électron et un positon peuvent s'associer en un atome
appelé positronium, où le positon constitue le « noyau » autour duquel tourne
l'électron.

Mais, hélas, l'électrodynamique quantique est une science inachevée. Il y a des cas
où elle prédit des valeurs infinies, physiquement inacceptables. Ce problème a été
résolu dans des cas particuliers par une méthode appelée renormalisation, qui
consiste à prendre en compte l'interaction d'une particule chargée avec son propre
champ électromagnétique et à utiliser certaines astuces mathématiques. Le problème
de fond est que, malgré les succès et la précision de la partie achevée de cette
science, il reste des phénomènes inexpliqués sur lesquels les théoriciens travaillent,
notamment une théorie quantique de la gravitation.

3.5.14 Attitude face au déterminisme


Nous avons vu depuis le début de ce texte à quel point le déterminisme scientifique
traditionnel doit nécessairement être étendu lorsqu'il s'agit de physique, et à quel point
il peut alors nous surprendre. Souvent, les raisonnements imposés par le

281
déterminisme étendu contredisent notre intuition ou nous obligent à comprendre le
monde à travers des équations ; souvent ils permettent plusieurs conséquences à
partir d'une cause unique, voire plusieurs conséquences distinctes existant
simultanément en superposition ; certains phénomènes sont réversibles, d'autres
non ; certains ont des modèles permettant l'inversion du sens du temps ; si on refuse
l'interprétation de Hugh Everett la décohérence fait intervenir une probabilité, et il y a
des indéterminations, des instabilités et des précisions limitées. Enfin, parce que notre
connaissance a tant de lacunes, et parce que dans le domaine du vivant la pensée
n'est que partiellement déterministe, certains phénomènes sont inexplicables. La
discussion de certaines extensions du déterminisme traditionnel nécessaires pour
prendre en compte les avancées de la science est résumée ci-dessous. Voir aussi le
résumé des cas d'imprédictibilité.

On voit à présent pourquoi l'attitude honnête vis-à-vis des faits scientifiques


représentée par le déterminisme étendu dérange, en nous obligeant à remettre en
cause ce que nous croyons savoir, et en éloignant souvent notre représentation de la
réalité de ce que nos sens nous permettent d'appréhender et d'accepter intuitivement.

Cette conclusion s'applique au déterminisme des sciences physiques, le seul que nous
ayons approfondi jusqu'ici. Mais une certaine forme de déterminisme régit aussi les
sciences de la vie et des sciences sociétales comme l'économie. Comme il s'agit de
sciences moins exactes, où les situations plus complexes mettent en jeu plus de
niveaux d'abstraction, plus d'interactions, plus de variables à chaque niveau et plus
d'imprécision pour chaque variable, et où les conclusions sont donc moins nettes et la
causalité elle-même plus floue, nous pouvons nous attendre à trouver ci-dessous
d'autres types de déterminisme.

Dans notre quête d'une meilleure compréhension du déterminisme, nous verrons


d'abord qu'on peut formuler des recommandations sur l'attitude à adopter face au
déterminisme étendu. Ces recommandations concluront cette première partie,
consacrée au déterminisme en physique. Après quelques réflexions sur les niveaux
d'abstraction, nous aborderons le déterminisme du vivant puis celui de la société
humaine.

3.5.14.1 Conséquences des lois de la nature sur le déterminisme

3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique


La Mécanique quantique, conçue à l'origine en tant qu'outil mathématique pour
modéliser les phénomènes de la physique à l'échelle atomique, est valable même à
l'échelle macroscopique (exemple de système de 144 km de long : [10]). A cette
échelle-là, les différences d'énergie entre états voisins sont minimes, du fait de la
petitesse de h et du quantum d'échange d'énergie par photon interposé h, ce qui fait
paraître continus la plupart des phénomènes.

En outre, à l'échelle macroscopique où les masses sont des millions ou des milliards
de fois plus importantes que la masse d'une particule atomique, les longueurs d'onde
de de Broglie  = h/mv et de Compton  = h/mc sont si petites que l'indétermination
sur les positions, vitesses, durées et énergies disparaît au profit du comportement
précis qui en est la limite, et que les fluctuations quantiques sont négligeables. Les lois
de Mécanique quantique sont valables aussi au niveau macroscopique, comme le

282
montre [313] et l'interprétation Multivers de Hugh Everett qui élimine le phénomène
non déterministe de décohérence ; elles sont remplacées par les lois de la physique
macroscopique qui s'en déduisent (voir le principe de correspondance).
Il ne faut donc pas invoquer les fluctuations quantiques ou le principe d'incertitude
de Heisenberg pour expliquer que des neurones puissent s'exciter de manière
aléatoire, puis en déduire le caractère imprévisible de la pensée humaine et son
libre arbitre : à l'échelle d'un neurone, les phénomènes quantiques sont si petits
qu'ils sont négligeables. L'imprévisibilité de la pensée vient d'abord de
l'intervention de l'inconscient [353], ensuite de la complexité des situations de la
vie. Il est regrettable, par exemple, qu'un physicien se soit ridiculisé et ait abusé
de la crédibilité de certains en affirmant que la physique quantique confirme la
mystique orientale [175] !

Si on refuse l'interprétation de Hugh Everett, la Mécanique quantique a un problème


systématique de validité à l'échelle macroscopique, où des états superposés ne
peuvent exister, alors qu'ils le peuvent à l'échelle atomique tant qu'une mesure - ou le
temps (très court) qui passe - n'en a pas choisi un en éliminant les autres. A l'heure
actuelle, le comportement des mesures, qui ne retiennent à chaque fois qu'une
possibilité avec une certaine probabilité parmi les éléments d'un ensemble prédéfini,
est postulé par les axiomes 3 et 4 de la Mécanique quantique.
Ce choix arbitraire est légitimé à l'échelle atomique par d'innombrables
expériences et prévisions, mais seulement à cette échelle-là. La théorie qui explique
l'absence d'états superposés à l'échelle macroscopique est celle de Hugh Everett. Il y
a des expériences qui constatent le temps très court nécessaire à notre échelle pour
réduire la superposition à un état unique, soit par décohérence due au jeu naturel
d'interactions entre le système et son environnement [1], soit par basculement de
l'univers de l'expérimentateur dans l'état unique qu'il constate en fin d'expérience.

L'absence d'états superposés à l'échelle macroscopique ne nous permet cependant


pas de remettre en cause l'équation d'évolution fondamentale de Schrödinger,
déterministe au sens scientifique traditionnel. Nous pouvons simplement postuler,
conformément aux expériences comme [1], que la décohérence qui affecte les
expériences où apparaissent des états superposées existe, est automatique et très
rapide. La conclusion, du point de vue déterminisme, est donc la possibilité, dans
certains cas, qu'une cause unique ait plusieurs conséquences possibles, dont après
un certain temps une seule se réalisera ou sera constatée à notre échelle. Voir aussi
l'interprétation arborescente du déterminisme de Hugh Everett.

Nous n'avons pas (en tout cas pas encore) de théorie satisfaisante pour prédire
combien de temps s'écoulera avant une décohérence ou un basculement d'univers :
nous ignorons où est située la frontière entre physique macroscopique et physique
quantique - s'il y en a une, nous avons seulement des exemples comme [1] et [10].

Nous savons aussi qu'à l'échelle macroscopique certains phénomènes ou


comportements observés à l'échelle atomique sont négligeables ou de durée trop
faible pour être observables [117] ; les équations et outils de la Mécanique quantique
peuvent alors être remplacés par ceux de la physique macroscopique, établis
directement ou qui s'en déduisent par passage à la limite, mais sont bien plus pratiques
à utiliser.

283
Exemple d'équivalence de loi de physique macroscopique et de théorèmes de
Mécanique quantique : dans sa thèse de 1942, le physicien prix Nobel Feynman
a montré l'équivalence du principe macroscopique de moindre action [62],
parfaitement déterministe au sens classique, et des théorèmes probabilistes sur
les fonctions d'onde de Mécanique quantique.

Principes de correspondance et de complémentarité


Il y a, entre les lois de la Mécanique quantique et les lois de la physique classique
(macroscopique) qui s'en déduisent, un principe de compatibilité appelé « principe de
correspondance ». Selon ce principe, lorsque le système considéré est assez grand
pour que les effets quantiques soient négligeables, les prédictions de la Mécanique
quantique doivent être les mêmes que celles de la physique classique pour toutes les
variables mesurables (appelées « observables ») de la Mécanique quantique qui ont
un équivalent limite en physique classique. La continuité de passage entre Mécanique
quantique et mécanique classique est due à l'élimination progressive des imprécisions
probabilistes de la Mécanique quantique par l'effet du nombre de particules prises en
compte, leurs variations se compensant de mieux en mieux.

Ce principe de correspondance est une conséquence :


 De l'uniformité de la nature ;
 Du fait que la nature ignore le concept d'échelle, abstraction humaine utilisée
pour représenter et comprendre les phénomènes.

Il y a aussi des règles mathématiques permettant de passer d'équations de la physique


classique à des équations à opérateurs non commutatifs de la Mécanique quantique.

Remarques
 L'existence du principe de correspondance n'interdit pas que certains
phénomènes n'apparaissent qu'en physique quantique. Cela n'a rien d'étonnant :
lorsqu'on regarde un objet au microscope, certains détails n'apparaissent qu'au-
delà d'un grossissement minimum ; en deçà, ils existent mais sont négligeables.
Exemple : la longueur d'onde de de Broglie  = h/mv devient trop petite pour que
son existence compte dès que la quantité de mouvement mv est celle de
quelques milliers d'atomes en mouvement.
 Il y a des limites de précision en physique quantique sous des formes comme la
largeur d'un paquet d'ondes et la longueur d'onde de Compton, qui imposent un
caractère flou à certaines variables. Il y en a aussi en physique macroscopique,
par exemple en optique sous la forme du pouvoir séparateur d'un instrument
[211].

Le principe de correspondance est complété par le principe de complémentarité,


découvert en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes
comme les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon
l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un
comportement corpusculaire et un comportement ondulatoire, ces deux
comportements s'excluant mutuellement et constituant des descriptions
complémentaires des phénomènes auxquels ils s'appliquent.

284
Sensibilité de requins, raies et autres chondrichthyens aux champs électriques
Les comptes-rendus de recherches [234] montrent que certains poissons du groupe
des chondrichthyens ont un organe sensoriel permettant de détecter d'éventuelles
proies grâce au champ électrique émis par leurs cellules dans l'eau de mer. Cet organe
fonctionne même dans l'eau boueuse et dans l'obscurité. Sa sensibilité est
extraordinaire, puisque les chercheurs ont prouvé qu'il réagit parfois à des champs
d'environ 1 microvolt/mètre, et à des champs de moins de 1 microvolt/cm qui durent
au moins 2 millisecondes. Cette sensibilité est si considérable que nos appareils
électroniques modernes peinent à l'égaler. Le champ électrique détectable par ces
poissons équivaut à celui d'une pile de 4.5 volts dont un pôle tremperait dans l'océan
Atlantique en France et l'autre aux Etats-Unis.

Réponse d'une rétine à un photon unique


Les expériences citées dans [139] montrent qu'un seul photon de lumière visible, avec
son énergie incroyablement faible, suffit à provoquer une réponse rétinienne chez un
crapaud ou un homme. Le courant électrique correspondant à l'influx nerveux est de
l'ordre de 1 picoampère (1 pA = 10-12 A), suffisant pour que l'animal ou l'homme ait
conscience d'avoir vu l'éclair lumineux. De temps en temps, chez l'homme,
l'information n'est pas transmise par la rétine parce qu'un seuil empêche la prise de
conscience de la lumière d'un photon unique, qui pourrait être due à un « bruit », mais
à partir de 7 photons environ la transmission est systématique.

Ces expériences montrent que parfois un phénomène d'énergie minuscule, relevant


de la physique quantique, peut être amplifié par un mécanisme physiologique jusqu'à
une échelle macroscopique permettant sa prise en compte par un être vivant. On peut
aussi rappeler l'existence de dispositifs artificiels permettant de détecter des lumières
très faibles : les grands télescopes munis de cellules photoélectriques peuvent donner
des images de galaxies qui voyagent depuis plus de 13 milliards d'années-lumière,
bien que l'énergie électromagnétique reçue diminue comme le carré de la distance.

Conclusion
D'une part, la Mécanique quantique est valable même pour des systèmes grands et
complexes ; d'autre part, la nature amplifie certains phénomènes à l'échelle atomique
jusqu'au niveau macroscopique.

Conséquence philosophique : le déterminisme étendu de la Mécanique quantique


s'applique également aux processus à l'échelle humaine. Nous en avons vu un
exemple : les « accidents » de réplication du génome (simples choix de solutions de
faible probabilité dans la création de liaisons moléculaires) produisent de temps en
temps des espèces vivantes nouvelles, qui perdurent lorsqu'elles s'avèrent viables
dans leur environnement. Nous en avons aussi une explication, pour le seul cas où le
hasard semblait intervenir dans le choix d'une solution dans une superposition,
l'interprétation Multivers de Hugh Everett.

3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées


L'expérience de séparabilité relatée dans [10] a une conséquence importante en
matière de déterminisme étendu : l'abolition possible des distances et des durées dans
certaines circonstances.

285
En effet, le devenir de deux photons intriqués A et B, produits ensemble et décrits par
un état quantique commun, est déterminé en commun, en ce sens que ce qui arrive à
l'un ne peut pas ne pas retentir sur l'autre, quelle que soit sa distance : la conséquence
d'une mesure du photon A (mesure qui le détruit obligatoirement par absorption) est
propagée instantanément au photon B, à une vitesse infinie - donc plus rapide que
celle de la lumière. On peut interpréter cela comme le fait que les deux photons
intriqués distants forment un système global (il y a non-séparabilité), parce qu'ils ont
et conservent un état quantique commun ; en cas de non-séparabilité, tout se passe
comme si le déterminisme agissait à distance en un temps nul et avec un transfert
d'énergie nul.
L'action déterministe à distance par non-séparabilité ne propage pas, non plus,
d'information : elle ne peut servir à transmettre instantanément un message ; la
corrélation préservée se constate seulement après coup.

Sachant que dans une des expériences [10] la distance entre les photons A et B a été
de 144 km, chacun est en droit d'être stupéfait et de se sentir obligé de remettre en
question quelques-unes de ses représentations mentales du monde et de ses lois…

La non-séparabilité est une conséquence de l'absence de variables cachées, c'est-à-


dire du fait que l'état quantique d'un système décrit tout ce qu'on peut en savoir ; et
quand un système de particules fait un tout son unité n'est pas détruite par sa
déformation, mais seulement par une action irréversible sur l'une des particules.

3.5.14.1.3 Multiplicité des conséquences possibles

Cas de la nature
Une situation de départ donnée ("cause", représentée par son vecteur d'état en
Mécanique quantique ou un point dans son espace des phases) peut produire une,
plusieurs, ou une infinité de situations à l'arrivée ("conséquences") ; celles-ci sont
équiprobables ou non, et une seule est ensuite choisie au hasard, immédiatement ou
non. Ce phénomène bien connu à l'échelle atomique existe aussi à l'échelle
macroscopique (existence d'attracteurs et convergence d'états vers eux).

En suggérant une unicité avant ou après une évolution, les termes « situation » et
« état » d'un système sont trompeurs. La multiplicité des conséquences doit aussi être
interprétée pour un système comme une pluralité des comportements possibles, entre
lesquels la nature opère un choix, immédiatement ou non. Le rôle du hasard
probabiliste est réduit au choix d'un état final dans l'ensemble de ceux que les
équations déterministes rendent possibles (et qu'on appelle en Mécanique quantique
"valeurs propres" de l'opérateur qui les représente [278]). Et si on admet l'interprétation
multiunivers de Hugh Everett, il n'y a jamais ni hasard ni décohérence : chaque
expérimentateur perçoit un seul système en fin d'expérience, le même qu'au début.

Exemples de pluralité de comportements possibles :


 convergence vers des attracteurs multiples, notamment lorsque des espèces
vivantes apparaissent en tant que descendantes d'autres espèces ;
 existence d'états cohérents multiples superposés.

286
Cas de l'homme : le libre arbitre
Il est impossible de distinguer entre une liberté transcendante à la disposition de Dieu
ou de l'homme (c'est-à-dire affranchie du déterminisme des lois de la nature), et le
choix sous influence d'un homme soumis à la réalité matérialiste et déterministe du
monde (sujet développé plus bas), notamment par l'intermédiaire de son inconscient.
Face à des choix multiples, si un homme a l'impression d'être libre malgré l'influence
de son inconscient [353], on ne peut lui prouver qu'il a tort ; même conclusion s'il a
l'impression d'être esclave de contraintes externes ou d'une volonté divine.
L'affirmation par les idéalistes « l'homme a un libre arbitre » suppose qu'il a un
esprit transcendant, immatériel et indépendant des lois physiques. Elle est comme
l'affirmation « Dieu existe » : infalsifiable [203], inutilisable rationnellement.

3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final


L'état résultant d'une évolution déterministe peut être imprévisible ou imprécis, par
exemple du fait :
 De l'existence pour chaque variable mesurée (appelée observable, opérateur
auto-adjoint) d'un ensemble prédéfini de valeurs possibles (les valeurs propres
de l'observable [278]) entre lesquelles la nature fait un choix probabiliste ;
 De la multiplicité des solutions probabilistes des équations d'évolution de
Schrödinger, qui ont pour résultat des paquets d'ondes à l'origine d'imprécisions
sur des positions, des vitesses, etc. ;
 D'une sensibilité aux conditions initiales (exemples) ;
 Du franchissement par un paramètre d'une valeur critique entraînant un
changement de loi d'évolution par bifurcation dans l'espace des phases.

Voir :
 Définition par rencontre de chaînes de causalité indépendantes - Hasard par
ignorance.
 "Résumé des cas d'imprédictibilité" en fin de texte.

3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus


Nous avons vu sur plusieurs exemples que le déterminisme peut agir à une échelle
locale ou globale ; toute prédiction basée sur le déterminisme doit donc tenir compte
de l'échelle à prendre en compte. (Rappel : la notion même d'échelle est une
abstraction humaine.)
Mais une difficulté apparaît pour appliquer les lois qui régissent le phénomène pris
en compte : il est souvent difficile et hasardeux de définir les circonstances constituant
la situation de départ et le processus d'évolution du système, circonstances qui influent
sur le choix de la loi d'évolution ou ses paramètres.

Exemple : les lois de la thermodynamique s'appliquent à un phénomène global prenant


en compte les milliards de molécules du gaz d'un cylindre, fermé par un piston, qui
peut échanger avec l'extérieur de la chaleur et du travail lors d'une compression par
déplacement du piston. Selon l'évolution qu'on prend en compte du fait de la
connaissance qu'on a du système et de ses échanges, on appliquera, par exemple,
une loi adiabatique (sans échange de chaleur) ou une loi isotherme (à température
constante), et l'évolution résultante prévue ne sera pas la même.

287
3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité
Il est souvent impossible, en pratique, de remonter d'un état final à un état initial
comme le voudrait le déterminisme philosophique, par exemple pour la trajectoire
d'une molécule de gaz dans un récipient. Et l'irréversibilité est une autre cause
d'existence d'une flèche du temps.

En outre, il est souvent impossible, lorsqu'un phénomène paraît aléatoire comme celui
de l'exemple xn+1 = 4xn(1-xn) ci-dessus, de l'attribuer à une loi permettant des
prédictions, faute de pouvoir la deviner ou la déduire d'un raisonnement.

Par manque d'informations il est en général impossible, en pratique, à partir d'une


situation constatée, de reconstituer en pensée la situation dont elle est la conséquence
et l'évolution qui s'est produite. On connaît certains paramètres et certaines règles de
transformation, mais pas assez pour comprendre ce qui s'est passé et pouvoir, à
l'avenir, prédire les conséquences de causes similaires.

Dans son besoin inné de sens qui fait qu'il a horreur des incertitudes et du hasard (qui
l'inquiètent), l'homme a alors tendance à inventer une explication des évolutions et des
situations qu'il ne comprend pas. Il les attribue parfois à la volonté de Dieu, parfois à
une liberté prêtée à la nature d'agir sans cause ou sans respecter de loi, parfois au
libre arbitre de l'homme considéré comme non déterministe, etc. C'est ainsi, par
exemple, que naissent les idées préconçues et les superstitions.
L'exemple de la polémique à propos de l'évolution des espèces illustre cette
attitude : il y a encore de nos jours des millions de personnes qui nient
l'évolutionnisme darwinien et croient au créationnisme ; heureusement, le pape
Benoît XVI a reconnu le caractère scientifique de l'évolutionnisme, réservant le
rôle de Dieu à la création initiale du monde.

3.5.14.1.7 Irréversibilité
La radioactivité naturelle est un exemple de phénomène intrinsèquement irréversible,
contredisant par là le déterminisme philosophique. Il est pourtant inéluctable et
présente toutes les caractéristiques du déterminisme étendu :
 C'est un phénomène prévisible à l'échelle globale d'un ensemble d'atomes ;
 Condition nécessaire et suffisante : l'instabilité énergétique du noyau de chaque
atome, due à l'application des lois de la Mécanique quantique ;
 Stabilité de la loi : le phénomène de radioactivité d'un élément de la classification
périodique (type d'atomes) est le même partout et à tout moment.

Le déterminisme philosophique est faux, et le déterminisme scientifique traditionnel


doit tenir compte de l'irréversibilité de certains phénomènes.

Irréversibilité en Mécanique quantique et dans les systèmes macroscopiques


Nous avons déjà signalé qu'en physique quantique toute mesure est irréversible ; elle
augmente l'entropie [25] du système mesuré. Il y a là une contradiction, puisque
l'approche même de la Mécanique quantique, basée sur son équation fondamentale
d'évolution déterministe, ne laisse aucune place à l'irréversibilité de la décohérence ;
l'équation de Schrödinger est valable du début à la fin d'une expérience, à condition
d'inclure dans le système observé l'expérimentateur et ses instruments (Hugh Everett).

288
Dans [26], Ilya Prigogine a étudié l'irréversibilité en faisant appel à la théorie des
résonances d'Henri Poincaré et une extension de la Mécanique quantique basée sur
des statistiques d'état. Ce sujet est trop difficile pour être abordé dans ce texte, mais
ces travaux imposent une conclusion : l'irréversibilité donne au déterminisme une
définition et un comportement particulièrement complexes et non intuitifs, qui
handicapent les raisonnements scientifiques au point de les mettre souvent hors de
portée des non-spécialistes. Nous avons vu, par exemple, qu'il peut y avoir auto-
organisation à l'échelle macroscopique, avec un choix imprévisible de structure.

3.5.14.1.8 Relativité
Nous avons vu ci-dessus et expliquerons plus en détail plus bas que la causalité à la
base du déterminisme traditionnel est fortement affectée par la Relativité ; sans
l'extension correspondante du déterminisme, certains raisonnements pourraient être
faux. Il est nécessaire que le déterminisme de l'équation de Schrödinger, équation
fondamentale de la Mécanique quantique, soit complété par une théorie relativiste
faisant intervenir la gravitation, nous l'avons déjà signalé.

3.5.14.1.9 Matérialisme et déterminisme des lois du vivant


En plus de leur besoin psychologique de sens, beaucoup de personnes ne peuvent
accepter l'idée que leur corps est une machine soumise au déterminisme matérialiste,
idée qui suppose aussi que leur pensée n'est pas libre mais esclave des contraintes
de l'environnement et des mécanismes psychiques (notamment l'inconscient [353]),
eux-mêmes soumis aux lois de la biologie moléculaire, elles-mêmes déduites des lois
physiques. Elles font un blocage psychologique sur ce point et souffriraient beaucoup
d'une éventuelle preuve qu'ils se trompent.

Nous verrons plus bas en analysant le déterminisme des êtres vivants que leurs
mécanismes physiologiques ne peuvent être modélisés à partir des seules lois
physiques, comme certains matérialistes le proposent du fait de leurs connaissances
scientifiques dépassées ; un modèle correct est plutôt de type informatique, où une
hiérarchie de logiciel (construite au-dessus des mécanismes cellulaires interprétant le
génome et prenant en compte les interactions entre processus) pilote le matériel
cellulaire pour régir les comportements du vivant, avec ses fonctions d'alimentation,
de mouvement, d'acquisition d'expérience, de reproduction, de pensée et d'adaptation
permanente à l'environnement [51]. La nécessité d'un tel modèle résulte du fait que
« Le tout est plus riche que la somme des parties ».

De leur côté, certains mécanismes de la pensée qui sont conscients et logiques sont
déterministes, alors que les mécanismes inconscients [353] ne sont ni modélisables ni
prévisibles, sinon en grandes lignes.

3.5.14.2 Attitude recommandée face au déterminisme


Rappelons d'abord nos objectifs. Le déterminisme sert à chacun de nous à
comprendre le monde qui l'entoure - et dans les cas très simples à se comprendre lui-
même [339] - puis à prévoir l'évolution des situations pour décider ce qu'il va faire. La
compréhension et son expression sous forme de lois, doivent :
 Respecter les faits objectifs connus dans le cadre d'une attitude scientifique ;

289
 N'être considérées comme dignes de confiance (c'est-à-dire vraies) qu'après
avoir été soumises à des tentatives de contradiction avec des faits réels ou
imaginaires mais en tout cas plausibles, et après avoir été approuvées par la
communauté scientifique, notamment après vérification expérimentale.

Une décision basée sur ces faits et lois doit être conforme à la logique, dans la mesure
où les éventuelles connaissances insuffisantes et incertitudes le permettent ; quand
c'est nécessaire, ses hypothèses doivent être assorties de mises en garde ou de
probabilités.

Nous avons vu qu'il y a en physique beaucoup de lois surprenantes, et les domaines


du vivant et du sociétal nous surprendront encore plus et nous conduiront à étendre
encore davantage la définition du déterminisme. Une première recommandation à
chacun de nous, après celle (évidente) d'une pensée objective, logique et sans
émotion, est donc d'avoir la meilleure culture générale possible en matière de sciences
exactes, ainsi que de sciences de l'homme et de la société. C'est tout aussi évident,
même si c'est plus facile à recommander qu'à faire, et si les hommes ne seront jamais
égaux face à la connaissance et à l'aptitude à réfléchir. Et comme nul ne peut savoir
seul tout ce qu'il faut, il doit faire l'effort de chercher l'information, de communiquer
avec d'autres et de travailler en équipe.

La France souffre d'une baisse constante du niveau de connaissances dispensé par


l'enseignement primaire et secondaire [177], et d'une dévalorisation du savoir dans la
société.

3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français


En discutant du sujet et des idées de cet ouvrage avec trois philosophes français
connus du grand public, j'ai été surpris de découvrir que leur culture littéraire
considérable était associée à un manque regrettable d'entraînement dans l'art de
penser de manière logique et rigoureuse. Ces personnes extrêmement intelligentes
raisonnaient pour l'essentiel par intuition. Souvent, après avoir trouvé une première
réponse intuitive à un problème posé, ils essayaient de la justifier à l'aide d'analogies
ou d'arguments d'autorité (références à l'opinion de personnages respectés), mais en
faisant assez peu appel à la déduction logique. La plupart du temps, ils violaient le
premier précepte de Descartes [4] en tenant pour vraie une proposition qui n'était
qu'une intuition non démontrée et non contredite [316] ; et ils violaient ce cinquième
précepte que je suggère d'ajouter aux quatre de Descartes :

"Ne rien tenir pour faux ou impossible qui ne le soit démontré".

Penser avec rigueur et logique demande un entraînement comme celui qu'on obtient
par la pratique des mathématiques ou du développement de logiciel informatique. Une
telle pensée ne nie pas l'utilité de raisonnements par intuition, induction ou analogie,
elle les discipline et les rend plus sûrs. Il est impossible d'empêcher son esprit d'avoir
des idées, mais avec un peu d'entraînement on peut s'habituer à soumettre chacune
au moins à des tests de plausibilité et d'exhaustivité des hypothèses. Il y a aussi le

290
problème du respect des lecteurs et de l'opinion qu'ils peuvent se forger sur un auteur :
un seul niveau de qualité est acceptable pour un auteur sérieux, le meilleur possible.

Enfin, j'ai constaté que ces philosophes étaient assez sûrs de la rigueur de leur pensée
pour oublier souvent de prendre en compte des connaissances et des lois physiques
dont ils n'avaient pas entendu parler : victimes du syndrome de Kahneman "What You
See Is All There Is" ils raisonnaient alors faux [316].

Exemples de manque de rigueur


 Un philosophe a critiqué le fait que mon travail, très marqué par le matérialisme,
ne laissait pas assez de place au scepticisme, par exemple en refusant de
réfléchir à des Univers externes et à la période qui a précédé l'inflation et le Big
Bang. J'ai dû lui faire observer qu'il s'agissait là de pures spéculations, qui ne
pouvaient apporter quoi que ce soit à une réflexion rigoureuse.
 Un autre philosophe a refusé de continuer à discuter avec moi lorsqu'il a appris
que je n'étais pas, comme lui, partisan du principe anthropique, erreur que je
dénonce plus bas.

Coopération entre philosophes et scientifiques


Enfin, je suggère aux philosophes qui veulent penser au-delà de la science -
conformément à la vocation de la philosophie, et même si cela introduit des risques
d'erreur - de travailler en équipe avec des scientifiques, chacun ouvert à l'approche
intellectuelle des autres ; c'est aussi en pensant à ces philosophes - et plus
généralement aux intellectuels - que j'ai écrit ce texte à partir de ma formation
scientifique.

3.5.14.2.2 La liberté d'esprit et d'expression


Voici une citation extraite de [209] page 80 :
"A quelles conditions enfin le progrès scientifique pourrait-il être menacé ? Etant
donné le caractère infini de notre ignorance, la science peut en droit progresser
indéfiniment. Les seules forces qui la menacent sont extérieures :
psychologiques - le manque d'imagination théorique ; méthodologiques - l'excès
d'importance accordé à la précision et à la formalisation. Surtout les conditions
sociales ont une grande importance : pour s'épanouir la science a besoin de
conditions économiques (une aisance minimale), et culturelles : les modes,
l'esprit de secte, l'excès de spécialisation, la soumission excessive à des
impératifs technologiques peuvent menacer l'esprit critique et atténuer sa
rigueur. Enfin, et par-dessus tout, l'attitude critique dépend des conditions
politiques : l'autoritarisme et les dictatures détruisent complètement la science."

Je pense aussi que le progrès de la science a toujours souffert d'un régime autoritaire,
en particulier s'il est aussi totalitaire et soumis à une idéologie officielle. Ce fut le cas
sous le régime nazi en Allemagne et le régime soviétique en URSS, régimes où les
scientifiques avaient des obligations concernant le but de leurs recherches (soumis à
la politique), le refus de résultats (la science « juive » d'Einstein, Fermi, Freud et
Husserl était niée en Allemagne nazie), le droit d'être chercheur sans être membre du
Parti et la difficulté de communiquer avec des savants étrangers (URSS), le filtrage
des accès Internet en Chine, etc.

291
La science a des retombées qui sont des instruments de prestige et de pouvoir qu'un
régime totalitaire ne peut ignorer ; c'est pourquoi en URSS les grands savants étaient
comblés d'honneurs et d'argent, tout en étant astreints à faire les recherches
approuvées par les politiciens et à nier la vérité scientifique quand elle dérangeait ces
derniers.

3.5.14.2.3 L'ouverture d'esprit


Nous avons vu, à propos de la physique, beaucoup de concepts nouveaux et de
méthodes de pensée nouvelles. Mais il y en a beaucoup d'autres, j'en cite ci-dessous
des exemples qui sont si éloignés des concepts et méthodes de pensée habituels qu'ils
obligent à remettre en question certaines habitudes mentales ; je pense d'abord aux
personnes de culture essentiellement littéraire, plus à l'aise dans l'apriori, l'intuition et
l'originalité que dans la rigueur, l'objectivité, la soumission aux faits et la
reconnaissance de l'ignorance ; je pense ensuite aux nombreuses personnes qui,
croyant savoir ce qu'est le déterminisme sans y avoir jamais réfléchi, estiment n'avoir
rien à apprendre sur ce sujet.

Conséquences scientifiques du déterminisme exigeant de l'ouverture d'esprit


Nous connaissons tous les propriétés élémentaires de la matière que sont la masse
ou la charge électrique, par exemple. Mais la physique quantique impose la prise en
compte d'autres propriétés tout aussi élémentaires et fondamentales. Exemples :
 Le spin [22], représenté par le vecteur moment cinétique d'une particule
(électron, proton, etc.). Celle-ci se comporte comme une masse tournant sur
elle-même, même si cette image intuitive du spin n'est pas conforme à la réalité
physique. Comme on pouvait s'y attendre, le spin est quantifié, il ne peut prendre
que des valeurs entières ou demi-entières multiples du quantum d'action ä.
 La saveur, caractéristique d'un quark ou d'un lepton qui mesure sa réaction aux
interactions faibles [18]. Il y a 4 saveurs : charme, étrangeté, bottom et top.
 Il y a 6 quarks : up, down, charme, étrangeté, top, bottom.
 Il y a 6 leptons : l'électron, le muon, le tau, le neutrino-électron, le neutrino-
muon et le neutrino-tau.
 La couleur, autre nombre quantique, caractéristique fondamentale des quarks et
des gluons [18], qui existe en trois types : rouge, vert et bleu (types aussi
symboliques que la couleur elle-même, que jamais personne n'a vue ou ne
verra). La couleur mesure la réaction d'une particule aux interactions fortes [18].
Les antiquarks ont des anticouleurs : antirouge, antivert et antibleu.
Les hadrons n'ont pas de couleur : on les dit « blancs ».
 L'hélicité, composante du spin le long du vecteur impulsion [20] d'une particule
qui caractérise l'asymétrie fondamentale de la matière. L'hélicité peut être à
droite lorsque la particule se déplace dans le sens de son spin, ou à gauche
lorsqu'elle se déplace dans le sens opposé. Le photon possède deux états
d'hélicité, +1 et -1, et c'est par abus de langage qu'on dit qu'il a un spin 1.

Toutes ces propriétés - et il y en a d'autres - n'apparaissent que dans les calculs, parce
qu'elles concernent des particules minuscules. On ne peut se les représenter

292
intuitivement parce qu'elles ne ressemblent à aucun concept de notre expérience
familière. Elles n'en sont pas moins réelles et impossibles à ignorer, et il faut une
certaine ouverture d'esprit pour les prendre en compte à travers des équations en
refoulant notre intuition.

L'ouverture d'esprit concerne aussi des méthodes de pensée, nous en avons vu des
exemples comme le vide plein d'énergie, la pluralité des états finaux, l'imprécision
limitant la précision, l'indétermination, les fluctuations d'énergie et la généralité des
phénomènes discontinus (vibrations, frottements...). Nous devons prendre l'habitude,
chaque fois que quelque chose ne s'explique pas par des raisonnements et un
déterminisme classiques, d'ouvrir notre esprit à des possibilités nouvelles en matière
de faits ou de méthodes de pensée. C'est pourquoi j'ai suggéré ci-dessus d'ajouter un
cinquième aux quatre préceptes de Descartes [4] :
"Ne rien tenir pour faux ou impossible qui ne le soit démontré".

Cela demande une attitude de modestie, de soumission aux faits, de reconnaissance


de ses erreurs, d'adaptation permanente des méthodes de pensée .

L'ouverture d'esprit est aussi indispensable aux chercheurs, à la fois pour rêver et
espérer des découvertes et pour accepter celles des autres [153]. Elle est aussi
nécessaire aux entrepreneurs pour espérer, risquer et investir.

Enfin, quelle joie pour un intellectuel d'apprendre quelque chose de neuf ! C'est la
même joie que celle d'un sportif dont l'effort est récompensé par la performance.

3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable
Supposons que j'affirme « un lancer de dé donne un 6 », en ajoutant que ce sera vrai
une fois sur 6, c'est-à-dire que c'est une "loi" dont la probabilité d'être exacte est 1/6.
Le problème est alors qu'il existe des cas où la loi est fausse, tous ceux où sort un
chiffre autre que 6. La loi « un lancer de dé donne un 6 » peut donc être prise en
défaut. Elle doit donc être considérée comme fausse, car une loi ne peut pas être
assortie d'une probabilité, c'est un prédicat dont les seules valeurs possibles sont
« toujours vrai » et « toujours faux ».

Si je prends en compte cette objection en formulant la loi sous la forme « un lancer de


dé donne un des six nombres de 1 à 6, chacun ayant une probabilité de sortir de 1/6 »,
la loi est toujours vraie, on ne peut la prendre en défaut. Une loi ou une théorie peut
donc donner un résultat probabiliste, mais son énoncé doit être valable dans tous les
cas, sans contre-exemple. Une loi est toujours déterministe, même avec des résultats
probabilistes, nous l'avons déjà vu.

Une loi ne peut donc pas être considérée comme valable si « elle n'a que de rares
exceptions ». La liste des éventuelles exceptions doit faire partie de son énoncé et être
exhaustive ; et pour chaque exception il faut justifier pourquoi elle ne contredit pas la
loi. Tout ensemble de résultats d'expériences dans des cas particuliers n'est que cela,
un ensemble de cas particuliers ; il ne constitue pas une loi générale, même si le
nombre de cas est élevé, car il pourrait exister un contre-exemple. Nous compléterons
cette réflexion en décrivant le rationalisme critique de Popper.

293
3.5.14.2.5 Le « principe anthropique »
Les physiciens ont remarqué des coïncidences troublantes entre diverses constantes
de l'Univers et la possibilité d'une vie terrestre (voir [242] et [136] Tegmark pages 138
et suivantes). En voici deux parmi bien d'autres (concernant l'âge de l'Univers, la
masse et la charge du proton et de l'électron, la constante de gravitation G, etc.) :
 L'astronome anglais Fred Hoyle a remarqué qu'une valeur à peine différente de
l'intensité de l'interaction nucléaire [18] aurait pratiquement réduit à néant la
génération de carbone dans les réactions de fusion stellaires, les seules dans
l'Univers à en fabriquer. Puisque sans carbone la vie telle que nous la
connaissons est inconcevable, il semble que l'interaction nucléaire ait "juste la
force de champ qu'il faut" pour que la vie apparaisse dans l'Univers.
Pour les tenants du principe anthropique, cela ne peut s'expliquer que par
l'influence de la volonté d'un Créateur, si l'on tient compte du fait qu'il y a de
nombreuses coïncidences comme celle-là.
 Le physicien prix Nobel Steven Weinberg a remarqué dans son livre [145] qu'il y
a un rapport entre la valeur de la constante cosmologique [146] et l'existence de
la vie sur la Terre. Une valeur trop élevée de cette constante (source de
gravitation négative) aurait empêché toute formation de galaxie, donc aussi la
formation du système solaire. Sa valeur connue est compatible avec la
répartition de matière observée et l'expansion de l'Univers, donc la vie terrestre.

Ces coïncidences sont si nombreuses et si troublantes que des physiciens comme


Robert Dicke ont postulé l'existence d'un « principe anthropique », selon lequel elles
ne sont pas le fruit du hasard. Ce principe postule que ces constantes ont exactement
« les bonnes valeurs » pour que la vie apparaisse et évolue vers la complexité que
nous constatons dans l'homme, sans avoir besoin de la sélection naturelle de Darwin.
Tout se passe comme si l'Univers était soumis à un déterminisme global, comme si
une volonté téléologique externe à l'Univers l'avait fait tel qu'il est, avec les lois qu'il a,
pour que la vie apparaisse et évolue en complexité jusqu'à l'homme qui l'observe
aujourd'hui. Le principe anthropique est donc une forme moderne de la « preuve »
téléologique de l'existence de Dieu, que nous avons décrite dans la première partie de
cet ouvrage.

Discussion

Le principe anthropique est-il un déterminisme divin ?


Les coïncidences de valeurs de constantes ci-dessus étant réelles, chacun est libre
de les interpréter comme il veut, notamment en postulant l'existence à l'échelle de
l'Univers d'un déterminisme de niveau supérieur à tous les autres. Ce déterminisme-
là régirait les divers déterminismes des lois physiques, comme le Principe de moindre
action de Maupertuis [62] détermine globalement un choix de trajectoire au lieu de la
détermination de proche en proche résultant du déterminisme ponctuel des lois de
Newton ; on peut aussi y voir une manifestation du dessein d'un Créateur.

Il faut rappeler le principe d'identité


Le principe d'identité [16], fait que la réalité à un instant donné est ce qu'elle est et ne
peut être autre, même si notre esprit s'en étonne, le regrette ou y trouve des
coïncidences. Considérons alors les diverses constantes et lois de l'Univers telles que

294
si l'une était un tant soit peu différente l'homme ne pourrait exister. Sachant qu'il existe,
il est impossible de trouver le moindre fait qui contredise cette existence ; si on en
trouvait un, ce serait à coup sûr une erreur ! Toutes les valeurs de constantes et lois
physiques remarquables associées par certains à l'existence de l'homme n'auraient
pu être différentes, du fait du principe d'identité. S'étonner, alors, que telle constante
ait une valeur très proche d'une limite qui rendrait la vie impossible est humain, mais
ne prouve rien car elle ne peut avoir que la valeur exacte qu'elle a.
Pour la nature, la notion de proximité d'une valeur n'a pas de sens ; à un instant
donné une grandeur physique a la valeur exacte qu'elle a. Juger qu'elle est proche
d'une autre valeur, ou qu'une différence relative d'un millionième changerait la face
du monde sont des réactions humaines sans rapport avec les lois physiques.

Des probabilités qui n'ont pas de sens


Un autre argument faux que j'ai vu en faveur du principe anthropique fait intervenir une
probabilité pour qu'une constante de l'Univers importante pour l'existence de l'homme
ait (ou n'ait pas) la valeur précise qu'elle a.

La probabilité d'une situation étant le rapport du nombre de cas favorables au nombre


de cas possibles (cas tous équiprobables), on ne peut la calculer que si l'on connaît
ces deux nombres ; par exemple, la probabilité pour qu'un lancer de dé donne un 3
est calculable, car ce cas "favorable" unique fait partie de 6 cas "possibles"
équiprobables. On calcule aussi, par exemple, une telle probabilité en Mécanique
quantique, lorsque la valeur d'une variable mesurée est une valeur propre d'un
ensemble (le spectre de l'observable [278]) qui en a un nombre fini connu, chacune
assortie d'une probabilité calculable.

Lorsque la constante considérée de l'Univers est un nombre réel, le nombre de cas


possibles est infini. La probabilité d'une valeur donnée n'a alors de sens que pour un
certain intervalle autour de cette valeur et si l'on connaît la loi de densité de probabilité
de la constante [28] ; sans cette densité de probabilité, la notion de « faible différence
entre une variable et une valeur critique » n'a pas de sens. Or je n'ai jamais vu qu'un
partisan du principe anthropique, qui s'étonne de la proximité d'une valeur de
constante avec une valeur critique pour l'existence de la vie, ait pris soin de citer la
densité de probabilité dans leur voisinage ; et je ne l'ai pas vu parce que la loi de
densité de probabilité d'une constante n'existe pas !

Ce que j'ai vu, en revanche, c'est l'argument qu'une constante « a une valeur
contingente car elle aurait pu en avoir une autre ». C'est là une spéculation pure,
puisque la constante ne peut pas, justement, avoir une valeur autre que celle qu'elle
a, du fait du principe d'identité.

Tout calcul de la probabilité pour qu'une situation qui s'est produite se soit
effectivement produite car on peut imaginer qu'elle ne se fut pas produite, est une
spéculation sans valeur lorsqu'il est impossible de connaître ou de dénombrer toutes
les évolutions qui ont fait qu'elle s'est produite et toutes celles qui auraient pu se
produire. De même, calculer la probabilité de non-survenance d'un événement du
passé qui ne s'est pas produit est absurde.

295
Le besoin de l'homme que l'Univers ait un sens conforme aux valeurs morales
Le principe anthropique a souvent été utilisé par des idéalistes, pour qui l'idée
matérialiste que l'homme est le produit d'un Univers dominé par des forces aveugles
et indifférentes est insupportable. Certains rejettent cette idée parce qu'elle ne permet
pas de justifier l'origine des valeurs morales, origine qui pour eux ne peut être que
divine parce que ces valeurs sont par essence universelles et éternelles,
conformément (par exemple) à l'enseignement de Saint Thomas d'Aquin.

Les matérialistes répondent à cette objection que les scientifiques savent aujourd'hui
– preuves ethnologiques à l'appui - que les principes de morale humains sont des
conséquences de l'évolution des sociétés humaines, qui les ont définis
progressivement siècle après siècle [154]. Ils reprochent aux idéalistes :
 d'avoir inventé le concept d'un Dieu sacré pour pouvoir Lui attribuer sans
justification les principes de morale auxquels ils tiennent et qu'ils veulent faire
respecter ;
 de ne pas expliquer pourquoi Dieu, si moral, a permis l'existence de barbares
comme Hitler, Pol Pot et Ben Laden, dont l'éthique est à l'évidence peu
conforme à celle des textes sacrés ; est-ce une erreur de Sa part, un pouvoir
insuffisant, une punition pour les autres hommes ? (Voir « Problème du mal »).

Origine de la supériorité de l'homme sur les autres êtres vivants


Pour sa part, Darwin répond aux idéalistes dans [42] page 448 en attribuant la
noblesse de la lignée humaine à son ancienneté, à qui des centaines de milliers
d'années de perfectionnements successifs ont permis de résister à la sélection
naturelle. Pour lui, la morale humaine, indissociable de sa pensée, est consubstantielle
à l'être social qu'est l'homme. Elle représente une des supériorités de son espèce, qui
ont permis sa survie et finalement sa domination. Il écrit :
"Lorsque je considère tous les êtres, non plus comme des créations spéciales,
mais comme les descendants en ligne directe de quelques êtres qui ont vécu
longtemps avant que les premières couches du système cambrien aient été
déposées, ils me paraissent anoblis. […] Or, comme la sélection naturelle n'agit
que pour le bien de chaque individu, toutes les qualités corporelles et
intellectuelles doivent tendre à progresser vers la perfection."

Chaque homme est unique


Chez un homme donné, quelques centaines de caractéristiques de sa « signature
ADN » plus ses empreintes digitales permettent d'en faire un être unique dans
l'Humanité : la moindre variation d'une de ces caractéristiques l'aurait fait autre.

On peut s'étonner de l'exigence de précision de ces paramètres, penser qu'elle ne


peut être due au hasard, voire attribuer l'existence et l'unicité de notre homme à Dieu
comme on le faisait au Moyen Age : ce raisonnement serait le même que celui des
tenants du principe anthropique. On ne le fait pas parce qu'il y a plus de 7 milliards
d'hommes, chacun avec des caractéristiques qui diffèrent au moins un peu de celles
de tout autre, chacun unique à sa façon. Pour chaque homme, si remarquablement
unique, le principe d'identité s'applique : il est comme il est, il ne pourrait être différent
que dans notre imagination ou en étant un autre homme. Notre étonnement ou

296
l'attribution de cet homme à un Dieu créateur répondent à un besoin psychologique
d'une cause et d'une volonté créatrices, mais échappent à toute rationalité.

Un principe infalsifiable
Le principe anthropique est comme l'existence de Dieu, un énoncé infalsifiable [203] ;
en vertu du rationalisme critique il n'a donc rien de scientifique. C'est donc un
émerveillement d'idéaliste et le fruit de l'imagination. On peut toujours spéculer que,
dans un autre Univers où les lois seraient différentes, l'homme n'aurait pu apparaître,
mais c'est là pure spéculation métaphysique [371] et il n'y aura jamais d'avancée
scientifique permettant de le savoir ; nous ne saurons jamais rien de scientifique
concernant un hypothétique espace extérieur à l'Univers ou l'ayant précédé.

Conclusion
Le principe anthropique est une spéculation idéaliste irrationnelle qui introduit un
déterminisme divin, finalité destinée à combattre le déterminisme matérialiste.

La recherche d'exoplanètes
On peut cependant interpréter l'existence d'un ensemble de conditions à satisfaire
pour que la vie apparaisse pour délimiter des régions, au voisinage d'autres étoiles
que le Soleil, où une vie telle que nous la connaissons serait possible. Dans une telle
région, par exemple, la température doit permettre l'existence de l'eau à l'état liquide,
l'étoile ne doit pas émettre de rayonnement mortel, etc. Sous cette forme-là (ensemble
de conditions d'une vie comme la nôtre) le principe anthropique est utile aux
astronomes qui cherchent des planètes (appelées exoplanètes) où la vie pourrait
exister.

3.6 Le déterminisme humain


Nous venons d'étudier le déterminisme étendu, défini comme réunissant le
déterminisme scientifique et le déterminisme statistique de la nature, déterminismes
régissant respectivement les lois d'évolution non probabilistes et probabilistes. Restant
dans le cadre de la contribution à la pensée rationnelle du sous-titre de cet ouvrage,
nous allons maintenant nous intéresser au déterminisme humain, ensemble de règles
plus ou moins précises et générales qui régissent la pensée humaine.

Premier point de vue sur la pensée : son caractère rationnel ou irrationnel


 La pensée rationnelle :
 A pour siège la conscience, où elle ne peut exister sans mots ; ce qui est
inexprimable avec des mots (indicible ou ineffable) est seulement ressenti,
ce n'est pas une pensée rationnelle mais une émotion, un sentiment, une
impression.
 Se déroule conformément à la logique, à l'aide de déductions basées sur
des prémisses (hypothèses) d'origine expérimentale ou abstraite.
Les règles du déterminisme de la pensée rationnelle sont celles de la logique, sur
lesquelles il n'est pas nécessaire de s'appesantir.
 La pensée irrationnelle :

297
 A pour siège la conscience lorsqu'elle manipule des mots, l'inconscient [353]
lorsqu'elle ne comprend que des images ou des émotions (indicibles ou
ineffables.
 Ne suit pas toujours les règles logiques de déduction ; sa cause est donc
parfois injustifiable ou relevant d'une analyse psychologique ;
 Raisonne parfois sur des prémisses fausses, incertaines ou incomplètes ;
 Ignore parfois un ou plusieurs principes de logique (voir aussi [99]) ;

Second point de vue sur la pensée : son caractère volontaire ou involontaire


La plupart des pensées sont involontaires, résultant par exemple de perceptions des
sens ou de jugements de valeur irréfléchis. Elles arrivent à l'esprit automatiquement,
sans qu'il puisse les empêcher ; il peut seulement y réfléchir lorsqu'il en a pris
conscience et en éprouve le besoin.

Une pensée involontaire a pour origine l'inconscient [353] du sujet ; elle n'est donc pas
nécessairement rationnelle. Pourtant, lorsqu'elle est consciente, elle paraît souvent si
prégnante que le sujet cherche à la justifier ou à vérifier sa vraisemblance.

Objectifs du texte qui suit sur le déterminisme humain


Ce texte est ce qu'on appelle un essai en littérature : il évoque certains aspects du
sujet sans l'ambition d'être exhaustif. Il décrit certaines fonctions psychiques
conscientes et certaines conditions qui les empêchent d'être rationnelles.

3.6.1 Niveaux d'abstraction et déterminisme


Le déterminisme fournit des principes pour guider la pensée lorsque celle-ci se veut
rationnelle et objective. Pour raisonner juste, il faut souvent réussir à comprendre des
choses abstraites ou complexes, et à les formuler clairement pour bien se les
représenter et les faire comprendre à autrui. Le texte qui suit présente quelques
aspects du fonctionnement de la pensée pour comprendre et représenter quelque
chose d'abstrait ou complexe, après deux définitions importantes : représentation et
concept.

3.6.1.1 Définition d'une représentation - Différences avec une essence


Le mot « représentation » a deux significations :
 Acte par lequel l'esprit du sujet se représente quelque chose (son objet) tel qu'il
est à un instant donné. C'est une mise en relation de l'objet avec une
abstraction, l'ensemble de données mentales qui le représente dans l'esprit du
sujet.
 Résultat de cet acte : l'ensemble de données mentales précédent. Cet ensemble
décrit en général l'objet d'une manière synthétique, schématique, en ne retenant
de ses propriétés que celles jugées utiles par l'inconscient [353] :
 Celles qui décrivent l'objet le plus objectivement possible, sa photographie
en quelque sorte : forme, couleur, taille, etc.
 Celles qui en décrivent la signification pour l'homme dans toute sa richesse :
une porte est "vue" avec ce qu'elle permet, un passage ; une personne
aimée est reconnue et vue avec l'émotion d'amour qu'elle suscite.

298
Si l'objet évolue (exemple : un footballeur voit le ballon qui arrive) sa
représentation évolue automatiquement, comme les photos successives d'un film.

L'esprit de l'homme ne peut accéder à un objet lui-même, il n'accède qu'à sa


représentation abstraite, dont la signification (description matérielle et sens
psychologique) devient celle de l'objet, de l'objet entier et seulement de cet objet. Pour
l'esprit, la représentation EST l'objet réel.

Construction de la représentation d'un objet


C'est l'intuition - et elle seule - qui produit une représentation mentale à partir d'un
objet. Cette intuition résulte d'une opération d'attention à l'objet, opération qui produit
les informations (données) constituant la représentation proprement dite de l'objet. La
construction de la représentation se déroule dans l'inconscient, où elle est déclenchée
automatiquement par l'attention. (Sur la conscience et l'inconscient voir [339])

Différence entre représentation et essence d'un objet


La représentation d'un objet est son image dans un esprit humain. C'est une notion
psychologique, subjective, qui peut différer d'une personne à une autre et d'un moment
à l'autre. Elle comprend aussi bien des propriétés physiques de l'objet (celles que la
personne a présentes à son esprit) qu'une signification psychologique (le sens que la
personne lui attribue avec sa dimension émotive). L'objet peut être physique ou
abstrait (exemple : représentation du gouvernement).

L'essence d'un objet est une notion philosophique objective (partageable par plusieurs
personnes). C'est l'ensemble de ses propriétés constitutives et fonctionnelles, en
quelque sorte le « cahier des charges » de sa conception considéré indépendamment
de son existence.

3.6.1.2 Définition d'un concept


Un concept est une abstraction représentant une collection d'objets nommables ayant
des propriétés communes. Les concepts sont indispensables aux raisonnements
logiques.
Exemple : concept de « chien », représentant tous les chiens par des propriétés
communes : quadrupède, mammifère descendant du loup, etc. Il est nommable :
on lui a donné le nom « chien ». L'esprit humain ne peut raisonner que sur des
idées nommables, ce qui n'est pas nommable demeurant à l'état ressenti.
 Le concept est la forme la plus élémentaire de la pensée, à distinguer de formes
plus élaborées comme le jugement.
 C'est une idée générale, une classe, un ensemble, par opposition à la
représentation, image mentale personnelle. Ex : concept de « mère ».
 Le concept est le produit d'un processus réducteur conscient de l'intelligence
comprenant comparaison, réflexion et abstraction ; il s'oppose à l'intuition et ne
doit pas être confondu avec l'essence.
 Il y a deux types de concept : empirique (déduit de l'expérience) ou pur
(transcendantal, existant a priori dans l'intelligence humaine).

299
Contrairement à une représentation qui est une « photographie à un instant donné »,
un concept est un modèle réutilisable aussi souvent et longtemps que nécessaire.
Un concept peut se comprendre de 2 façons :
 En compréhension, avec la liste de toutes les conditions nécessaires et
suffisantes que doit satisfaire un objet nommable pour faire partie de la classe
générale définie par le concept.
 En extension, avec la liste de tous les objets ayant toutes les propriétés ci-
dessus (mais aussi peut-être d'autres, considérées comme non significatives).

Construction du concept d'un objet


Le concept d'un objet (les propriétés partagées de sa classe) est construit par
l'intelligence, par comparaison, réflexion et abstraction à partir d'une ou plusieurs
représentations initiales de l'objet, dont on ne retient que les propriétés partagées.
Ces représentations initiales sont obtenues soit par intuition empirique (exemple :
une chose vue), soit à partir de concepts d'origine ; un concept ne peut provenir
directement de l'objet : il faut au moins une représentation initiale de celui-ci pour
généraliser ses propriétés. La représentation initiale peut être un « concept pur de
l'entendement » (concept dit transcendantal), que tous les hommes connaissent
intuitivement sans pouvoir les expliquer à partir d'idées plus simples, comme les
concepts de temps, d'espace et de nombre entier.

3.6.1.3 Densité et profondeur d'abstraction

Problèmes posés par la densité et le niveau d'abstractions


Supposons que je dise (forme A) :
« Comme tous les petits chats, le mien aime jouer avec une balle. Il lui donne
des coups de patte. En jouant, il s'entraîne à poursuivre des souris. »

Ce discours est clair (j'espère !). Si maintenant je dis (forme B) :


« Tous les félidés qui n'ont pas encore atteint le stade adulte utilisent des passe-
temps ludiques pour assimiler les aptitudes nécessaires à un prédateur de
rongeurs. »

Dans la forme B il y a des mots et concepts plus abstraits que ceux de la forme A :
félidés, stade adulte, ludique, prédateur et rongeurs. Chaque fois que j'utilise un mot
rare ou abstrait je prends le risque d'être incompris, pour deux raisons :
 Dans mon auditoire certaines personnes peuvent ne pas connaître un ou
plusieurs de ces mots ou concepts, ou les confondre avec d'autres ; et plus ces
mots ou concepts abstraits sont nombreux dans mon texte, plus ce risque est
élevé.
Le risque augmente non seulement avec le nombre de mots rares ou abstraits,
mais aussi et surtout avec leur densité, c'est-à-dire la proportion de ces mots dans
l'exposé.
Cette croissance de la difficulté de comprendre avec la densité d'abstractions vient
de ce que le processus de compréhension de l'esprit utilise des rapprochements
de mots ; par exemple, si je ne suis pas sûr du sens de "prédateur" mais que je
connais celui de "rongeurs", je peux deviner qu'un prédateur est un être qui

300
attrape, dévore ou maltraite des rongeurs. Donc plus la densité de termes abstraits
est élevée, plus on risque de tomber sur des associations de mots incompris ou
mal interprétés.
 Certains mots abstraits peuvent être définis, donc compris, connaissant un ou
plusieurs mots du langage courant. C'est ainsi que le mot "prédateur", qui peut
être défini avec la phrase "Animal ou plante qui se nourrit d'autres animaux ou
plantes", peut se comprendre à partir des concepts courants que sont "animal",
"plante" et "se nourrir". Nous dirons que le mot "prédateur" est une abstraction
de niveau 1.
Le mot "félidé", qui désigne un membre de la famille des mammifères carnassiers
digitigrades, nécessite pour être compris de connaître le sens de "mammifère",
"carnassier" et "digitigrade", qui sont des abstractions de niveau 1 : nous dirons
que "félidé" est une abstraction de niveau 2.
Le risque de mal comprendre une abstraction comme "félidé" est double :
 D'une part, en tant qu'abstraction d'abstraction, ce qui demande un effort
conceptuel plus grand et entraîne donc un risque d'incompréhension ou de
mauvaise interprétation plus grand.
 D'autre part, parce qu'il faut connaître trois abstractions distinctes pour le
comprendre : "mammifère", "carnassier" et "digitigrade" ; il y a un risque de
ne pas les connaître toutes les trois, et un risque de mal en interpréter au
moins une. Ce second risque est en fait de type densité d'abstraction,
puisque les trois abstractions de niveau 1 "mammifère", "carnassier" et
"digitigrade" apparaissent côte à côte dans la définition de l'abstraction de
niveau 2 "félidé".

Conseils de représentation et de communication concernant les abstractions


 Eviter les abstractions et les mots rares, ou au moins prendre soin de les définir
dès leur première apparition.
C'est ainsi que la phrase "L'épicurisme est un eudémonisme", apparue à la lecture
d'un cours de philosophie où « eudémonisme » n'est défini nulle part, pose
problème à tous ceux (dont j'étais) qui n'avaient jamais entendu parler
d'eudémonisme et lisaient le cours pour apprendre la philosophie. (Pour ne pas
que vous m'accusiez d'utiliser un mot rare et abstrait sans l'expliquer, vous
trouverez la définition de mon dictionnaire résumée dans [3].)
Lorsqu'on a besoin de réutiliser un terme abstrait dans la suite de l'exposé, on
peut faire suivre sa première apparition d'une explication. C'est ce que j'ai fait
délibérément ci-dessus en expliquant le mot eudémonisme tout de suite après
l'avoir utilisé, dans le renvoi [3]. On peut aussi (nous sommes à l'ère des textes
présentés en langage HTML !) fournir un lien hypertexte donnant accès direct
(dans le même texte ou sur Internet) à chaque définition depuis tous les endroits
où elle peut être utile.
A moins de s'adresser à des spécialistes, il faut résister à la tentation d'utiliser les
mots savants compris seulement d'eux seuls, même si ces mots sont plus précis
qu'une périphrase. Je connais des universitaires qui utilisent le maximum de mots
savants et s'expriment dans les termes les plus généraux possibles, pour qu'on
admire leurs connaissances, oubliant que le premier devoir d'un enseignant est
de se faire comprendre de ses étudiants.

301
 Diminuer au maximum la densité d'abstractions. On peut recourir à des phrases
courtes. On peut aussi insérer des définitions, des périphrases ou des exemples.
Voici un exemple de ce qu'il ne faut pas faire, attribué à un « formateur en sciences
de l'éducation » dans le blog "Bonnet d'âne" de M. Jean-Paul Brighelli [178] :
"…décontextualiser les évaluations certificatives à références critériées en
les plaçant dans un référentiel distancié que l'on doit recontextualiser dans
un cadre fonctionnel intégratif, etc. "
En voici un autre, attribué à un enfant surdoué de 11 ans qui demande à sa mère,
agrégée de mathématiques qui se découvre alors un abîme d'ignorance :
"Maman, comment peut-il se faire que le concept de déité
anthropomorphique capable de jugements de valeur humanistiques puisse
subsister à notre époque, alors que de tels postulats subjectifs auraient dû
depuis longtemps être éliminés des réflexions sérieuses des intellectuels par
la philosophie positiviste et le matérialisme dialectique ?"
 Eviter au maximum les abstractions de niveau supérieur à 1. Plus on y recourt,
plus on décourage son public, plus on risque d'être mal compris.
Un exemple de ce qu'il faut éviter nous est fourni par les textes des philosophes
Husserl ou Hegel : la densité d'abstractions y est élevée, il y a de nombreuses
abstractions de niveau deux ou plus, les phrases sont longues, les exemples
rares. Ces textes se lisent à la vitesse d'une page mal comprise à l'heure. On peut
être un très grand penseur et ne pas savoir partager sa pensée. Quelle différence
avec Aristote, Descartes ou Pascal !
 S'il ne s'agit pas d'un texte littéraire, éviter les métaphores, les sous-entendus et
le besoin pour le lecteur de lire entre les lignes. N'écrivez pas comme Nietzsche
[343]. Soyez clair et n'hésitez pas à vous appuyer sur des exemples.

Les règles ci-dessus sont résumées aux Etats-Unis par le sigle KISS :

"Keep It Simple, Stupid!"


 Donner des exemples. Un exemple permet de vérifier au moins dans un cas que
ce qu'on dit est plausible, et d'aider le lecteur à vous comprendre. Non
seulement l'homme comprend mieux un sujet abstrait ou complexe à partir d'un
exemple concret et simple, mais il comprend mieux si on expose un ou deux cas
particuliers avant le cas général : notre esprit a besoin de s'habituer à une idée
nouvelle, de la situer par rapport à des connaissances qu'il a déjà, d'en évaluer
les conséquences sur ce qu'il sait déjà ou les questions qu'il se posait.
Un exposé qui commence par une définition extrêmement générale et abstraite
submerge notre faculté de compréhension, qui ne peut rattacher ses nouveaux
concepts à des concepts déjà maîtrisés. D'où ce dernier conseil :
 Expliquer un sujet en augmentant le niveau d'abstraction progressivement, en
commençant si nécessaire par un cas particulier pris pour exemple.

Nous allons à présent utiliser ces idées.

302
3.6.1.4 Compréhension par niveaux d'abstraction
Notre esprit ne peut comprendre quelque chose de niveau de complexité élevé à partir
de notions de niveau très inférieur.

C'est ainsi que je ne peux comprendre une fonction physiologique animale comme
l'assimilation de nourriture à partir de notions de chimie organique. Voici pourquoi.

Pour comprendre l'assimilation, j'ai besoin de comprendre d'abord les processus de


niveau d'abstraction immédiatement inférieur que sont les mécanismes sous-jacents
d'hydrolyse des molécules organiques (qui transforme les nutriments sous une forme
leur permettant de traverser les membranes des épithéliums digestifs), de transport
des nutriments (glucose, acides aminés, acides gras) dans l'organisme, et de
construction des macromolécules de l'organisme conformément à son code génétique.

Le niveau d'abstraction des trois processus ci-dessus est inférieur à celui de


l'assimilation, mais encore trop élevé pour faire partie de la chimie organique. J'ai donc
aussi besoin de comprendre chacun des trois processus élémentaires de l'assimilation
à partir de notions encore moins abstraites. L'hydrolyse, par exemple, est un
processus mettant en œuvre des enzymes de la famille des hydrolases, qui réalisent
l'ouverture par l'eau de liaisons C-O ou C-N ; comprendre cela demande des
connaissances sur le rôle des hydrolases dans les processus de chimie organique
d'ouverture des liaisons…

L'exemple ci-dessus illustre l'impossibilité de sauter des niveaux d'abstraction


lorsqu'on veut comprendre quelque chose de complexe. Un niveau supérieur prend en
compte des interactions internes et externes des niveaux inférieurs, interactions qui
ne peuvent être déduites des propriétés de chacun : le tout est plus riche que la somme
des parties. Notre esprit a besoin de représentations hiérarchisées, construites avec
des processus mentaux élaborés qu'il met parfois des années à assimiler.

A chaque montée de niveau, notre esprit schématise la réalité pour la simplifier. Il


néglige ainsi des détails qui risqueraient de l'encombrer. Cette simplification peut aller
jusqu'au réductionnisme [179].
Mais il ne suffit pas de comprendre chacun des concepts de niveau N-1 qui
définissent un concept de niveau N, il faut aussi comprendre comment ces concepts
sont associés pour définir le concept de niveau supérieur ; en d'autres termes, il faut
à la fois une connaissance des composants sous-jacents du niveau N et une
compréhension de leurs relations entre eux et avec N. On reconnaît dans la démarche
ci-dessus l'approche analytique du célèbre "Discours de la méthode" de Descartes [4].

Remarques
En pratique, il ne faut pas nécessairement limiter la structure de niveaux nécessaire à
une représentation correcte à une arborescence relationnelle stricte (structure où
chaque nœud "fils" de niveau N-1 a un "père" et un seul au niveau N) ; il peut aussi
exister des branches reliant directement des niveaux comme N et N-p (où p>1) par
une sorte de raccourci. On doit aussi recourir à des représentations non
hiérarchisables, par exemple pour tenir compte de pensées nées dans l'inconscient
sans relation avec les processus psychiques conscients, pensées qui paraissent donc
transcendantes.

303
3.6.1.5 Penser par niveaux d'abstraction
Comprendre quelque chose c'est s'en créer une représentation mentale qu'on estime
satisfaisante.

Il y a là une difficulté : une compréhension satisfaisante pour un individu peut ne pas


l'être pour un autre. Certaines personnes ont une pensée peu rigoureuse en matière
d'adéquation d'une représentation avec la réalité vérifiable, d'autres sont si exigeantes
qu'elles s'attardent à préciser et vérifier trop de détails. Et certaines personnes ont
tendance à tenir pour vraies des représentations construites par leur intuition ou par
analogie qui ne satisfont guère la raison, c'est-à-dire à penser faux ; on en trouve des
exemples en interrogeant des électeurs sur les raisons de leur choix entre des
politiciens candidats et leurs programmes. Enfin, nous verrons qu'il y a des différences
entre les représentations mentales que des personnes différentes se font d'une même
réalité.

En plus de comprendre des situations ou des phénomènes, nous devons souvent


construire des concepts, des raisonnements ou des algorithmes de résolution de
problèmes [69]. Et comme dans le cas de la compréhension, notre processus de
construction doit parfois recourir à une hiérarchie de niveaux.

3.6.1.6 Introduction à la Théorie informationnelle du psychisme


Pour simplifier la représentation et la compréhension des mécanismes de la pensée
nous allons recourir à un modèle de plus en plus utilisé, la Théorie informationnelle du
psychisme ("psychisme" est défini dans [347]) ; cette théorie (en anglais : Computer
Theory of Mind) décrit les fonctions psychiques à l'aide des informations qu'elles
manipulent, comme les représentations. A titre d'introduction à ce modèle, voici
quelques rappels de notions d'informatique.

3.6.1.6.1 La machine de Turing

Rappel : que fait un ordinateur ? (sautez ce paragraphe si vous le savez bien)


Un ordinateur est une machine qui exécute des opérations d'entrées et sorties de
données, de stockage et effacement de données, de déplacement de données dans
sa mémoire, de calcul de données, de comparaison de données et de choix de
l'opération suivante à exécuter en fonction de données dans sa mémoire.

Langage machine - Ces opérations sont décrites dans un langage (c'est-à-dire des
conventions de représentation des données et opérations) que son organe de calcul
(le processeur) comprend, langage appelé « langage machine », et qu'il exécute
électroniquement. Par convention, ce langage est de niveau d'abstraction minimum,
1. Et le programme qui décrit les opérations est introduit et enregistré dans la machine
exactement comme des données. Les programmes constituent la classe du logiciel
(en anglais software), alors que les ordinateurs font partie du matériel (hardware).

Le génial mathématicien anglais Alan Turing a montré que n'importe quel


raisonnement logique à étapes, c'est-à-dire n'importe quel algorithme de décision ou
de calcul - même complexe [69] - peut être représenté par une suite d'opérations
élémentaires extrêmement simples, exécutables par un ordinateur théorique
simplissime appelé depuis "machine de Turing".

304
Description succincte du principe de la machine de Turing
La machine comprend une mémoire linéaire (exemple : ruban perforé) de longueur
infinie. Une tête de lecture-écriture accède à cette mémoire en exécutant le jeu
d'instructions personnalisable de son mécanisme de contrôle. La tête peut se déplacer
d'une position mémoire à la suivante ou la précédente pour y lire, effacer ou écrire un
caractère. Le jeu d'instructions commandant la tête constitue un programme ayant un
certain nombre d'états prédéfinis ; à tout instant, le programme est dans un de ces
états et l'instruction suivante qu'il exécute le fait passer à un autre état en tenant
compte du dernier caractère que la tête a lu sur la bande. Le résultat d'une exécution
est disponible lorsque la machine s'est arrêtée - et seulement à ce moment-là ; dans
certains cas (exemple : les propositions indécidables [6] de Gödel) le programme ne
s'arrête jamais. Compléments : [369]

3.6.1.6.2 Hiérarchie des langages de l'informatique

Rappel succinct : traduction d'un programme assembleur en langage machine


L'écriture de programmes utiles à l'homme (dits programmes d'application) en langage
machine serait trop fastidieuse ; on a donc imaginé un « langage assembleur » de
niveau 2, sorte de sténo dont chaque instruction provoque l'exécution de plusieurs
(parfois des milliers) d'instructions en langage de niveau 1. Dans un tel langage de
niveau 2, l'écriture de programmes utiles à l'homme est plus concise, simple et rapide
que dans le langage de niveau 1. Après écriture, un programme en langage de niveau
2 est traduit automatiquement en langage de niveau 1 par un logiciel spécial appelé
« compilateur », et c'est le programme traduit que l'ordinateur comprend et exécute
dans son processeur.

On a aussi imaginé des programmes spécialisés sous-traitants du programme


principal (les sous-programmes), écrits en langage de niveau 2 ou parfois de niveau
1, pour effectuer certains calculs ou prendre certaines décisions. Enfin, dans de
nombreux cas, on utilise pour gagner en concision et simplicité des langages de niveau
3, encore plus concis, écrits en langage de niveau 2 et adaptés à une application
particulière ou aux problèmes d'un métier particulier…

Les hiérarchies de langages de programmation


On voit donc comment l'informatique construit des programmes : elle utilise une
hiérarchie de langages qui élève progressivement le niveau d'abstraction depuis le
niveau « machine » exécutable par l'électronique jusqu'à celui de l'homme et de ses
applications. Grâce à Turing, nous savons que les programmes les plus complexes
peuvent être écrits en langage de niveau d'abstraction élevé adapté au programmeur,
puis traduits automatiquement dans l'ordinateur et enfin exécutés.

Remarque : un langage de niveau supérieur a des concepts plus proches de la pensée


de l'homme qu'un langage de niveau inférieur, et l'écriture des programmes y est plus
concise.

Exemple de logiciel complexe : un système d'exploitation pour PC comme Windows


comprend plus de 50 millions de lignes de langage de niveau 3 ; il a nécessité le travail
de centaines de programmeurs pendant de longues années.

305
En plus des niveaux d'abstraction de langage on peut classer les logiciels selon le
niveau technique, en allant du plus technique (le plus proche des processus
informatiques) au plus applicatif (le moins technique, mais le plus proche des
applications de l'utilisateur). Exemple de logiciel technique : un compilateur, qui traduit
un langage en un autre de niveau inférieur ; exemple de logiciel applicatif : un
programme de comptabilité ; exemple de logiciel de niveau intermédiaire : un sous-
programme de calcul de la durée en jours entre deux dates, nécessaire à des
applications comptables de niveau supérieur pour calculer des intérêts, des dates
d'échéance, etc.

Cette méthode de classement selon le niveau technique s'applique à tous les


domaines de la pensée où la complexité impose d'organiser les outils et les méthodes
par niveaux de technicité ou d'adéquation aux problèmes. Exemple : un raisonnement
d'économie (niveau applicatif élevé) utilise des méthodes statistiques (niveau applicatif
intermédiaire) qui s'appuient sur des méthodes mathématiques (niveau applicatif
faible).

Remarque : plus le niveau applicatif est élevé, plus les concepts et méthodes sont
spécialisés (par exemple en économie) ; plus le niveau technique est élevé, plus les
concepts et méthodes sont d'usage général (par exemple les mathématiques). Une
machine à café a une application spécialisée, tandis que la résistance qui y chauffe
l'eau est un objet technique d'usage plus général.

3.6.1.6.3 Penser la complexité par niveaux hiérarchiques


En informatique comme dans tout autre domaine, la construction de concepts et de
raisonnements complexes exige de passer par une hiérarchie de concepts et
raisonnements dont les niveaux vont du plus général au plus spécifique. La
construction de concepts et raisonnements complexes exige de commencer par
construire des concepts et méthodes de raisonnement de haut niveau ou de grande
généralité, qui négligent de nombreux détails. Une fois le problème résolu (en principe)
à ce niveau, on reprend un par un chacun de ses concepts et méthodes et on en
détaille le contenu, créant ainsi un niveau de complexité intermédiaire. Puis on détaille
de nouveau chaque élément de niveau intermédiaire, etc. Cette méthode analytique
est qualifiée de "descendante" (les Anglais disent "top-down") ; c'est la méthode
recommandée par Descartes dans son deuxième précepte [4].

En pratiquant cette méthode il faut essayer, à n'importe quel niveau et chaque fois que
c'est possible, d'utiliser des concepts et méthodes de raisonnement déjà connus. Non
seulement on évite ainsi de « réinventer la poudre », mais on recourt à des concepts
et méthodes éprouvés ; et en matière de logiciel, on économise de la place en mémoire
et du temps de développement.

Cette approche permet aussi d'adapter le niveau fonctionnel d'une solution à des
moyens techniques de niveau inférieur, dispensant ainsi l'utilisateur de la solution de
la prise en compte - et même de la connaissance - de détails techniques superflus.
Exemples :
 Dans un téléphone portable, des menus, pictogrammes et touches de fonction
lancent des processus parfois complexes à partir d'actions humaines simples ;

306
 Dans une voiture moderne, des ordinateurs embarqués adaptent les actions de
l'homme sur le volant et les pédales aux conditions de route, en gérant la
transmission automatique, les « freins ABS », la « suspension pilotée », les
dispositifs antidérapage basés sur des accéléromètres, etc.

3.6.1.6.4 Processus d'abstraction et de mémorisation


Les comptes-rendus de recherches [237] et surtout [339] nous apprennent que les
processus mentaux d'abstraction et de mémorisation des animaux comme l'homme et
la souris fonctionnent par niveaux hiérarchiques. Au lieu de mémoriser chaque objet
ou chaque événement de manière holiste (comme un tout sans rapport avec d'autres
objets ou événements semblables) le cerveau les mémorise sous forme hiérarchique
en réutilisant à chaque niveau le maximum d'informations déjà mémorisées.

La structure des informations en mémoire est en fait un réseau, et non une hiérarchie.
Un objet peut inclure des sous-objets, comme dans une hiérarchie, avec autant de
niveaux successifs que nécessaire. Mais un objet peut aussi appartenir à de
nombreuses hiérarchies simultanément, chacune correspondant à un critère de
relation distinct. Une maison peut ainsi contenir une chambre, qui peut contenir une
table et des chaises. Une de ces chaises peut appartenir à mes souvenirs d'hier midi,
lorsque je m'y suis assis, et l'ensemble table + chaises peut avoir en commun le prix
d'achat de cette "salle à manger" et le magasin qui me l'a vendu…

Représentations mentales
La représentation de ces hiérarchies dans le cerveau utilise des ensembles de
neurones appelés « cliques » qui travaillent de concert [251]. Certaines cliques
représentent des informations très générales comme "événement inquiétant", d'autres
des détails comme la nature du local.
C'est ainsi que, lorsqu'un homme pénètre pour la première fois dans une chambre
d'hôtel, il peut reconnaître en tant que lit un lit particulier qu'il n'a jamais vu ; il
utilise pour cela des caractéristiques générales et particulières permettant
d'identifier l'objet en tant que meuble, puis par ses propriétés de taille, horizontalité
et présence dans une chambre à coucher, comme un lit.

Une opération de mémorisation ou de recherche dans la mémoire met en jeu des


échanges électriques et chimiques entre neurones passant par des synapses [268].
Ces échanges peuvent être détectés et convertis automatiquement en données
numériques, permettant ainsi de modéliser en ordinateur les opérations psychiques
correspondantes et d'en donner des représentations graphiques.

Le modèle "Réseau d'ordinateurs autonomes interconnectés" du psychisme


La pensée humaine se déroule à deux niveaux : la conscience et l'inconscient [353],
dont l'ensemble constitue le psychisme [347]. (Détails : [339] et [345])
 La conscience d'un homme se comporte comme un ordinateur indépendant, qui
ne peut penser qu'à une seule chose à la fois. L'homme peut en orienter
l'exécution en jugeant la valeur des pensées et en choisissant celle sur laquelle il
veut se concentrer.
 L’inconscient se comporte comme un ensemble d'ordinateurs autonomes
fonctionnant simultanément, dont l'interconnexion permet la transmission de

307
messages-événements. D'autres mécanismes de connexion permettent
l'interaction entre la conscience et l’inconscient ; ils le font, par exemple, en
« censurant » certaines communications pour trouver un équilibre entre des
fonctions psychiques qui s'opposent (l'une « voulant » et l'autre « ne voulant pas
et n'arrivant pas à l'exprimer »).

Tous ces « ordinateurs psychiques » sont sujets à erreurs et approximations. Ils


peuvent entretenir des croyances a priori (héritage génétique d'archétypes ou
acquisitions après la naissance) et refuser d'exprimer verbalement certaines pensées.

La modélisation du psychisme humain par un réseau d'ordinateurs autonomes


interconnectés est donc théorique. Elle n'a pour intérêt que de décrire le principe de
fonctionnement de l'inconscient [353] comme ensemble de processus psychiques
autonomes, interconnectés avec le processus qu'est la conscience, ces
interconnexions échappant le plus souvent à la conscience.

Conclusion
Le cerveau humain possède des capacités d'abstraction permettant de mémoriser le
résultat d'émotions, de perceptions, de raisonnements, de structures, etc. sous forme
de hiérarchies évitant la redondance. Le parcours (par activation de cliques de
neurones) d'une telle hiérarchie permet ultérieurement de retrouver une information,
en fait de la reconstruire. (Détails : [339]) L'existence de ces capacités natives
d'abstraction et de représentation hiérarchisée constitue une raison de plus de penser
la complexité par niveaux hiérarchiques.

Enchaînement de pensées et attribution de sens


L'existence de ces hiérarchies explique aussi l'enchaînement de pensées, la formation
d'analogies ou d'intuitions. Lorsque je pense à un sujet qui a une certaine propriété P,
le processus de mémorisation à long terme rattache ce sujet, par l'intermédiaire de P,
à d'autres sujets qui ont la même propriété. Si, par la suite, un cheminement de pensée
atteint P, il pourra se poursuivre sur un autre sujet déjà mémorisé avec P. Exemple :
la vision d'une voiture de couleur rouge vif pourra faire ressurgir dans mon esprit le
souvenir d'une femme qui portait une robe rouge vif.

Le sens psychologique d'une représentation (ce qu'elle implique de bon/mauvais ou


prometteur/redoutable pour l'individu) est formé automatiquement, sans effort
conscient, au fur et à mesure qu'une représentation est construite : l'homme ne peut
s'empêcher de juger, d'évaluer tout ce qui lui passe par l'esprit ; il peut seulement
réfléchir consciemment, après coup, à un jugement qu'il s'est construit a priori. Et ce
sens psychologique devient une propriété de l'objet représenté (comme ses propriétés
physiques, par exemple), stockée en mémoire avec ses autres propriétés ! [339]

3.6.1.7 Niveaux d'information biologique et déterminisme génétique


On explique de nos jours certains mécanismes vitaux, par exemple chez l'homme, par
un modèle qui s'est avéré très fécond : les traitements d'information qui leur sont
associés.

Au niveau le plus élevé et en première approximation, notre esprit fonctionne comme


un programme dans un ordinateur qui est notre cerveau. Penser, c'est traiter de
l'information. Tout processus mental conscient peut être décrit sous forme du

308
traitement d'information dont il est indissociable, qu'il s'agisse de lire un livre, de
réfléchir avant de choisir un produit acheté, de faire des mathématiques, d'écouter de
la musique, etc. C'est là une description de première approximation, assez
déterministe, que nous compléterons plus bas par des fonctionnements non
déterministes ou non prévisibles.
Remarque : le fonctionnement du programme-esprit dans le cerveau est assez
robuste : dans une certaine limite, des neurones peuvent mourir ou perdre des
connexions sans que le programme et ses résultats en soient affectés.

3.6.1.7.1 L'information du logiciel génétique


Au niveau ADN, le traitement de l'information met en jeu des structures moléculaires
complémentaires : une molécule donnée ne peut interagir qu'avec une molécule dont
la structure lui est complémentaire, c'est-à-dire qui peut former des liaisons chimiques
avec elle. La structure d'une molécule définit donc les autres molécules avec
lesquelles elle peut interagir : la structure définit la fonction, qui définit le programme
que la molécule peut exécuter. Une hiérarchie de structures et de fonctions apparaît
ainsi, de haut en bas :
 Toute cellule contient un noyau (diamètre de l'ordre de 6m, soit 6 .10-6 m) dans
lequel on trouve des chromosomes (23 paires chez l'homme), dont la structure
porte l'information contrôlant les fonctions biologiques. Un chromosome humain
mesure environ 8m de long pour un diamètre de 0.5m.
 Un chromosome contient environ la moitié de son poids d'ADN (acide
désoxyribonucléique). La molécule d'ADN, géante, a une forme de double hélice
comprenant environ 3 milliards de paires de bases chez l'homme. Chacune des
hélices est copie exacte de l'autre, redondance qui permet de réparer
d'éventuelles "erreurs" lors de la reproduction de cellules.
 La molécule géante d'ADN contient des séquences de bases (segments)
appelés gènes, molécules plus petites dont la structure (l'ordre d'apparition des
bases dans un parcours de la séquence) représente l'information nécessaire à
toutes les fonctions biologiques, comme les instructions d'un programme et leur
ordre définissent la logique de ce programme.
Le langage dans lequel est codée l'information génétique est extrêmement
simple : son vocabulaire n'a que 4 « mots » de base, avec lesquels on écrit les
« instructions » des séquences des gènes. Ces mots sont 4 bases azotées
appelées adénine (C5N5H5), cytosine (C4N3H5O), guanine (C5N5H5O) et thymine
(C5N2H6O2), représentées par les lettres A, C, G, T.
Chaque brin de la double hélice de l'ADN est une chaîne d'unités élémentaires
appelées nucléotides. Un nucléotide est constitué d'un sucre, d'un groupe
phosphate et d'une des bases azotées A, C, G ou T. Les deux brins sont reliés
par des liaisons hydrogène entre une base de l'un des brins et une base
complémentaire de l'autre. Une base A est toujours associée à une base T, et une
base C est toujours associée à une base G.
Une séquence de code génétique peut, par exemple, contenir la chaîne de mots
ATTCGCA, et une chaîne peut être extrêmement longue, suffisamment pour
décrire une logique aussi complexe que l'on voudra.

309
 Les gènes font construire des protéines par l'ARN (acide ribonucléique) selon les
programmes codés dans leur structure ; on peut les considérer comme de
minuscules ordinateurs qui pilotent la formation de protéines par la machinerie
cellulaire.
 Les protéines sont les constituants des muscles, des poumons, du cœur, des os,
etc. Tous les mécanismes de notre corps mettent en jeu des protéines.

La modélisation des mécanismes vitaux non psychiques par des traitements


d'information effectués par des programmes est si satisfaisante que ces mécanismes
apparaissent aussi déterministes qu'un logiciel informatique.
La complexité des processus vitaux et celle d'un logiciel peuvent être
considérables sans impacter leur parfait déterminisme, qui n'en dépend
nullement ; nous avons vu précédemment que des processus déterministes
complexes produisent en général des résultats imprévisibles.

Dans le fonctionnement cellulaire, la biologie moléculaire nous apprend que


l'information génétique est transmise dans un sens unique, des séquences ADN vers
les protéines, et que ce processus est parfaitement déterministe dans sa manière
d'enchaîner les événements à partir de leurs causes [55]. Il y a donc chez les êtres
vivants un déterminisme génétique qui contrôle toutes les fonctions vitales.

3.6.1.7.2 Etres vivants artificiels définis à partir de leur seul code génétique
L'article [120] illustre la séparation entre le logiciel génétique qui régit le comportement
d'une cellule et la cellule elle-même. Des scientifiques ont remplacé le génome d'une
cellule de bactérie de l'espèce A par celui d'une autre espèce de bactérie, B, en
transplantant la totalité de l'ADN d'une bactérie B dans un noyau de cellule de bactérie
A. La bactérie A s'est alors mise à se comporter exactement comme les bactéries B.
Cette expérience ouvre la voie à la propagation de génomes totalement ou
partiellement synthétiques, c'est-à-dire à de nouveaux types d'êtres vivants définis à
partir de leur seul code génétique.

Le compte-rendu de recherches [248] annonce la création du premier génome artificiel


complet de bactérie, comprenant 582 970 paires de bases. L'équipe travaille à présent
à créer une cellule de bactérie vivante entièrement synthétique.

Voir aussi la modélisation logicielle complète d'un petit organisme vivant [279].

3.6.1.8 Objections idéalistes et leur réfutation


Les idéalistes refusent de croire que la matière biologique (cellules avec leur structure
- quelle qu'elle soit - et leurs processus vitaux) peut à elle seule engendrer et supporter
la vie sans intervention transcendante (divine ou autre, mais en tout cas échappant au
déterminisme naturel). Ils pensent qu'il y a une essence, un principe vital, une sorte de
« cahier des charges » immatériel, non déterministe et résultant d'une finalité qui
préexiste à l'être vivant et en définit les caractéristiques.

La raison de leur refus est que le modèle matérialiste traditionnel, qui fait de la vie une
conséquence de la matière, leur paraît incapable de rendre compte de la richesse, de
la beauté et de la liberté qu'ils associent à l'essence de la vie. Nous savons aujourd'hui
que le modèle correct comprend du logiciel en plus de la matière biologique dans

310
laquelle ce logiciel exécute son code génétique, et que c'est ce logiciel à base de code
inscrit dans les gènes (c'est-à-dire cette information) qui détermine toutes les
manifestations de la vie :
 Echanges avec l'extérieur de nourriture, de déchets, de chaleur, d'énergie
mécanique et d'informations (perceptions) ;
 Réplication et réparation de code génétique endommagé ;
 Différenciation cellulaire permettant la création de cellules spécialisées à partir
de cellules souches ;
 Adaptation aux évolutions et agressions de l'environnement, etc.

C'est ce logiciel - les données et la logique du code génétique - qui constitue


précisément l'essence de l'homme [51]. Une des raisons qui font que les matérialistes
n'arrivent pas à convaincre les idéalistes est que, dans leur modèle du vivant, les
matérialistes oublient de citer ce niveau logiciel entre le niveau de la matière biologique
et celui des fonctions nobles comme l'esprit ; cet oubli leur interdit d'expliquer la
richesse, la complexité et l'imprévisibilité du vivant. Nous savons aujourd'hui que les
fonctions psychiques comme la conscience et la conscience de soi sont correctement
décrites par des mécanismes de logiciel [339]. De leur côté, les idéalistes, pour qui
l'essence de l'homme est spirituelle – pas logicielle - n'acceptent pas de réduire
l'homme à ses cellules, objets purement matériels. Voir aussi :
 La modélisation logicielle complète d'un petit organisme vivant [279] ;
 Les universaux [168], qui représentent une part importante de l'inné humain.

Nous compléterons ci-dessous les raisons de la difficulté d'expliquer une constatation


au niveau macroscopique à partir de connaissances au niveau atomique. Nous
verrons aussi l'existence de pensées non déterministes.

3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ?


La présentation du livre récent sur la conscience [349] commence par :
« Ce livre renouvelle le débat séculaire sur la possibilité de réduire la conscience à un
processus neuronal. » Directeur de recherches au CNRS, l'auteur sait de quoi il parle :
voilà des siècles que des philosophes se demandent si l'esprit humain, avec sa
conscience du monde et sa conscience de soi, est une conséquence du seul
fonctionnement physique du cerveau. La conscience ne résulte-t-elle pas aussi
(comme le croyait Descartes) de quelque chose d'immatériel, comme l'âme ? Puisque
lors d'un rêve notre pensée vagabonde sans cause matérielle, comment ne pas
supposer qu'elle est d'une nature transcendante ?

Descartes, méfiant des interprétations de son esprit : "Je suis une chose qui pense"
Au XVIIe siècle, Descartes savait que l'homme n'est pas conscient de la réalité, mais
seulement des idées de son esprit. Sachant qu'il pouvait se tromper, et désirant malgré
cela trouver la vérité sur la nature de son être fait d'un corps et d'un esprit, il
commençait par mettre ses interprétations en doute dans ses Méditations
métaphysiques [D3] :
« Je suppose donc que toutes les choses que je vois sont fausses ; je me
persuade que rien n'a jamais été de tout ce que ma mémoire remplie de

311
mensonges me représente ; je pense n'avoir aucun sens ; je crois que le corps, la
figure, l'étendue, le mouvement et le lieu ne sont que des fictions de mon esprit.
Qu'est-ce donc qui pourra être estimé véritable ? »

Bien que doutant de tout, Descartes était certain d'exister au moins en tant que "chose
qui doute" :
« De sorte qu'après y avoir bien pensé, et avoir soigneusement examiné toutes
choses, enfin il faut conclure, et tenir pour constant que cette proposition : Je suis,
j'existe, est nécessairement vraie, toutes les fois que je la prononce, ou que je la
conçois en mon esprit. »

Descartes finit par conclure qu'en plus d'avoir un corps matériel, "substance corporelle,
étendue", il avait aussi un esprit (une âme) "substance pensante, intelligente" :
« Mais qu'est-ce donc que je suis ? Une chose qui pense. Qu'est-ce qu'une chose
qui pense ? C'est-à-dire une chose qui doute, qui conçoit, qui affirme, qui nie, qui
veut, qui ne veut pas, qui imagine aussi, et qui sent. »

Dans les deux passages précédents, le "je" de "je suis" désigne à l'évidence l'objet de
la conscience de soi, expression que Descartes n'utilise pas. Mais hélas, en se
contentant de qualifier sa conscience de substance pensante, Descartes ne l'expliquait
pas ; et en attribuant toutes choses à Dieu, il en admettait la transcendance.

Un professeur : « Aucune cause physique n'explique les abstractions humaines »


De nos jours, dans le cours de philosophie d'un professeur agrégé et normalien,
l'auteur enseigne que « La nature abstraite de la pensée humaine l'empêche de
résulter d'un phénomène exclusivement physique : aucun phénomène matériel ne
crée d'abstraction ; quel que soit leur fonctionnement, les neurones ne suffisent pas
pour expliquer la conscience humaine, il faut en plus quelque chose de transcendant. »

3.6.1.9 Les pensées ne sont que des interprétations de l'état du cerveau


La pensée de notre cerveau est incapable de manipuler des objets physiques. Elle ne
manipule que des abstractions qui les représentent, et celles-ci n'ont que deux origines
possibles : celles dont nous avons hérité de nos ancêtres en naissant, par notre
génome, et celles que nous nous sommes construites depuis - notamment en nous
représentant mentalement le monde que nous percevons.
Dans mon esprit, c'est une abstraction appelée représentation qui tient lieu d'objet
réel. Mon esprit ne voit pas ma maison physique, il voit sa représentation et la
considère comme réelle ; et c'est sur cette représentation, sur ce qu'il en voit
comme sur ce qu'il en imagine, qu'il raisonne si nécessaire. D'ailleurs si personne
ne m'avait parlé des représentations d'objets, je n'aurais pas su qu'elles ne sont
qu'une image de la réalité. Platon avait déjà décrit tout cela dans le Mythe de la
caverne.

Cette constatation réfute donc l'argument précédent « Aucune cause physique


n'explique les abstractions humaines »: c'est bien une cause physique, le
fonctionnement de notre cerveau, qui explique notre pensée, avec sa conscience et
ses abstractions. Des processus du cerveau interprètent continuellement l'état de ses
neurones, ainsi que les signaux qu'ils se transmettent à travers leurs interconnexions.
Quand je vois ma maison, en fait je construis puis j'interprète sa représentation.

312
Voilà donc le lien que certains philosophes ignorent lorsqu'ils croient qu'aucune cause
matérielle ne peut expliquer la pensée : ils font comme s'il devait exister une
transformation physique de matière ou énergie en pensée ; ils oublient que notre
pensée est une perception du fonctionnement physique de notre cerveau :
l'interprétation de son propre état par lui-même. Ainsi :
 Lorsque j'écris ce texte, T, je suis conscient de lui, il est dans mon esprit sous
forme d'une représentation R(T), résultat d'une interprétation inconsciente.
 Lorsque je pense que je suis conscient d'écrire ce texte, je suis conscient de
moi-même, de ma conscience d'écrire un texte. La conscience de moi-même, C,
est en fait une conscience de la représentation de T, représentation R(T) que
mon esprit traite comme il a traité l'objet "texte" pour construire T ; c'est une
représentation de représentation, une fonction de fonction :

C = R(R(T))

Lorsqu'un ordinateur exécute un programme il interprète continuellement des données


de sa mémoire, données dont son propre code peut faire partie à l'occasion. Les
résultats que l'interprétation produit sont aussi des données en mémoire ; le
programme peut, par exemple, les imprimer.

Lorsque j'écris ce texte c'est une représentation que j'en perçois, des données qui le
décrivent dans mon esprit ; nous verrons plus bas que ce sont de telles données qui
constituent la conscience. Notre conscience est un résultat d'interprétation d'états de
neurones et de signaux entre eux, ni plus ni moins ; nos abstractions sont également
des interprétations. Ce texte explicite cette affirmation à la section La conscience.

3.6.1.10 A chaque niveau fonctionnel son niveau logiciel


Même si tout phénomène du vivant est supporté par des processus matériels dans les
cellules, des fonctions de niveau supérieur comme l'adaptabilité à un environnement
qui change ; la conscience, avec son aptitude aux jugements de valeur ; l'initiative et
les autres fonctions nobles du vivant, ne s'expliquent que si l'on tient compte des
fonctionnalités du logiciel génétique - et même alors l'explication est incomplète. Le
logiciel génétique ne fonctionne qu'à l'aide de processus matériels dans les cellules,
condition nécessaire ; mais on ne peut réduire les fonctions de niveau supérieur à ces
processus de bas niveau, de même que le fonctionnement d'un ordinateur ne se réduit
pas au déroulement des instructions de son processeur, car il est structuré par les
algorithmes de niveau supérieur du logiciel.
Il y a dans cette impossibilité de réduire les phénomènes de la vie aux seules
fonctions cellulaires une analogie à celle qui consisterait à modéliser les
phénomènes de physique atomique avec les seuls effets des quatre interactions
fondamentales [18] : il manquerait la Mécanique quantique, immatérielle comme
un logiciel, dont les mathématiques sont indispensables pour représenter,
expliquer et prédire ce qui se passe.

Mais ajouter le logiciel génétique ne suffit pas : un idéaliste objectera avec raison à ce
modèle conceptuel dual cellules + code génétique que son modèle d'origine
ordinateur + logiciel n'est pas conforme au vivant, parce qu'il ne sait ni se
reprogrammer pour s'adapter, ni évoluer génération après génération comme l'ont fait

313
les espèces vivantes, ni surtout avoir une conscience qui formule des jugements à tout
instant. Un ordinateur exécute sans émotion un programme absurde avec des
données correctes, ou un programme correct avec des données absurdes : indifférent
aux conséquences de ses calculs, il n'a aucune finalité comme la préservation de la
vie ou de l'espèce, aucune valeur comme le courage ou l'équité, aucune conscience
intelligente capable de rédiger l'algorithme qui résoudra un problème pratique. Et
pourtant, notre conscience s'explique par des considérations informatiques en plus
des mécanismes neurophysiologiques [339]. Voir aussi [345].

Une évaluation permanente


Notre code génétique et notre psychisme [347] sont des logiciels (de niveaux
différents) munis de fonctions qui évaluent en permanence les situations et
représentations résultant de perceptions physiologiques ou de pensées, conscientes
ou non ; ils les évaluent en fonction de valeurs qu'ils possèdent par héritage (« l'inné »)
ou mémorisation (« l'acquis »), en leur associant un sens : quantité psychologique de
« Bien » ou de « Mal ». Cette évaluation a pour conséquence des besoins physiques
ou des désirs psychiques que l'homme va chercher à satisfaire, consciemment ou
non ; il cherchera aussi à les satisfaire par une modification ou même une évolution
de son code génétique, de l'expression de ce code, et de ses processus psychiques
conscients et inconscients pour s'adapter à un contexte qui évolue - notamment à des
agressions, à des changements de l'environnement ou à des habitudes de vie
nouvelles. [345]

Voilà en quoi notre programme génétique - et au-dessus de lui notre système nerveux
central et notre psychisme - répondent au cahier des charges de la vie, voilà comment
les résultats d'évaluation constituent des finalités qui guident en permanence
l'organisme [51]. Voyons cela plus en détail.

3.6.1.11 Critères de valeur et d'efficacité, et mécanismes d'évaluation


Le cerveau de tous les animaux est doté de mécanismes d'évaluation pour effectuer
des choix selon des critères de valeur et d'efficacité à court et long terme. Les individus
qui font les meilleurs choix sont les plus aptes à survivre, à se reproduire, et à profiter
de la sélection naturelle.
Exemple 1 : les choix d'un animal concernant sa nourriture impliquent des critères
d'énergie, la recherche de la conduite la plus efficace pour se procurer de l'énergie
alimentaire, la stocker et la réutiliser. Les individus les plus efficaces selon ce
critère ont le plus de chances de survivre, de prospérer et d'assurer leur
descendance de préférence à des concurrents.
C'est pourquoi les prédateurs choisissent les proies auxquelles ils vont s'attaquer
en fonction du rapport entre dépense énergétique probable pour les capturer et
apport énergétique de leur consommation. Un lion mâle, par exemple, est trop
lourd (170 à 250 kg) pour courir après des gazelles, forme de chasse qui risque
de lui faire dépenser trop de calories par rapport au bénéfice alimentaire
escompté. Une lionne, au contraire, poursuivra ce genre de proie : plus légère
(120 à 180 kg), elle peut se permettre de risquer plus souvent d'échouer (en
moyenne 3 fois sur 4) avant d'attraper une gazelle. Un guépard, enfin, à la fois
léger (35 à 70 kg) et rapide, chasse en forçant les gazelles à la course.
Exemple 2 : tant que les hommes primitifs ne savaient que chasser et cueillir, leur
quête de nourriture était inefficace et peu fiable, et permettait à peine de survivre.

314
Avec la pratique de la culture et de l'élevage, la production de nourriture est
devenue bien plus efficace et fiable, et la population a pu se mettre à augmenter.

Ces deux exemples permettent de définir l'efficacité alimentaire comme le rapport de


l'énergie consommable à l'énergie dépensée pour l'obtenir. Lorsqu'on compare deux
stratégies au point de vue de cette efficacité, les énergies correspondantes doivent
être évaluées en probabilité [77] - à court et à long terme. Nous verrons ci-dessous
que ces évaluations se font automatiquement et en permanence dans notre cerveau,
adapté par l'évolution et la sélection naturelle à cette fonction indispensable.

Dans notre psychisme [347], la réponse du mécanisme d'évaluation à un choix


envisagé, est un affect [253], une récompense accompagnée d'une émotion :
sensation agréable ou non, peur, fierté ou honte, etc.

Les sensations positives de désir, d'euphorie, etc. sont régulées dans le cerveau
humain par une molécule, la dopamine, dont nous avons déjà parlé ; (ne pas confondre
désir et plaisir : ce dernier utilise d'autres mécanismes que le premier). Les sensations
négatives sont associées à l'acétylcholine, neurotransmetteur [176] qui a des effets
vasodilatateurs sur le système cardiovasculaire et agit sur le rythme cardiaque, des
effets sur le système gastro-intestinal, des effets inhibiteurs sur l'activité du système
nerveux central, etc.

Retenons aussi que dans notre cerveau, la comparaison à une valeur produit la
présence détectable et l'abondance mesurable d'une molécule organique. La création
de valeur en tant que conséquence d'une perception (ou - nous le verrons plus bas -
de pensées) et son utilisation dans les comparaisons nécessaires aux jugements, sont
des phénomènes physiques automatiques, inévitables - bref déterministes - expliqués
sans aucune intervention transcendante.

3.6.1.12 Une signalisation permanente dans le cerveau


En même temps que les perceptions de nos sens, notre cerveau reçoit en permanence
des signaux de besoin : faim, sommeil, désir sexuel, etc. Pour un homme, le fait même
de vivre et d'avoir une conscience et un inconscient [353] engendre un déséquilibre
permanent : nous trouvons sans cesse des besoins à satisfaire, même après en avoir
satisfait un ou plusieurs. Ces besoins constituent le « manque d'être » dont parle
Sartre [252], manque d'être qui fait de l'homme un perpétuel insatisfait.

Et la conscience de l'homme ne se contente pas de recevoir de l'inconscient et de


créer à jet continu des besoins à satisfaire, elle suggère aussi des actions pour y
parvenir. C'est la présence permanente de suggestions d'action dans la conscience
de l'homme qui lui donne l'impression d'avoir toujours quelque chose à faire pour être
plus heureux et d'être toujours libre de choisir quoi faire. Pour un matérialiste cohérent
cette impression de liberté est illusoire du fait du déterminisme, nous le verrons plus
bas. A un instant donné, l'ensemble des signaux de besoin présents dans le cerveau
(et de certains signaux qui existent dans le corps en n'atteignant - par exemple - que
la moelle épinière ou le cervelet sans atteindre le cerveau) est comparé aux valeurs
de référence innées ou acquises, comparaison qui définit les finalités vers lesquelles
l'individu ou son organisme vont tendre.

315
A l'aide de la machinerie cellulaire, le code génétique interprète ces signaux et agit de
manière à satisfaire ces finalités. C'est un mécanisme déterministe dont le principe est
bien connu, mais dont la complexité (le nombre de processus possibles -
essentiellement dans l'inconscient - et leurs interactions) fait qu'on en ignore encore
beaucoup de détails. Au-dessus du niveau génétique, le système nerveux s'adapte
parfois, en modifiant sa structure pour tendre vers les nouvelles finalités ; les neurones
s'adaptent et adaptent leurs connexions. Au niveau le plus élevé, la conscience elle-
même adopte la nouvelle finalité et il arrive que certaines de ces adaptations soient
irréversibles (exemple : l'addiction à une drogue) [51].
Enfin, notre mécanisme de couches logicielles complète ces mécanismes sous-
jacents pour créer notre pensée.

Recherches récentes : [317] - [339] - [344]- [345].

3.6.1.13 Hiérarchie logicielle de la pensée - Modélisation informationnelle


La modélisation informationnelle de la pensée (représentation des fonctions
psychiques par des processus qui manipulent des informations, notamment celles des
représentations) est de plus en plus précise aujourd'hui. Elle utilise une « hiérarchie »
logicielle dont les niveaux d'abstraction croissent depuis les processus neuronaux
jusqu'à ceux de la conscience, en passant par ceux de la mémoire. Chaque module
logiciel peut être activé par un processus neuronal ou d'autres modules, l'activation
transmettant alors des « données » sous forme de messages chimiques ou
électrochimiques. Les divers modules partagent les données de la mémoire à long
terme.

La compréhension du fonctionnement de la pensée et la prédiction des pensées


progresse, à l'aide de capteurs électroniques, d'instruments d'imagerie cérébrale et
d'ordinateurs [344]. La complexité des mécanismes mettant en jeu de nombreux
modules logiciels dépasse les possibilités de représentation d'un homme, mais de
moins en moins celle de systèmes informatiques. Il restera néanmoins toujours
l'influence imprévisible de l'inconscient [353], qui fait des associations d'images
mentales basées sur des critères sans contrainte logique comme « couleur dont le
nom commence par la même lettre que celui d'un ami ».

Pensée, déterminisme et prévisibilité


Le caractère imprévisible de la pensée humaine ne vient pas d'une quelconque
transcendance qui contredirait le postulat de causalité à la base du déterminisme, ni
de l'impossibilité de connaître les processus du vivant au niveau neuronal [344]. Il vient
d'abord de la complexité des processus de haut niveau d'abstraction qui nous
intéressent, que nous commençons seulement à savoir modéliser avec une hiérarchie
de modules fonctionnels interagissants et fonctionnant simultanément. Il vient ensuite
de l'inconscient, dont les mécanismes automatiques nous échappent par définition, et
par leur mépris de la logique.

En pratique, donc, le libre arbitre d'un homme est une réalité, ainsi que son incapacité
à choisir les valeurs qui régissent ses décisions - rendant son libre arbitre illusoire. Un
homme est imprévisible parce qu'il est trop complexe, pas parce que le déterminisme
est erroné et qu'une transcendance intervient.

316
3.6.1.14 Reconnaissance de formes, structures, processus et intentions
Des expériences ont montré que lorsqu'un homme reconnaît une forme géométrique
qu'il voit, par exemple un carré, son esprit ne procède pas par étapes telles qu'une
reconnaissance du fait que c'est une figure polygonale, que les côtés sont droits et au
nombre de quatre, qu'ils sont égaux et qu'il y a quatre angles droits, ensemble de
propriétés qui définissent un carré. Il n'utilise une telle approche progressive que pour
les formes ou images qu'il ne reconnaît pas d'emblée, parce qu'elles sont nouvelles
pour lui ou complexes.

Reconnaissance des formes et des images


La reconnaissance des formes et des images par l'esprit humain est un phénomène
automatique, instantané, basé sur des fonctions inconscientes spécialisées de son
cerveau. C'est ainsi qu'un homme reconnaît plus facilement et plus vite un visage
qu'un mot de sept lettres : son cerveau est adapté à une telle reconnaissance, sa
mémoire à long terme et la manière dont elle est utilisée le prédisposent à une
remarquable performance en ce domaine. Un homme peut même reconnaître une
personne dont certains traits ont changé : port de lunettes, coiffure différente, etc.:
l'association d'une perception visuelle à une forme mémorisée fonctionne même en
présence de caractéristiques absentes ou modifiées, se contentant souvent d'une
certitude approximative. [364]

Reconnaissance de structures
La reconnaissance de forme peut s'appuyer sur la faculté de l'esprit de se créer des
représentations abstraites et de les manipuler. Un homme peut ainsi se représenter
une organisation hiérarchisée sous forme d'une arborescence ; il peut aussi se
représenter des configurations de pièces dans un jeu d'échecs pour reconnaître
certaines situations de jeu. Le recours à des structures abstraites permet de remplacer
la mémorisation de nombreuses formes particulières par celle d'un nombre plus réduit
de types de structures, que l'esprit pourra mémoriser et reconnaître, et à qui il pourra
attribuer des propriétés particulières.

Reconnaissance de processus
L'esprit humain peut aussi mémoriser les étapes d'un processus. Cette faculté est
d'abord utilisée pour automatiser et simplifier des processus de la vie courante, tels
que marcher ou courir : l'ordre dans lequel les nombreux muscles impliqués doivent
agir et leur coordination sont mémorisés, puis chaque pas est déclenché et se déroule
sans effort mental. Cette faculté sert ensuite à mémoriser des processus complexes
comme les gestes d'un métier, ou ceux de la manipulation d'un instrument de musique
pour obtenir un son particulier.

Mais l'esprit humain est aussi capable de reconnaître un processus, par exemple
lorsqu'une autre personne effectue un geste. C'est ainsi que nous savons reconnaître
et apprécier les gestes d'un mime qui fait semblant d'effectuer des actions de la vie
courante. L'esprit humain reconnaît instantanément, automatiquement et sans effort,
une suite d'étapes, aussi facilement qu'il reconnaît une structure. En mathématiques,
on reconnaît souvent un type de raisonnement, caractérisé par un enchaînement
d'étapes bien particulier. Et, comme en matière de reconnaissance de forme, l'esprit
humain reconnaît souvent des processus même lorsqu'une étape manque ou a
changé.

317
Reconnaissance d'intention
La reconnaissance de formes et de processus a été utile aux hommes primitifs comme
à de nombreux animaux. L'homme qui voyait une silhouette de lion reconnaissait cet
animal dangereux, et il pouvait aussi reconnaître si le lion s'approchait de lui ou non.
De manière générale, l'homme a la possibilité de prévoir les conséquences de la
présence et du comportement d'autres hommes, d'animaux et d'objets, les
conséquences potentielles étant mémorisées sous forme d'associations avec des
formes et des processus connus. L'homme primitif savait reconnaître une intention
hostile chez d'autres hommes ou chez des animaux.

Nous savons reconnaître la signification d'un ton de voix, d'une expression, d'une suite
de gestes, et nous le faisons instinctivement ; en fait, nous ne pouvons même pas
nous empêcher de reconnaître l'intention ou le caractère général d'une personne
quand nous la voyons pour la première fois. Cette reconnaissance est si automatique,
si rapide, qu'il faut un effort pour s'empêcher de juger la personne d'après son aspect
et son comportement lors d'une première rencontre. [339] Beaucoup de gens ne font
pas cet effort si le jugement n'entre pas en conflit avec l'éventuelle opinion qu'ils ont
déjà. Beaucoup de citoyens votent pour un candidat qui leur a fait instinctivement une
bonne impression, mais dont ils n'ont pas analysé les propositions et promesses en
réfléchissant à leur réalisme, leur faisabilité et leur pertinence.

Conclusion
Chaque fois que l'enjeu est important, une pensée rigoureuse exige donc une attitude
de remise en cause de notre jugement, pour en identifier les apriori et examiner aussi
les faits qui le contredisent et qui prouveraient notre erreur.

3.6.1.15 Intuition d'abord, justification après


L'approche intuitive, irraisonnée, est très fréquente. C'est même celle de beaucoup de
personnages publics au pouvoir, malgré leurs responsabilités. Ces personnes se
forment souvent une opinion a priori, par intuition ou jugement de valeur basé sur un
critère de morale, d'idéologie ou d'intérêt personnel, opinion que leur esprit ne cherche
ensuite qu'à justifier à posteriori, par des raisonnements plus ou moins rigoureux. Il
suffit de suivre à la télévision des débats ou des interviews de politiciens pour
s'apercevoir à quel point la plupart basent leurs jugements politiques sur des intuitions
justifiées à posteriori ou même des illusions, au lieu de les baser sur des analyses
chiffrées et des raisonnements structurés ; quelle confiance accorder alors à leurs
propositions ou leurs décisions ?

Notre cerveau évalue en permanence, automatiquement, les informations issues de


ses sens ou de son imagination, en leur associant un affect [253] agréable ou
désagréable. C'est le cas notamment pour le visage d'une personne : dans la seconde
qui suit l'instant où nous l'avons vue pour la première fois, notre cerveau s'est fait une
première opinion sur la personne, opinion basée sur une analogie avec des visages
ou expressions semblables déjà vus et une forte dose d'intuition. Après le visage, la
voix et les gestes nous influencent de la même façon.

La plupart des gens en restent à cette première opinion, hélas superficielle ; et lorsque
le besoin de juger la personne devient conscient - par exemple s'il s'agit d'un politicien
qui sollicite leur vote – ils essaient de construire un raisonnement qui justifie leur
première impression, en cherchant les informations conscientes qui la confirment et

318
en ignorant les informations qui la contredisent lorsqu'elles ne sont pas trop
prégnantes. Ce phénomène a été étudié en détail par Daniel Kahneman, prix Nobel
d'économie 2002, dans un livre facile à lire qui a connu un grand succès [316].

Si un objet me plaît au point de vouloir l'acheter, je cherche à justifier l'effort financier


par un raisonnement qui confirme mon désir, apparu sans justification ; je ne suis pas
objectif !

Dans la plupart des situations où il est important qu'ils aient une opinion motivée, la
majorité des gens s'en tiennent, hélas, à cette approche en deux temps : opinion basée
sur une apparence, des apriori, un affect ou une intuition, puis raisonnement pour la
justifier. Ils ne font que rarement l'effort de chercher des arguments contraires.

3.6.1.16 Evaluation permanente parallèle de situations hypothétiques


L'esprit humain ne se contente pas d'évaluer les seules situations réelles,
représentations issues directement de ses perceptions ou des réflexions basées sur
celles-ci. Il évalue aussi en permanence des situations imaginaires : si je vois un jeune
enfant seul au bord d'une piscine, j'imagine qu'il peut y tomber et se noyer, et je juge
cette possibilité inquiétante.

Ces situations imaginaires peuvent concerner l'avenir, mais aussi le passé (« Ah, si je
ne m'étais pas trompé hier ! »). Elles sont en général multiétapes, chaque situation-
conséquence envisagée et évaluée ayant elle-même des conséquences
hypothétiques construites et évaluées. Ce processus peut se poursuivre jusqu'à ce
qu'une situation paraisse par trop improbable, ou psychologiquement inacceptable
même si elle peut se produire. Il est analogue à la réflexion d'un joueur d'échecs qui
évalue les mouvements possibles plusieurs coups à l'avance.

Le cerveau effectue aussi, en général, consciemment ou non, plusieurs évaluations


de situation en même temps, en parallèle. Enfin, profitant de sa vaste mémoire et
désirant faire l'économie de la réévaluation de situations déjà évaluées, il mémorise
ses résultats d'évaluation.

3.6.1.17 "Le monde comme volonté et représentation" de Schopenhauer


Dans la préface du monumental ouvrage portant ce titre [202], œuvre majeure du
philosophe et essayiste Schopenhauer, on lit page 16 :
"La raison, les concepts, ne constituent qu'une mince pellicule recouvrant un fonds
primitif, obscur : la volonté. [Celle-ci est] sans fondement, c'est-à-dire
radicalement hétérogène au principe de raison, qui régit l'usage du concept. Voilà
pourquoi d'ailleurs l'instinct, qui rapproche l'homme de la bête, est toujours plus
fort que la raison qui les distingue. Quand l'instinct parle, la raison doit
nécessairement se taire ou alors se mettre à son service."

Pour Schopenhauer, il existe à tout moment chez un homme une volonté instinctive
d'agir pour laquelle la raison n'est qu'un outil ; pour lui, dans la nature l'évolution de
chaque situation est gouvernée par une « volonté naturante ». C'est un déterminisme
sur lequel son disciple Nietzsche basera sa « volonté de puissance » [343].

Deux ans après avoir, pour la première fois, publié ce livre-ci sur Internet, j'ai pris
connaissance du livre de Schopenhauer. Je suis frappé de la forte analogie existant

319
entre son concept moniste de « volonté régissant toutes les lois de la nature
naturante » et mon propre concept moniste de déterminisme étendu.
Mais alors que Schopenhauer est parti d'une intuition métaphysique [371], la
volonté, dont il justifie à grand peine dans son livre qu'elle régit la nature (donc le
Monde) comme la volonté d'un homme régit ses actes, je suis parti des lois objectives
de la physique pour définir leur principe d'application universel, le déterminisme
étendu.

3.6.1.18 Mémorisation et acquisition d'expérience - Déterminisme culturel


Un autre mécanisme intervient pour perfectionner encore plus les pensées et
décisions : le cerveau mémorise automatiquement les représentations, les actions (et
les pensées) et leur résultat psychologique, de façon à acquérir de l'expérience. [339]

3.6.1.18.1 Mécanismes physiologiques de la mémoire


Sur le plan physiologique, la mémorisation est une création ou une modification de
certaines synapses (éléments de contact entre deux neurones). Lorsqu'un neurone
émetteur envoie un signal à un neurone récepteur, ce signal passe par une synapse
[268]. Le signal lui-même est une émission chimique de molécules qui excitent ou
inhibent la synapse, agissant ainsi sur le neurone récepteur. [344]

Il y a deux catégories de mécanismes de mémoire :


 La mémoire à court terme, de capacité limitée et à oubli rapide. Le nombre
d'éléments (nombres, mots, phrases, etc.) qu'elle retient est limité à 7 en
moyenne chez un homme, et leur durée de mémorisation ne dépasse pas
quelques secondes [287]. L'enregistrement dans cette mémoire se fait par
augmentation de la quantité de molécules excitatrices transmises.
 La mémoire à long terme, de grande capacité et à oubli progressif (souvent sur
des années). Cette mémoire fonctionne par fabrication de nouvelles synapses,
un seul neurone pouvant se relier par synapses à plus de 1000 autres neurones.
Et il y a deux sortes de mémoires à long terme : la mémoire consciente et la
mémoire inconsciente, qui stocke des automatismes.

Un apprentissage délibéré (par exemple par stimulations répétées) donne lieu à une
mémorisation à long terme, où chaque signal reçu par une synapse est transmis au
noyau du neurone récepteur. Les chromosomes de celui-ci activent des gènes
capables de déclencher à leur tour la formation de nouvelles synapses [268]. Chaque
souvenir est donc une modification de connexions du cerveau. Les contacts
synaptiques se font et se défont en fonction des signaux électriques et chimiques qui
les animent ([272] page 22).

Il faut aussi savoir que le contenu de la mémoire humaine à long terme se transforme
continuellement, contrairement à une mémoire magnétique ou flash où une information
perdure jusqu'à son effacement délibéré. La transformation résulte d'une part de
l'ontogenèse [78], d'autre part de l'organisation des informations par l'esprit. Cette
organisation est en fait une réorganisation continue, qui adapte en permanence les
connaissances de l'homme à son environnement, automatiquement. Elle n'est
exempte ni d'erreurs (qui provoquent oublis ou déformations de l'information stockée)
ni de perfectionnements (qui expliquent certaines améliorations surprenantes de la
qualité des souvenirs après plusieurs mois).

320
Selon [113], il existe dans le cortex préfrontal du cerveau un mécanisme automatique
d'effacement de souvenirs, actif notamment pour les souvenirs désagréables. Pour un
tel souvenir, ce mécanisme efface d'abord les perceptions sensorielles, puis ceux de
ses processus de mémorisation et enfin ceux qui concernent les émotions associées.
Cet oubli se produit de manière involontaire : un homme ne peut pas effacer
volontairement sa mémoire comme le ferait un ordinateur. Mais il arrive qu'un souvenir
oublié laisse des traces dans l'inconscient [353] (Freud parlait de mémoire réprimée,
qui peut être à l'origine de névroses). L'oubli d'événements traumatisants permet à
l'homme de continuer à vivre, à espérer et à agir sans se laisser arrêter par trop de
souvenirs douloureux. Mais il a aussi l'inconvénient de rendre la mémoire sélective…

Du point de vue déterministe, un cycle d'utilisation de la mémoire à long terme, avec


ses phases successives de stockage, transformation, « lecture » pour utilisation et
parfois oubli, a donc un caractère partiellement imprévisible et peu fiable.

Le rôle du sommeil
Pendant son sommeil, un sujet réorganise et associe les informations enregistrées
dans sa mémoire. Pendant les phases de sommeil profond, la réorganisation associe
des paires d'informations (exemple : un mot avec un objet). Pendant les phases de
sommeil paradoxal, la réorganisation crée des structures permettant par exemple la
reconnaissance de formes, de schémas mentaux, de suites d'étapes. Ces
phénomènes de réorganisation sont de mieux en mieux connus. Ils expliquent
notamment pourquoi, au réveil, certains sujets ont des intuitions concernant la solution
d'un problème avec lequel ils se battaient jusque-là sans succès : voir le paragraphe
"Mécanismes de l'intuition", [284] - [229] - [346] .

3.6.1.18.2 Acquisition d'expérience


Le mécanisme naturel d'acquisition d'expérience est assez bien compris pour être mis
en œuvre dans des logiciels d'application, dits d'« intelligence artificielle » mais
parfaitement déterministes, appelés « réseaux neuronaux ».

Réseaux neuronaux
Voici un exemple d'application de réseau neuronal. La reconnaissance des billets de
banque (exemple : billets de 100 €) pour déterminer s'ils sont vrais ou faux est
effectuée par un appareil comprenant un scanner (qui numérise l'image de billets qu'on
lui présente), un ordinateur (qui exécute l'application de reconnaissance) et un voyant
qui affiche le résultat : vert si le billet est vrai, rouge s'il est faux.

Pour l'apprentissage, on fait numériser par l'appareil de nombreux billets en lui donnant
à chaque fois le diagnostic humain : vrai ou faux. Plus on lui donne de tels exemples,
plus il accumule d'expérience et moins il se trompe par la suite en déclarant faux des
billets vrais ou vrais des billets faux. Avec une expérience de quelques milliers de
billets on arrive à des taux d'erreur très faibles, même en présence de billets usagés
ou sales. L'appareil a appris par accumulation d'expérience ; à aucun moment on ne
lui a donné de règle de raisonnement explicite.

Ce mode de fonctionnement est celui de la mémoire associative de l'homme, où les


associations se font automatiquement grâce à l'aptitude du cerveau à trouver des
analogies entre informations mémorisées, à les évaluer, et à relier les informations

321
associées utiles en une relation mémorisée à son tour. Il y a là une auto-organisation
des informations, capable, par exemple, de corriger des informations erronées, de
compléter des informations incomplètes, de généraliser par induction à partir d'un
nombre de cas limités et de reconnaître des formes ou des situations pour pouvoir
ensuite les évaluer à leur tour.

Nous sommes là dans un cas de déterminisme particulier : l'algorithme déterministe


du réseau neuronal construit ses règles de calcul de la conséquence d'une cause par
apprentissage de cas d'espèce, et les applique avec une marge d'erreur de type
statistique due aux inévitables erreurs de la numérisation et de la comparaison.

Acquisition d'expérience par un homme


L'apprentissage des cas d'espèce est un processus à étapes. Chaque étape
commence par une perception, une expérience ou un essai, puis analyse son résultat
en fonction des valeurs existantes, en déduit les erreurs de pensée ou de
comportement lorsque la qualité du résultat s'éloigne de l'objectif, corrige ces erreurs
et passe à l'étape suivante. A chaque étape qu'il réussit à franchir, le cerveau a une
sensation de récompense : le plaisir correspondant est sa manière de savoir qu'il a
réussi quelque chose.

Exemples :
 C'est ainsi qu'un jeune enfant apprend à marcher : d'abord il apprend à se tenir
debout et à effectuer sans y penser les efforts musculaires nécessaires à cette
station debout, puis il apprend à rompre cet équilibre pour déplacer une jambe,
etc.
 Tout le monde connaît les expériences de Pavlov, sur les « réflexes
conditionnés » acquis par un animal suite à des expériences vécues. L'animal
peut ainsi apprendre à associer l'audition d'un bruit à l'apparition de nourriture
qui le fait saliver ; par la suite, même si le bruit apparaît sans nourriture, l'animal
salive quand même. Pavlov est ainsi parvenu à préciser des aspects de l'activité
nerveuse supérieure qui concernent l'excitation et l'inhibition.
 Lorsqu'un étudiant apprend une théorie scientifique nouvelle, il se représente
ses divers aspects (concepts, méthodes…) au moyen d'abstractions, qu'il
complète et précise progressivement au vu des textes qu'il lit et des exercices
qu'il fait, jusqu'à ce qu'il ait le sentiment d'avoir compris. Il s'est ainsi construit
progressivement des représentations abstraites, et des processus mentaux qui
les relient de manière plus ou moins automatique. Une fois habitué aux
nouvelles représentations et processus, il trouve la théorie bien moins abstraite.

Apprendre ainsi présente d'immenses avantages : l'adaptabilité à toutes sortes de


situations nouvelles, et la prise de décisions malgré des informations incomplètes ou
partiellement contradictoires. S'il ne savait appliquer que des recettes toutes faites,
comme un robot, l'homme ne pourrait vivre que dans un environnement précis, celui
pour lequel ces recettes ont été faites ; il n'aurait pas survécu dans la compétition des
espèces où seuls les meilleurs survivent. L'adaptabilité est une caractéristique de
l'intelligence : l'homme est plus capable d'adaptation que les animaux parce qu'il est
plus intelligent, ou il peut être qualifié de plus intelligent parce qu'il s'adapte mieux.
Chaque homme profite de l'expérience qu'il a acquise lui-même, mais aussi de celle
que lui ont transmise les autres hommes ; et l'invention de l'écriture, puis des

322
techniques de communication, a fortement amplifié l'accumulation et la transmission
des connaissances.

Pendant qu'il apprend et mémorise, le cerveau (aidé par le cervelet) se construit des
raccourcis lui permettant de représenter et de déclencher des procédures multiétapes
avec un seul signal, comme la pression sur une touche de fonction de téléphone
portable déclenche toute la procédure d'appel d'un correspondant. Ces procédures,
enregistrées dans la mémoire, permettent de gagner du temps en remplaçant des
étapes précédées chacune d'une réflexion par une procédure multiétapes devenue
une habitude. L'entraînement d'un danseur, d'un instrumentiste ou d'un sportif consiste
notamment à construire ces habitudes pour en faire des automatismes. Voir aussi
"Importance des automatismes dans la pensée humaine".

L'acquisition d'expérience détermine l'évolution de chaque homme, de chaque peuple


et de l'humanité. Un de ses aspects les plus importants est la culture, transmise de
génération en génération. Une fois incorporée à l'inconscient [353] par un homme, la
culture l'influence tellement qu'elle engendre un déterminisme culturel (exemple : [12]).

3.6.1.18.3 La mémoire sélective


Toute information susceptible d'être enregistrée en mémoire à long terme est
automatiquement évaluée : le cerveau l'associe à une valeur (positive ou négative) et
attribue à cette association un poids (c'est-à-dire une importance psychologique). [364]
Les informations associées à certaines valeurs de trop peu de poids sont alors
ignorées, et leur mémorisation n'a pas lieu.

Cela permet à la mémoire de ne pas se charger d'informations inutiles, mais de temps


en temps cela provoque des refus d'enregistrement néfastes. En effet, le poids attribué
peut dépendre du contexte psychologique, très subjectif ; il arrive alors, par exemple,
qu'on refuse inconsciemment la mémorisation d'informations déplaisantes [346].
Ainsi, comme je n'aime pas accompagner ma femme au marché, il arrive qu'elle
me demande de l'accompagner le lendemain pour porter des achats lourds, que
je lui réponde « oui », et que j'oublie aussitôt ma promesse comme si je ne l'avais
jamais faite !

Il arrive aussi que, dans la transformation continuelle des informations stockées en


mémoire à long terme, une information considérée comme peu importante ou
déplaisante soit inconsciemment effacée, remplacée ou déformée.

3.6.1.19 Désirs et satisfaction artificiels. Drogues


Les mécanismes physiologiques de besoin, de désir et de choix peuvent être
détournés au profit de drogues : une drogue qui crée une dépendance modifie un
mécanisme de choix de l'organisme, en créant un besoin de cette drogue et en
procurant une récompense agréable lorsqu'on le satisfait.

Le tabac, l'alcool et l'héroïne sont des exemples connus de drogues créant une
dépendance. Et d'après les recherches expérimentales [54], une boisson comme le
Coca-Cola ou une substance comme la caféine agissent sur la sécrétion de dopamine
par l'intermédiaire du noyau accumbens [254] du cerveau, connecté au cortex
préfrontal qui est un de ses centres de décision ; elles stimulent ainsi le besoin

323
(l'anticipation de plaisir) d'en absorber, sans pour autant créer une dépendance
comme la cocaïne, drogue extraite de la coca.

3.6.1.20 Des pensées peuvent aussi se comporter comme des drogues


Il est important de comprendre que des pensées ou des affects [253] peuvent aussi se
comporter comme des drogues - en suscitant des désirs et en promettant des
récompenses, ou en suscitant des craintes - en réponse à certains choix d'action. Du
point de vue physiologique, dans le cerveau, l'effet de ces désirs et craintes passe par
des neurotransmetteurs comme pour les perceptions physiques.

Ces idées et affects purement psychiques [347] peuvent aller, dans le cas de
terroristes, jusqu'à des inversions de valeurs, des pulsions de mort et des promesses
de récompense du suicide, ou de la souffrance gratuite infligée à autrui.

Les récompenses promises sont associées à la satisfaction de valeurs morales


incorporées à l'inconscient, comme l'altruisme, l'équité ou la fierté, valeurs dont nous
sommes ou non conscients. Ces valeurs peuvent faire partie de notre culture et nous
avoir été transmises par nos parents, notre éducation ou notre vie en société. Elles
peuvent aussi nous avoir été inculquées par la pression sociale, la culture du groupe
auquel nous appartenons. Elles peuvent, enfin, résulter d'une autosuggestion et/ou
d'une amplification par l'imagination, amplification qui peut aller jusqu'à l'obsession.

C'est ainsi qu'on peut expliquer l'endoctrinement de jeunes hommes et femmes, dont
des manipulateurs font des terroristes au nom de principes religieux mal interprétés,
de principes de solidarité entre peuples obligeant des musulmans à tuer des juifs et
des chrétiens pour venger des coreligionnaires Palestiniens, etc. C'est ainsi qu'une
sous-culture de banlieue produit des casseurs en révolte contre la société française
[169], casseurs qui attaquent des infirmières et des pompiers venus secourir leurs
voisins, ou brûlent des voitures, le tout pour défendre le « territoire » où des voisins
trafiquent contre ces représentants de l'ordre social républicain.

Les valeurs incorporées à l'inconscient font partie de la culture et ne peuvent évoluer


que lentement. Chez un peuple entier, cette évolution peut demander un siècle ou
plus. Preuve : la laïcisation [336] de la Turquie, commencée par Atatürk en 1924 et
poursuivie depuis avec l'aide musclée de l'armée, n'a pas encore fini d'imposer des
idées démocratiques à l'ensemble de la population turque [13]. La culture musulmane
de ce peuple est encore bien présente et regagne en ce moment de plus en plus de
terrain, avec ses valeurs d'inégalité des femmes, ses crimes d'honneur, la substitution
de la loi islamique à la loi laïque, etc. [87]

Par contre, la forte influence d'une campagne de publicité habile sur les décisions des
consommateurs ou les votes des électeurs montre qu'on peut influencer les opinions
des gens en quelques jours ou quelques semaines, au point qu'ils agissent en fonction
de ces nouvelles opinions, contrairement à des valeurs plus anciennes qu'ils avaient
et qu'ils se mettent à transgresser.

324
3.6.2 Mécanismes psychiques non algorithmiques ou imprévisibles

3.6.2.1 Définitions

3.6.2.1.1 Mécanisme psychique algorithmique


Je définis un mécanisme psychique comme algorithmique ou calculable s'il peut être
simulé par un ordinateur. C'est le cas, par exemple, du calcul mental arithmétique, et
aussi du raisonnement déductif pur simulable par calcul des propositions ou des
prédicats. Il existe dans le psychisme [347] :
 Des nombres et des problèmes non calculables, au sens précis donné plus
haut ;
 Des mécanismes non algorithmiques, parfois inconscients, tels que :
 Retrouver un souvenir dans sa mémoire ;
 L'intuition [141] ;
 Les affects [253] ;
 La reconnaissance automatique d'images, de structures ou de procédures ;
 Les associations d'idées effectuées consciemment ou non, permettant des
raisonnements par analogie, des intuitions et l'apparition inexplicable de
pensées, de certitudes ou d'affects ;
 Les représentations de réalités telles que des images ou des procédures, et
les représentations d'abstractions.
Au plus bas niveau, ces mécanismes psychiques sont déterministes, car
comprenant exclusivement des mécanismes de biologie moléculaire sous-jacents
déterministes. Mais en pratique ils peuvent être impossibles à décrire par un
algorithme parce qu'on n'en connaît pas assez les mécanismes d'interaction
(notamment ceux qui sont inconscients), et parce que l'effort de rédaction de
l'algorithme serait démesuré par rapport à son intérêt. Nous avons déjà vu que le
caractère structurellement déterministe d'un processus n'entraînait pas
nécessairement la prédictibilité de son résultat.
Ainsi, à partir des mêmes souvenirs d'une personne, un rapprochement d'idées,
une intuition ou une certitude peuvent naître de son état du moment : santé,
sensation de faim ou soif, affect récent, etc. L'instant d'avant ou l'instant d'après,
dans un contexte un peu différent, les pensées seraient autres.
Nous avons aussi vu que l'inconscient entretient constamment des pensées qui
échappent à tout contrôle de la conscience et à toute origine rationnelle.
 Des définitions et processus mentaux déterministes mais non calculables.

Je considère comme algorithmiques les fonctionnements suivants d'un ordinateur :


 Les logiciels d'application : gestion, calculs scientifiques ou techniques, gestion
de processus industriels, automates et pilotes automatiques,
télécommunications (routeurs, autocommutateurs…), etc. ;
 Les logiciels système et outils de développement de programmes : systèmes
d'exploitation, compilateurs, générateurs d'application et interpréteurs, etc.

325
 Le calcul parallèle, qu'il porte en même temps sur plusieurs problèmes distincts
ou sur plusieurs groupes distincts de données d'un même problème, comme
dans les traitements d'images ou les calculs matriciels ;
Un être humain ne peut pas, consciemment, réfléchir à plusieurs choses en même
temps, mais son inconscient le peut et le fait.
 L'intelligence artificielle, application de calcul des prédicats correspondant à une
activité donnée dont l'homme fournit les axiomes et règles de déduction, ainsi
que des applications spécifiques associées à certains prédicats (diagnostic
médical…)
 La logique floue et l'autoapprentissage limités à un problème précis, avec un
logiciel de réseau neuronal (reconnaissance d'images numérisées de visages ou
de plaques d'immatriculation…) ; Exemple : [331]
 La génération automatique de programmes sur-mesure, à partir de jeux de
données fournis et avec un logiciel générateur écrit à l'avance par un
programmeur.

3.6.2.1.2 Mécanisme psychique déterministe


Conformément à la définition du déterminisme scientifique traditionnel, je définis un
mécanisme psychique comme déterministe chez une personne donnée, si :
 Il résulte à coup sûr d'une cause connue sans laquelle il ne peut se déclencher
chez cette personne ;
 Et si son déroulement à partir d'une même cause est reproductible (donc stable
dans le temps).

Cette définition contraignante exclut la possibilité de conséquences multiples d'une


cause donnée et la possibilité de résultats imprévisibles. En voici une critique.

Comparaison et critique
Tout mécanisme psychique algorithmique est déterministe, mais inversement, tout
mécanisme psychique déterministe n'a pas nécessairement des résultats prévisibles.

La définition ci-dessus d'un mécanisme psychique déterministe est en général trop


rigoureuse pour s'appliquer à une personne donnée, notamment parce qu'elle exclut
les mécanismes inconscients. Une personne utilisera plus souvent soit des
mécanismes psychiques algorithmiques mis en œuvre dans des cas simples comme
le calcul de 2 + 2, soit des raisonnements à résultat imprédictible. C'est pourquoi nous
allons étudier des aspects du déterminisme psychique à travers quelques
caractéristiques de la conscience.

3.6.3 La conscience
Sources : [339] et [348].

Le mot français « conscience » a 3 significations :


conscience morale, conscience de, et conscience tout court.

326
3.6.3.1 Conscience morale
On parle de conscience morale pour désigner la fonction psychique permettant à
l'homme d'apprécier la différence entre le bien et le mal, donc d'exercer son libre
arbitre. Ce sens n'apparaîtra pas dans ce texte.

3.6.3.2 Conscience de
On parle de conscience de… pour désigner les mécanismes psychiques par lesquels
l'homme connaît un objet, ou se connaît lui-même par introspection. On en parle avec
les verbes avoir et être :
 Quand j'ai conscience d'un objet, il est dans mon esprit, je peux en parler.
 Quand je suis conscient d'une situation, elle est présente à mon esprit.

3.6.3.2.1 La conscience de, ETAT du psychisme


La conscience de est un état instantané du psychisme, une « photo ». Il change
automatiquement au fur et à mesure que l'objet de conscience change : lorsque je suis
conscient qu'un ballon vient vers moi, son image dans mon esprit (sa photo) change
au fur et à mesure de son déplacement.
Dans mon esprit, l'état d'un objet à un instant donné (l'ensemble des informations
à son sujet dont je suis conscient) figure sous forme d'un ensemble de données. Cet
ensemble en représente à la fois les caractéristiques objectives et la signification qu'il
a pour moi, propriétés que je peux décrire et dont je peux parler. Cet ensemble abstrait
est la seule façon dont je peux appréhender l'objet, puisque mon cerveau ne peut
manipuler que des abstractions. L'état psychique conscience de se confond donc avec
cet ensemble de données ; lorsque je me souviens d'avoir eu conscience de quelque
chose, ce sont des données que j'extrais de ma mémoire. Appelons C l'ensemble de
données de la représentation psychique d'une conscience d'objet à un instant donné.

Justification : une conscience de est nécessairement un ensemble de données


 1ère raison : l'état d'un système est décrit par un ensemble de variables dont la
valeur est constante à un instant donné. Si le système évolue dans le temps (en
se déplaçant, en se transformant…) son état change, et certaines des variables
qui le décrivent peuvent changer de valeur.
Or la conscience de est un état psychique à un instant donné, résultat pour un
individu de l'état de certains de ses neurones et des excitations (signaux
transportant des informations) qu'ils se sont transmis. A un instant donné, la
conscience de est donc décrite par un ensemble de données : l'ensemble qui
décrit l'état des neurones correspondants et des excitations émises et reçues.
Il y a donc un « code conscient », propre à chaque individu, qui décrit la
représentation dont il a conscience à un instant donné. Selon [344] page 205 :
« La distribution des cellules actives et inactives compose un code interne qui
reflète fidèlement le contenu de la perception subjective. Ce code conscient
est stable et reproductible : ce sont toujours les mêmes neurones qui
déchargent dès que le patient pense à Bill Clinton. Il suffit, pour les activer,
d'imaginer le visage du président : la plupart des neurones du cortex temporal
antérieur répondent avec la même sélectivité aux images réelles et aux
images mentales. La mémoire suffit également à les réactiver. »

327
 2ème raison : lorsque je suis conscient de quelque chose (et seulement si j'en
suis conscient, ce qui implique que j'y fais attention), je peux en parler. Or les
muscles qui agissent pour parler (ceux de la bouche, etc.) sont commandés par
des neurones moteurs. Comme tous les neurones, ceux-ci sont activés par des
signaux d'excitation et seulement de cette manière-là ; ils sont donc activés par
des données, celles des signaux reçus, elles-mêmes provenant d'autres
neurones, etc., l'origine de la chaîne de neurones étant la conscience de.
Pour activer une chaîne de neurones se terminant par les neurones moteurs
de la parole, la conscience de ne peut donc être qu'un ensemble de données. Si
l'origine des signaux activant la parole était une fonction autonome et
inconsciente du psychisme elle ne pourrait pas émettre des signaux aboutissant
à des paroles cohérentes, fonction du seul contenu de la conscience de.

Données et structure d'une représentation


On comprend le sens d'un texte français à partir de deux notions : les lettres avec
lesquelles on écrit les mots, et les associations de ces lettres en mots et des mots en
phrases. La compréhension n'est obtenue qu'avec une lecture suivie d'une
interprétation par l'esprit des images reçues. L'interprétation est un processus actif
d'analyse de la structure de ces images : quels mots, dans quel ordre, avec quels
signes de ponctuation, etc. En résumé, le sens d'un texte est dans sa structure, les
quelques dizaines de signes de l'alphabet et de la ponctuation ne suffisent pas à le
décrire.

Représentation = objet + sens psychologique


De même, le contenu d'une représentation (objet et sens psychologique) n'est pas
dans les seuls neurones qui la stockent ; il est porté par la structure de leurs
interconnexions et des signaux transmis, il n'est dégagé que par un processus actif
d'interprétation par le psychisme. Il y a là une analogie avec la machinerie cellulaire
du corps : ses processus chimiques et biologiques suivent les règles d'un code
informatique stocké dans la structure des 4 bases ACGT de l'ADN et de l'ARN.

Représentation propre d'un objet


Un objet figure dans l'esprit sous forme d'une représentation propre (désignée par X)
qui en décrit les caractéristiques à un instant donné : forme, couleur, signification, etc.
Nous verrons que la conscience d'un objet, C, comprend aussi d'autres données que
cette représentation d'objet X : X est un sous-ensemble de C.

3.6.3.2.2 La prise de conscience de, ACTION du psychisme


A l'évidence, prendre conscience d'un objet dont on n'avait pas conscience auparavant
est une action ; une fonction psychique agit : nous l'appellerons attention. Pour avoir
conscience de quelque chose, je dois y faire attention. L'attention est donc une fonction
psychique qui a pour résultat une conscience de ; c'est cette fonction qui produit
l'ensemble de données C de cette conscience de. (Voir aussi : Seuil de conscience)

Mais une opération d'attention (action psychique) ne permet pas, à elle seule, de
penser consciemment à l'objet de l'attention ou d'en parler : c'est sa conséquence, la
conscience de l'objet (état psychique et ses données associées, C), qui déclenche la
pensée consciente.

328
Mémorisation des étapes d'une action - Schéma d'attention
L'esprit se souvient de la suite d'étapes d'une action qu'il vient de réaliser.
Je me souviens de la manière de dévisser le couvercle d'un pot de configure : je
prends le pot dans ma main gauche, je mets la main droite sur le couvercle, je
tourne ce couvercle dans le sens inverse des aiguilles d'une montre en le serrant
dans ma main, et quand je ne sens plus d'effort je soulève le couvercle. Mon esprit
a enregistré cette suite de gestes.

IRMf
Les appareils d'IRMf (imagerie fonctionnelle par résonnance magnétique) enregistrent
l'activité des diverses zones du cerveau lors de certaines actions : à une même suite
d'actions correspond une même suite de zones cérébrales activées ; ainsi, lors d'un
parcours, chaque lieu atteint correspond en mémoire à une région cérébrale
particulière. Des expériences ont montré que l'action de prendre conscience,
l'attention, active certaines zones bien définies du cerveau, dont la succession est
enregistrée en mémoire. Cet enregistrement d'une suite d'actions, gestes ou pensées,
permet ultérieurement de les répéter avec peu d'effort de réflexion : il y a eu
apprentissage d'une procédure.

Le schéma d'attention
Des expériences de neuropsychologie ont montré que l'action d'attention visuelle à un
objet est mémorisée automatiquement. A sa propre initiative, mon inconscient
mémorise le contexte de l'action (lieu, date…), mon état d'esprit lors de son
déclenchement (à quoi je voulais faire attention…), la suite des ordres à donner aux
nerfs qui commandent des muscles nécessaires à la vision, et d'autres
renseignements analogues sur l'attention.
Cette mémorisation produit un ensemble de données A appelé schéma
d'attention, qui constitue une description de la procédure d'attention, avec son contexte
et ses étapes psychiques. Aussitôt produit, ce schéma d'attention est associé
automatiquement par l’inconscient à la représentation X de l'objet de l'attention, puis
ce couple d'ensembles de données liés A + X est mémorisé en mémoire de travail
(mémoire de court terme) : tout ceci est très rapide, bien plus rapide qu'une réflexion
consciente sur un sujet quelconque. Et si l'objet de l'attention évolue (ballon qui bouge,
par exemple), sa représentation et son schéma d'attention évoluent automatiquement
en même temps, de manière synchronisée.
Toute représentation d'objet X présente à l'esprit (dont il a conscience) est donc
accompagnée de son schéma d'attention A. Que cette représentation provienne
d'une perception (visuelle, etc.), ou d'une réflexion qui l'a construite en utilisant la
mémoire et diverses fonctions psychiques, elle est toujours accompagnée de son
schéma d'attention lorsque l'esprit en a conscience.

Etapes de la mémorisation d'objets composés et leur structure


Souvent, l'attention à un objet ne le voit pas du premier coup d'une manière
satisfaisante pour l'inconscient : soit elle voit autre chose à proximité ; soit elle voit un
détail de l'objet, alors qu'elle voudrait le voir tout entier ; soit elle voit successivement
diverses parties de l'objet et l'esprit doit en faire la synthèse pour être satisfait d'avoir
reconnu l'objet qui l'intéresse, etc. Une opération d'attention comprend des étapes.

329
Non seulement l'attention mémorise dans son schéma d'attention A toutes les étapes
de la procédure nécessaires pour construire une représentation satisfaisante, X, de
l'objet, mais en plus elle représente X comme une somme de représentations de
parties de l'objet, X = X1 + X2 + X3…. L'esprit a donc conscience d'un objet composé
C = A + X1 + X2 + X3…., et c'est cet ensemble-là qu'il mémorise pour l'objet donné.

Donc à part les rares objets si simples qu'ils se contentent d'une représentation d'un
seul tenant, un objet est toujours mémorisé comme somme d'objets élémentaires.
Lorsque la conscience le retrouvera et l'extraira de la mémoire, elle devra en
reconstituer la représentation à partir de ses composantes X 1 + X2 + X3… en suivant
les étapes de la procédure A. Elle le fera automatiquement et rapidement, grâce à une
fonction inconsciente de reconstitution.

La méthode de représentation d'un objet composé E par objets composants à


réassembler a deux avantages :
 Les représentations des parties d'un objet déjà connues n'ont pas à être
mémorisées à nouveau, il suffit pour chacune que le schéma d'attention A
contienne un lien (référence) permettant de le retrouver. Ceci permet une
économie de place mémoire.
 Les nombreuses interconnexions de références permettent de retrouver un objet
composé connaissant une partie seulement de ses composants.
Exemple : je viens de réécouter la 38ème symphonie de Mozart. Je me souviens
que le compositeur lui avait attribué un nom propre ayant un rapport avec l'Europe
centrale, nom que j'avais entendu lors de l'écoute précédente. Ma fonction
mémoire retrouve ce nom en le reconstruisant grâce aux propriétés de cet objet
dont je me souviens (Mozart + symphonie + Europe centrale) et des relations
entre eux : c'est "Prague", la symphonie "Prague".

Le travail non conscient de reconstruction critique de la conscience


A la fin de la phase d'attention, la conscience de comprend un assemblage
automatique et non conscient de représentations composantes avant franchissement
du seuil de conscience, y compris en prenant en compte des images subliminales. En
outre, cet assemblage non conscient comprend une évaluation, à la fois sémantique
et affective, de la représentation construite, évaluation terminée par un jugement de
validité ; et si cette représentation déplaît parce qu'elle est incohérente, qu'elle
contredit une information présente à l'esprit ou qu'elle entraîne un rejet affectif par un
côté choquant, l'inconscient tente automatiquement un autre réassemblage à la
recherche d'une représentation « meilleure ».
Cette phase d'assemblage critique de représentations composantes permet, par
exemple, de reconnaître un visage même si certains traits ont changé ; il permet
de reconnaître un mot malgré une faute d'orthographe, etc.

Dans [344] pages 99-100 on lit :


« … le cerveau évalue inconsciemment tous les sens possibles d'un mot ambigu,
même ceux qui ne sont pas pertinents dans le contexte. »
« Les aires [cérébrales] du langage sont d'une telle efficacité qu'elles parviennent
à retrouver en mémoire, inconsciemment et simultanément, toutes les

330
associations sémantiques d'un mot, même s'il est ambigu et même lorsque seul
l'un d'entre eux convient au contexte. L'inconscient propose, le conscient choisit. »

3.6.3.2.3 La conscience de est un couple {Objet + Schéma d'attention}


A un instant donné, l'état psychique conscience d'un objet étant associé à un couple
d'ensembles de données indissociables {objet X + schéma d'attention A}, il est
confondu avec l'ensemble des données de ce couple : c'est la seule manière dont
l'esprit peut en avoir connaissance, il ne connaît rien de plus et rien de moins. On écrit
symboliquement : C = X + A.
N'ayant pas accès aux objets physiques, le cerveau humain ne manipule que des
abstractions. Certaines sont des représentations, « images » d'objets réels perçus
par nos sens : vue, ouïe, etc. D'autres sont des représentations a priori, que nous
héritons de nos ancêtres en naissant ; exemples : le concept géométrique de
point, les concepts de temps ou d'espace. D'autres enfin, sont des constructions
de notre esprit, abstractions construites à partir d'autres abstractions ; exemples :
représentations d'objets composés, procédures de raisonnement comme la
méthode d'addition de deux nombres.
L'esprit d'un individu n'ayant accès qu'à des abstractions construites par lui ou
reçues par héritage génétique, il ne peut connaître le monde que par rapport à lui-
même, en tant que phénomènes.

Toute conscience de est prise en compte instantanément


Toute conscience de présente à l'esprit à l'état d'éveil y déclenche automatiquement
et instantanément les fonctions psychiques qui la prennent en compte ; aucun effort
de volonté n'est nécessaire et la conscience n'a aucun moyen d'empêcher cette prise
en compte.
Exemple : lorsque j'aperçois une autre personne (lorsque j'en ai conscience parce
que j'ai dans l'esprit le couple C = X + A correspondant) ma fonction psychique de
reconnaissance d'image se déclenche, reconnaît qu'il s'agit d'une personne, retrouve
son couple de représentations associé dans ma mémoire, et me produit une
impression de personne connue.

La détection automatique de valeurs de données (distincte de celle "tout-ou-rien" de


la mise sous tension d'un mécanisme) est possible dans le psychisme. Cette détection
instantanée a été confirmée expérimentalement. Selon [344] pages 181, 228 et 232 :
« …la conscience [de] est riche de conséquences. Dès que nous prenons
conscience d'un fait, des myriades de possibilités s'offrent à nous. Nous pouvons
le rapporter à d'autres, en mots ou en gestes. Nous pouvons le stocker en
mémoire et le rappeler ensuite. Nous savons l'évaluer et l'utiliser pour guider nos
actions. Tous ces processus deviennent disponibles au moment même où
l'information accède à notre conscience… »
« …la conscience [de] n'est rien d'autre que la diffusion globale d'une information
à l'échelle de tout le cerveau. »
« Dès que nous prenons conscience d'une information, celle-ci devient capable
d'influencer nos décisions et nos actions volontaires, en nous donnant le sentiment
qu'elles sont sous le contrôle de notre volonté. »

331
Conscience de, Présence à l'esprit et Sens
Nous avons vu qu'une conscience de (état psychique C = X + A) commence
nécessairement par une action d'attention (schéma d'attention A), qui choisit un objet
unique (représentation X) parmi ceux que fournissent les perceptions et ceux qui sont
déjà en mémoire.

La conscience de C est formée par l'attention dans l'espace de travail neuronal global
(notion proposée par [344] pages 228-229), zone cérébrale d'échange entre tous les
processus psychiques, la mémoire de travail et la mémoire à long terme. C'est
l'espace où se forment les pensées et les représentations, où arrivent les perceptions
et d'où partent les stimulations des systèmes nerveux moteurs (ceux qui actionnent
les muscles).

Dès son arrivée dans l'espace de travail, une conscience de est perçue par la
conscience tout court, qui lance alors le premier des processus nécessaires pour
traiter ses données. L'objet X est alors présent à l'esprit : en plus d'en avoir conscience,
le sujet y pense. Rappelons que toute représentation d'objet comprend un sens,
implication psychique avec son jugement de valeur (bien/mal, juste/injuste, beau/laid,
etc.) qui ne sera pris en compte consciemment que si son importance est jugée
suffisante pour distraire la conscience de son enchaînement de pensées unique à un
instant donné.

A l'occasion, un objet dans l'espace de travail peut devenir présent à l'esprit (être pris
en compte par une pensée) sans passer par une conscience de (sous l'action d'une
autre pensée ou suite à une extraction de la mémoire) longtemps après avoir qu'une
attention initiale eut provoqué une conscience de lui.

On voit que les expressions "conscience de" et "présence à l'esprit" n'ont pas la même
signification. A toutes fins utiles, voici leurs traductions en anglais :
 Attention : attention ;
 Conscience de : awareness ;
 Présence à l'esprit : sentience ;
 Sens psychologique : meaning.

L'adjectif anglais "conscious" indique à la fois une conscience de et un sens donné à


l'objet de la conscience de.

3.6.3.2.4 Le champ d'attention


A un instant donné, un sujet perçoit son environnement par tous ses sens à la fois :
vue, ouïe, toucher, etc. Un sens donné, la vue par exemple, a dans son champ propre
plusieurs objets possibles : pour un footballeur, il y a d'autres joueurs, le ballon, le but
adverse, etc. Tous les objets du champ d'attention, perçus par tous les sens, ont
chacun un « poids » mesurant son importance, attribué automatiquement par
l'inconscient, et qui varie constamment pour s'adapter à la situation qui évolue.

Choix de l'objet du champ d'attention dont le sujet est conscient


Les objets du champ d'attention d'un sujet sont constamment en concurrence pour
être communiqués à sa conscience de. Leurs poids sont continuellement comparés

332
par le processus d'attention. A un instant donné, seul celui qui a le poids le plus
important franchit le seuil de conscience et devient « l'objet auquel le sujet fait
attention » ; les autres objets restent perçus par l'inconscient sans interrompre la
fonction psychique en cours d'exécution de la conscience (ce 3ème sens de conscience
est défini plus bas).

Un objet auquel un sujet fait attention peut sortir du champ de sa conscience pour y
être remplacé par un autre objet jugé plus important. Un footballeur qui regarde (fait
attention à) un autre joueur peut, du coin de l'œil, apercevoir le ballon qui vient vers
lui : sous l'influence instantanée de son inconscient son attention se détourne alors
automatiquement vers le ballon, dont le« poids » est devenu prépondérant.

3.6.3.2.5 La conscience de soi


Comme tout objet abstrait en mémoire, l'ensemble C = X + A (conscience de l'objet
cible de l'attention) peut lui-même faire l'objet d'une opération d'attention. La
conscience de résultante, appelée S, est la « conscience du sujet d'avoir conscience
d'un objet » : c'est une conscience de soi. Et comme C lui-même, S comprend une
description Xs et un schéma d'attention As de l'objet source C initial, description notée
S = Xs + As. Une conscience d'avoir conscience s'appelle métaconscience ; c'est une
pensée sur sa propre pensée, une métacognition. (Remarque : [344])

3.6.3.2.6 Conscience d'un objet quelconque


Le cerveau humain a un mécanisme d'attention à n'importe quelle représentation R en
mémoire, quelle que soit la manière dont R a été construite. Ce mécanisme génère
les données d'une conscience de cette représentation, un couple (schéma
d'attention + R). Nous avons évoqué ce sujet ci-dessus.

Avoir conscience de soi-même est possible par le même mécanisme psychique


qu'avoir conscience d'un objet, car la représentation de celui-ci peut résulter d'une
opération précédente de la conscience comme d'une perception des sens.

Enfin, le cerveau à l'état d'éveil peut faire attention à un objet abstrait comme un
concept, ou complexe comme la suite des étapes d'un raisonnement ou une suite de
déclenchements de gestes physiques. L'opération d'attention créera une
représentation et un schéma d'attention de cet objet, permettant à l'esprit d'en avoir
conscience.

Toute connaissance de conscience de est une connaissance immédiate et directe


d'une sensation, d'un désir, d'une crainte, d'une volonté ou d'une représentation
d'objet ; voilà pourquoi vous les connaissez parfaitement, vous pouvez les observer et
les décrire avec certitude, dans tous leurs modes, toutes leurs nuances, tous leurs
caractères relatifs ou particuliers, fugitifs ou permanents.
Cette conscience de génère automatiquement et immédiatement, dans le
subconscient [356] du sujet, une première émotion, agréable ou désagréable, qu'il ne
peut s'empêcher d'éprouver mais qu'il peut ensuite transformer en jugement de valeur
en y réfléchissant. Quand j'entends quelques notes d'une symphonie de Mozart
j'éprouve un sentiment esthétique : je trouve cette musique belle ; j'éprouve cette
émotion immédiatement, instinctivement, sans réflexion aucune.

333
3.6.3.2.7 Modèle prévisionnel de l'évolution d'un objet - Intention d'agir
Lorsque l'esprit a conscience d'un objet pendant un temps suffisant, l'inconscient en
construit automatiquement un modèle de son évolution permettant de prévoir celle-ci
dans l'avenir proche. Le gardien de but qui suit des yeux un ballon en prévoit la
trajectoire, et son subconscient [356] « calcule » le geste nécessaire pour l'arrêter ; la
conscience n'intervient pas avant le geste réflexe, faute de temps, mais après, pour
évaluer la situation.

Parfois, une intention d'agir (décision d'action) est inconsciente et intervient


instinctivement très vite, avant prise en compte par la conscience ; dans ce cas,
l'impression de conscience de qui s'est formée après décision d'action ne fait que
"mettre au courant" la conscience de la décision prise instinctivement, peut-être pour
la justifier rationnellement par souci de cohérence entre inconscient et conscience.
Parfois l'intention d'agir intervient après la conscience d'une certaine cause (c'est-à-
dire après la réflexion qui suit la prise de conscience).

3.6.3.2.8 Conscience d'autrui - La Théorie de l'esprit


Un individu peut avoir conscience d'une autre personne comme il a conscience de soi.
Il fait attention à l'autre, est conscient de l'expression de son visage et de ses gestes,
etc. Une fonction psychique « sociale » permet à tout individu A de se construire un
modèle de l'esprit d'un autre qu'il observe, B, pour essayer de deviner de quoi B a
conscience, ce qu'il pense, l'émotion qu'il ressent, ce qu'il désire et ce qu'il va faire.
Avoir conscience de B a une signification pour A, qui en éprouve une émotion
(agréable ou désagréable) ; la description de cette émotion fait partie des données de
la conscience de B dans l'esprit de A.

La connaissance scientifique actuelle sur ce sujet fait l'objet de la Théorie de l'esprit


(Theory of Mind) [357].

3.6.3.3 Conscience
La conscience (tout court) est l'ensemble des phénomènes psychiques permettant la
connaissance du monde et de soi-même à l'état d'éveil : attention, conscience des
autres et de soi, fonctions psychiques, représentations et affects [253]. Les fonctions
psychiques manipulent des données abstraites (les représentations) pour les
mémoriser, raisonner sur elles et commander des actions musculaires. Du point de
vue physiologique les fonctions résultent d'états et d'excitations de neurones.

Appareil conscient - Appareil inconscient


On se représente parfois cette forme de conscience sous forme d'appareil psychique
virtuel regroupant des fonctions psychiques ; on dit par exemple : « les fonctions
nécessaires à l'entendement sont dans la conscience ». On parle aussi d'appareil
inconscient pour le dispositif virtuel où se produisent les phénomènes inaccessibles à
la conscience : « la reconnaissance des visages fait partie de l'inconscient ».

Freud a montré que l'inconscient [353] humain ignore systématiquement les principes
de logique et le déterminisme. Il peut par exemple, sans intervention de la conscience,
transformer une image (représentation) en une autre grâce à des associations d'idées
basées sur les critères les plus inattendus (existence au même endroit, noms
commençant par une lettre commune, etc.)

334
Comparaison des fonctions inconscientes et des fonctions conscientes
 Les fonctions inconscientes opèrent rapidement, à l'insu du sujet. Il s'agit de :
perceptions, assignations de poids aux objets du champ d'attention, décisions et
actions basées sur ces poids, intuition, compréhension du langage [19], etc.
Les processus qui gèrent les diverses fonctions inconscientes peuvent fonctionner
en parallèle. Par rapport à la conscience, ils sont parfois autonomes, parfois
déclenchés ou influencés par elle ; ainsi, la conscience peut biaiser la concurrence
entre les objets du champ d'attention pour orienter son choix.
 Les fonctions conscientes agissent lentement sur une vision réduite et
schématisée du monde. Il s'agit de :
 Pensée logique ou affective ;
 Synthèse de perceptions inconscientes ou subconscientes pour en offrir une
représentation globale cohérente ;
 Compréhension de phrases ayant plusieurs sens possibles ou des sous-
entendus ;
 Gestion de la mémoire de travail pour pouvoir garder présentes à l'esprit les
représentations qui l'intéressent (et seulement celles auxquelles il veut faire
attention) pendant tout le temps nécessaire. Cette fonction permet la
construction de modèles d'évolution des objets d'attention.

Contrairement à l'inconscient, la conscience ne peut faire qu'une chose à la fois


Cette certitude expérimentale est affirmée avec force dans [344] pages 173 et 177 :
« L'accès à la conscience fonctionne en tout-ou-rien et bascule dans l'état "on" ou
dans l'état "off". »
« Notre cerveau conscient ne peut pas connaître deux embrasements en même
temps, il ne nous laisse percevoir qu'un aspect de réalité à la fois. »
« Le simple fait de se concentrer sur un objet de pensée nous empêche d'en
percevoir un second. […] Avant qu'un objet ne pénètre notre conscience, il doit
d'abord attendre que celle-ci se libère. »

La pensée consciente réagit avec retard et sa vitesse est limitée


Selon [344] pages 177 à 179, notre conscience est en retard sur les événements. Il lui
faut au moins 1/3 de seconde pour traiter un volume suffisant d'informations sur l'objet
de son attention, transformant cet objet en une représentation cohérente. Lorsque ces
informations lui parviennent avec un débit insuffisant (d'une image difficile à distinguer,
par exemple) l'esprit prend le temps d'en accumuler et analyser suffisamment avant
qu'elles franchissent le seuil de conscience et soient prises en compte.
Enfin, lorsque la conscience est occupée à penser à un certain sujet et qu'elle doit
en changer d'urgence, la prise en compte de ce nouveau sujet doit attendre la fin de
celle du précédent ; c'est pourquoi, lorsqu'il doit freiner rapidement pour éviter un
accident, un conducteur en train de téléphoner réagit moins vite que s'il ne pensait
qu'à conduire.
Heureusement, l'homme dispose de deux moyens de compenser
automatiquement le délai imposé par la conscience. Il y a d'abord les réactions réflexes
commandées par le seul inconscient. Il y a ensuite notre fonction d'anticipation des

335
événements, basée sur le modèle prévisionnel de l'évolution de notre contexte de vie
construit automatiquement par l'esprit.

Pour les scientifiques il n'y a plus, aujourd'hui, de mystère de l'expérience subjective


Selon [344] page 207 :
« En un mot, le mystère de l'expérience subjective est aujourd'hui éventé. Au
cours de la perception consciente, les neurophysiologistes n'ont aucune difficulté
à enregistrer des décharges neuronales spécifiques d'une image ou d'un concept,
et ce dans plusieurs régions du cerveau. Ces cellules déchargent si et seulement
si la personne déclare avoir vu l'image - peu importe que cette perception soit
authentique ou imaginaire. Chaque scène visuelle consciente est codée par un
état d'activité neuronale reproductible et qui reste stable pendant au moins une
demi-seconde, tant que la personne la voit. »

Non seulement la conscience de est associée à des décharges neuronales, toujours


les mêmes chez une personne donnée pour une image ou un concept donné, mais
réciproquement l'arrivée d'une image perçue entraîne sa prise en compte par la
conscience sous forme d'une représentation. On lit dans [344] pages 211 et 214-215 :
« …chaque paramètre de la scène visuelle se projette en un point donné du
cortex. Différents secteurs du cortex occipital abritent des mosaïques de neurones
sensibles à la forme, au mouvement ou à la couleur. La stimulation cérébrale
démontre que cette relation entre la perception et les décharges neuronales est
causale. »
« Ce n'est pas l'activité neuronale locale qui suscite la conscience [de], mais sa
propagation à des régions distantes du cortex. […] La conscience [de] réside dans
les boucles du cortex : c'est la réverbération de l'activité neuronale dans les
méandres des connexions corticales qui cause chacune de nos sensations
conscientes. »

3.6.3.4 Conclusion sur la conscience


Répétons-le une dernière fois : le fonctionnement de la conscience, de la conscience
de et de la conscience de soi résulte d'une interprétation par notre psychisme d'états
de nos neurones [355] ; cette interprétation produit toutes nos pensées, sans
exception : représentations, fonctions psychiques, émotions, etc., y compris celles qui
sont dans l'inconscient ou le subconscient [356]. La transcendance intervient
seulement lorsque, ignorant ce fonctionnement et redoutant cette ignorance, nous en
imaginons un.

3.6.3.5 Théorie informationnelle du psychisme


Source : [345]

L'Homme n'a pu comprendre pourquoi un corps pesant tombe lorsqu'on le lâche, et


quelle hauteur verticale il aura ainsi parcouru en fonction de la durée de sa chute,
qu'en faisant appel à des lois de la physique, les lois de Newton. Depuis, notre
compréhension est celle d'équations mathématiques. Dans notre esprit, le passage de
la réalité physique perçue à l'abstraction que constitue sa compréhension (à
l'entendement du phénomène, comme disent les philosophes) est accompli par la
modélisation du phénomène physique au moyen de formules de calcul.

336
C'est par un processus analogue de modélisation que nous comprenons aujourd'hui
le fonctionnement de l'esprit humain. Ce modèle est la Théorie informationnelle du
psychisme (c'est-à-dire de l'esprit), modèle qui généralise celui que nous venons de
décrire pour la conscience. En voici un résumé.

En se connectant et en se transmettant des signaux, les neurones du cerveau


constituent un organe de traitement d'informations, l'appareil psychique. C'est un
processeur d'informations : représentations, impressions et archétypes (modèles de
représentation et de raisonnement) de l'inconscient, et pensées diverses ; le terme
processeur a été choisi par analogie à un ordinateur, qui a des buts analogues : traiter
de l'information.
Rappelons que les représentations concernent autant des objets physiques, des
objets abstraits, des séquences d'événements et des sens psychologiques : désirs,
croyances, appréciations… ; les impressions sont associées à des images de
l'inconscient qui se sont formées et sont manipulées hors du champ de la conscience,
mais qui ont aussi un sens psychologique, agréable ou désagréable.

La Théorie informationnelle du psychisme nous permet de représenter les informations


psychiques sous forme de données, et de raisonner sur les fonctions psychiques sous
forme de processus de traitement de ces données.
La complexité des traitements (le nombre de processus qui peuvent exister et
fonctionner simultanément) est représentée par une multitude de processus
spécialisés qui communiquent et interagissent.
Informations et traitements sont visualisables, mesurables et enregistrables par
des appareils qui captent l'activité des neurones, et avec une précision croissante.

La théorie n'affirme nullement que l'esprit humain est un ordinateur ; mais on a


démontré que toutes les opérations rationnelles de la conscience humaine (calculs
mathématiques, décisions et démonstrations logiques) peuvent être effectuées par un
ordinateur lorsque leurs informations sont représentées par des chiffres et lettres. La
théorie représente tout raisonnement logique humain par un algorithme calculable
équivalent.

Par contre, les processus, archétypes et images de l'inconscient ne sont pas


simulables par des traitements informatiques ; ils sont donc hors du champ de la
théorie.

L'existence, la précision et la fidélité de la modélisation de l'esprit apportées par la


Théorie informationnelle du psychisme nous permettent de comprendre le passage de
la réalité physique à sa représentation abstraite et à sa signification psychologique. Ce
passage, purement physique et déterministe, a lieu lors d'interprétations de données
par des mécanismes d'interconnexion et transmission des neurones fonctionnant
comme un ordinateur.

3.6.3.6 Considérations philosophiques sur la conscience


Par définition, la conscience est une relation entre un sujet et un objet : le sujet a
conscience de l'objet. L'objet de sa conscience est une chose, une personne, le sujet
lui-même ou une idée. Quel que soit son objet, toute conscience est en même temps
conscience de soi, comme sujet, comme centre de la conscience, comme acte de
conscience en train de se faire. La conscience est donc aussi réflexive : dans la

337
représentation de la réalité que chacun a à chaque instant il y a une représentation de
soi-même, et de ses interactions avec cette réalité.
La perception physiologique des phénomènes est l'origine de toutes les autres
formes de connaissance du monde physique. A l'exception de domaines scientifiques
précis comme la physique quantique, décrire un phénomène c'est décrire une
perception ; toute conscience est, par essence, de nature perceptive. Les mécanismes
psychiques de la conscience ont une dimension neurologique, visible lorsqu'on
enregistre les signaux électriques du cerveau, et une pathologie affectant les neurones
affecte la conscience des individus atteints.

Le sujet qui prend conscience du monde qui l'entoure organise ce monde en s'en
faisant une représentation, modèle mental de sa structure et de son fonctionnement.
La perception du monde est par essence subjective, différente avec chaque sujet. Elle
a aussi une dimension affective personnelle, très importante car le moteur de la
relation de conscience est l'affectivité.

Ce point est très important : nous ne nous intéressons à une chose que dans la mesure
où nous y trouvons un intérêt, c'est-à-dire si par sa présence ou absence, son action,
etc., elle nous concerne de manière positive (agréable, prometteuse) ou négative
(désagréable, redoutable). Toute conscience est donc accompagnée d'un jugement
de valeur par le sujet sur l'impact réel ou potentiel de l'objet sur lui ou sur une chose à
laquelle il attribue une valeur. Les deux modes du sentiment - aimer ou détester - avec
l'émotion correspondante, structurent le monde perçu par un sujet.
Un sujet peut s'intéresser à un objet parce qu'il suscite une émotion, ou
simplement par curiosité (le sujet espère tirer satisfaction du fait d'en savoir plus sur
l'objet ou de le comprendre). Le contraire de l'intérêt est l'indifférence : le sujet ne voit
pas ce que l'objet peut lui apporter sur le plan psychologique, donc quel sens il a.

Je ne peux connaître du monde qu'une extension de ce que je suis déjà, car toute
nouvelle représentation que ma conscience m'en construit est nécessairement basée
sur des connaissances, des apriori et méthodes de pensée antérieures. Mais la prise
de conscience apporte une relation nouvelle. En même temps, elle corrige ce que je
croyais du monde extérieur ou ce que j'espérais être, et qui s'avère contradictoire avec
mon expérience ou mon opinion, ou au moins différent. Elle m'oblige à me remettre en
cause, même si cela me déplaît parce que je dois admettre que j'étais moins bon que
ce que j'aurais voulu. En fait, je dois même adopter une attitude de vigilance vis-à-vis
de mes erreurs ou insuffisances, pour reconnaître très vite une différence entre ce que
je croyais et la réalité, pour l'admettre et trouver comment m'améliorer.

Agir en personne raisonnable et responsable comprend toujours une résistance à la


subjectivité, par détection puis rejet de ses idées préconçues et illusions.

Conscience, objectivité et vérité


La conscience est individuelle, mais la connaissance qui peut en résulter n'est pas
nécessairement subjective. Elle peut être partagée par communication avec des tiers :
un texte que j'écris peut être lu par d'autres. Si tous ceux qui ont communication d'une
connaissance l'examinent et qu'aucun ne la réfute, cette connaissance devient
objective ; ils sont alors d'accord avec les faits ou les opinions exprimés (Voir [220] et
la définition d'une théorie scientifique objective).

338
L'objectivité est indispensable à la vérité, qui est (pour le moment, nous reviendrons
sur ce point) l'accord d'un énoncé avec les faits ; si une affirmation n'est vraie que pour
moi et fausse pour les autres, il y a un risque de non-objectivité et d'erreur. Les
sciences existent et produisent des vérités universellement acceptées ; il y a donc bien
des méthodes et des exigences susceptibles de produire des discours qualifiés de
véridiques parce qu'ils recueillent un large consensus (le consensus et l'absence de
preuve d'erreur constituent la base du rationalisme critique, présenté plus bas).

La subjectivité a pourtant un intérêt, celui de filtrer l'information qu'une personne prend


en compte, lui évitant de s'encombrer de connaissances sans intérêt. Ce filtrage est
un jugement de valeur de la connaissance, dans son rapport à celui qui juge. Mon
jugement est basé sur mes connaissances, mon expérience, mon raisonnement, mes
illusions et surtout mes émotions, mais c'est ma seule manière de juger de la vérité.

Conscience et action de l'esprit sur la matière


Idéalistes, de nombreuses personnes pensent que l'esprit humain, avec sa
conscience, peut commander aux muscles - donc agir sur la matière. Elles y voient la
preuve d'une transcendance, de la possibilité que l'esprit immatériel agisse sur la
matière et la domine, bien que cette opinion viole le principe d'homogénéité.

Matérialiste, je ne les suivrai pas. Je considère que la conscience n'est que notre
perception du fonctionnement physique du cerveau, d'où elle commande au corps par
des mécanismes physiologiques passant par le système nerveux et connus de mieux
en mieux. Tout être vivant : animal, plante, champignon, etc. a une conscience d'un
niveau au moins suffisant pour réagir à son environnement et agir sur lui à sa manière,
la conscience spontanée ; l'homme a en plus une conscience réfléchie et une
conscience morale.

L'action du psychisme [347] humain sur le corps est tout à fait analogue à celle du
logiciel sur le matériel d'un ordinateur, et pas plus étonnante, merveilleuse ou
transcendante que lui ; cette action peut même de plus en plus être modélisée par du
logiciel.
Exemples :
 Un détecteur de mouvements oculaires peut aider un pilote d'avion à désigner
une cible ou un dispositif sur lequel il veut agir, en contournant le contrôle de
certains muscles par son cerveau. Le même détecteur est utilisé par des
personnes paralysées pour agir sur des dispositifs qui parlent à leur place,
manipulent un ordinateur, ou contrôlent leur fauteuil électrique.
 Un dispositif d'aide aux malentendants (prothèse auditive) corrige l'interprétation
du son par le cerveau – auquel elle parviendrait déformée ou à un niveau
acoustique trop faible – et génère un son adapté à l'oreille malade.

3.6.3.6.1 Conscience et pensée non algorithmique


Je ne sais pas séparer chez l'homme conscience (réfléchie) et intelligence : chacune
suppose l'autre et ne peut exister sans elle. Nous verrons ci-dessous que le
fonctionnement de l'esprit humain ne peut se ramener aux seuls mécanismes
physiques, biologiques ou génétiques dont il résulterait : sa description suppose des
informations complémentaires, qu'on peut représenter par un modèle logiciel à
couches et qui font l'objet de la Théorie informationnelle du psychisme.

339
Voici un ensemble de fonctions psychiques non algorithmiques, c'est-à-dire dont
un esprit humain intelligent est capable alors qu'un ordinateur ne l'est pas du tout ou
l'est beaucoup moins bien.

L'entendement
Voir sa définition et la discussion de la possibilité pour un ordinateur de comprendre.

Résolution de problèmes
L'ordinateur exécute des algorithmes, mais seul l'homme est capable de les écrire,
c'est-à-dire de trouver la méthode permettant de résoudre un problème, méthode dont
le calcul n'est qu'un des moyens. Les travaux de Gödel, Church, Turing, etc. ont
montré qu'il n'existe pas d'algorithme général permettant de résoudre tous les
problèmes, même déjà formulés en termes précis dans un langage formel à la portée
d'un ordinateur. Seul l'homme peut se construire une représentation mentale d'un
problème (c'est-à-dire le poser), trouver les étapes de sa résolution, et enfin mettre
sous forme calculable celles qui relèvent d'une décision déductive ou du calcul
mathématique.

Un ordinateur peut quand même démontrer des théorèmes lorsqu'il lui suffit d'essayer
toutes les combinaisons de déductions logiques possibles formant des suites de moins
de N étapes, où N est un nombre entier donné.

Jugements de valeur
L'ordinateur n'est capable d'évaluer la qualité ou la valeur d'un résultat que dans la
mesure où cette évaluation a été programmée par un homme, et que le programme a
été lancé avec les données nécessaires.

L'homme, au contraire, évalue automatiquement toutes les situations dont il a


connaissance et toutes les pensées qui lui traversent l'esprit :
 Evaluation de véracité, c'est-à-dire d'adéquation d'une représentation avec la
réalité. Cette évaluation peut même être nuancée ou assortie d'un doute, la
vérité pouvant (pour un homme, pas dans l'absolu) être partielle ou approchée.
On a démontré que, même dans le cadre d'une axiomatique précise [67] :
 Il n'existe pas de méthode générale de preuve d'une affirmation ;
 Il existe des propositions indécidables (qu'on peut écrire, mais dont la
véracité ou la fausseté ne peut être prouvée logiquement [6]).
Un ordinateur ne peut donc pas évaluer la qualité et les implications de ses
résultats sans logiciel ad hoc fourni par l'homme ; il ne peut même pas évaluer la
cohérence et la pertinence des données qu'il reçoit sans les règles algorithmiques
correspondantes, elles aussi fournies par l'homme. Ce grave problème a pour
origine le caractère arbitraire, postulé par l'homme, des axiomes d'une
axiomatique, situation nécessaire à jamais irrémédiable.
 Evaluation du résultat d'un calcul, d'un raisonnement, d'une action en fonction du
but prédéfini, avec là aussi possibilité de nuancer l'appréciation.
Il est remarquable que de nombreux scientifiques considèrent qu'une théorie ou
une formule a plus de chances d'être vraie si elle est élégante [143]. L'élégance
scientifique est donc pour eux un critère de vraisemblance pris en compte dans

340
leur évaluation. C'est une qualité esthétique exprimant par exemple de la
concision, de la simplicité, de la symétrie ou de la généralité. Il est clair qu'un
homme peut formuler une opinion sur l'élégance, certes personnelle et subjective,
alors qu'un ordinateur…
Il faut cependant reconnaître que certaines démonstrations sont correctes bien
qu'étant tout sauf concises et simples. Exemple : la démonstration du théorème
de Fermat par Wiles représente 109 pages difficiles [144].
Bien que, comme tout le monde, je préfère une démonstration simple et concise
à une démonstration longue et compliquée, je pense que l'élégance et l'esthétique
sont des appréciations subjectives sans plus de valeur scientifique que le principe
anthropique auquel certains croient pour expliquer l'Univers.
 Prédiction des évolutions possibles d'une situation, avec évaluation de la
probabilité de chacune et de ses conséquences.
Ces prédictions sont basées sur l'aptitude de l'homme à reconnaître des modèles
mentaux à partir de concepts dont il dispose :
 Reconnaissance d'images (photo d'une personne, etc.), que les ordinateurs
commencent à savoir bien faire ;
 Reconnaissance d'une attitude (par exemple hostile ou amicale) à partir de
perceptions diverses ; les ordinateurs commencent à disposer de logiciels
de stratégie permettant d'évaluer une situation (par exemple militaire ou
économique) à partir de paramètres donnés, en utilisant des algorithmes
d'évaluation programmés par l'homme ; certains logiciels prétendent aussi
prévoir l'évolution d'un cours de bourse ou calculer le risque qu'il y a à
détenir un titre, mais ils se trompent – et souvent gravement [301-a].
 Reconnaissance d'une méthode de pensée, de représentation, de résolution
d'un problème, etc., possibilités hors de portée d'un ordinateur.
Après évaluation, l'homme peut reconnaître ses erreurs ou insuffisances et se
corriger ; un ordinateur ne peut reconnaître que des situations pour lesquelles un
homme lui a fourni le programme de reconnaissance ; il ne peut se reprogrammer
qu'avec une logique d'autoprogrammation fournie par un homme.
 Jugement avec prise de risque. La plupart de nos décisions doivent être prises
avec des informations insuffisantes ou incertaines. L'homme est conscient des
risques, s'efforce de les évaluer et de décider au mieux, souvent après
concertation avec d'autres hommes. L'ordinateur ne sait pas évaluer ses
informations dans des situations non préprogrammées et ne sait pas avec qui et
comment se concerter.
 Autoapprentissage progressif. Un enfant ou un apprenti apprend peu à peu, en
accumulant des faits mémorisés et en construisant des méthodes de pensée ; il
évalue au fur et à mesure ce qu'il voit, qu'il sait, qu'il fait. Il profite aussi des
connaissances et de la culture accumulées depuis des générations par la
société où il vit.
 Adaptabilité de l'être humain. Nous avons déjà vu qu'un être humain s'adapte
peu à peu : ses organes s'adaptent, ses mécanismes physiologiques s'adaptent
et l'expression de ses gènes s'adapte progressivement à partir de sa naissance.

341
En outre, les hommes se transmettent les connaissances, chacun progressant
avec l'aide des autres, et l'évolution des gènes et de leur expression améliorent
peu à peu l'adaptation de l'homme à son mode de vie.
 Génération continue dans la conscience de besoins à satisfaire et proposition
d'actions pour y parvenir, sujet déjà abordé.

Autres aspects de l'intelligence et de la conscience


 L'homme est plus ou moins conscient de ses propres émotions, donc des
risques d'évaluation biaisée et de motivations inavouées. Chacun étant plus
perspicace et plus objectif sur un autre que sur soi-même, chaque homme peut
se faire conseiller par des psychologues, des philosophes, des consultants
spécialisés, des amis, etc.
 L'homme dispose de méthodes de communication multiples avec ses
semblables : parole et ton employé, texte et images, expression du visage et du
corps… Le nombre et la variété de ces moyens de communication n'ont d'égal
que leur richesse de nuances.
 Chaque individu a conscience d'un autre individu en tant qu'homme. Il s'en fait
une représentation qui modélise ses émotions et son comportement prévisible.
 L'homme adopte des attitudes et des comportements de tromperie, de ruse,
d'amitié, d'aide, d'amour, etc. Un ordinateur qui joue aux échecs ne peut
appliquer que des stratégies préprogrammées.
 L'homme a des intuitions inexplicables et soudaines [66], [141], qui lui apportent
des hypothèses ou des certitudes n'ayant qu'un rapport lointain avec des faits
avérés et des raisonnements logiques. Ce sont des pensées non déterministes :
elles peuvent se construire dans l'inconscient à la suite d'associations illogiques
d'idées ou d'images basées sur une proximité psychologique ; exemples :
 L'image ou l'archétype A induit un sens psychologique semblable à l'idée B ;
 Le modèle de représentation A a été utilisé par la conscience en même
temps que l'objet B, qui n'a aucun rapport logique avec lui.
 Au niveau supérieur de la conscience s'ajoute le niveau sous-jacent de
l'inconscient. La conscience ne réfléchit qu'à un problème à la fois, mais
l'inconscient travaille sur de multiples sujets en parallèle, avant de choisir parfois
d'en communiquer un à la conscience.
 La pensée (représentations, déductions, inductions, analogies) procède parfois
par mots, parfois par schémas graphiques, etc. Les hommes ne pensent pas
tous de la même façon ; un homme donné ne pense pas toujours de la même
façon.

Voir aussi :
 Le modèle informatique de l'homme ;
 Ordinateur et compréhension ;
 [168] pour les universaux, qui font partie du déterminisme de la conscience.

342
3.6.3.6.2 Conclusion sur le caractère non-algorithmique et non-déterministe de la
pensée
Il y a des pensées inconscientes dans le psychisme [347] humain qui ne peuvent
provenir d'aucun algorithme et qu'aucun ordinateur ne pourra jamais simuler, tant pis
pour les personnes qui espèrent que l'intelligence artificielle et les réseaux neuronaux
finiront par rattraper l'homme ; leurs espoirs relèvent de la science-fiction et des robots
humanoïdes du génial Isaac Asimov [140].

A ce point de l'exposé, la discussion sur le caractère algorithmique de la pensée


humaine me paraît close, mais il reste un point qui intéresse les philosophes : la
pensée est-elle déterministe parce qu'elle est toujours une conséquence de processus
physiologiques, donc matériels ? Et si oui, est-elle prévisible ?

L'imprévisibilité de certains raisonnements


Il y a des pensées imprévisibles parce que leur contexte est non reproductible. Les
processus physiologiques sous-jacents sont bien déterministes, donc à déroulement
et résultat prévisibles, mais leurs circonstances initiales - notamment émotionnelles -
et leur contexte de déroulement peuvent trop varier d'une fois sur l'autre pour permettre
la prédiction du résultat.

Voici d'autres raisons d'imprédictibilité de certains raisonnements :


 Le nombre immense de variables d'une situation où l'homme réfléchit à une
décision consciente : nous avons vu qu'un nombre très grand de processus
déterministes simultanés pouvait produire un comportement global imprévisible
(détails).
 Les imperfections de la mémoire, sujette à oublis, erreurs et inventions dans ses
processus permanents de reconstitution des informations stockées.
 Les étapes de pensée qui se déroulent dans l'inconscient.
 Les intuitions [141] et associations d'idées qui naissent dans un cerveau par
suite de proximité physique entre des synapses [268] ou des cliques,
associations qui dépendent de seuils d'excitation chimique ou électrique
susceptibles de varier avec le contexte physiologique et émotif du moment.
Le cerveau humain est notamment capable de formuler (souvent par une intuition
pure et inexplicable) des propositions indécidables (propositions dont il n'existe
pas d'algorithme capable de prouver qu'elles sont justes ou fausses [6], [66]), mais
dont il est persuadé (sans preuve) de connaître la justesse !
 Le choix entre un raisonnement et un autre dépend toujours du contexte :
lorsque je suis heureux et optimiste, je raisonne autrement que lorsque je suis
malheureux et découragé. Je peux aussi entretenir des illusions…

Voir aussi, en matière boursière, [301-a].

3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ?


Nous savons déjà que la pensée n'existe pas en dehors de son support cérébral : voir
[51] page 222. Nous n'avons jamais constaté objectivement l'existence d'une pensée
non cérébrale, nous ne sommes pas près d'en créer une avec des ordinateurs, et nous
postulons le matérialisme et refusons l'idéalisme. Mais ce n'est pas parce que le

343
cerveau est une condition nécessaire (exactement : un support indispensable) à la
pensée, qu'il est aussi une condition suffisante et qu'un corps humain avec un cerveau
vivant pense comme nous le faisons.

Puisque la pensée apparaît et se développe automatiquement dans l'embryon humain,


puis chez l'enfant et l'adulte, et qu'il n'existe pas d'être humain vivant qui ne pense pas,
la pensée est une activité aussi inséparable du corps d'un homme vivant que la
respiration, elle est consubstantielle à l'homme ; en outre elle n'existe pas par elle-
même, avant l'homme, en vertu du postulat matérialiste.

Les scientifiques savent que la pensée est l'interprétation par les mécanismes
neuronaux de l'homme du fonctionnement de ces mêmes mécanismes. [332]

3.6.4 Le modèle informatique de l'homme


La conclusion sur l'inséparabilité de l'homme physique et de sa pensée est cohérente
avec la Théorie informationnelle du psychisme, modèle informatique de l'homme, dont
la conscience est un effet du logiciel qui gouverne les processus non automatiques de
la vie : la pensée est la perception par notre cerveau du fonctionnement de ce logiciel.

3.6.4.1 La pensée en tant que processus d'interprétation


Nous savons maintenant que la pensée est la perception par le cerveau de son propre
fonctionnement lorsqu'il interprète l'état de ses neurones et leurs connexions. C'est
cette interprétation qui transforme un état matériel de neurones en un autre état perçu
comme abstraction. Elle constitue la seule mise en relation entre concepts de genres
différents qui ne viole pas le principe d'homogénéité.

Selon la Théorie informationnelle du psychisme, le cerveau fonctionne un peu comme


un ordinateur, dont :
 Le "matériel" serait son ensemble de neurones, avec leurs possibilités
d'interconnexion, de transmission, de mémorisation et de raisonnement.
 Le "logiciel" serait l'ensemble des règles de fonctionnement du cerveau lorsqu'il
manipule des abstractions qu'il a créées sous forme d'états neuronaux et
d'interconnexions.

Le "cerveau-ordinateur" interprète des états de ses neurones et des perceptions pour


en tirer des états-conclusions, par raisonnement conscient ou non. Les règles de cette
interprétation forment un "logiciel axiomatique" décrivant des états de neurones et des
règles de combinaison d'états initiaux en états finaux. L'interprétation par ce logiciel
est basée sur ces axiomes et règles et ne peut produire que des états neuronaux qui
en résultent : nous ne pouvons concevoir, imaginer, mémoriser ou utiliser pour
raisonner que des objets que ces règles-là peuvent déduire de nos axiomes, nous
l'avons déjà noté.

Les fonctions psychiques conscientes sont un ensemble d'interprétations, et rien que


cela. Elles produisent des états de neurones que nous considérons comme ayant une
signification : de ce que je sais et vois, je déduis que j'existe et les propriétés d'objets
dont mon cerveau a construit des modèles (nécessairement réducteurs) - et seulement
de tels objets. Ce modèle informatique de la pensée "cerveau-ordinateur" ci-dessus
est conforme aux résultats expérimentaux [332].

344
En reliant des abstractions l'esprit humain peut créer n'importe quelle relation, même
fantaisiste ou absurde ; il suffit que certains groupes de neurones (des « cliques »)
créent, modifient ou suppriment diverses connexions entre neurones.

Le processus d'interprétation de notre pensée n'est pas déterministe, d'abord parce


qu'il comprend des fonctions inconscientes, ensuite parce qu'il subit l'influence de
conditions non conscientes (donc non maîtrisables) venues de nos perceptions, de
notre état de santé du moment et des émotions qui apparaissent spontanément.

3.6.4.2 Modèle logiciel à couches du psychisme


Par analogie avec un ordinateur et conformément à la Théorie informationnelle du
psychisme, je propose pour modèle du psychisme [347] les niveaux de logiciel humain
suivants, du plus élevé au moins élevé :
 Logiciel (en anglais : software) :
 La conscience ;
 L'inconscient ;
 Les processus automatiques du système nerveux (cervelet, moelle épinière,
etc.) ;
 Microcode (en anglais : firmware) : le code génétique et son interprétation par la
machinerie cellulaire : duplication et expression des gènes, fabrication et
utilisation des protéines, etc.

Le "matériel" sous-jacent, nécessaire à l'existence et au fonctionnement du logiciel,


est l'ensemble des cellules du cerveau, avec leurs processus biologiques basés sur
des protéines générées par interprétation du génome.

Ce modèle logiciel ne peut se ramener à un modèle exclusivement physique, basé sur


la biologie et/ou la génétique. C'est une description complémentaire, basée sur de
l'information et des relations entre informations, ainsi que des générations,
comparaisons et interprétations d'informations par notre esprit. Tenter de déduire des
pensées dans un esprit humain de mécanismes exclusivement neuronaux est
impossible. Ce n'est pas parce que la pensée est impossible sans un cerveau et ses
mécanismes physiques qu'elle peut se réduire à eux : ils en sont une condition
nécessaire, mais pas suffisante pour en décrire le déroulement.

3.6.4.3 Le fonctionnement du psychisme n'est pas souvent déterministe


On peut répondre « En général non » à la question "Le psychisme fonctionne-t-il de
manière déterministe ?" :
 L'esprit ne respecte pas toujours les exigences de causalité et de reproductibilité
de la définition du déterminisme scientifique traditionnel, dans la mesure où :
 une partie d'une pensée, notamment son déclenchement et les émotions qui
l'accompagnent et l'influencent, est dans l'inconscient ;
 des intuitions peuvent apparaître spontanément et paraître prégnantes
[141] ;

345
 des jugements de valeur peuvent être émis et des décisions peuvent être
prises malgré des incertitudes et des informations insuffisantes, sur la base
d'une inspiration ou d'une impression, et sans garantie de reproductibilité ;
 les circonstances entourant une prise de décision varient constamment du
fait du nombre de variables dont la valeur peut changer à notre insu.
 Le psychisme est capable d'apprendre et de s'adapter, mais cela se produit dans
des contextes qui ne respectent pas souvent l'exigence de reproductibilité.
Exemple : l'apprentissage progressif d'un enfant, par essais et erreurs.
 L'inconscient fonctionne souvent de manière non algorithmique [353] : des
pensées peuvent s'y former selon des critères irrationnels et non reproductibles,
et se propager à la conscience ou en orienter le fonctionnement.

Lorsque la conscience fonctionne de manière non déterministe, l'homme est


nécessairement imprévisible. Nous avons vu aussi que même lorsqu'un phénomène
complexe ne comprend que des processus déterministes, son résultat est en général
imprévisible.

3.6.4.4 Autres raisonnements humains inaccessibles à un ordinateur


Certains processus mentaux caractéristiques d'un être humain sont inaccessibles aux
ordinateurs actuels. Ils utilisent des facultés humaines comme :
 L'aptitude à reconnaître des formes ou des lettres même lorsqu'elles sont
déformées, qu'elles ont des parties absentes ou surabondantes ;
 L'aptitude à trouver des points communs sémantiques entre plusieurs dessins,
photos ou mots ; etc.

Ces processus sont aujourd'hui très utilisés dans des applications interactives Internet,
pour empêcher des ordinateurs de se faire passer pour des humains ; voir la page du
projet CAPTCHA [193]. Leur aptitude inaccessible à un ordinateur consiste à effectuer
des rapprochements de représentations selon des règles approximatives et souvent
créées à l'instant et dans le contexte où on en a besoin ; exemple : des analogies
basées sur des critères illogiques, affectifs ou esthétiques. Ces rapprochements
peuvent résulter d'efforts conscients ou d'intuitions indépendantes de la volonté.

3.6.5 Libre arbitre, imprévisibilité et transgressions

Ne pas confondre comportements imprévisibles et libre arbitre


Nous aborderons plus bas la nature du libre arbitre de l'homme compte tenu du
déterminisme. Mais d'ores et déjà il faut remarquer qu'il n'y a pas de rapport entre
l'éventuelle imprévisibilité irréductible d'une personne et sa volonté ou son refus de
faire quelque chose, parce que cette imprévisibilité (si elle existe) est inconsciente.
L'imprévisibilité d'un individu peut donner, à d'autres comme à lui-même, l'impression
qu'il a son libre arbitre, mais nous verrons que cette impression est trompeuse.

L'imprévisibilité vient parfois des lois physiques, nous l'avons vu plus haut, et parfois
des mécanismes du psychisme humain. Mais elle vient aussi de l'ignorance de
l'homme, de son incompréhension de ce qui se passe. C'est ce que Spinoza avait vu
lorsqu'il écrivait dans "l'Ethique" [97] (partie II, proposition XXXV) :

346
"Les hommes se trompent en ce point qu’ils pensent être libres. Or, en quoi
consiste une telle opinion ? en cela seulement qu’ils ont conscience de leurs
actions et ignorent les causes qui les déterminent. L’idée que les hommes se
font de leur liberté vient donc de ce qu’ils ne connaissent point la cause de leurs
actions, car dire qu’elles dépendent de la volonté, ce sont là des mots auxquels
on n’attache aucune idée. Quelle est en effet la nature de la volonté, et comment
meut-elle le corps, c’est ce que tout le monde ignore…."

Ne pas confondre aptitude à transgresser les règles et libre arbitre


Un soldat prisonnier devient un héros lorsqu'il choisit de mourir sous la torture plutôt
que de « parler ». Certains philosophes ont vu dans cette aptitude de l'homme une
preuve de sa possibilité d'échapper au déterminisme, donc de sa liberté ; ils
considèrent que le libre arbitre de l'homme est caractérisé par son aptitude à choisir
contre son intérêt au nom de valeurs supérieures, même si celles-ci sont purement
morales ou intellectuelles.

Nous reviendrons plus bas sur le libre arbitre et la liberté de l'homme, mais je voudrais
proposer ici une interprétation matérialiste de l'aptitude humaine à transgresser des
règles. Tant qu'un homme est conscient, tant que sa souffrance physique, par
exemple, ne l'empêche pas de penser et n'empêche pas sa pensée de maîtriser ses
actes, il est soumis à la dictature des valeurs présentes dans son esprit. Or celles-ci
sont ordonnées, certaines prenant le pas sur d'autres. Dans une situation donnée, tant
que l'homme a la capacité de réfléchir, il agit en fonction de celles de ses valeurs qui
s'appliquent et sont les plus influentes, parce que les règles de comportement issues
de ses gènes le lui imposent. C'est pourquoi les méthodes de torture les plus raffinées
essaient de réduire l'aptitude de l'homme torturé à penser, par exemple en le privant
de sommeil.

Je crois fermement que l'homme en mesure de penser n'est jamais libre de


transgresser toutes ses valeurs, qu'il y en a au moins une à laquelle il obéira parce
qu'aucune autre n'est plus importante à ses yeux à ce moment-là. Et tant qu'il lui reste
au moins une valeur dominante, l'homme en est esclave.

Noter que la raison n'est pas une valeur, contrairement à ce que croyait Descartes. Ce
n'est qu'un outil utilisé par l'esprit pour trouver quoi faire pour satisfaire le mieux la
valeur dominante du moment.

Nous verrons plus bas que l'homme peut faire ce qu'il veut, mais il ne peut pas vouloir
ce qu'il veut [224]. N'oublions pas que l'homme ne maîtrise pas son inconscient et que
celui-ci intervient avec ses propres automatismes et ses propres valeurs instinctives,
cachées.

Il faut ajouter, ici, qu'à long terme toute valeur est susceptible d'être créée, rejetée,
modifiée, ravalée à un rang inférieur ou promue à un rang supérieur. Une telle
évolution peut provenir des expériences vécues par l'homme comme de ses réflexions.
Une transgression de valeur dominante peut, après une telle évolution, s'expliquer par
le respect d'une valeur désormais supérieure. Mais je ne vois toujours pas de besoin
de postuler que l'homme jouit d'un libre arbitre, sachant que ce libre arbitre est illusoire.

347
3.6.6 Différences entre représentations mentales de personnes différentes
J'avais toujours cru que l'homme ne pouvait penser consciemment qu'avec des mots,
et que sans le mot ou la phrase nécessaires un concept ne pouvait exister, ou ne
pouvait être assez clair pour être communiqué à autrui. Je pensais même qu'une
pensée ne pouvait être organisée, structurée, que dans la mesure où le texte qui la
représentait pouvait lui-même être structuré d'une manière hiérarchique avec des titres
et sous-titres. C'était là ma propre façon de penser et je ne voyais pas pourquoi la
conscience d'autres personnes fonctionnerait autrement.

Et puis un événement m'a obligé à compléter ce modèle de support linguistique de la


pensée consciente. J'étais alors étudiant en astronomie, enseignement que je suivais
pour mon plaisir après la fin de mes études d'ingénieur. Chaque cours magistral durait
deux heures et, dès le premier, j'avais remarqué avec ravissement à quel point le
professeur, un normalien, expliquait clairement. Un jour il se surpassa : en deux
heures il arriva à nous expliquer les cinq ou six premières approximations du
mouvement de la Lune. Or ce mouvement par rapport à la Terre est si loin d'une orbite
képlérienne, du fait de diverses perturbations, qu'il est un des problèmes les plus
difficiles de mécanique céleste.

En sortant du cours, j'étais certain d'avoir compris et retenu tout ce que le professeur
avait expliqué, malgré le niveau scientifique du sujet et le nombre de détails. Je
trouvais extraordinaire qu'il m'ait suffi d'écouter attentivement et de prendre quelques
notes pour assimiler un tel sujet. J'avais déjà suivi les cours de dizaines de professeurs
sans avoir jamais eu pareille impression. Aussi, à la fin du cours suivant, j'allai trouver
le professeur, le remerciai pour la clarté de son enseignement et lui demandai son
secret.

Comme beaucoup de vrais savants, il était aussi modeste que génial. Il commença
par m'indiquer des recettes simples, comme de regarder souvent dans les yeux de
plusieurs élèves pour voir s'ils suivaient ; d'énoncer toujours avec soin le titre de
chaque sujet qu'il allait traiter avant de le faire et sa conclusion à la fin ; de donner
force exemples chiffrés, et de situer l'apport et l'intérêt de chaque étape par rapport à
d'autres connaissances.

Et comme il vit dans mes yeux que je voulais en savoir plus, il ajouta :
"Les années passant, j'ai aussi appris à connaître les schémas mentaux de mes
étudiants. Tenez, ce matin par exemple un étudiant m'a demandé de lui expliquer ce
qu'est une surface développable. Je lui ai demandé quelles études il faisait, et il m'a
répondu qu'il voulait devenir chimiste. Alors je lui ai demandé : « Savez-vous faire un
filtre en papier ? ». Et comme il m'a répondu oui, je lui ai demandé de faire le geste de
plier une feuille de papier pour en faire un filtre conique, ce qu'il a fait sans hésiter.
« Eh bien », lui ai-je dit, « à partir d'une feuille plane vous venez de faire une surface
conique développable. » J'ai pensé qu'un chimiste connaîtrait le modèle mental d'un
filtre conique, et j'ai utilisé cette représentation-là pour lui expliquer son modèle
mathématique. Au fil des années d'enseignement et des sessions d'examens j'ai ainsi
appris à connaître quelques représentations mentales de mes étudiants, et je les utilise
en priorité chaque fois que j'explique quelque chose."

Le professeur avait d'autant plus raison que les gens ont des représentations
différentes pour le même concept un peu abstrait ou général, et font des

348
enchaînements déductifs différents pour arriver à une même conclusion. En
considérant alors ma propre manière de réfléchir, je m'aperçus qu'en plus des mots et
des structures hiérarchiques d'idées, j'utilisais à l'occasion des schémas géométriques
pour décrire des relations entre idées ou des enchaînements d'étapes de
raisonnement. J'utilisais aussi des techniques de mémorisation de démonstrations
complexes basées sur l'ordre des émotions éprouvées à diverses étapes importantes :
généralité enthousiasmante d'un énoncé, élégance d'une déduction, surprise face à
un résultat, concision d'une formule, etc. J'avais découvert ces techniques très
personnelles en m'efforçant d'apprendre les questions de cours des programmes de
maths et physique du baccalauréat, et je m'en sers depuis. Bien entendu, la base de
la pensée reste toujours les mots représentant les concepts et les opérations sur eux.

Plus tard, je découvris que certaines personnes associent des couleurs, des formes
géométriques et des émotions à des chiffres, lettres ou mots, ce qui leur permet des
performances en matière d'associations d'idées, de mémorisation ou de calcul mental
hors de ma portée [280].
(Revoir si nécessaire les sections sur les représentations et la conscience de, qui
décrivent la richesse des fonctions psychiques correspondantes.)

Je pense aujourd'hui que les représentations mentales et l'enchaînement des étapes


de raisonnement diffèrent tellement d'une personne à une autre qu'une communication
efficace doit utiliser plusieurs techniques : textes, schémas, photos, vidéos, mais aussi
exemples, analogies, synthèses, questions et réponses. Elle peut même recourir à des
redites sous une forme différente, des anecdotes et de l'humour. Pour les personnes
plus intuitives que les autres, il faut une expression suggestive qui profite de cette
faculté. (Voir exemple d'intuition immédiate dans [141]). Pour les personnes qui ont
besoin de comprendre l'essentiel avant d'accepter l'effort de lire les détails, il faut une
structure de niveaux claire et (en notre XXIe siècle) des liens hypertexte pour pouvoir
approfondir un détail situé en annexe pour ne pas encombrer le texte principal.

Je me souviens aussi du conseil de Blaise Pascal, selon lequel convaincre l'esprit (la
raison) ne suffit pas si on ne séduit pas aussi le cœur [239] : une communication
efficace demande la mise en condition de la cible, dont les membres doivent avoir
envie d'en recevoir le message et si possible sympathiser avec l'auteur.
C'est pourquoi, pour combattre l'échec scolaire il ne faut pas tenter de convaincre
les élèves que « c'est pour leur avenir », mais qu'ils peuvent réussir et en tirer une
satisfaction ; leur absence d'effort vient d'une absence de sens psychologique
provenant de succès.

Les enchaînements du fonctionnement mental varient tellement d'un individu à un


autre que la compréhension d'autrui (de ce qu'il dit, comme de ce qu'il ne dit pas mais
devrait dire) est un art si personnel que chacun doit l'apprendre seul pour l'essentiel,
les autres n'ayant guère le moyen de l'aider. C'est ainsi qu'il m'a fallu attendre l'âge de
25 ans avant d'apprendre le peu de pédagogie que le professeur d'astronomie a pu
m'enseigner, après l'avoir lui-même trouvé tout seul.

349
3.6.7 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle
Il n'y a pas de loi générale, mais on peut distinguer deux cas selon le caractère naturel
du contexte ou son caractère artificiel avec intervention humaine. Voyons des
exemples.

3.6.7.1 Difficulté d'expliquer un comportement macroscopique à partir de


phénomènes au niveau atomique
Les objections des idéalistes au modèle matérialiste de la vie qui réduit celle-ci aux
seuls mécanismes biophysiques s'expliquent aussi par une erreur de méthode : ils
tentent de comprendre des structures, mécanismes et fonctions de haut niveau
directement à partir de notions de bas niveau, c'est-à-dire de niveau moléculaire, en
oubliant les interactions. Nous allons voir des raisons pour lesquelles c'est, en général,
impossible pour un être humain.

La difficulté de passer d'une représentation ou une modélisation de certains


phénomènes à l'échelle moléculaire à une représentation ou une modélisation à
l'échelle macroscopique provient d'une complexité qui se manifeste à la fois :
 Par le fait que l'action des gènes, basée sur des mécanismes de biologie
moléculaire déterministes, porte sur des milliers de réactions chimiques qu'elle
coordonne [268] ; sa complexité la rend donc en général imprévisible [51]. On a
quand même réussi à modéliser de manière parfaite l'intégralité des fonctions
vitales d'un micro-organisme avec 128 ordinateurs fonctionnant en parallèle
[279].
 Par l'impossibilité de passer directement des mécanismes cellulaires des êtres
vivants à leurs mécanismes psychiques, même en tenant compte du logiciel
génétique ([51] page 14). Nous devons prendre en compte le modèle
informatique de l'homme, avec ses interactions entre processus du même niveau
ou de niveaux différents.
 Par le nombre immense d'interactions possibles entre les variables
physiologiques et psychiques intervenant dans la pensée humaine en même
temps que les variables de son environnement (santé, activité, etc.).

Conclusion sur le déterminisme lors d'un changement d'échelle


Si l'on veut prendre des décisions - ou simplement comprendre les phénomènes
psychiques humains - à l'échelle macroscopique à partir d'une compréhension des
situations et des phénomènes à l'échelle moléculaire ou cellulaire, on se heurte à des
difficultés insurmontables.

Ce n'est pas le déterminisme qui est en cause en tant que principe, surtout si on en a
étendu la définition comme suggéré dans ce texte, c'est la complexité intrinsèque des
interactions entre processus des êtres vivants et du nombre de leurs variables. Cette
complexité, déjà formidable pour les lois physiques et chimiques, est complètement
inextricable pour les phénomènes irréversibles à la base de l'auto-adaptation et de
l'évolution du vivant, et encore plus pour les lois du psychisme ou de la société ; notre
esprit ne peut se la représenter à l'aide des seules connaissances à l'échelle
microscopique. Toute compréhension ou décision à l'échelle humaine passe donc
nécessairement par une hiérarchie de niveaux schématisant et simplifiant

350
progressivement les représentations ; dans son modèle informationnel, cette
hiérarchie comprend des niveaux logiciels.
Il est souvent préférable d'étudier et de modéliser le comportement humain en
étudiant son psychisme [347] comme le font les psychologues, d'une manière holiste.

Plus généralement, un même ensemble de lois physiques, adaptées à une échelle


particulière (Relativité à l'échelle cosmologique, lois macroscopiques à l'échelle
humaine, Mécanique quantique à l'échelle atomique...) ne permet pas, en pratique, de
modéliser les comportements à une autre échelle ; on ne peut donc pas faire une suite
de déductions ou prédictions de comportement en franchissant une limite d'échelle :
nous l'avons vu à propos des Principes de correspondance et de complémentarité.
Voir aussi Ensemble de définition d'une loi déterministe.

3.6.7.2 Niveau des phénomènes naturels


Nous avons déjà vu qu'à l'échelle atomique la Mécanique quantique introduisait la
possibilité de conséquences multiples d'une cause donnée, comme les multiples
résultats possibles pour une mesure, ou les multiples états quantiques stables
correspondant à une fonction d'onde donnée ; nous savons aussi que ces résultats
multiples peuvent exister simultanément, en superposition ; nous savons enfin que le
passage au niveau macroscopique peut faire apparaître comme continu un
comportement déterministe discontinu du niveau atomique.
Exemple : une quantité d'électricité, nécessairement discontinue car multiple
entier de la charge (élémentaire) de l'électron (e = 1.6 .10-19 coulomb) au niveau
atomique, paraît être une grandeur continue au niveau macroscopique, tant la
charge élémentaire e est petite ; le déterminisme reliant cause et effet n'est pas
tout à fait le même.

Nous avons également vu que l'imprécision qui rend imprédictible et irréversible la


trajectoire d'une molécule dans un liquide devient négligeable au niveau
macroscopique où on ne s'occupe plus des molécules individuelles, mais seulement
des propriétés statistiques du liquide dans son ensemble, c'est-à-dire des moyennes
en un point donné de la température, de la pression, etc. En sens inverse, connaissant
les lois de comportement macroscopiques, on n'a même pas pu deviner pendant des
siècles qu'il existait un niveau moléculaire obéissant à des lois complètement
différentes. Les lois physiques du niveau atomique sont apparues :
 En 1900 avec le quantum élémentaire d'action de Planck, h
(h = 6.6261 .10-34 joule.seconde) ;
 En 1905 avec l'effet photoélectrique d'Einstein, qui explique pourquoi et
comment la lumière peut avoir à la fois un comportement ondulatoire et un
comportement corpusculaire.

Ces deux découvertes ont valu des Prix Nobel à leurs auteurs, tant elles ont
révolutionné la physique.

3.6.7.3 Niveau des phénomènes sociétaux


L'économie, qu'on peut considérer comme « la science de l'allocation de ressources
rares et chères » (main-d'œuvre, terre, eau, minerais, capital…) n'a de sens qu'à un
niveau regroupant un certain nombre d'hommes.

351
 Le comportement d'un individu isolé est en général peu prévisible lorsqu'il prend
des décisions à caractère économique : quel produit choisir, combien en
acheter, à quel prix, quand, à qui ; quel métier exercer, où, etc. [301]
Au niveau individuel, le déterminisme est surtout un postulat philosophique
matérialiste : l'homme a un comportement rationnel et égoïste déterminé par sa
psychologie et son environnement présent et historique ; Sartre pense, en outre,
que l'homme a son libre arbitre (voir aussi [81]).Les idéalistes, au contraire,
pensent que toute action humaine est déterminée par Dieu ou des forces de
l'esprit.
 Le comportement économique d'un groupe d'individus apparaît d'autant plus
prévisible qu'ils sont plus nombreux et que la situation est moins exceptionnelle.
 Au niveau d'une entreprise, par exemple, (niveau considéré comme
microéconomique) il existe des lois de production [64], de marketing, etc.,
traduisant un certain déterminisme lorsque leurs hypothèses réductrices et
simplificatrices s'appliquent.
 Au niveau d'un pays ou d'un groupe de pays comme la zone euro (niveau
considéré comme macroéconomique), il y a des lois déterministes plus ou
moins quantitatives comme la « loi de l'offre et de la demande » [167], le
modèle économique national de l'INSEE Mesange, ou les mécanismes de la
mondialisation, que nous aborderons plus bas.

Entre les niveaux micro et macroéconomique il y a des seuils dont le franchissement


s'accompagne d'effets plus ou moins prévisibles. Ces effets concernent des
phénomènes comme l'équilibre, la croissance, la sensibilité ou l'indifférence,
l'asymétrie d'information, etc.

Nous le verrons, la mondialisation est un phénomène inéluctable. Mais comme il est


indifférent aux intérêts des individus et à leur souffrance, il a besoin d'une intervention
humaine au niveau des Etats ou d'institutions internationales comme l'Union
européenne et sa Banque centrale européenne ; la Banque mondiale ; le FMI [180] et
l'OMC [52]. Une telle intervention modifie les mécanismes du déterminisme strictement
économique et indifférent au bonheur humain de la mondialisation en fonction de
considérations politiques, sociales ou même idéologiques.

3.6.7.4 Autonomie des niveaux et compréhension holistique


Le "Discours de la méthode" [4] de Descartes recommande, après une décomposition
analytique (processus « de haut en bas »), de comprendre un phénomène complexe
« de bas en haut », en remontant progressivement depuis le niveau le plus bas (réputé
le plus facile à maîtriser) vers le niveau le plus élevé.

Nous avons vu que le niveau de complexité le plus bas n'est pas nécessairement le
niveau atomique. La compréhension en remontant à partir d'un niveau donné est
souvent limitée par un phénomène de changement d'échelle ; elle est même parfois
impossible ou inextricable. En outre, l'approche « de bas en haut » n'est pas toujours
possible en pratique, à la fois parce que dans de nombreux cas nous n'avons pas les
connaissances nécessaires à un niveau donné et dans ses interactions avec les
niveaux adjacents, et aussi parce que la lourdeur de la démarche la rend souvent
impraticable.

352
Bien qu'on puisse déduire des lois importantes de la physique macroscopique de lois
de la physique quantique (et inversement), la résolution de problèmes macroscopiques
avec des méthodes de raisonnement et de calcul de la Mécanique quantique est
inextricable. C'est pourquoi il vaut mieux, alors, étudier directement les phénomènes
macroscopiques, notamment de manière expérimentale, et en considérant comme
négligeables les phénomènes de physique quantique. Et c'est bien par étude directe,
à la fois théorique et expérimentale, qu'on a réalisé depuis le XVIIe siècle des grandes
avancées de la physique macroscopique comme les lois de Kepler, Galilée et Newton
[103], [110].

Autre difficulté, l'unification des modèles physiques de l'infiniment petit, de l'échelle


humaine et de l'infiniment grand astronomique défie les scientifiques depuis près d'un
siècle : on n'a pas encore réussi à construire de théorie unifiant complètement la
physique depuis l'échelle atomique (où dominent la Mécanique quantique et
l'Electrodynamique quantique) jusqu'à l'échelle astronomique (où domine la
Relativité). On en est souvent réduit à raisonner différemment à chacune de ces
échelles, avec des équations différentes et des aspects différents du déterminisme.
Un jour, peut-être…

Dans le domaine des sciences du vivant, de la connaissance du psychisme humain,


et des sciences de la société comme l'économie, la compréhension à partir des
niveaux d'abstraction inférieurs est très limitée ; elle ne progresse vraiment que par
étude directe des phénomènes à leur niveau le plus élevé.

Voir aussi Ensemble de définition d'une loi déterministe.

Conséquence
On doit donc souvent travailler à comprendre chaque niveau de connaissance
indépendamment des niveaux inférieurs et supérieurs, en ne reliant ces niveaux que
lorsque c'est possible. Etudier un système comme un tout relève de l'holisme.

3.6.7.5 Holisme
L'holisme est une méthode de représentation et de compréhension qui considère
chaque phénomène ou entité comme un tout, sans déduire son comportement de ceux
de toutes ses parties ou de quelques-unes, et sans tenir compte des interactions entre
ces parties. Une représentation holiste est donc l'opposé d'une représentation
analytique ou réductionniste, dont elle refuse le caractère simplificateur.
Exemple : pour un holiste, l'explication du fonctionnement psychique de l'homme
ne peut se déduire de l'analyse du fonctionnement de ses neurones; elle ne peut
se déduire que d'observations de son comportement dans des circonstances
données.

La description holiste d'un objet complexe comprend nécessairement celle – statique -


de sa structure globale, et celle – dynamique - des comportements d'ensemble qui en
résultent.

La décomposition analytique d'un problème à résoudre recommandée par Descartes


[4] implique donc une granularité optimale, consistant à considérer certaines parties
du problème comme un tout non décomposable, abordé de manière holiste.

353
L'homme a une aptitude naturelle au holisme
Comme tous les primates, l'homme est extrêmement doué pour mémoriser un visage
et le reconnaître par la suite. Et cette reconnaissance ultérieure est si globale, si
holiste, si automatique, que l'homme mémorise et identifie moins bien les détails d'un
visage - ses défauts de symétrie par exemple - que le tout. [344]

En fait, l'aptitude de l'homme à reconnaître des images est supérieure à celle de


reconnaître des lettres ou des mots, et plus rapide. C'est pourquoi on utilise sur un
écran d'ordinateur de petits pictogrammes appelés icônes pour représenter des
programmes à lancer ou les données sur lesquelles ils travailleront : l'œil les reconnaît
plus vite qu'un titre en toutes lettres.

Nous reconnaissons facilement les traits d'un père dans ceux du visage de son fils,
c'est-à-dire cette caractéristique impossible à préciser qu'est l'expression. Et nous
continuons à reconnaître un visage connu malgré un changement dans sa coiffure, le
port de lunettes ou une prise de poids. Des recherches récentes [151] ont montré que
le cerveau possède un mécanisme qui complète très rapidement des informations
fragmentaires pour permettre de retrouver en mémoire l'information complète, c'est-à-
dire un mécanisme de « déjà vu ». Ce mécanisme est complété par une fonction de
discrimination permettant de ne pas reconnaître des informations mémorisées jugées
trop différentes de celle qu'on recherche. Les recherches ont montré qu'on peut
stimuler ou activer ces mécanismes chez la souris.

3.6.8 Complexité, ouverture d'esprit et causes occultes : discussion


polémique
Des remarques précédentes sur les approches analytique et holiste on peut conclure
qu'une réalité complexe - notamment la description d'un être vivant ou d'un groupe
humain - est plus que la somme de ses parties. La comprendre exige, en plus de la
connaissance de celles-ci, de comprendre leurs interactions et l'interaction du système
considéré avec son environnement, interactions présentes ou passées. Comprendre
le comportement d'un phénomène irréversible, qui présente souvent comme nous
l'avons vu des aspects imprévisibles, exige de l'ouverture d'esprit au moment
d'accepter l'imprévisibilité, comme il en faut en Mécanique quantique pour « croire les
équations ».

Apprendre exige d'accepter la nouveauté, donc l'ouverture d'esprit


L'ouverture d'esprit est nécessaire, en fait, pour une classe de sujets plus vaste que
celui d'un système complexe à comprendre ; toute connaissance nouvelle qui nous
oblige à remettre en cause ce que nous savons ou à y faire un ajout important exige,
pour être assimilée, de l'ouverture d'esprit.
Je me suis aperçu en discutant avec certains philosophes de mes idées sur le
hasard et le déterminisme étendu – idées nouvelles et souvent dérangeantes pour eux
– qu'ils n'avaient pas assez d'ouverture d'esprit pour essayer de les comprendre avant
de les juger. Leur intuition, particulièrement prégnante chez les idéalistes et ceux dont
la culture est essentiellement littéraire, leur faisait juger impossible l'extension de la
notion (matérialiste) de déterminisme avant même d'avoir compris ce qu'elle recouvrait
dans les idées que je proposais ; elle leur faisait aussi rejeter la réduction du rôle du
hasard, qu'ils n'arrivaient pas à séparer de l'imprédictibilité. En lisant mes textes, ils
cherchaient une confirmation de ce qu'ils croyaient déjà et rejetaient ce qui le
contredisait.

354
Leur blocage psychologique concernait plus que le déterminisme et le hasard : toute
approche basée sur une connaissance scientifique approfondie et la rigueur
axiomatique déclenchait dans leur esprit à culture littéraire un rejet instinctif ; en fait,
ils étaient victimes de dissonance cognitive. Comme il s'agissait de gens très instruits
et ayant l'habitude de réfléchir à des sujets abstraits, je me suis mis à redouter la
réaction face à la nouveauté intellectuelle ou à la rigueur de gens moins instruits et
encore plus enfermés dans leurs idées toutes faites, encore plus habitués à une
pensée peu rigoureuse…

La complexité exige plus de rationalité, pas moins


La complexité d'un comportement ne justifie pas qu'on l'interprète de manière
superficielle ou approximative, par exemple en l'attribuant au hasard. Elle justifie
encore moins qu'on l'interprète de manière surnaturelle, en invoquant une finalité
divine, des forces occultes ou une essence spirituelle, comme le font des peuplades
primitives.

Tout raisonnement qui conduit hors du domaine de l'expérience possible, c'est-à-dire


des lois de notre Univers, est nécessairement spéculatif ; il constitue un usage abusif
de la raison s'il n'est pas reconnu comme tel.
Or l'homme a une tendance naturelle à expliquer ce qu'il ne comprend pas de
manière holiste, et à l'aide de faits et de règles imaginaires ; il le fait par exemple
à l'aide de concepts inaccessibles à l'expérience comme les noumènes [318] de
Kant. Il doit donc veiller à ne pas prendre pour des savoirs, des réalités et des
vérités, des pensées qui ne peuvent être que des croyances, des préjugés ou des
intuitions, et à ne pas utiliser dans un raisonnement non spéculatif des concepts
non prouvés et de la pensée irrationnelle.

Le comportement quotidien d'un homme, être physiquement complexe, ne peut se


déduire des seules lois biologiques, elles-mêmes basées sur des lois chimiques et
physiques, en oubliant sa complexité, son environnement et l'histoire. L'homme de
l'instant présent a subi une structuration par l'évolution de l'espèce et l'hérédité qui ont
précédé sa naissance, par ses expériences passées dans sa vie en société, et par la
perception actuelle de son environnement issue de ses sens ; on peut même affirmer,
avec Rousseau et Sartre, qu'il s'est en grande partie auto-structuré. Et on ne peut
comprendre sa psychologie sans utiliser une hiérarchie logicielle au-dessus de la
hiérarchie biologique et neurologique.

La raison exclut les explications surnaturelles


Mais l'obligation de tenir compte de cette complexité n'implique pas celle d'invoquer
une finalité divine ou une liberté transcendante pour attribuer à l'esprit de l'homme,
dans son cerveau, un fonctionnement échappant aux lois scientifiques, c'est-à-dire à
la raison.

Lorsque l'homme constate que plusieurs événements ou résultats d'expériences


peuvent être reliés par une loi ou une cause commune, il a une impression d'ordre qui
le rassure. C'est pourquoi il a tendance à généraliser des constatations faites, par
induction, confondant ainsi l'habituel et le nécessaire ; car le nécessaire a une
dimension de nature intime, d'essence, qui plaît et rassure.

355
Les idéalistes sont embarrassés quand l'ignorance de la cause d'un phénomène les
oblige à l'attribuer (à tort) au hasard, car l'influence du hasard contredit leur croyance
en une origine spirituelle, finaliste et organisée des phénomènes. Ils évacuent alors
souvent ce conflit en donnant un nom à la cause inconnue ; c'est ainsi que les croyants
attribuent certains phénomènes à un mystère : une affirmation comme « Les voies du
Seigneur sont impénétrables » sert à faire accepter des croyances ou des révélations
sans rapport avec la raison, à laquelle ils renoncent alors.

Certaines personnes justifient leur croyance en des phénomènes physiquement


impossibles comme la psychokinèse ou la guérison à distance par la pensée par des
découvertes qui seront faites un jour, mais qu'ils tiennent déjà pour certaines ou au
moins probables : c'est de la preuve par une démonstration espérée !

Comme le déterminisme philosophique traditionnel n'apporte pas de réponse


rationnelle au problème philosophique de l'état initial, cause première à l'origine du
monde [16], les hommes ont imaginé diverses réponses qui, toutes, demandent un
acte de foi, c'est-à-dire qu'on les croie sans démonstration. Ces réponses sont des
doctrines philosophiques basées sur des concepts transcendants (c'est-à-dire
extérieurs au domaine des phénomènes physiques, l'Univers) tels que le Dieu créateur
des religions monothéistes et le panthéisme de Spinoza.
Kant a montré que tous les concepts transcendants sont nécessairement ou des
spéculations sans rapport avec la réalité, ou des postulats applicables au monde réel
mais dont on ne peut, rationnellement ou empiriquement, ni prouver la véracité, ni
prouver l'erreur (postulats dits "infalsifiables" [203]). Soit on admet que Dieu existe,
soit on admet qu'Il n'existe pas ; les deux affirmations sont des postulats acceptables
mais indémontrables, et aucun des deux n'explique rationnellement le monde.

La remarque précédente sur la tendance de certains hommes à recourir à une


explication non scientifique de phénomènes complexes s'applique à une approche
holiste comme à une approche analytique. Sa valeur est la même : l'explication
transcendante et/ou finaliste peut toujours être invoquée, et toujours sans preuve ; et
elle a toujours la même valeur au plan de la raison : nulle ; on ne pourra jamais prouver
qu'elle est fausse, mais en l'invoquant, les idéalistes se dispensent de chercher une
compréhension scientifique.
L'attitude scientifique, au contraire, accepte l'inconfort psychologique de l'absence
de compréhension et de sens. Elle accepte l'impossibilité de prouver que le
matérialisme est une doctrine juste et que son opposé, l'idéalisme, est une doctrine
erronée. Elle considère l'ignorance comme une raison de travailler à comprendre, pas
comme une excuse pour attribuer ce qu'on ignore à un Etre suprême, une finalité qui
nous dépasse ou des découvertes qui restent à faire.

De culture scientifique, je ne peux accepter l'explication du monde enseignée par les


religions révélées, explications intrinsèquement pleines de contradictions et dont
Spinoza a montré l'absurdité. Par contre, j'admets et respecte les valeurs morales
judéo-chrétiennes ; elles sont implantées dans mon inconscient depuis l'adolescence.
Enfin, je suis profondément en accord avec les positions matérialistes défendues par
André Comte-Sponville dans [5].

Compléments sur la complexité : [369]

356
3.6.9 Etre intelligent, déterminisme et prévisibilité
Tout processus algorithmique [69] est calculable dans un ordinateur, donc
déterministe. Mais comme nous l'avons vu, contrairement à un être intelligent, aucun
ordinateur ne peut construire des valeurs ou des règles d'évaluation basées sur des
faits ou une logique externes à la logique de son programme, aucun ne peut raisonner
par intuition [141] ou analogie, aucun ne prend le risque comme l'esprit humain de
généraliser une propriété à partir de cas particuliers (raisonnement par induction).

Un être intelligent, et particulièrement l'homme, a donc parfois un comportement non


déterministe, dans la mesure où son psychisme [347] peut créer et utiliser des
informations et des règles de raisonnement sans base déterministe (cause identifiée
nécessaire et suffisante, à effet stable).
C'est ce que confirme [73] page 4, en citant plusieurs comptes-rendus de
recherches confirmés dans [75] et [76] :
"…living systems exhibit behavior that is apparently indeterminate" ("…les
systèmes vivants présentent des comportements paraissant non déterministes")

Tout mécanisme psychique de prise de décision fait partie du déterminisme qui régit
le comportement humain lorsqu'il existe chez la plupart des hommes. La condition
d'existence chez la plupart des hommes est difficile à satisfaire du fait des différences
fréquentes de représentation et de mécanismes d'enchaînement de pensées entre
individus distincts.
Prudence : il faut se rappeler que les décisions humaines sont souvent entachées
d'erreurs ; inhibées par des idées préconçues (par exemple culturelles) ou des
intuitions irrationnelles ; affectées par des mécanismes de l'inconscient qui sont
par définition non déterministes ; basées sur des illusions au lieu de faits avérés ;
et non reproductibles, dans la mesure où une décision intuitive d'aujourd'hui risque
demain soit d'être différente malgré un contexte apparemment identique, soit
d'être remise en question parce que l'esprit de finesse aura pris en compte
d'autres éléments de décision.
Les processus humains de jugement et de décision font l'objet actuellement de
nombreuses études ([54], [75] et [76]) au-delà des réflexions de Blaise Pascal
[66]. Il s'en dégage une conclusion fondamentale : ces processus comprennent
une part importante d'irrationalité et d'imprévisibilité par intervention de
l'inconscient non maîtrisable, utilisation d'analogies, de généralisations abusives
et d'intuitions, et tout simplement suite à des erreurs et des illusions de l'individu
pensant.
Exemple observé par moi en tant que méthode d'argumentation fréquemment
utilisée par un politicien et qui trompe la plupart des auditoires : le politicien qui
vient d'affirmer que « les Français sont dans le besoin » justifie son affirmation
en citant un exemple de famille pauvre de sa circonscription ; les Français étant
plus de 64 millions, un exemple portant sur quelques personnes ne prouve rien,
seule une statistique nationale serait probante. Hélas, je n'ai jamais vu un
journaliste intervieweur protester contre cette généralisation abusive, ce qui
m'incite à penser que la rigueur intellectuelle est aussi peu répandue chez les
journalistes que chez les politiciens… et leurs auditoires.

357
Juger une situation ou une proposition de décision est souvent extrêmement difficile,
puisqu'il faut prendre en compte :
 Des informations incomplètes, ou qui peuvent varier dans le temps, ou dont la
fiabilité est incertaine, ou qui sont contradictoires ;
 Des choix multiples, dont on a peut-être omis certains ;
 Des critères de choix ou des objectifs incertains ;
 La nécessité de décider vite, avant d'avoir eu le temps d'approfondir les
informations, les choix disponibles, les critères de choix et les objectifs ;
 Le contexte émotif associé à certaines informations et aux conséquences de
certains choix, contexte qui perturbe la rationalité du choix, etc.

Donc, dans la vie courante, un jugement en vue de prendre une décision comporte en
général une part d'incertitude. Et comme il dispose rarement de critères chiffrés de
valeur (poids) assortis de probabilités [77], l'homme recourt souvent à son intuition, ou
à une analogie avec des situations passées, ou plus généralement à son « esprit de
finesse » [66] [141].

Le déterminisme d'un enchaînement cause-conséquences est clair et permet en


général la prévision dans le domaine de la physique ; il est clair encore, même s'il est
complexe, dans des domaines comme la génétique et le système nerveux. Il devient
une simple corrélation dans celui du psychisme, voire une vague influence : le
déterminisme n'y est plus du tout le même et la prévision y est très risquée. Le
comportement de l'homme n'est donc que partiellement intelligible, et d'autant moins
qu'il formule et tient pour vraies des propositions indémontrables ; et cette
inintelligibilité rend son comportement en général imprévisible.

Dans la mesure où l'homme fait partie de l'Univers, des philosophes qui cherchent des
vérités caractérisant l'Univers tout entier ont affirmé que celui-ci n'est donc pas
complètement intelligible et que l'effet de ses lois n'est pas complètement prédictible,
affirmations qui choquent les matérialistes dogmatiques [206]. A mon avis, de telles
affirmations philosophiques concernant l'Univers entier sont au mieux métaphysiques
[371], donc spéculatives et sans utilité pour raisonner, au pire dénuées de sens ; je me
contente de postuler que les lois physiques de l'Univers relèvent du déterminisme
étendu, qui ne garantit pas la prédictibilité, et que le logiciel intermédiaire entre ces lois
physiques et le psychisme humain [347] rend le fonctionnement de ce dernier souvent
imprévisible.

L'inintelligibilité partielle de l'homme rappelle que dans son cas l'effet simultané de
nombreuses lois déterministes peut être imprévisible et que le résultat d'un
phénomène déterministe n'est pas toujours prévisible. Et cette inintelligibilité partielle
ne nous dispense pas de continuer notre recherche scientifique, et de refuser de
considérer comme rationnelles une vérité révélée, une affirmation dogmatique [153]
ou une spéculation métaphysique [371].

A titre d'exemple, voici un mécanisme de prise de décision basé sur des valeurs
présentes chez chaque homme : l'équité et la coopération avec d'autres hommes.

358
3.6.9.1 Equité, confiance, coopération et déterminisme psychologique
Des économistes, notamment aux Etats-Unis, étudient l'influence de la psychologie
sur les décisions d'acteurs économiques (clients, fournisseurs, travailleurs,
investisseurs, etc.) dans le cadre d'une nouvelle discipline appelée neuroéconomie
[256], [57]. En économie classique, les comportements des acteurs économiques sont
supposés rationnels et motivés par le seul intérêt de chacun. Or des expériences
comme celle du jeu que nous allons présenter montrent que le comportement d'une
personne est souvent irrationnel, en ce sens qu'elle fait passer certains critères de
choix irrationnels et subjectifs (provenant de ses valeurs) avant le critère rationnel
d'intérêt.

3.6.9.1.1 Le jeu "Prends ou laisse"


Deux joueurs, l'offreur et l'accepteur jouent à un jeu d'argent. A chaque partie, l'offreur
reçoit de la banque une somme fixe, 100€, dont il doit offrir une partie (entre 1€ et 99€)
à l'accepteur. Si celui-ci accepte l'offre (par exemple 30€), il garde la somme et l'offreur
garde le reste (70€) ; s'il refuse l'offre, les 100€ sont repris par la banque et aucun des
deux joueurs ne garde quoi que ce soit. Le but du jeu est, pour chacun des joueurs,
d'avoir gagné le maximum d'argent après un certain nombre de parties ; il n'y a pas de
concurrence entre les joueurs pour savoir lequel gagnera le plus.

Si l'accepteur a un comportement rationnel, à première vue il a intérêt à garder toute


somme offerte par l'offreur, pour ne pas la perdre. Mais s'il agit ainsi et accepte une
somme même très faible, 1€ par exemple, l'offreur s'apercevra qu'il accepte même un
partage inéquitable des 100€ et lui offrira à chaque partie la somme minimum, gardant
donc le maximum pour lui.

L'accepteur a donc intérêt à refuser un partage par trop inéquitable des 100€, stratégie
qui a en plus l'avantage psychologique de « punir » l'offreur. Celui-ci sera donc amené
à offrir davantage pour que son offre soit acceptée et qu'il puisse avoir lui aussi quelque
chose. Au bout de quelques parties, on constate qu'un accord de partage tacite
s'instaure entre les deux joueurs, souvent sur la base d'un partage équitable des 100€.
Ce jeu est basé sur l'aptitude, présente chez chaque homme, à anticiper la réaction
d'un autre dans une situation donnée.

Lorsqu'on observe statistiquement le comportement des deux joueurs, on constate


que chez l'accepteur le critère rationnel d'acceptation passe après le critère irrationnel
d'équité : la plupart des accepteurs préfèrent ne rien recevoir lors d'une offre trop
inéquitable, pour avoir la satisfaction de punir l'offreur en l'empêchant de recevoir le
reste ; chez la plupart des joueurs le critère psychologique d'équité prime sur celui
(rationnel) d'intérêt personnel.
Autre exemple très répandu du « besoin de sanctionner » : beaucoup de gens
attendent de la justice des décisions représentant une vengeance à l'égard du
condamné et sont déçus quand il est seulement puni conformément à la loi [14].

On constate aussi chez l'offreur une propension à coopérer avec l'accepteur, en


s'efforçant de prévoir quel partage il acceptera, pour que les deux joueurs, devenus
partenaires et se faisant désormais mutuellement confiance, gagnent le plus possible.
Voyant cette attitude, l'accepteur se comportera, lui aussi, en partenaire confiant et
coopératif, et les parties successives verront chacun des joueurs profiter de la même
somme, 50€.

359
Mécanismes neurologiques intervenant dans ce jeu
Lorsqu'un neurologue mesure l'activité cérébrale des deux joueurs par imagerie
fonctionnelle par résonance magnétique (IFRM), il s'aperçoit que le respect des
critères d'équité et de coopération déclenche des émotions, matérialisées par des
réactions neurologiques de satisfaction dans le noyau accumbens du cerveau,
réactions analogues à d'autres réactions de satisfaction que l'individu éprouve [257].
La régulation des émotions est aussi impactée par la quantité de sérotonine, autre
neurotransmetteur : les participants au jeu de "Prends ou laisse" réagissent
différemment aux sentiments d'injustice selon le niveau de sérotonine [283].

L'évolution et la sélection naturelle ont donc conditionné le cerveau humain pour


favoriser l'équité et la coopération plus que l'intérêt égoïste (qui ne provoque qu'une
satisfaction moindre, car d'ordre rationnel et non émotionnel). Les processus
décisionnels humains intimes en sont affectés : ils relèvent donc d'un déterminisme
psychologique basé sur ces valeurs d'équité et de coopération. Et l'article [74] décrit
des recherches récentes à l'université d'Oregon qui montrent qu'une récompense du
même ordre, traduisant un plaisir analogue, existe pour les actes altruistes.

Ce déterminisme psychologique est désormais étudié pour son impact économique en


neuroéconomie [256] [72].

3.6.9.1.2 Le point de vue de Kant


Ce philosophe n'approuvait pas une attitude altruiste équitable, ou plus généralement
un acte moral, lorsqu'il résultait du plaisir de bien faire, c'est-à-dire de l'attente d'une
récompense ; il ne l'approuvait pas davantage s'il résultait de la crainte d'un châtiment.
Dans les deux cas, il estimait que la carotte et le bâton étaient de mauvaises raisons
d'agir, que le mérite ne pouvait résulter que d'un total désintéressement consistant à
faire son devoir parce que c'est un devoir.

Hélas, la nature humaine s'est construite au fil des millénaires en obéissant au


déterminisme de l'évolution darwinienne et de la sélection naturelle, ainsi qu'à la
pression de l'opinion sociale, pas à la position morale de Kant ; et il n'y a pas, selon
moi, de personnes qui agissent sans espoir de récompense ou crainte de châtiment :
tout individu prend toujours ses décisions en fonction de son échelle de valeurs du
moment, les rares qui font leur devoir étant simplement des gens chez qui la valeur du
devoir altruiste domine les autres.

3.6.10 Le besoin de tromper ses adversaires. Les deux types d'incertitude


Sources : [54] et [57].
Dans la lutte pour survivre en présence d'ennemis, un comportement exclusivement
prévisible est un désavantage. Si son ennemi peut prévoir ce qu'un individu va faire, il
va adapter sa stratégie de manière à répondre plus efficacement et plus vite, pour
l'emporter. Si le renard malin peut prévoir la direction du prochain bond du lièvre qu'il
poursuit, il a plus de chances de l'attraper. Un lièvre dont la fuite suit une trajectoire
prévisible a donc moins de chances de survivre qu'un lièvre dont la trajectoire est
imprévisible.
(C'est pourquoi on dit que le lièvre courant en zigzag, le chasseur doit tirer dans
le zig quand le lièvre est dans le zag !)

360
Un comportement prévisible est donc parfois un handicap. Si un policier sait où le
délinquant qu'il poursuit va aller, il peut prévenir des collègues qui l'y attendront pour
le cueillir.

Dans une transaction commerciale entre un acheteur et un vendeur, celui qui est
prévisible pour l'autre ou qui tient toujours parole est désavantagé, celui qui ment ou
dissimule le mieux est avantagé. Un homme qui ne ment jamais fera donc un piètre
vendeur et un piètre acheteur, car son partenaire commercial n'aura pas d'incertitude
sur ce qu'il dit, alors que celui qui trompe l'autre crée chez son partenaire une
incertitude dont il peut espérer profiter. Ce phénomène est important à l'échelle
individuelle comme à l'échelle macroéconomique, où des travaux sur « l'asymétrie
d'information » ont valu à leur auteur un prix Nobel [58].

En fait, l'imprévisibilité peut créer un manque de confiance tel que la transaction n'a
pas lieu. Exemple : à l'été 2007 est survenue une crise internationale de liquidités due
à l'exposition de certains fonds d'investissements aux prêts immobiliers à des
emprunteurs américains peu solvables (prêts "subprime"). Comme toutes les banques
et la plupart des investisseurs achètent des parts dans tous les fonds prometteurs à
un instant donné, tous ces acteurs risquent de perdre de l'argent lorsqu'un fonds a
beaucoup d'emprunteurs qui font défaut. Lorsque le nombre de défauts de
remboursement s'est mis à exploser du fait de la hausse des taux d'intérêt, entraînant
des défauts de paiement d'institutions financières, plus aucune banque, aucun
investisseur ne voulait acheter de titres d'aucune institution, faute de savoir si celle-ci
était ou non fortement exposée aux prêts à risque : le manque d'informations bloquait
les transactions. Le risque d'effondrement du système bancaire international (par
manque de liquidités provenant de banques ou d'acheteurs de titres) était si grand que
les banques centrales ont injecté des centaines de milliards de dollars et d'euros dans
le système bancaire (sous forme de prêts, pas de dons) pour rétablir la confiance !

Inversement, une bonne réputation et une habitude de confiance peuvent favoriser


des transactions bénéfiques pour les deux parties. La malhonnêteté n'est donc pas
systématiquement la meilleure stratégie face à un partenaire qui réfléchit.

L'incertitude sur l'évolution d'un phénomène a deux composantes.


 L'incertitude réductible, provenant d'un manque de connaissances sur le
phénomène. La seule manière de la réduire est l'acquisition de connaissances,
par modélisation du phénomène qui permet d'en prévoir le déroulement (par
raisonnement ou calcul) ou par accumulation d'expérience (comme un réseau
neuronal). C'est pourquoi, par exemple, certains prédateurs comme les félins
apprennent à leur progéniture à chasser. Et c'est pourquoi les enfants vont à
l'école.
 L'incertitude irréductible, résultant d'un comportement au résultat imprévisible.
Un tel comportement est possible chez un animal ou un homme dans deux cas :
 Si son cerveau possède un mécanisme de pensée non algorithmique. Nous
avons vu qu'un tel mécanisme à résultat imprévisible peut exister même
lorsque le niveau sous-jacent est parfaitement déterministe.
 Si son cerveau a utilisé des règles de raisonnement qui ne peuvent résulter
d'aucune logique ou algorithme calculable, tout en donnant des résultats
corrects (voir [6] et [66]).

361
Un éventuel mécanisme défensif à effet imprévisible d'un animal devrait être
inconscient, automatique. S'il était conscient, si l'animal pouvait le déclencher,
l'inhiber, l'interrompre ou en contrôler l'ampleur à volonté, il serait moins
imprévisible, donc moins efficace.
L'intérêt de l'existence d'un tel mécanisme pour la survie d'un animal en présence
d'ennemis est certain. Certains prédateurs possèdent un mécanisme de détection
de situations d'incertitude, mécanisme capable de distinguer entre incertitude
réductible (susceptible d'être réduite par apprentissage), et incertitude irréductible
qui ne mérite pas l'effort et le temps nécessaires pour apprendre.

L'intérêt de mécanismes d'imprévisibilité et de détection d'imprévisibilité irréductible


est donc certain pour tous les animaux, notamment pour l'homme. Les auteurs de [54],
[57], [75] et [76] affirment leur existence, établie par leurs travaux. On peut aussi
raisonner par l'absurde : une espèce animale dépourvue de ces mécanismes n'aurait
sans doute pas survécu au processus darwinien de sélection naturelle ; des hommes
trop honnêtes et prévisibles n'auraient pas pu assurer leur descendance.

3.6.10.1 Recherches sur les stratégies de bluff et décision en ambiance


d'incertitude
De nombreux scientifiques travaillent à mieux comprendre la manière de raisonner de
l'homme. C'est ainsi qu'une équipe canadienne de chercheurs en intelligence
artificielle étudie les stratégies de tromperie pour gagner au poker depuis 1992 [129].
Ils ont choisi de réaliser des programmes de jeu de poker parce que :
 Ce jeu a des règles et des objectifs clairs.
 Les stratégies permettant de gagner au poker peuvent être appliquées à des
situations du monde réel où les règles sont floues, car jouer au poker exige de
prendre en compte trois types d'incertitude :
 Les donnes de cartes aléatoires ;
 L'information imparfaite (le bluff) ;
 Le manque d'information (on n'a pas vu toutes les cartes de l'autre joueur
lorsqu'on prend une décision).

En 2007, leur programme Polaris a battu parfois des champions de poker humains,
mais ceux-ci l'ont battu un peu plus souvent. L'ordinateur essaie de deviner les ruses
de son adversaire et y parvient de plus en plus, au fur et à mesure que les recherches
avancent et que davantage de "personnalités différentes" de joueurs sont prises en
compte par le logiciel. Si les chercheurs parviennent à réaliser des algorithmes
efficaces au poker, ils ont des chances de pouvoir en profiter pour des négociations
commerciales.

3.6.10.2 Concurrence entre raison et affects. Connaissances cachées


L'article [79] cite le résultat d'une étude effectuée aux Etats-Unis avec l'autorisation du
Congrès, étude qui montre que l'enseignement de la morale traditionnelle dans les
écoles est inefficace. Les élèves reçoivent beaucoup de cours de morale sur le sexe,
le multiculturalisme, le respect de l'environnement, etc., et ils n'en tiennent pas
compte : l'étude montre qu'il n'y a pas de différence mesurable entre le comportement
des élèves qui ont reçu cet enseignement et des élèves qui n'en ont pas reçu !

362
L'échec vient d'une erreur sur la nature humaine, erreur qui postule que les êtres
humains sont raisonnables et que (comme le croyait Descartes) leur volonté est assez
puissante pour les guider dans le droit chemin. C'est la foi en ce postulat faux qui fait
que des enseignants adultes parlent pendant des heures devant des adolescents, en
expliquant les risques des conduites sexuelles, sociales ou environnementales
irresponsables ; ils espèrent ainsi que leurs élèves se comporteront de manière
prudente, respectueuse des autres et de l'environnement, bref raisonnable dans des
circonstances où leurs pulsions les poussent à ne pas l'être.

Mais ce postulat est contredit par le fonctionnement de notre cerveau, qui n'obéit pas
à un maître qui serait la raison. Le cerveau est le siège d'un ensemble de processus
psychiques fonctionnant en parallèle et rivalisant pour obtenir l'attention de la
conscience.
Pour que les jeunes élèves assimilent ces leçons de morale, il faut absolument
qu'elles aient un caractère concret, qu'elles soient associées à des images qui
impressionnent et inquiètent au lieu d'éventualités vagues, abstraites, lointaines.
Et si les professeurs ne disposent pas de telles images effrayantes ou révoltantes,
ou s'ils ne s'en servent pas par peur des réactions des parents, leur message ne
passe pas.

En somme, l'homme est plus souvent à l'écoute de ses perceptions, de ses émotions
et de son inconscient que de sa raison. Notre conscience reçoit en permanence de
notre environnement un flot intense d'informations, qu'elle transforme au fur et à
mesure en un ensemble de représentations. Parmi ces représentations, celles qui
(après évaluation) ne touchent aucune corde sensible sont rejetées comme
superflues, et les autres sont classées par ordre d'importance décroissante à l'issue
d'une comparaison selon 3 classes de critères :
 D'abord une comparaison avec les besoins physiologiques prioritaires (survivre,
ne pas souffrir, satisfaire sa faim et sa soif, etc.)
Ces besoins prioritaires sont associés à des affects (émotions, sentiments, désirs,
aversions, peurs…) [253] très puissants. C'est ainsi que l'homme primitif a survécu
parce qu'ayant facilement peur il se protégeait ou fuyait avant de réfléchir au
danger, avant de l'analyser en profondeur ; un danger immédiat paraît plus
effrayant qu'un danger à long terme. Et les affects négatifs comme la peur et la
haine sont plus puissants que les affects positifs comme la joie et l'amitié.
Les politiciens exploitent souvent cette caractéristique psychologique, en suscitant
la peur (du chômage, de la misère, du terrorisme…) avant d'affirmer qu'ils ont LA
solution et l'appliqueront s'ils sont élus. Parfois même, ayant trop crié au loup sans
que le loup apparaisse, ils suscitent l'effet inverse : devant une crainte qui ne se
matérialise pas, la raison reprend le dessus et rejette la crainte hors de la
conscience en faisant disparaître son affect.
 Ensuite une comparaison avec les valeurs enracinées dans notre inconscient,
qui se traduisent par des affects moins puissants que les précédents.
 Enfin une comparaison avec les valeurs, croyances et attitudes que nous avons
déjà (c'est-à-dire avec notre culture existante) ou que nous nous sommes
fabriquées par raisonnement ou autosuggestion. [322]

363
Cette aptitude de chaque individu à se fabriquer des représentations
personnelles qui surprennent les autres et d'agir en fonction de ces
représentations est étonnante. C'est ainsi qu'une femme aimera un homme
que les autres femmes trouvent fort disgracieux, mais qui pour elle (et elle
seule) a une qualité unique. C'est ainsi qu'un jeune musulman, par ailleurs
bien intégré dans la société, finira par se persuader qu'il doit mourir en martyr
en tuant des « croisés ». C'est ainsi que certains voient dans des peintures
abstraites des beautés qui échappent complètement aux autres.

Dans la grande majorité des cas, le résultat de ce classement des représentations


détermine notre réaction sans intervention d'un raisonnement conscient, après
association automatique et instantanée dans l'inconscient de chaque représentation
avec un ou plusieurs affects qui déterminent notre réaction. [364]
Exemple : la plupart des citoyens qui ont des opinions politiques tranchées
refusent purement et simplement d'écouter ou de lire une déclaration d'un
politicien qui professe d'autres opinions. Celui-ci est classé d'office parmi les gens
dont la pensée est sans intérêt ou même toujours fausse, et dont les déclarations
provoquent désapprobation et émotions négatives. Dès que ces citoyens
entendent le nom d'un tel adversaire politique à la télévision ou le lisent dans un
journal, ils changent de chaîne ou sautent l'article ; leur réaction est automatique
et instantanée. Ils prennent ainsi le risque de passer à côté de déclarations ou
d'idées qui peuvent avoir un intérêt, leur aversion étant plus forte que la crainte de
perdre une information intéressante [153].
Autre conséquence : ces citoyens n'ont guère de chances de changer d'opinion
sur ce politicien ; et si celui-ci accède au pouvoir, ils s'enferment dans une
opposition systématique et sans nuance. J'ai constaté ce genre d'attitude chez
beaucoup de Français de gauche pendant et après l'élection de M. Nicolas
Sarkozy à la présidence de la République, et de Français de droite à l'égard des
politiciens de gauche. En matière de politique et de relations sociales les Français
sont en général hostiles à l'égard de ceux qui ne pensent pas comme eux, ce qui
leur fait refuser de coopérer avec eux à des actions d'intérêt public et réclamer
des lois pour les contraindre.
Hélas, l'exemple ci-dessus doit être généralisé : chacun de nous a tendance à
classer l'autre dans une catégorie et à l'y laisser jusqu'à preuve d'erreur. Et chacun
résiste à l'administration de cette preuve !

Il y a là un déterminisme qui fait réagir aux événements et informations dans l'ordre de


priorité des trois classes de critères ci-dessus, et le plus souvent sans intervention de
la raison. Les programmes d'enseignement de la morale et du civisme aux adolescents
qui sont efficaces ne s'adressent à leur raison qu'après s'être adressés à ce qu'ils
perçoivent comme important avec leurs valeurs, éventuellement avec les codes de
comportement social de leurs bandes de banlieue. Pour convaincre des adultes de ne
pas conduire en état d'ivresse, il faut frapper leur esprit avec des images dramatiques
de conséquences d'accidents. [322]

En un mot, nos sentiments et nos intuitions passent avant notre raison à cause de
leurs affects associés. Le déterminisme de l'esprit humain est soumis aux affects.

364
« Il n'existe pas de conduite, si intellectuelle soit-elle, sans mobiles affectifs »
C'est en ces termes que [333] cite le psychologue suisse Piaget page 119.
Seuls les affects déclenchent des pensées. Seuls des affects déclenchent des actions,
parfois sans intervention de la conscience. Même lorsqu'un homme raisonne c'est un
affect qui déclenche l'effort mental pour passer d'une pensée à la suivante, en général
l'espoir de satisfaire une valeur, consciente ou non. Et [333] ajoute :
« Pour Piaget, les aspects affectif et cognitif sont inséparables, y compris dans
leur évolution et leur autorégulation. »

Des jugements de valeur influençables


L'article [152] rend compte de recherches récentes à l'université Yale sur l'effet du
contexte sur un jugement de valeur ou une attitude.
 Des étudiants testés à leur insu ont jugé une personne, qu'ils ne connaissaient
que par une citation lue dans un texte, de manière plutôt favorable s'ils venaient
de tenir en main une bonne tasse de café chaud, ou plutôt défavorable si le café
de la tasse était froid.
 Une réunion d'entreprise a lieu dans une grande salle entre quelques
participants qui s'assoient à un bout de l'immense table ovale. A l'autre bout, il y
a un objet laissé là, qui est soit un attaché-case luxueux, soit un sac de sport
assez crasseux. L'attitude des participants s'avère plus sérieuse et
professionnelle en présence de l'attaché-case que du sac de sport.
 Variante de l'expérience précédente : à la fin d'une réunion tenue dans une salle
où règne une légère odeur de liquide nettoyant (odeur qui « fait propre ») la
plupart des gens ramassent leurs papiers froissés et gobelets de café vides,
alors qu'en l'absence de cette odeur, ils partent en laissant traîner ces déchets.

Ces recherches montrent à quel point notre inconscient est influencé par le contexte,
ce qui change par la suite nos jugements de valeur ou attitudes. Une même personne
peut se montrer généreuse ou indifférente, charmante ou désagréable selon des
détails qui ont influencé son inconscient. Non que la conscience soit toujours
contournée, le contexte inconscient ne joue que sur des degrés de liberté
secondaires ; mais lorsque ceux-ci sont nombreux ou concernent des décisions
essentielles, l'effet peut être important. Le problème vient de ce que le cerveau utilise
les mêmes circuits neuronaux pour évaluer puis exécuter une action consciente que
pour une action inconsciente.

Il est facile d'imaginer la mise à profit de ce comportement non conscient des gens par
des responsables commerciaux qui aménagent une salle d'exposition, ou des
responsables de communication politique qui préparent une réunion électorale.

3.6.10.2.1 Importance des automatismes dans la pensée humaine


L'importance des automatismes dans la pensée humaine est affirmée par [272] page
311, qui reprend [273] :
"Des recherches récentes menées au MIT par le groupe d'Alex Pentland et au
Département de psychologie de l'Université d'Amsterdam par A. Dijksterhuis, il
ressort que, dans l'accomplissement d'un choix, plus celui-ci est complexe, plus
la pensée qui le conduit est non consciente ;"

365
En fait, ces recherches soulignent la fréquence des comportements automatiques,
enregistrés dans notre cerveau pour que la majorité de nos tâches quotidiennes
puissent être menées à bien sans effort de réflexion consciente. Le problème, pour qui
veut penser juste, est d'être conscient le plus souvent possible de ces automatismes
lorsqu'il s'agit de prendre une décision importante. Pour ce faire, l'idéal est de se
connaître le mieux possible et de s'interroger sur les raisons qu'on a de penser ceci
ou cela.

3.6.10.2.2 Coup de foudre


La première fois qu'on aperçoit une personne, l'effet qu'elle fait sur nous est purement
physique et ne résulte d'aucun raisonnement. Très rarement, puisque cela ne
concerne que peu de personnes et arrive peu souvent dans une vie, lorsque deux
personnes qui se voient pour la première fois échangent un regard, c'est le coup de
foudre ; les Anglais appellent cela love at first sight, l'amour au premier regard.

Chaque personne est alors submergée par une émotion si forte qu'elle perd une
grande partie de ses moyens. Chez beaucoup de gens un coup de foudre déclenche
des tremblements, une bouffée de chaleur et des mains moites. Des personnes
habituellement bien dans leur peau et plutôt extraverties deviennent timides et n'osent
pas adresser la parole à l'autre personne, chez qui elles ont pourtant décelé dans le
regard échangé une émotion semblable à la leur. Leur aptitude à raisonner diminue
fortement, et le peu qui subsiste est mis au service du désir de rapprochement de
l'autre.

L'existence du coup de foudre montre à quel point l'homme peut être esclave de ses
émotions. Sa raison s'efface alors et ne juge plus qu'en fonction d'une nouvelle échelle
de valeurs où le désir de rapprochement avec l'autre est venu occuper une des
premières places.

3.6.10.2.3 Connaissances cachées

Le refoulement
Lorsqu'une représentation mentale qui vient de se construire est associée à un affect
[253] insupportable l'individu la refoule, s'empêchant ainsi d'en prendre conscience.
C'est là d'abord une réaction naturelle de défense. Mais c'est aussi une source infinie
de défauts d'objectivité ou de préjugés, bref de réactions irrationnelles ; la mauvaise
foi d'une personne peut alors être infinie.

Un événement extérieur peut donc être refoulé et ne pas laisser d'empreinte en


mémoire. Il peut aussi laisser en mémoire une empreinte qui restera refoulée tant que
certaines conditions affectives ne sont pas remplies, puis elle surgira dans la
conscience.

Il est clair que le refoulement peut affecter de manière considérable le déterminisme


mental, de manière consciente ou non, dans la manière dont l'homme juge ou celle
dont il se conduit.

366
La dissonance cognitive
C'est ainsi qu'on appelle le conflit qui naît dans l'esprit d'une personne lorsque quelque
chose qu'elle croit est contredit par une information certaine qu'elle vient de
comprendre. Ce conflit produit une tension psychologique souvent difficile à supporter,
voire insupportable, car la personne se sent rabaissée à ses propres yeux et peut-être
aux yeux des autres. Souvent la personne rejette ou ignore la nouvelle information,
allant alors jusqu'à nier l'évidence avec une irrationalité et une mauvaise foi totales ;
parfois elle invente une justification de sa croyance antérieure en la prétendant
compatible avec la nouvelle information, attitude également irrationnelle et de
mauvaise foi. La dissonance cognitive a été observée aussi chez des jeunes enfants
et même chez des singes capucins [238].

Cette incapacité pour bien des gens d'accepter d'avoir eu tort et de changer d'avis est
source de nombreux conflits dans notre société.
Exemple : le président Chirac n'a pas accepté d'avoir eu tort de laisser son premier
ministre De Villepin faire voter la loi sur le CPE (Contrat Première Embauche).
Cette loi a été rejetée massivement par les jeunes qu'elle concernait, parce qu'elle
leur déniait le droit de savoir pourquoi on les licenciait, et qu'elle leur imposait une
période d'essai après embauche si longue (2 ans) qu'elle constituait un soupçon
méprisant à leur égard. Incapable d'accepter de reconnaître son erreur, le
président Chirac a promulgué la loi en même temps qu'il demandait à la télévision
qu'on ne l'applique pas, préférant se réfugier ainsi dans l'incohérence plutôt que
reconnaître publiquement son erreur.

Pour ma part, lorsque j'ai pris conscience vers vingt ans du problème de la dissonance
cognitive, je me suis entraîné à rester intellectuellement honnête, à reconnaître mes
erreurs, à énoncer clairement et publiquement si nécessaire la nouvelle réalité à
laquelle j'adhérais. L'entraînement a consisté à me persuader que je me grandissais,
aux yeux des autres comme à mes propres yeux, en reconnaissant m'être trompé, et
en adhérant à la réalité au lieu de persister dans l'erreur. A force d'entraînement j'ai
réussi, dans chaque débat, à chercher la vérité par la prise en compte de l'opinion des
autres et pas à chercher le triomphe de mon opinion de départ ; et chaque fois que je
découvrais ainsi une vérité nouvelle je me sentais plus riche, et les gens avec qui je
débattais m'estimaient davantage pour mon ouverture et mon honnêteté.

L'inconscient cognitif
Contrairement au cas du refoulement où le sujet sait mais ne veut pas savoir, il y a
des cas où le sujet sait mais ne sait pas qu'il sait. Dans ce dernier cas, appelé
inconscient cognitif, la personne a appris à son insu ; elle est alors capable d'utiliser
cette connaissance sans avoir fait d'effort pour l'acquérir, sans même savoir qu'elle en
dispose. Sa réaction face à certaines situations est inexplicable, puisque basée sur un
savoir caché. De nombreuses idées toutes faites sont des inconscients cognitifs.

3.6.11 Mécanismes de l'intuition


La créativité (génération d'idées) provient d'une association nouvelle entre des
connaissances et/ou des processus mentaux existants. [364] Parfois cette nouvelle
association survient lorsqu'on réfléchit intensément à un problème, mais cette réflexion
est souvent limitée par des souvenirs, des hypothèses infondées, des préjugés, des
habitudes de pensée, des refus de la réalité, etc. Parfois la nouvelle association se

367
produit pendant le sommeil, période où le cerveau fonctionne différemment, comme
des recherches récentes l'ont montré ; l'esprit tente alors des approches nouvelles qui
peuvent s'avérer fécondes [284].

Il est fréquent qu'une période d'incubation de plusieurs jours, semaines ou mois soit
nécessaire pour que l'énoncé d'un problème apparaisse clairement et pour que les
périodes de réflexion et de sommeil permettent l'apparition d'intuitions.

3.6.11.1 La concurrence entre raison et intuition


Lorsqu'à la suite d'un raisonnement rigoureux un homme arrive à une conclusion R
(comme raisonnable) et qu'en même temps son intuition préfère une conclusion I
(comme intuitive), conclusion apparue dans son esprit sans enchaînement logique
(comme toute intuition [141]), doit-il faire confiance à sa raison ou à son intuition ?

Pour un esprit rationnel, le fait de poser la question est a priori inadmissible : si la


conclusion peut résulter d'une déduction rigoureuse, il faut la préférer sans hésiter à
une intuition non démontrée ! Mais lorsque des chercheurs ont fait l'expérience, en
étudiant le comportement effectif de personnes diverses - et même d'autres
scientifiques - face à un tel choix, ils ont été fort surpris. Voici une histoire extraite de
[88].

3.6.11.1.1 Le jeu du "Dilemme des voyageurs"


Deux voyageurs, Pierre et Paul, achètent chacun un vase d'artisanat local en visitant
le Burkina Faso (pays dont le nom signifie « patrie des hommes intègres »). Pierre et
Paul ne se connaissent pas, mais le hasard fait qu'ils achètent des vases identiques.
A leur arrivée en avion à Paris, ils constatent tous deux que des bagagistes maladroits
de la compagnie aérienne ont cassé leurs vases. Ils vont donc tous deux se plaindre
au responsable des bagages de la compagnie, Jacques.

Celui-ci promet de rembourser les vases à leur valeur la plus probable, mais comme
ni Pierre ni Paul n'ont une facture, il édicte les règles suivantes.
 Pierre et Paul vont, chacun de son côté et toujours sans se concerter, écrire le
prix de leur vase sur une feuille de papier, prix qui doit être un nombre entier
d'euros entre 2€ et 100€, puis remettre leurs feuilles à Jacques.
 Si les deux prix écrits sont identiques, Jacques rembourse les deux vases à ce
prix-là.
 Si les deux prix diffèrent, Jacques rembourse les deux vases au prix le plus bas,
en ajoutant 2€ de bonification au moins disant et en prélevant ces 2€ à titre de
pénalisation sur le plus cher. Ainsi, par exemple, si Pierre a demandé 40€ et
Paul 55€, alors Pierre reçoit 40 + 2 = 42€ et Paul reçoit 40 - 2 = 38€.

Question : Pierre et Paul étant intelligents et disposant de quelques minutes pour


réfléchir sans se concerter, quelle somme chacun doit-il demander ?

A première vue, Pierre et Paul voudraient obtenir le maximum d'argent, donc


demander 100€. Pierre raisonne que Paul doit penser comme lui. Il se dit donc qu'ils
vont tous deux demander 100€ et les obtenir.

368
Puis Pierre réfléchit : si Paul a fait comme lui le raisonnement précédent, Pierre a
intérêt à ne demander que 99€, pour être moins cher que Paul, donc toucher
99 + 2 = 101€.

Mais avant d'inscrire cette somme, Pierre réfléchit encore et se dit que Paul étant
intelligent a dû faire le même raisonnement que lui, donc qu'il va demander 99€. Pierre
en déduit donc qu'un meilleur pari, pour lui, serait de demander 98€, pour être moins
cher que Paul et toucher 100€.

En poursuivant le raisonnement, chacun des deux voyageurs doit arriver à la même


conclusion : l'autre étant intelligent, pour gagner je dois être le moins cher, donc je
baisse mon prix de 1€ à la fois… jusqu'à ce que j'arrive au minimum, 2€.

Ce raisonnement est logique, mais guère satisfaisant : chacun des deux voyageurs se
dit que recevoir 2€ (ou 4€ si l'autre a demandé davantage) c'est bien peu, et que la
certitude de ce modeste remboursement a moins d'intérêt qu'un remboursement plus
risqué associé à une demande plus conséquente.

3.6.11.1.2 L'homme ne suit que les conclusions conformes à ses valeurs


Première conclusion : nous avons déjà vu et nous confirmerons plus bas qu'à chaque
étape d'un raisonnement l'homme en évalue automatiquement la conclusion. Si celle-
ci lui déplaît bien qu'elle soit logique, il agit sans la suivre ; un homme ne suit une
conclusion logique que si la valeur associée à ses conséquences est située plus haut
dans la hiérarchie de ses valeurs du moment que les valeurs de ses autres choix
possibles, logiques ou pas.
Après l'évaluation d'une étape, l'homme ne poursuit donc son raisonnement que
s'il espère aboutir à une conclusion plus favorable, ou au minimum moins
défavorable.

C'est bien ce que les chercheurs en théorie des jeux ont constaté : ils ont fait passer
le test du "Dilemme des voyageurs" à des milliers de personnes, dans plusieurs pays,
et avec des profils allant jusqu'aux niveaux d'instruction élevés. Le résultat fut le
suivant : moins d'une personne sur 7 choisissait la réponse logique (2€), plus de la
moitié choisissaient 100€, les autres choisissant une valeur intermédiaire.

Deuxième conclusion : lorsqu'une conclusion logique lui déplaît, l'homme la refuse au


profit d'un autre choix. D'où les règles :

La logique d'un raisonnement et le caractère raisonnable d'une


action ne suffisent pas pour convaincre l'homme.

Les valeurs d'un homme n'ont pas de rapport avec la logique et la


raison, qui ne sont pour lui que des moyens pour les satisfaire.

Et comme les valeurs et leur ordre d'importance diffèrent souvent d'un homme à un
autre et, pour un homme donné d'un instant à un autre, les choix d'un homme donné

369
sont imprévisibles pour un autre qui ne le connaît pas intimement. C'est ce que
confirment [75] et [76].

Rappelons aussi que Pascal explique qu'on ne peut convaincre la raison si on ne


séduit pas le cœur, tant les hommes écoutent plus leur cœur que leur raison [239].

Dans un discours inaugural à l'université Caltech (http://www.caltech.edu/) en 1974, le


physicien Richard Feynman a énoncé son principe premier ainsi [240] :
"Le principe premier est que vous ne devez pas vous tromper vous-même - et
vous êtes la personne la plus facile à tromper."

3.6.11.1.3 Un raisonnement critiquable


Le raisonnement du jeu du dilemme ci-dessus, qui concluait à un choix de 2€, a une
logique critiquable. En effet, il est basé pour chaque voyageur sur l'hypothèse que
l'autre fait le même raisonnement que lui. Mais l'autre est différent, et même s'il est
intelligent ses valeurs peuvent être très différentes lorsqu'il s'agit de juger d'un risque
ou d'une probabilité.

Aucun voyageur ne peut connaître la probabilité que l'autre prenne une décision
donnée, donc aucun raisonnement probabiliste n'est possible. En outre, comme un
homme intelligent sait que tout homme a une part d'imprévisibilité, il n'y a pas de
stratégie optimale dans un jeu comme le "Dilemme des voyageurs" : en présence
d'autant d'incertitude, l'intuition d'un homme ou une décision au hasard sont des choix
aussi valables (ou peu valables) que le résultat d'un raisonnement quelconque. Et les
statistiques des tests le confirment : il y a moins d'une personne sur 7 qui fait confiance
à sa logique, les autres suivent leur intuition. Voir aussi [301].

Il y a un art de choisir entre logique et intuition. Chez un trader de salle de marchés


qui passe son temps à acheter et vendre des actions, des obligations et des options
pour le compte d'investisseurs, souvent à hauteur de millions de dollars par heure de
transactions boursières, cet art utilise de puissants logiciels de modélisation de
l'évolution des cours et des risques en même temps qu'une intuition qui s'avère tantôt
géniale tantôt désastreuse [301-a].

3.6.11.1.4 La science économique est basée sur un postulat contestable


A la base de tout raisonnement économique on trouve le postulat de rationalité des
acteurs économiques, qui affirme qu'un tel acteur (personne, société, Etat, etc.) agit
toujours rationnellement en fonction de son seul intérêt. Ainsi par exemple, lors d'un
achat un client choisit le produit le moins cher qui répond à ses besoins.

Ce postulat est contredit dans un petit nombre de cas bien connus. Exemple : quelques
pour-cent des clients achètent des produits du « commerce équitable », qu'ils
acceptent de payer plus cher parce qu'ils satisfont ainsi leur désir de partager un peu
de leur argent avec des agriculteurs du tiers-monde.

Mais le postulat de rationalité est contredit dans la majeure partie des cas où une
décision a une probabilité de perdre de l'argent de x % et une probabilité d'en gagner
de (100-x) %. La plupart des gens sont bien plus sensibles à une perte qu'à un gain
lorsqu'il s'agit du même montant. Ainsi, lorsqu'un décideur sait qu'il a une chance sur
deux de perdre une somme S et une chance sur deux de gagner la même somme S,

370
la grande majorité des décideurs refuse de risquer la somme S parce que la peur de
la perdre compte plus pour eux que l'espoir de la gagner. De nombreux tests récents
montrent qu'en moyenne les gens n'acceptent de risquer de perdre une somme S lors
d'une décision qui a une chance sur deux d'être gagnante que s'ils espèrent gagner
au moins 2S.

La grande majorité des gens se comporte de manière irrationnelle, contrairement au


postulat économique de rationalité. (Détails : [301])

Lorsque ces tests ont été faits sous imagerie fonctionnelle par résonance magnétique
(IFRM) du cerveau, on s'est aperçu qu'en général la quantité de dopamine
(neurotransmetteur associé à une anticipation agréable, au désir) correspondant à un
gain augmente avec la somme espérée, mais que pour une somme donnée elle est
bien plus faible que la « punition » correspondant au risque de perte : avec des
probabilités d'une chance sur deux les gens redoutent bien plus la perte qu'ils
n'apprécient le gain. Il faut en moyenne un espoir de gain au moins double de la perte
possible pour qu'ils prennent le risque de perdre [236].

Les tests ont montré que cette aversion contre le risque est une caractéristique de la
plupart des individus, dont les raisonnements sont donc biaisés en ce sens-là. Ils ont
aussi montré que certains individus sont plus prêts à prendre des risques que d'autres.
Ils ont enfin montré que le pourcentage de gens qui prennent des décisions
économiques rationnelles est minime : l'homme est le plus souvent déraisonnable,
dominé par ses affects plus que par sa raison.
Plus généralement, l'homme étant plus sensible aux risques et mauvaises
nouvelles qu'aux espoirs et bonnes nouvelles, les medias mettent toujours l'accent sur
les mauvaises nouvelles, car ce sont elles qui génèrent le plus d'émotion, donc
d'audience (« Les trains qui arrivent à l'heure n'intéressent personne ! » ou « Bad news
for the audience is good news for reporters ».)

Des recherches récentes en matière d'économie comportementale (en anglais


behavioral economics) montrent que la plupart des décisions humaines en matière
d'économie sont irrationnelles car basées sur des émotions, des comparaisons à autrui
et des habitudes sociales [277] ; elles confirment ce que les cours de psychologie des
ventes enseignent depuis longtemps dans les écoles de commerce.

3.6.12 Ordinateur et compréhension humaine


Une des fonctions les plus importantes de l'intelligence humaine est la compréhension
de situations et de phénomènes, ainsi que de raisonnements qui sont portés à notre
connaissance. Comme annoncé au début de ce texte, comprendre est un des buts du
déterminisme, que ce texte étudie pour qu'en le connaissant mieux on comprenne
mieux la nature, l'homme et la société, et qu'on puisse mieux prévoir l'évolution des
situations et des phénomènes.
(Ce texte est aussi un plaidoyer pour la pensée rationnelle, et contre les idées
préconçues et les superstitions ; la spéculation intellectuelle et la métaphysique
[371] sont pleines d'intérêt, mais hors de notre sujet.)

Comprendre quelque chose, c'est s'en construire un modèle mental permettant de


répondre aux questions comme : de quoi s'agit-il ; comment cela est-il arrivé ou a-t-il
été créé ; comment cela interagit-il avec son environnement ; en quoi cela me

371
concerne-t-il, etc. La dernière question est la plus importante : ce qui ne me concerne
pas n'a (pour le système psychique d'évaluation dont je suis doté depuis ma
naissance) qu'un intérêt spéculatif, et ne mérite de ma part que peu d'efforts et de
temps de compréhension.

Un homme estime avoir compris quelque chose lorsqu'il peut attribuer à la


représentation qu'il vient d'en construire une valeur qui le satisfait assez pour qu'il ne
fasse pas d'effort pour la comprendre mieux. Dans le cerveau, cette évaluation de la
compréhension est analogue à celle d'un phénomène physiologique comme la faim :
l'homme estime avoir assez mangé lorsque la sensation de faim (désir de manger
associé à la dopamine) a disparu.

La compréhension peut être rationnelle ou intuitive. La compréhension rationnelle


résulte d'un raisonnement conscient et logique ; c'est le cas, par exemple, dans le
domaine des sciences exactes. Mais lorsqu'il s'agit de comprendre un chagrin d'amour
ou le plaisir d'écouter du Mozart, la logique n'est pas d'un grand secours, il faut surtout
de l'intuition, du cœur [66] : une impression esthétique arrive toute seule dans notre
conscience, sans effort ni délai.

Un ordinateur, exécutant parfait de processus algorithmiques, peut accéder à la


compréhension rationnelle dans la mesure où elle relève de la logique formelle et où
son logiciel est adapté à la représentation de ce qu'il doit comprendre. Il peut, par
exemple, démontrer automatiquement un théorème à partir d'une axiomatique [67].
Mais il ne pourra pas évaluer la qualité de sa compréhension, évaluation qui exige
celle de l'adéquation de cette représentation avec ses conséquences, c'est-à-dire soit
une prévision d'évolution soit la formulation des conséquences pratiques de la
représentation externes à l'axiomatique. Or que vaut une compréhension dont on ne
peut vérifier les conséquences ou qu'on ne peut falsifier [203] par un contre-exemple ?
Un exemple de l'importance de l'évaluation des conséquences pour la qualité de
la compréhension nous est fourni par l'échec des logiciels de dictée et de
traduction automatique. Depuis des années j'essaie de temps en temps de tels
logiciels, en n'hésitant pas à acheter les plus chers pour obtenir un résultat
acceptable. Et jamais je n'en ai trouvé un qui me fasse gagner du temps. Le
problème est simple : ils ne comprennent pas ce que je dis ou j'écris, ni ce
qu'écrivent les gens dont je trouve les textes sur Internet ; ils font tellement de
fautes que je perds plus de temps à corriger leur texte que je n'en gagne en partant
de ce qu'ils ont compris au lieu de ma propre frappe.
Le problème de la compréhension du langage humain est l'existence de multiples
manières d'interpréter un mot donné, donc une phrase donnée. Exemple : le mot
composé allemand "Kulturinfiltrierung" peut être traduit par l'ordinateur (j'ai fait
l'expérience avec le logiciel de traduction automatique de WORD 2003) :
 à partir d'une décomposition "Kultur - Infiltrierung" soit par "infiltration
culturelle", soit par "infiltration de la culture" ;
 à partir d'une décomposition "Kult - Urin - Filtrierung" par "filtration de l'urine
de culte" ou "filtration d'urine de culte".
et pour choisir entre ces diverses traductions il faut avoir compris le contexte. Or
la compréhension du contexte exige la déduction des conséquences de chacune

372
des traductions possibles, puis l'évaluation de leur adéquation, processus
extrêmement difficile et loin d'être maîtrisé par des logiciels.

Un ordinateur ne peut pas comprendre ce qui se formule mal avec des mots, comme
un chagrin d'amour ou le plaisir d'écouter du Mozart. Une telle compréhension exige
une intuition, une affectivité qu'il n'a pas, même si elle se passe d'une vérification
rigoureuse des conséquences de chaque interprétation.

La conclusion est assez brutale : un ordinateur ne peut comprendre que les


raisonnements déductifs (donc algorithmiques), et il ne peut vérifier la sémantique de
cette compréhension ; il ne peut pas comprendre ce qui relève de l'intuition, des
métaphores, de l'humour ou des affects [141] ; il ne peut ni comprendre un homme, ni
formuler des jugements de valeur. On peut seulement lui faire enregistrer des millions
de traductions de phrases particulières et espérer qu'il y trouvera celle qui correspond
à un cas donné.

Pour une définition plus rigoureuse du phénomène de compréhension et de la


compréhension par un ordinateur voir plus bas la note [337] sur l'entendement.

3.6.13 Compréhension, imagination et certitude


Pour comprendre, l'homme se construit une représentation de la réalité. Cette
construction utilise la déduction, l'intuition, l'induction et l'analogie pour créer ses
abstractions, et l'imagination pour prévoir leurs conséquences. Cette prévision sert à
la fois à vérifier la fidélité de la modélisation et à évaluer l'impact de chacun de ses
éléments par référence aux valeurs de l'homme.

Un danger menace la construction du modèle par un homme : c'est celui de remplacer


une certitude par un produit de son imagination, par exemple parce que ce produit
imaginaire est plus satisfaisant pour ses valeurs ou parce que la certitude manque. En
somme, l'homme voit souvent ce qu'il préfère voir plutôt que ce qui est. Et il lui faut de
l'entraînement, de l'honnêteté intellectuelle et de la rigueur pour s'avouer ce qu'il n'a
pas compris et ce qu'il ne sait pas, ou pour admettre une réalité déplaisante. Et comme
un homme est plus objectif pour les autres que pour lui-même, il est prudent de faire
valider par d'autres ce qu'on pense avoir compris.

Descartes a pourtant énoncé clairement la bonne approche dans le premier de ses


quatre préceptes [4]. Mais cette approche est erronée sur un point, son innéisme :
Descartes pense qu'une certitude est fiable si elle est prégnante, remplaçant ainsi une
preuve factuelle ou démontrée absente par une absence de doute, et excluant la
possibilité qu'un homme sérieux puisse se tromper de bonne foi. Or Sartre a montré à
quel point l'homme peut être de mauvaise foi quand sa compréhension lui fournit une
représentation qu'il n'aime pas, par exemple parce qu'elle l'incite à faire quelque chose
qu'il n'aime pas ou parce qu'elle crée une dissonance cognitive. Et il suffit de visiter
une galerie de peintures pour voir qu'un peintre ne peint pas ce qu'il voit, mais ce qu'il
veut montrer.
Bien que l'innéisme soit critiquable chez Descartes, le grand philosophe Husserl
l'a précisé et utilisé avec profit dans sa phénoménologie [312], en le débarrassant de
préjugés et de postulats inutiles.

373
3.6.14 Les deux étapes d'une décision consciente
Selon des recherches récentes en neuroscience [286], lorsqu'un homme cherche à
prendre une décision consciente, son esprit passe par deux étapes : recherche de
faits, puis prise de décision. La recherche de faits comprend une analyse du problème
avec identification des paramètres de la décision et évaluation des conséquences de
chaque décision qui vient à l'esprit de l'homme en fonction de ses valeurs et préjugés ;
parfois l'analyse est une simple intuition, parfois c'est une réflexion consciente et
approfondie. Après un temps qui peut aller d'une seconde à un certain nombre de
semaines, une des décisions possibles présente des conséquences dont la valeur
dépasse un certain seuil, le seuil de décision, et l'homme se décide.

Le temps nécessaire représente un compromis entre la vitesse de décision, qui permet


à l'esprit de passer à autre chose, donc d'avoir une préoccupation de moins, et le
risque (inquiétant) d'erreur par décision insuffisamment mûrie.

Il arrive souvent qu'un homme ait pris sa décision sans en être conscient : le seuil de
décision est atteint d'abord dans l'inconscient avant d'intervenir dans des pensées
conscientes ; l'homme agit alors parfois en fonction de cette décision inconsciente,
même s'il n'est pas encore en mesure de l'énoncer et de l'admettre consciemment.

Tel est mon bon plaisir


J'ai chez moi une pendulette murale qui reçoit des signaux radio d'une horloge
atomique en Allemagne, horloge qui a l'heure juste avec au moins douze décimales
exactes après la seconde. Elle est donc toujours à l'heure juste. Je l'ai payée 60€. Et
on trouve des montres-bracelets CASIO du même type pour environ 200€.

Comment expliquer alors que des gens paient des milliers ou même des dizaines de
milliers d'euros pour des montres mécaniques infiniment moins précises ? A
l'évidence, ce qu'ils achètent à ce prix-là n'est pas la connaissance de l'heure, c'est le
privilège de posséder un objet si cher que peu de personnes peuvent se l'offrir. C'est
aussi de savoir qu'il est en or et a été fait avec soin, patience et fierté, par des artisans
suisses qui privilégient le respect de leur tradition horlogère à celui de la précision... et
des prix modérés. Bref, ils achètent de l'irrationnel, du rêve, de l'illusion… car tel est
leur bon plaisir. Où est la rationalité dans tout cela ?

Comment prédire si une personne prête à dépenser 100 000€ pour se faire plaisir
s'offrira un bijou, un bateau de plaisance ou une voiture de luxe ? On ne peut pas, et
comme chacun a ses préférences personnelles et que celles-ci peuvent varier avec le
temps et les circonstances, on n'est pas près de pouvoir. Et aucun ordinateur ne peut
nous aider à prendre la meilleure décision, car le critère « meilleure » ne peut faire
l'objet d'un algorithme, ni même en général d'une définition précise.

3.7 Le déterminisme dans notre société - La mondialisation


Nous savons que les sciences sociétales (économie, sociologie…) ne peuvent
permettre des prédictions aussi certaines et précises que la physique.

374
Parfois certaines théories, comme l'économie, permettent une prédiction quantitative
statistique parce que la réalité qu'elles modélisent est assez stable dans le temps et
peu sujette aux décisions imprévisibles de l'homme. Ce sont alors des domaines « à
complexité non organisée », au sens de Hayek. On peut alors parler de
« déterminisme économique », par analogie avec celui de la physique.
C'est ainsi que des modèles statistiques des phénomènes économiques, avec
l'influence des taux d'intérêt et de la masse monétaire sur la croissance et les taux de
change, permettent assez bien aux banques centrales (Banque centrale européenne,
Réserve fédérale américaine…) d'anticiper et de maîtriser l'inflation à moyen terme
tout en favorisant la croissance.

Mais dans la plupart des phénomènes économiques on est dans le domaine de la


« complexité organisée » de Hayek. La prédiction quantitative est alors, en général,
impossible ou peu fiable, parce que les circonstances ne se reproduisent jamais à
l'identique et parce que les décisions humaines tiennent compte d'anticipations
d'évolution et d'émotions irrationnelles... tout en faisant beaucoup d'erreurs. Comme
Hayek l'a expliqué, il subsiste alors un certain déterminisme économique, qualitatif et
sujet à erreurs de prévision.
C'est un tel déterminisme qui régit les phénomènes de marché, comme la loi de
l'offre et de la demande [167], la théorie de l'avantage relatif de Ricardo [40], et
l'inéluctable mondialisation que nous allons approfondir un peu pour en comprendre le
déterminisme.

3.7.1 Théories utilitaires des XVIIe et XVIIIe siècles


Les philosophes utilitaristes Jeremy Bentham et John Stuart Mill, et quelques
théoriciens des XVIIe, XVIIIe et XIXe siècles ont proposé des modèles de
comportement économique rationnel de l'homme basés sur la notion quantifiable
déterministe d'utilité (nombre mesurant la satisfaction procurée par un bien ou un
service à toute la population concernée).
 Blaise Pascal affirmait que tout homme agit de manière prévisible pour
maximiser son profit tout en minimisant ses coûts. L'utilité prévisible d'une action
était donc la somme algébrique des produits profit x probabilité (comptés
positivement) et coût x probabilité (comptés négativement). Plusieurs actions
possibles ainsi évaluées par leur utilité pouvaient être comparées pour choisir la
plus profitable.
 Daniel Bernoulli constata que les gens redoutent davantage les risques que ne
le supposait la théorie de Pascal. Il proposa de prendre en compte dans le calcul
de l'utilité les estimations subjectives de profit et de coût au lieu de leurs
probabilités objectives ; du coup, les désirs de l'homme étaient pris en compte.
 Adam Smith tira les conséquences de la théorie de Bernoulli dans son célèbre
ouvrage de 1776 "Recherches sur la nature et les causes de la richesse des
nations" [155], si fondamental en économie qu'il est encore étudié de nos jours.
Il affirma que tous les acteurs économiques (personnes, entreprises, banques,
Etats…) recherchaient constamment leur profit maximum dans un marché régi par
des lois déterministes. Ainsi, sa loi de l'offre et de la demande [167] définit les prix
et quantités échangées selon les désirs des acheteurs, qui veulent acquérir les
biens ou services, et des vendeurs d'accord pour les échanger contre de l'argent
(explication : [156] et [301]).

375
Depuis l'époque des Lumières [47], le comportement de l'homme en société, que ce
soit en matière économique ou dans d'autres domaines, a été beaucoup approfondi,
et l'on pense aujourd'hui qu'il a de nombreux aspects forts éloignés du déterminisme
scientifique traditionnel. Exemples :
 La théorie des jeux de John Von Neumann, qui montre l'existence de situations
où le comportement de l'homme est indéterminé.
 Les comportements humains évoqués ci-après, dans [301] et les études de
neuroéconomie.

3.7.2 Craintes et regrets d'aujourd'hui


A force de remettre en cause nos connaissances et nos méthodes de pensée
rationnelle, à force de nous obliger à admettre que le déterminisme est indifférent -
c'est-à-dire ni bien ni mal intentionné parce que la nature elle-même est ainsi - nous
sommes souvent désorientés et tentés de chercher une autre voie, une voie
irrationnelle. De plus en plus de personnes constatent leur incompréhension du monde
qui les entoure, tant en ce qui concerne les technologies que l'économie et l'écologie.
Certains recourent au mysticisme, religieux ou non. D'autres cherchent dans l'art ou
l'action humanitaire un équilibre à l'inhumanité du monde réel. Beaucoup de personnes
croient aux sciences occultes, à l'astrologie, à la voyance. Des gens se méfient de la
science ou même l'accusent d'irresponsabilité, d'où la peur des OGM, de l'électricité
nucléaire, des ondes électromagnétiques et de radiotéléphonie, des fours à micro-
ondes, des additifs chimiques aux aliments, etc.

Il est évident, de nos jours, que le rêve des philosophes des Lumières [47] et des
positivistes [46] de comprendre le monde à travers la science ne se réalisera que
lentement et bien modestement… mais jamais complètement : chaque décennie qui
passe apporte à l'humanité un volume considérable de connaissances nouvelles, qui
diminue la proportion des connaissances humaines qu'un individu donné maîtrise.
Cela se produit autant en matière de sciences exactes qu'en matière de sciences
humaines comme la psychologie, la physiologie et l'économie. Le désespoir de
beaucoup de comprendre le monde où ils vivent entraîne le désespoir de résoudre ses
immenses problèmes et même, souvent, de se réaliser.

Incompris, le monde paraît hostile à beaucoup de gens (ce qu'on ne comprend pas
effraie), et nombreux sont ceux qui désespèrent d'y vivre heureux [D6]. Je constate
aujourd'hui, chez certains, un amalgame entre la science - considérée comme d'autant
plus porteuse de menaces qu'elle progresse sans se soucier d'éthique - et la
mondialisation libérale, considérée comme un phénomène qui ignore l'homme pour
cause de concurrence, productivité et profit de quelques-uns. L'amalgame vient de
l'analogie entre science et mondialisation sur le plan du respect de l'homme. Car à part
la recherche fondamentale, la science appliquée comme la mondialisation évoluent en
fonction du seul profit financier escompté, en se moquant de l'impact environnemental
et des rêves de bonheur de l'humanité que faisaient les philosophes des Lumières et
les positivistes. Cet amalgame fait que beaucoup de gens se méfient à la fois de la
science appliquée et de la mondialisation.

376
3.7.3 Une analogie entre évolution darwinienne et économie de marché
« Comparaison n'est pas raison », comme on dit pour rappeler qu'une analogie, une
induction ou une schématisation ne constituent pas des bases de preuve. Mais ces
raisonnements ont le mérite d'aider à conceptualiser quelque chose ou à l'expliquer à
autrui. Voici des analogies entre mécanismes de l'évolution darwinienne et de
l'économie de marché.

Complexification et diversification
Nous avons vu que l'évolution des espèces a produit la complexification et la
diversification. Nous savons aussi que la sélection naturelle entraîne la survie et la
prolifération des êtres les mieux adaptés. Nous savons, enfin, que la sélection
naturelle est un phénomène qui met en concurrence des espèces, des sociétés et des
individus pour l'accès à des ressources limitées.

De son côté, l'économie de marché, aujourd'hui mondialisée, a pour résultat une


complexification croissante des biens produits, vendus et consommés. Exemples :
 La complexité d'un PC, dont le processeur a en 2011 plus de 3 milliards de
transistors [259] ; les disques sans mouvement SSD (solid state disk) qui
stockent 512 milliards d'octets.
 La complexité et l'instabilité des structures de nos sociétés sont illustrées par la
législation française, qui comporte environ 100 000 textes (à lui seul, le Code du
travail 2015 compte 3809 pages en petits caractères) ; la France a aussi modifié
sa constitution 24 fois en 50 ans, entre 1958 et 2008.
 L'économie moderne produit une diversité toujours plus grande de services :
services publics, services aux entreprises, services à la personne, associations,
etc. La liste des services applicatifs offerts aux utilisateurs de téléphones
portables et d'Internet compte déjà des dizaines de milliers d'applications et
s'allonge chaque semaine.

Concurrence
Les biens et services produits, vendus et consommés, font l'objet d'une concurrence
sévère sur les prix, la qualité et la disponibilité. Cette concurrence joue le rôle d'une
sélection naturelle qui élimine chaque année de nombreux produits et services, pour
cause d'obsolescence, d'infériorité technique, de prix non concurrentiel ou de
changement de mode ; et les emplois correspondant aux produits et services éliminés
(10 000 par jour en France) sont détruits et remplacés par des emplois correspondant
à de nouveaux produits et services. Produits et services se battent pour obtenir une
part du budget limité de chaque consommateur. Et la concurrence existe aussi entre
travailleurs. (Définition de la concurrence " pure et parfaite " [197]).

Analogie entre évolution darwinienne et économie de marché


Evolution des espèces et économie de marché ont donc en commun des mécanismes
sélectifs de concurrence, mécanismes qui expliquent l'adaptabilité des espèces, des
individus, des produits, des services et des organisations qui structurent la société. Le
déterminisme intervient partout sous forme de conséquences inévitables :
 Le caractère limité des ressources (matières, main d'œuvre, capital,
infrastructures…) entraîne inévitablement la concurrence ; et celle-ci n'existe que

377
parce que les ressources sont limitées : il y a là une condition nécessaire et
suffisante qui dure depuis toujours et n'est pas près de cesser.
Le respect simultané de la condition nécessaire et suffisante et de la règle de
stabilité ci-dessus font de l'économie de marché un phénomène déterministe.
 Pour obtenir la supériorité par rapport aux concurrents :
 L'économie innove sans cesse en matière de technologies, de produits, de
services et d'organisations, qu'elle adapte au fur et à mesure à l'évolution du
marché, notamment celle due à la mondialisation. Pour obtenir le maximum
de productivité et de compétitivité, elle utilise la spécialisation et les
économies d'échelle permises par le progrès des transports et des
communications qui caractérisent la mondialisation.
 De son côté, la nature crée sans cesse des êtres nouveaux ou différents, en
utilisant l'évolution aléatoire par mutations génétiques et la mutation de
l'expression de gènes ; la sélection naturelle retient ensuite les êtres les plus
adaptés et les espèces les plus fécondes.

De même qu'il y a un déterminisme de l'évolution darwinienne, déterminisme ne


permettant qu'une compréhension et une prévision qualitatives, il y a un déterminisme
en économie. Voyons les détails.

3.7.4 La mondialisation, résultat de la concurrence et des communications


Qu'est-ce que la mondialisation [41] sinon un phénomène macroéconomique
inéluctable ? Voici l'enchaînement de circonstances qui y a conduit et le régit encore.
Animal le plus intelligent, l'homme a pu s'imposer en vertu des lois de sélection
naturelle de Darwin [42]. Prioritaire de ce fait pour l'accès aux ressources de nourriture,
la population humaine a augmenté de plus en plus. Plus il y avait d'hommes, plus leur
aptitude à apprendre les uns des autres (grâce à la richesse de leurs langages et à
l'écriture) et à travailler ensemble leur a permis d'être puissants et de dominer la
nature ; elle leur a permis de produire de plus en plus de nourriture, puis d'objets utiles,
puis d'objets de confort et de plaisir, puis de services et, dernièrement, d'armes de
destruction massive et de pollution.

Mais la Terre ayant des ressources finies, les hommes se trouvèrent de plus en plus
en concurrence pour accéder aux ressources naturelles. En dépit des guerres et
parfois à cause d'elles, ils s'adaptèrent et améliorèrent leur productivité en se
spécialisant et en échangeant des biens et services, selon la théorie économique de
l'avantage relatif décrite par David Ricardo [40]. Au risque de décevoir certains
philosophes et certains croyants, j'affirme qu'il n'a pas été nécessaire qu'un idéal
(philosophie, religion, valeurs) impose cette adaptation, qui résulte de l'impérieux
besoin de survivre en dépit de la concurrence en allouant le mieux possible des
ressources limitées : savoir-faire, heures de travail, terre, eau, minerais, capital…

La concurrence économique résulte de la croissance de la population, dans un monde


aux ressources finies où les hommes veulent toujours plus de biens matériels et de
services, les producteurs se spécialisent pour les produire et le commerce les échange
[181].

Les connaissances continuant à progresser malgré les guerres (et les erreurs des
idéologies comme le marxisme, qui a conduit à l'échec du communisme expliqué dans

378
les annexes [164] et [301]), la production a augmenté, permettant à la population de
continuer à croître en même temps que son niveau de vie s'améliorait.

Le progrès technique est une conséquence de la nécessité économique d'être toujours


plus productif et innovant, pour résister à la concurrence, et du désir des hommes de
faire toujours mieux pour avoir toujours davantage ; ce progrès a permis une explosion
sans précédent des échanges commerciaux [182], accompagnant une spécialisation
économique toujours plus poussée, indispensable à la productivité [40].

3.7.4.1 Lois de la physique et lois de l'économie


De même que le déterminisme étendu régit toutes les lois de la nature, la
mondialisation impacte les lois de la macroéconomie moderne qui s'appliquent à des
variables statistiques conformes aux complexités non organisées de Von Hayek. On
ne peut plus aujourd'hui appliquer une loi macroéconomique à une échelle autre que
mondiale, tant les échanges sont faciles et tant ils sont indispensables.
 La loi de l'offre et de la demande, par exemple, est devenue mondiale : pour de
plus en plus de produits, de services ou de capitaux il peut y avoir des
fournisseurs et des clients partout.
 Les pays qui restent à l'écart de la mondialisation se condamnent à la misère et
leurs gouvernements sont obligés de freiner la mondialisation de manière
tyrannique (exemples : Corée du Nord, Cuba, etc.)
 La croissance de la population mondiale et son aspiration à plus de
consommation renforcent tous les jours les besoins et les contraintes à l'origine
de la mondialisation :
 Le besoin de produire plus et la contrainte de la concurrence entraînent le
besoin de plus de productivité, donc de progrès technique, de spécialisation,
d'économies d'échelle (entreprises de taille mondiale) et d'échanges ;
 La limitation des ressources (matières premières, mais aussi capacité de
l'environnement à absorber la pollution) entraîne la nécessité d'accords
mondiaux pour partager et échanger les ressources, ainsi que le coût de la
lutte contre la pollution ;
 La lutte contre l'effet de serre dû à un excès de CO2 entraînera de profondes
mutations économiques. La part du commerce de matières premières avec
des pays lointains diminuera au profit de celui avec des pays plus proches,
entraînant une intégration économique par zones géographiques sans
précédent. Les transports devront être optimisés pour consommer moins. Le
télétravail se développera. Les immeubles et les produits seront modifiés
pour économiser l'énergie. De nombreuses technologies nouvelles
s'imposeront, etc.

3.7.4.2 Conséquences économiques de la mondialisation


Nous verrons plus bas que la mondialisation est une dimension indifférente à l'homme
de l'évolution économique récente de l'humanité. Mais ce n'est pas une raison pour la
refuser. Du reste, la croissance de la population et le progrès technique la rendent
inéluctable pour nourrir et soigner la population et améliorer son niveau de vie.
 La mondialisation apporte tant d'amélioration de productivité qu'elle est
indispensable pour sortir les pays pauvres de leur misère ; il suffit :

379
 De comparer le niveau de vie des pays à économie de marché (ouverte au
commerce international) et des pays à économie fermée [183] ;
 D'examiner le recul de la misère dans la plupart des pays pauvres [184].
 La mondialisation est la seule solution possible à une autre conséquence
inéluctable de la croissance de la population mondiale et de son niveau de vie :
la dégradation de l'environnement par gaz à effet de serre et pollution, la pénurie
d'eau potable, etc.
La croissance de la température augmentant la quantité d'énergie de
l'atmosphère, il y aura de plus en plus d'inondations catastrophiques,
d'ouragans, de sécheresses génératrices de famine et de maladies tropicales.
On estime à 35 000 le nombre de morts en Europe dus à la canicule de 2003
et à 240 millions le nombre de Chinois ayant souffert des inondations de 1998.
L'Organisation Mondiale de la Santé http://www.who.int/fr/ estime que depuis
l'an 2000 le nombre de décès annuels dus au changement climatique est
supérieur à 150 000. Ces désastres entraîneront d'immenses migrations de
population, donc des conflits.
Nous ne résoudrons pas ces problèmes, qui se posent à l'échelle mondiale, sans
une coopération économique internationale, une réorientation de l'économie
mondiale vers le progrès écologique au lieu du « toujours plus de consommation »
actuel. (Si un pays consentait seul aux évolutions et investissements nécessaires
pour réorienter son économie vers le développement durable, ses concurrents lui
prendraient des parts de marché.) Comme un Etat mondial est utopique dans tout
l'avenir prévisible (voyez l'impuissance et l'échec de l'altermondialisme [185]),
c'est l'initiative privée et la recherche du profit en situation de concurrence qui
apporteront les solutions techniques en matière d'économie d'énergie, d'énergies
renouvelables, de traitement de l'eau et des rejets, etc. (Les coopérations
internationales ne marchent qu'en matière de recherche fondamentale comme le
projet ITER [261] et le CERN [262]). Et les divers pays seront obligés de coopérer
en instaurant de plus en plus de normes internationales et de lois locales à cet
effet, au fur et à mesure que les catastrophes écologiques amèneront les opinions
publiques à l'exiger. Après les accords de Kyoto de 1997 sur le réchauffement
climatique, entrés en vigueur en 2005, ils ont déjà commencé.
 La mondialisation se caractérise par un extraordinaire développement des
communications, qu'il s'agisse des transports de personnes ou de
marchandises, de diffusion des programmes télévises ou du réseau Internet. En
plus des transactions commerciales, ce réseau permet d'accéder à une somme
de connaissances et d'œuvres sans précédent pour ceux qui veulent se cultiver
ou se tenir au courant, ainsi que de puissantes possibilités individuelles de
s'exprimer et d'échanger des idées. Ces connaissances et possibilités
d'expression et d'échange sont souvent gratuites : la mondialisation peut aussi
promouvoir la culture, la connaissance et la démocratie avec un minimum
d'argent.
 La mondialisation produit une très forte intégration des économies (illustrée par
le développement du commerce international [182]) rendant de nombreux pays
si dépendants d'autres pays que la guerre entre eux devient impossible ;
exemple : l'Union européenne. Ce phénomène est inéluctable.

380
Jusqu'à présent, il a aussi été irréversible, aucun pays ne pouvant sortir d'un
groupement économique auquel il appartient sous peine de marginalisation. Le
seul contre-exemple a été celui de l'URSS, pays qui a éclaté lorsque son régime
communiste s'est effondré.
Une harmonisation des économies se produit peu à peu, du fait du développement
des échanges commerciaux : les divers produits d'un pays deviennent disponibles
dans de nombreux autres, les produits les moins chers ou les meilleurs s'imposant
peu à peu partout, pour le plus grand profit des consommateurs. Quelle mère de
famille nombreuse proteste contre les T-shirts asiatiques, dont le prix de 1.50 € lui
permet d'habiller tous ses enfants pour 4 fois moins cher que deux ans
auparavant ? Des millions de consommateurs profitent de produits moins chers
depuis que des délocalisations suppriment chaque année moins de 1 pour mille
des emplois français sans qualification… [186]
Voici quelques chiffres 2005 issus de [53] pages 229 à 318, qui illustrent
l'importance des investissements directs étrangers (IDE), qui (rappelons-le) créent
de l'activité et des emplois :
 Total mondial des IDE en 2005 : 916 milliards de dollars, dont l'Union
européenne [180] a reçu 422 milliards de dollars (46 %) ; la France à elle
seule a reçu cette année-là 63.6 milliards de dollars ;
 Investissements de l'Union européenne à l'étranger en 2005 : 555 milliards
de dollars, dont 387 milliards de dollars d'achats et fusions d'entreprises ;
 Stock d'investissements étrangers fin 2005 (valeur totale des
investissements étrangers fin 2005) :
 détenus par des pays quelconques dans le monde : 10 372 milliards de
dollars ;
 détenus par l'Union européenne : 5 475 milliards de dollars ;
 détenus par la France : 853 milliards de dollars ;
 détenus par les Etats-Unis : 2 051 milliards de dollars.
 Stock d'investissements étrangers fin 2005 (valeur totale des
investissements détenus par des étrangers) :
 dans l'Union européenne : 4 499 milliards de dollars (33 % du PIB) ;
 en France : 601 milliards de dollars (28 % du PIB) ;
 aux Etats-Unis : 1 626 milliards de dollars (13 % du PIB).
L'interdépendance économique croissante des pays a aussi pour conséquence la
perte d'indépendance croissante de leurs gouvernements, qui ne peuvent plus
faire n'importe quoi sans se préoccuper de leurs partenaires commerciaux. Les
échanges mondiaux ne relèvent pas du « libéralisme sauvage », ils sont régulés,
et leurs conflits sont arbitrés par les accords signés dans le cadre l'Organisation
Mondiale du Commerce [52]. Dans l'Union européenne [180], la mondialisation se
manifeste par le Marché commun et le fait que la plupart des lois récentes des
pays (notamment de la France) sont d'origine européenne.
 La mondialisation abaisse les coûts de transport, qui profitent d'une économie
d'échelle. Elle abaisse aussi les coûts de financement en permettant l'accès aux
capitaux disponibles dans tous les pays, en mettant ceux-ci en concurrence et
en diluant les risques grâce à des mécanismes de mutualisation et de
refinancement. En permettant aussi aux acheteurs, entreprises ou particuliers,

381
d'acheter moins cher et de financer à meilleur compte, elle combat l'inflation.
L'effet inflationniste qu'elle a malgré tout, est dû :
 à la pénurie croissante de matières premières (minerais, pétrole, céréales…)
résultant de la croissance des pays émergents (Chine, Inde, Brésil…),
croissance qu'on ne saurait regretter parce qu'elle profite à 3.5 milliards
d'êtres humains ;
 à une trop forte croissance du crédit (l'argent facile et pas cher) partout dans
le monde et particulièrement aux Etats-Unis et en France, pays dont les
habitants consomment depuis des années plus qu'ils ne produisent, en
s'endettant.
 En France, les exportations représentent environ 26 % du PIB. Si nous fermions
nos frontières l'économie s'effondrerait, à la fois parce que des millions de nos
travailleurs d'entreprises exportatrices perdraient leur emploi, et parce que nous
n'aurions plus de quoi payer les importations indispensables comme le pétrole et
le café. Sans la mondialisation, nous ne pourrions pas vendre des Airbus aux
Chinois et nous n'aurions pas le moyen de leur acheter des textiles ou de
l'électroménager (plus de détails [187]).
Les politiciens français irresponsables qui préconisent une sortie de l'Union
européenne avec rétablissement des frontières commerciales ne trompent que les
sots. Il y a énormément de produits dont nous ne pouvons nous passer et qu'il
faudrait produire en France bien plus cher qu'aujourd'hui en Asie : qui accepterait
de payer ses vêtements ou son téléphone portable 4 fois plus cher, qui en aurait
les moyens ? 80 % de nos médicaments génériques sont importés d'Inde ou de
Chine [359] ; s'ils étaient fabriqués en France à un prix triplé, notre Sécurité
Sociale pourrait-elle les rembourser, et avec les cotisations de qui ?

3.7.4.3 Mondialisation : causes et inconvénients pour l'homme


Pour permettre la croissance économique indispensable à une population qui
augmente et au désir de disposer de plus de richesses, l'humanité a adapté les règles
des échanges internationaux pour favoriser la libre circulation des personnes, des
biens, des services et des capitaux [52] ; c'est cette adaptation que l'on appelle
mondialisation ou globalisation (définition : [41]) ; c'est son exemple européen qu'on
appelle Marché commun, et son exemple nord-américain qu'on appelle NAFTA [180].

La mondialisation est donc une conséquence économique complètement


automatique, progressive, prévisible et inéluctable de la croissance de la population
mondiale et des progrès en matière de transports, de télécommunications et de
libéralisation des échanges : c'est donc une évolution régie par le déterminisme.

Il est exact qu'en tant que phénomène purement économique la mondialisation ne se


soucie pas plus du respect de l'homme et de l'environnement que la loi de l'attraction
terrestre de notre effort musculaire. On peut donc formuler l'accusation de
déshumanisation suivante de l'être humain :
"Pour la mondialisation et ses acteurs internationaux, un individu n'est qu'un
millionième d'une population d'un million."

Dans le cadre de son automatisme déshumanisé, l'économie en général - mondialisée


ou pas - ne fait rien pour le respect de l'environnement, la santé, l'éducation, la paix,

382
la justice, la solidarité, etc. Ses mécanismes allouent des ressources en fonction de
leur rareté et de leur prix, pas en fonction de principes moraux. Il n'est donc pas plus
raisonnable de l'accuser de ses lacunes que d'accuser un autre phénomène
incontournable, la loi de la pesanteur, d'ignorer la pénibilité de l'effort physique pour
soulever un objet. L'économie mondialisée est un fait, et ses lacunes et inconvénients
doivent être compensés par les sociétés humaines sous forme de lois et accords au
niveau national et international ; mais quoi qu'on lui reproche il faut se souvenir que
c'est la mondialisation qui a sorti 2 milliards d'asiatiques de la famine et nous permet
de leur vendre avions, vins et parfums…

3.7.4.3.1 L'homme, perpétuel insatisfait qui accuse parfois la mondialisation


Comme l'explique si bien Sartre, le simple fait de vivre et d'avoir une conscience fait
de l'homme un perpétuel insatisfait. Les psychologues et les neurologues le
confirment : à tout instant, la conscience de l'homme lui présente quelque chose qui
ne va pas ou qu'on peut améliorer. L'homme réagit en ressentant sans cesse des
besoins et des désirs, même après avoir obtenu quelque chose qu'il désirait. En se
comparant aux autres ou par l'effet de sa seule imagination l'homme se crée des
désirs, souvent irrationnels, souvent regrettables, mais qu'il veut satisfaire. C'est là un
phénomène neuropsychologique incontournable : la vie consciente de l'homme lui fait
sans cesse ressentir des besoins et des désirs, et le fera jusqu'à sa mort.
De nos jours, cette permanence des désirs est encore plus marquée. La publicité,
omniprésente et extrêmement persuasive, incite l'homme à désirer toujours plus
de produits et de services, à ne jamais se satisfaire de ce qu'il a car on lui montre
des gens qui ont davantage et paraissent heureux : nous sommes dans une
société de consommation qui fait de nous des insatisfaits pour que nous
consommions plus.
N'accusons pas la mondialisation de pousser à la consommation, car elle n'a pas
de volonté propre ; ce sont ses acteurs, hommes et sociétés, qui profitent d'elle
pour nous pousser à consommer ce qui leur fait gagner de l'argent. Le mérite d'un
homme est de savoir choisir entre le bien et le mal ; la société ne peut l'aider qu'en
lui fournissant de l'instruction et en faisant respecter des lois. Accuser la
mondialisation de détruire les idéaux de par sa nature même est comme accuser
l'automobile d'être intrinsèquement dangereuse, en oubliant que c'est l'homme qui
se comporte dangereusement ; et refuser la mondialisation, inéluctable et
indispensable, est comme refuser l'automobile : une utopie pour altermondialo-
écologistes manquant de discernement et voués à la marginalité. La
mondialisation est comme son grand vecteur de communications, Internet : on y
trouve le pire et le meilleur, c'est à chacun de nous de se conduire de manière
vertueuse et responsable, sans demander que la société nous protège de nos
propres faiblesses.

Si ses désirs le poussent l'homme à se droguer ou à faire du mal à son prochain, la


société peut essayer de le dissuader en l'éduquant, en lui inculquant des valeurs
morales, en le persuadant de son erreur, en exerçant une pression sociale ou en le
contraignant avec la loi et la force publique. Mais il est aussi impossible d'empêcher
l'homme de se créer sans cesse des désirs que de l'empêcher de rêver à des moyens
de les satisfaire. Et lorsque ces désirs sont des idéaux qui perdurent et orientent sa
vie, ou le poussent à un combat politique pour changer les institutions de son pays,

383
c'est la même chose : l'homme se crée des idéaux comme il se crée des désirs, aussi
automatiquement qu'il respire.

3.7.4.3.2 Frustration due aux désirs insatisfaits et réactions


L'homme moderne a remplacé beaucoup de valeurs traditionnelles par des valeurs
résultant de l'économie de consommation, il s'attache bien plus aux plaisirs matériels
que dans le temps. Il veut le dernier modèle de téléphone portable ou de console de
jeux, les vêtements « tendance », les voyages lointains, etc. Il les veut tellement que
souvent il en rêve. Il arrive même (hélas !) qu'il fasse de cette soif de posséder et de
se distraire toujours plus le sens même de la vie.

Par réaction, certains s'élèvent contre la « marchandisation » (gestion pour le profit et


non le bien des citoyens) des services de notre société, par exemple celles de
l'enseignement professionnel ou des soins hospitaliers. Ils réclament moins
d'économie de marché, c'est-à-dire plus d'économie (dirigiste) d'Etat, plus de services
publics gratuits ou subventionnés, moins de recherche de profit - donc de concurrence,
donc moins de mondialisation. Ils accusent aussi la mondialisation de détruire des
idéaux traditionnels comme le respect de l'honnêteté, de la justice et des institutions
républicaines, le respect du travail, de l'effort individuel et du savoir, etc. Ils l'accusent
enfin de limiter le but de la vie aux jouissances basées sur l'argent et la notoriété.

Cette attitude antilibérale ne résulte pas d'une philosophie de sagesse dédaignant les
biens de ce monde, comme celle de Socrate ; c'est davantage une frustration de ne
pas consommer autant que l'on voudrait, une jalousie de ceux qui ont plus [189], une
réaction contre l'aliénation politique qui empêche d'avoir accès aux décisions et fait
qu'on se sent privé de la place dans la société à laquelle on estime avoir droit. André
Comte-Sponville offre dans [194] une analyse claire et lucide des interactions entre
économie, politique et morale. Nietzsche explique bien les frustrations, l'exaspération,
le désespoir des nihilistes pour qui notre société est absurde [48].

L'article [360] résume bien les avantages économiques et inconvénients en termes de


perte d'emplois et inégalités de la mondialisation.

3.7.4.4 Accepter donc la mondialisation


Avant de lire ce paragraphe il est bon de lire ou relire la section "La critique
nietzschéenne" dans la partie 2 de ce texte.

Mes conclusions de ce qui précède sont :


 Refuser la mondialisation revient à construire une idole (au sens de Nietzsche),
celle d'un monde sans concurrence, sans souci de productivité. C'est une
nostalgie d'un passé auquel nous ne pouvons pas retourner du fait de notre
population mondiale croissante - qui exige une production croissante de biens de
base - et de notre niveau technique, qui permet cette production et les échanges
indispensables à la spécialisation de la production, nécessaire à la productivité.
Refuser la mondialisation, c'est aussi se priver des moyens de coopérer pour
répondre aux défis écologiques qui nous menacent, et menaceront encore plus
nos enfants : quelques pays ne peuvent, à eux seuls, combattre l'effet de serre
planétaire, il faut une coopération internationale.

384
Refuser la mondialisation revient donc à refuser des réalités et les moyens de
résoudre des problèmes essentiels de l'humanité. Rêver que ce refus est possible,
par exemple par retour au passé, fermeture des frontières ou gouvernement
mondial altermondialiste, c'est construire une idole, c'est irresponsable et ridicule !
 Pourtant, refuser la réalité peut avoir un but noble, peut nous inciter à nous
dépasser, peut rendre possible ce qui paraît à première vue utopique. A moins
de prouver qu'un refus de réalité contredit une autre réalité, incontestable elle, il
est imprudent de qualifier d'illusoire une opinion ou une décision qui matérialise
un rêve humain. Au premier des quatre préceptes de Descartes [4] "ne recevoir
jamais aucune chose pour vraie que je ne la connusse évidemment être telle" on
devrait aujourd'hui en ajouter un cinquième : "Ne rien tenir pour faux ou
impossible qui ne le soit démontré", nous l'avons déjà proposé.

Lire aussi : Fonds monétaire international - "Perspectives de l'économie mondiale


2014 - La reprise s'affermit, mais reste inégale" -
http://www.imf.org/external/ns/loe/cs.aspx?id=3

3.8 Le déterminisme du vivant


3.8.1 Définitions du vivant
Gerald Joyce [50] a défini la vie comme « un système chimique autonome capable
d'évolution darwinienne ». Cette définition simple sous-entend la possibilité pour un
être vivant de subsister dans son milieu, de se reproduire et d'évoluer d'une génération
à la suivante sous le contrôle de la sélection naturelle. Mais elle ne rend pas compte
des multiples autres caractéristiques d'un être vivant.

Définition de [84] : « Un être vivant est une structure […] constituée, pour tout ou partie,
d'une ou de plusieurs molécules d'acides nucléiques (ARN et ADN [85]) programmant
le déroulement vital ; cet acide nucléique constitue le patrimoine génétique dont la
propriété première est de pouvoir se répliquer. »

Un être vivant absorbe de la nourriture, la transforme en sa propre substance et en


énergie thermique et mécanique. Il s'adapte à son milieu et se défend contre des
agressions.

3.8.2 Etres vivants et déterminisme


L'évolution et la vie physique des êtres vivants relèvent-ils du seul déterminisme ? Les
molécules et cellules de la vie peuvent-elles être construites à partir de molécules de
chimie minérale ? Les processus vitaux se réduisent-ils à de simples processus
cellulaires ? La pensée et l'instinct peuvent-ils n'être que la conséquence des
mécanismes biologiques sous-jacents ou faut-il nécessairement, en plus, une
intervention transcendante, un esprit, Dieu ?

Ces questions ont été posées par les hommes depuis longtemps. Ils y ont répondu à
partir de deux prises de position qui s'excluent mutuellement : le matérialisme et
l'idéalisme.

Faisons d'abord le point sur ce que nous avons déjà établi dans ce texte.

385
3.8.3 Possibilité thermodynamique d'une complexification naturelle
Les molécules du vivant sont infiniment plus complexes que celles de la chimie
minérale. Le 2e principe de la thermodynamique interdit qu'un système fermé évolue
vers plus de complexité (d'organisation) - donc une entropie [25] plus faible. Certains
idéalistes en ont conclu que la vie, avec ses molécules complexes, n'a pas pu
apparaître spontanément grâce à une suite de réactions chimiques partant de
molécules simples. Nous avons vu que leur objection ne tient pas parce qu'ils oublient
le domaine de validité du 2e principe de la thermodynamique : le système doit être
fermé et au voisinage de l'équilibre thermodynamique. Un être vivant est un système
ouvert et dissipatif (définition) ; son état est loin de son équilibre thermodynamique
(notamment thermique et mécanique), car il échange continuellement avec son
environnement de la matière, de la chaleur et du travail. La thermodynamique ne
l'empêche donc pas d'évoluer vers plus de complexité par auto-organisation
irréversible. Les lois déterministes de la physique et de la chimie organique ne
s'opposent donc pas à la formation spontanée de molécules complexes à partir de
molécules plus simples.

Causes de l'évolution des espèces


Nous avons vu aussi que l'évolution à long terme des espèces décrite par Darwin
s'explique génétiquement par des accidents aléatoires de réplication du génome
lorsqu'un être donne naissance à sa descendance, produisant des sujets qui ont
tendance à se multiplier et à se ressembler du fait de la convergence de leurs
caractéristiques vers des attracteurs étranges.

L'évolution à court terme s'explique par des modifications d'expression de gènes. Nous
savons aujourd'hui ([345]) que même le psychisme des animaux (dont l'homme) a
formé ses fonctions actuelles par un processus d'évolution darwinienne au cours des
dernières 6 millions d'années (300 000 générations humaines) : apparition et
développement de fonctions psychiques et survie des mieux adaptées.

La formation spontanée de molécules complexes est donc possible (heureusement,


puisqu'on la constate !), mais à ce jour (2015) on n'a pas encore réussi à créer des
êtres vivants artificiels, même aussi simples que des bactéries unicellulaires, à partir
de molécules de chimie minérale. Des chercheurs y travaillent et certains espèrent
aboutir bientôt [65], car ils savent déjà créer un génome simple artificiellement.

3.8.4 Possibilité de créer artificiellement un comportement vivant


Nous avons déjà vu une expérience de transplantation de génome qui ouvre la voie à
la création d'êtres vivants artificiels définis par leur seul génome ; il s'agit d'êtres doués
seulement de conscience spontanée. Nous savons déjà que la conscience fonctionne
souvent de manière non déterministe, donc non algorithmique, donc non simulable par
un ordinateur. Voici des exemples envisageables.

3.8.4.1 Synthèse d'acides aminés


Certains acides aminés constituent les briques de base des protéines de la vie. Une
manière de prouver l'origine naturelle d'acides aminés est d'en trouver dans des
météorites. Or d'après [86], la météorite dite de Murchison, tombée en Australie en
1969, contenait plus de 80 acides aminés différents, certains présents dans des êtres
vivants et d'autres absents de tout être vivant connu. A moins de supposer que cette
météorite a une origine artificielle (!), nous avons là une preuve qu'il a existé quelque

386
part dans la galaxie - et très probablement dans notre système solaire, origine de la
totalité des météorites - des processus naturels qui ont fabriqué des acides aminés à
partir de molécules minérales, elles-mêmes résultant de processus astrophysiques
connus de synthèse d'atomes et de molécules. La vie a donc pu, peut-être, être
apportée sur la terre par des acides aminés venus de l'espace.

Pour prouver (comme les matérialistes rêvent de le faire) que la vie peut résulter de
transformations naturelles de matière inanimée, il faudrait trouver au moins un procédé
permettant de créer un être vivant, même très simple et incomplet comme un virus, à
partir de molécules non vivantes ; des êtres plus complexes pourraient alors résulter
d'une évolution darwinienne ultérieure.
La première étape consisterait à créer des molécules d'acides aminés, éléments
de base de toute matière vivante. Des scientifiques y travaillent, en se représentant la
vie et ses fonctions de base comme un ordinateur (le matériel cellulaire) piloté par son
logiciel (le génome et son interprétation par les mécanismes cellulaires et les
neurones), et en tentant de synthétiser de petites molécules qui ont une partie des
propriétés de l'ARN [65] [85] [86].

3.8.4.2 Génie génétique


Une autre possibilité pour créer artificiellement des êtres vivants consiste à utiliser le
génie génétique. On part alors d'un être vivant existant et on modifie son génome pour
obtenir des caractéristiques particulières ; c'est la base de tous les OGM (organismes
génétiquement modifiés). Exemple cité par [157] : des chercheurs ont modifié le
génome d'une bactérie très répandue, Escherichia coli, pour qu'elle cherche et trouve
dans l'organisme où on l'introduit certains signaux chimiques émis par certaines
cellules. Lorsqu'elle sera complètement au point, cette méthode permettra de faire
parvenir un médicament directement et exclusivement à des cellules cibles ; on pourra
ainsi, par exemple, envoyer aux "bons endroits" des médicaments anticancéreux. Il
est également possible d'utiliser des virus inoffensifs pour introduire des gènes utiles
dans les noyaux des cellules d'un organisme vivant.

3.8.5 Modélisation informatique/neuropsychique du vivant

3.8.5.1 Transmission nerveuse : un mécanisme tout-ou-rien

Principe
Dans la grande majorité des cas, la transmission d'un signal entre deux neurones par
l'intermédiaire de leurs synapses est un processus tout-ou-rien, c'est-à-dire binaire :
ou un signal est transmis à partir d'un neurone émetteur et provoque une excitation du
neurone récepteur, ou il ne se passe rien. Aucune notion d'intensité transmise
n'intervient à l'échelle d'un seul couple émetteur-récepteur comme dans un système
analogique, l'information d'intensité étant transmise par le nombre de couples de
neurones, la fréquence des messages et la proportion de signaux excitateurs par
rapport aux signaux inhibiteurs.

Il existe physiquement deux sortes de signaux, matérialisés par des molécules


(appelées neurotransmetteurs [176]) différentes : les signaux excitateurs, qui incitent
le neurone récepteur à émettre à son tour un signal, et les signaux inhibiteurs, qui
l'incitent à ne rien émettre. Un neurone récepteur fait à chaque instant la somme
algébrique des valeurs reçues ainsi et la compare à un seuil : si (et seulement si) ce

387
seuil est dépassé, il transmet à son tour un signal excitateur à un autre neurone ou à
plusieurs.

Fonctionnement effectif
Il faut ajouter au principe que nous venons d'exposer une variable importante : la
fréquence de transmission de signaux. Un signal logique comprend en fait un train
d'impulsions physiques, émises à une certaine fréquence.
Un neurone émet des signaux même lorsqu'il n'est pas activé, mais à une
fréquence faible. Lorsqu'il est activé, il émet à une fréquence beaucoup plus élevée,
pouvant atteindre 1000 impulsions/seconde. De son côté, la transmission des signaux
nerveux a une vitesse variable, qui peut dépasser 100 m/s dans certains cas.

La réponse d'un neurone dépend aussi d'autres variables d'environnement, chimiques


ou électriques. En somme, le fonctionnement d'une transmission entre neurones n'est
pas aussi simple (soumis à peu de variables) que la communication entre processeur
et mémoire d'un ordinateur, qui est aussi des millions de fois plus rapide. Et les
synapses assurent un traitement intelligent des informations en plus de leur
transmission [268].
Enfin, la transmission de signaux entre neurones comprend pas mal de
redondance en mettant en jeu plusieurs synapses à la fois. Dans un ordinateur, la
redondance est assurée à trois niveaux :
 Niveau mot (exemple : une suite de 32 bits consécutifs) ;
 Niveau bloc de données (exemple : une suite de 256 mots consécutifs) ;
 Niveau message : un message est transmis selon un protocole (c'est-à-dire un
ensemble de règles) de communication comme TCP/IP ; il contient toujours des
données redondantes pour le protéger d'erreurs de transmission.

En conclusion, le fonctionnement physiologique des communications entre nos


neurones ressemble dans son principe à celui des communications entre ordinateurs,
avec moins de vitesse et de certitude de qualité de résultat. Voir aussi les cliques.

Parallélisme
On ne peut pas se contenter de décrire un système nerveux ou un cerveau humain
comme une sorte d'ordinateur moins fiable et plus lent, car sur certains points l'esprit
de l'homme est très supérieur à la machine. Nous avons déjà justifié cette affirmation
au paragraphe "Conscience et pensée non algorithmique". Voici un exemple de plus :
le niveau de parallélisme des processus cérébraux inconscients est fabuleux :
 Un neurone peut dialoguer avec des milliers d'autres en même temps ;
 Un cerveau humain contient une centaine de milliards de neurones qui sont à la
fois des mémoires et des processeurs. Ils sont reliés par environ 100 trillions de
connexions !

Malgré ce parallélisme, il y a chez l'homme en bonne santé mentale une unité de la


conscience, qui ne pense délibérément qu'à une seule chose à la fois. Comme le fait
remarquer [91] page 515, la conscience de l'homme se comporte comme un état
quantique superposition de solutions : toutes les solutions de cet état coexistent
jusqu'à ce qu'éventuellement une décohérence se produise et en choisisse une. Dans

388
l'esprit de l'homme de nombreuses pensées coexistent dans l'inconscient, l'importance
de chacune étant évaluée en permanence ; et l'une d'entre elles devient consciente
lorsque sa valeur lui fait dépasser le seuil de prise de conscience [351].

Adaptabilité
Contrairement à un ordinateur dont la logique de fonctionnement ne peut changer
qu'avec le logiciel exécuté, le cerveau d'un homme, son psychisme et une grande
partie de son système nerveux s'adaptent automatiquement en permanence aux
besoins physiologiques et psychologiques nés de son mode de vie, des agressions de
son environnement et des pathologies. Et cette adaptation n'est pas seulement au
niveau « logiciel » de son intelligence, qui accumule de l'expérience et apprend à
penser autrement ; elle est aussi au niveau « matériel » du système nerveux, dont les
neurones peuvent adapter leurs interconnexions en créant ou rompant des synapses,
processus utilisé notamment dans la mémorisation à long terme. Elle est enfin, mais
dans une moindre mesure, au niveau « firmware » de son génome [344] - [345].

Un ordinateur ne pourrait s'adapter ainsi à la « valeur » des résultats qu'il produit qu'en
modifiant lui-même la liste des instructions de ses processeurs et de ses contrôleurs
d'entrées-sorties, ainsi que les interconnexions entre ses divers éléments. Une telle
adaptabilité n'est possible aujourd'hui que dans les romans de science-fiction.

3.8.5.2 Organisation architecturale et organisation fonctionnelle


Nous avons vu que pour modéliser un être vivant muni d'une intelligence il fallait deux
représentations [95] :
 Celle, statique, de l'organisation architecturale de son corps physique par une
structure multiniveaux allant du niveau moléculaire/génétique à celui des
organes [51] ;
 Celle, dynamique, de son organisation fonctionnelle par une structure logicielle
multiniveaux allant de l'interprétation du code génétique par la machinerie
cellulaire au support du psychisme [347] dans le cerveau. Nous avons évoqué,
alors, la Théorie informationnelle du psychisme.

L'architecture matérielle du corps de l'être vivant a la même fonction que le matériel


d'un ordinateur : supporter les fonctions vitales, dont le niveau inférieur (correspondant
au langage machine informatique, de niveau 1) interprète du code génétique, qui est
un logiciel.
Cette modélisation recourt à un dualisme [95] qui rappelle celui de Descartes.
Celui-ci séparait dans l'Univers la « substance étendue » (ce qui est matériel, qui
a une étendue physique et une position spatiale et peut être perçu par nos sens)
de l'âme « substance immatérielle et pensante ». Le logiciel, qui peut exister sans
fonctionner en dehors de tout support matériel (en tant qu'algorithme, méthode qui
est « l'essence » de ses fonctionnalités décrite par un texte de programme) peut
être considéré comme une substance pensante, le code génétique étant le logiciel
de plus bas niveau de l'homme, interprété par la machinerie cellulaire. Le code
génétique à la naissance peut aussi être considéré comme « l'essence » de
l'homme, programme qui existe avant lui et lui est transmis par l'hérédité, puis qui
s'adapte aux circonstances en vivant. Illustration : voir la remarque sur la
transplantation de génome. Voir aussi les universaux [168].

389
Mais on ne peut limiter le logiciel de l'homme à son code génétique, car son
comportement est dû à de l'acquis en même temps qu'à de l'inné génétique. Cet
acquis comprend de l'adaptation physique aux conditions de vie, de l'expérience
mémorisée, voire incorporée à l'inconscient, et des valeurs qui permettent un
jugement des situations réelles ou hypothétiques.

Rappelons aussi que chaque conscience humaine est unique parce que, malgré les
universaux et le patrimoine génétique commun, chaque homme a eu une vie différente
qui a entraîné des souvenirs différents et des adaptations différentes. Cette unicité -
et l'aptitude de l'homme à souffrir - imposent un respect de la dignité de chacun.

3.8.5.3 Algorithmes d'action et algorithmes d'évaluation


Le modèle informatique de tout processus de la vie contient deux types d'algorithmes :
ceux qui correspondent aux perceptions, aux mouvements et aux processus
psychiques ; et ceux qui jugent (attribuent un sens psychologique, valeur positive si
agréable, négative sinon) au résultat de chacun de ces processus. Ces deux types
d'algorithmes sont étroitement imbriqués, l'un n'existant pas sans l'autre [344] - [345].
Nous avons vu ci-dessus deux exemples d'optimisation de comportement basés sur
le rendement en énergie nutritive.

L'imbrication étroite des deux dimensions de l'homme, matérielle et logicielle, donne à


celui-ci une unité qui ne relève pas d'une prise de position philosophique : c'est un fait
objectif. Le corps de l'homme et son logiciel sont deux dimensions inséparables d'un
même être, qui vivent et s'adaptent ensemble.

L'adaptation à l'environnement et l'évolution conduisent à une création et une


adaptation continues des mécanismes d'évaluation, correspondant en informatique à
une autoprogrammation ou un logiciel auto-adaptatif.

3.8.5.4 Modèle informatique et fonctions de base de la vie


La modélisation informatique ci-dessus suffit pour les fonctions de base de la vie : se
nourrir, se déplacer, etc. Mais un être intelligent doit aussi s'adapter ; éprouver des
émotions en jugeant ; acquérir de l'expérience ; se défendre ; se « réparer » après une
blessure, une maladie ou un accident cellulaire ; prendre des décisions en fonction de
critères, etc. Nous avons vu qu'un tel être peut évaluer des sensations ou des pensées
en leur attribuant un poids, puis en comparant celui-ci à ses valeurs du moment, et
adapter son fonctionnement à tous les niveaux (du génétique au psychique) en
s'autoprogrammant ; seuls quelques ordinateurs (exemple : ceux qui exploitent des
logiciels de réseau neuronal ou d'intelligence artificielle) sont capables d'une telle
adaptation, et elle est réservée à des applications simples sans autoréparation ni
reproduction.

On peut imaginer des ordinateurs capables de diagnostiquer un dysfonctionnement et


de se réparer ou de s'adapter (dans une certaine mesure) à un contexte qui a évolué.
On peut aussi imaginer, dans un logiciel d'intelligence artificielle, qu'ils se donnent des
critères décisionnels nouveaux à partir de valeurs nouvelles, construites à partir de
valeurs anciennes sur lesquels ils ont raisonné ou dont l'expérience a montré qu'elles
étaient insuffisantes ; on peut même imaginer qu'ils se dotent de règles de
raisonnement nouvelles dans le cadre de leur axiomatique existante, mais…

390
Non-déterminisme, imprévisibilité de l'homme et matérialisme
…mais tous ces processus restent dans le domaine de ce qui est algorithmique, c'est-
à-dire calculable, déductif, démontrable et sans surprise. Nous avons vu qu'un
ordinateur ne peut pas construire des données ou des règles de raisonnement non
déterministes parce qu'elles ne résultent pas d'un algorithme [69], il sait simplement
s'en servir si l'homme les lui donne ou les lui fait construire en combinant tous les
éléments syntaxiques de programme sans en chercher la rationalité. Or le psychisme
d'un homme en construit très bien lorsque c'est nécessaire, par exemple par un
processus mental de rapprochement conduisant à des intuitions [141] ou des
analogies - quitte à prendre le risque de se tromper, ou un rapprochement conduisant
à des propositions indécidables [6]. D'où une conclusion importante :
Un ordinateur ne peut pas et ne pourra jamais avoir un psychisme de type humain,
car « l'esprit de finesse » [66] de la conscience humaine met en œuvre des
propositions indécidables et des processus imprévisibles car non algorithmiques.

Chez l'homme, les décisions basées sur des « vérités » indémontrables ou des
raisonnements non algorithmiques ont lieu dans le cadre d'un être intelligent,
fonctionnant comme un ordinateur cellulaire régi par un logiciel-psychisme, dont les
règles de l'esprit de finesse sont soit innées comme des universaux [168], soit
acquises par la culture transmise de génération en génération, soit encore construites
progressivement par l'adaptation des mécanismes psychiques de l'intuition, de
l'induction et des raisonnements par analogie.
La représentation informatique de l'être intelligent fournit une argumentation pour
le matérialisme, lorsque celui-ci postule que le corps et la pensée sont
indissociables, qu'ils naissent, fonctionnent, évoluent et meurent ensemble.

Pour que la pertinence du postulat matérialiste soit encore plus convaincante, il


manque aujourd'hui :
 La synthèse d'êtres vivants très simples, par exemple unicellulaires, à partir de
composés artificiels de chimie organique, synthèse à laquelle des scientifiques
travaillent [65] [86].
 La création, ensuite, d'êtres doués de conscience réfléchie (nous savons que
l'homme n'est pas le seul animal doué d'intelligence et de conscience réfléchie ;
les dauphins et certains singes en ont aussi, pour ne citer que deux exemples).
Mais nous sommes encore loin d'une telle création.

Rappelons toutefois que même avec de telles preuves, on ne pourra démontrer ni


l'existence ni l'inexistence d'un Dieu créateur, ni Son intervention ou Sa non-
intervention (voir les conclusions de la 1e partie de cet ouvrage et la citation d'André
Comte-Sponville).

3.8.6 Conclusions sur le déterminisme du vivant et sa prévisibilité

Au niveau biologique
Puisque l'uniformité et la stabilité des lois de la nature nous ont incité à postuler que le
déterminisme étendu régit toutes les lois de l'Univers, un être vivant pourrait ne pas
relever du déterminisme seulement si son existence ou une partie au moins de son
comportement échappait à au moins une loi de la nature, hypothèse contraire à notre

391
postulat matérialiste et qui n'a jamais été prouvée par une observation factuelle ; c'était
évident, nous venons seulement de le rappeler. La biologie moléculaire est une
science déterministe, gouvernée par les lois de la physique et de la chimie. A ce
niveau, donc, les évolutions du vivant sont déterministes.

Au niveau physiologique
Nous connaissons les processus physiologiques des êtres vivants beaucoup moins
bien que la physique parce qu'ils sont nombreux et compliqués. En outre, ces
processus sont à des niveaux logiques (logiciels dans le cas du génome et de son
expression) supérieurs à ceux des lois physiques et des lois biologiques, ce qui
suppose souvent la connaissance préalable de ces lois. Enfin, l'expérimentation est
plus difficile sur le vivant que sur les objets : elle est souvent freinée ou empêchée par
des considérations morales, et les expériences sont moins reproductibles et prennent
souvent plus de temps. A ce niveau donc, le déclenchement, le déroulement et le
résultat d'un processus physiologique sont déterministes, mais imprévisibles en raison
de leur complexité. Considérés à leur niveau holistique adéquat, certains processus
sont prévisibles au moins qualitativement, mais c'est le maximum qu'on puisse
espérer.

Au niveau psychique
La vie animale présente aussi des processus psychiques. Ceux-ci n'ont pas
d'équivalent en physique parce qu'un animal – et surtout l'homme - anticipe avant de
décider et a des processus psychiques inconscients ; en outre, le psychisme interagit
avec certains processus physiologiques, compliquant encore plus la compréhension
des êtres vivants supérieurs. A ce niveau, nécessairement holistique, la
compréhension des processus et de leurs interactions est affaire d'expérience ; on ne
peut parler de déterminisme, sinon avec tant d'exceptions et d'approximations que la
prédiction relève plus de l'art que de la science.

3.9 Critique du déterminisme


Qu'est-ce qui justifie le postulat de déterminisme étendu et la causalité qui en constitue
la base ? Comment être certain qu'il n'y a pas de phénomène qui se produit, s'est
produit ou se produira dans notre Univers en violation de l'uniformité de l'Univers
constatée jusqu'ici et de toute loi scientifique connue ? Cette certitude n'est possible
que pour un être qui saurait tout et aurait réponse à tout, c'est-à-dire Dieu. Cet être
serait nécessairement extérieur à l'Univers (qui regroupe tout ce qui existe, a existé ou
existera), ce qui n'a pas de sens rationnel pour les matérialistes. Les idéalistes, eux,
croient en plus en une « rationalité du cœur, ou de l'intuition » qui explique la création
et l'évolution de l'Univers en recourant à Dieu.

3.9.1 Conditions de prise en défaut du déterminisme


Le déterminisme, scientifique ou statistique, ne peut être pris en défaut par un
phénomène naturel que si l'une au moins de ses hypothèses n'est pas vérifiée. Il s'agit
ici des seules hypothèses du déterminisme scientifique traditionnel (condition
nécessaire et suffisante et règle de stabilité) et du déterminisme statistique, car :
 L'hypothèse fondamentale du déterminisme philosophique (chaîne de causalité
unique commençant infiniment loin dans le passé et se poursuivant infiniment
loin dans l'avenir [200]) est critiquable ; et nous l'avons critiquée en montrant
qu'elle contredit des lois d'évolution constatées et qu'elle ne permet pas la

392
prévision des conséquences dans certains cas qui nous intéressent ; c'est donc
une hypothèse fausse et nous l'abandonnons.
 Les extensions du déterminisme que nous avons vues ne constituent que des
précisions sur l'évolution et le résultat dans des cas particuliers, elles ne
remettent en cause ni la condition nécessaire et suffisante, ni la stabilité ; ces
extensions sont indispensables pour l'adéquation du déterminisme étendu aux
lois statistiques de la nature.

Le viol de la condition nécessaire et suffisante, c'est-à-dire du principe de causalité,


n'est possible que pour des phénomènes :
 Qui apparaissent sans cause (condition nécessaire violée, comme dans le cas
des fluctuations quantiques), sujet évoqué précédemment ;
Cas particulier du déterminisme humain : les processus mentaux de l'inconscient
se déclenchent et se déroulent hors du contrôle de la conscience. Leur
déclenchement, leur déroulement et leurs effets ou conclusions sont, de ce fait,
imprévisibles, bien que le fonctionnement physique des neurones qui les
interprètent soit déterministe. Parfois, leur conclusion franchit la barrière de la
conscience, qui voit apparaître des « pensées » sans cause identifiée.
 Ou qui n'apparaissent pas, alors que la condition de cette apparition existe et
suffit dans d'autres cas (condition suffisante violée). Ce cas constitue aussi un
viol de la règle de stabilité.
 Ou dont l'évolution suit tantôt une certaine règle, tantôt une autre règle, sans que
l'on puisse savoir, dans une situation de départ donnée, quelle règle sera
choisie, autre viol de la règle de stabilité, ou de celle d'homogénéité, ou de celle
d'isotropie de l'Univers.

Nous devons tenir compte, ici, du caractère insuffisant de nos connaissances


scientifiques : bien que celles-ci progressent, il y a toujours des cas où elles sont
insuffisantes ou erronées. Cette ignorance peut expliquer l'absence de cause
identifiée, ou la non-apparition d'un phénomène dans des conditions où nous pensions
qu'il devait apparaître ; elle peut aussi expliquer l'instabilité d'une règle d'évolution.

Si nous excluons l'ignorance humaine ci-dessus, le viol de la condition nécessaire et


suffisante ou de la règle de stabilité implique l'existence de paradoxes dans les lois de
la nature. Ces paradoxes peuvent résulter :
 Soit de la possibilité que l'Univers ait des lois incomplètes, c'est-à-dire qu'un
phénomène au moins puisse se produire sans cause ou sans cause stable, ou
tout à coup cesser de se produire ; à part l'indétermination due au principe
d'incertitude, rien de tel n'a jamais été constaté. Si on le constatait, ce serait soit
un viol du principe de causalité sur lequel repose toute notre pensée rationnelle,
soit la conséquence d'une intervention surnaturelle. Dans les deux cas, nous ne
pouvons plus raisonner tant que nous n'avons pas acquis les connaissances
nécessaires ; nous pouvons seulement faire des conjectures et raisonnements
métaphysiques [371], ou imaginer quelque chose…
 Soit de la possibilité que l'Univers ait des lois non uniformes, dont l'énoncé
varierait avec le lieu, la direction ou l'instant. Cela non plus n'a jamais été
constaté, alors que l'uniformité et l'isotropie ont toujours été constatées. Si la

393
non-uniformité était avérée, tant que nous ne pourrons pas décrire par des lois la
variation des autres lois avec la position, la direction, le temps ou d'autres
paramètres, nous ne pourrons pas raisonner.

Nous avons vu en définissant le déterminisme étendu qu'il y a d'excellentes raisons


de postuler la complétude et l'uniformité de la nature et aucune raison de mettre en
doute son déterminisme dans des phénomènes conformes à sa condition nécessaire
et suffisante et à la règle de stabilité.

3.9.2 Conclusion : il faut postuler le déterminisme


Le déterminisme, et la causalité qui en constitue la base, doivent donc être posés a
priori ; ce sont des postulats nécessaires à la compréhension du réel et à la prévision
de ses évolutions par une démarche rationnelle, dans la limite des connaissances
disponibles. Ce ne sont pas des certitudes résultant d'un raisonnement métaphysique
[371] ou d'un examen exhaustif des phénomènes de l'Univers, mais seulement de
l'absence d'observations de phénomènes non déterministes au sens étendu.
Niant la réalité du libre arbitre de l'homme (nous le verrons plus bas) et la
possibilité d'interventions surnaturelles, ces postulats sont qualifiés de matérialistes
(définition) ou réalistes. Les postulats du déterminisme étendu et de la causalité
peuvent être considérés comme des certitudes rationnelles en vertu du rationalisme
critique, car ils sont falsifiables et n'ont jamais été démentis.

Si, contrairement aux postulats matérialistes, on considère que le déterminisme


étendu ne régit pas tous les cas, le libre arbitre de l'homme est possible en dehors du
déterminisme, ainsi que toutes sortes de phénomènes surnaturels. On doit alors aussi
admettre que nos lois scientifiques ne s'appliquent pas dans certains cas, qui
échappent à notre raison. Douter du déterminisme revient donc à douter de notre
raison, dont le domaine de validité théorique a été bien délimité par Kant dans la
"Critique de la raison pure" [M3] et par Husserl [312], et dont la validité pratique
(confirmée par l'uniformité de l'Univers et l'absence d'infirmations de notre science) n'a
jamais été contredite. Je ne poursuivrai pas dans cette voie.

3.9.3 La causalité elle-même peut-elle être remise en question ?


Considérons le postulat de causalité à la base du déterminisme. Une chaîne ou une
arborescence de causalité est une représentation des états successifs d'un système
et de ses évolutions dans le temps ; mais qu'est-ce qui prouve son existence chaque
fois que cela nous arrange de relier des événements entre eux ? Cette section
approfondit le postulat de causalité et présente des objections.

3.9.3.1 Objections à la causalité contestant la méthode scientifique


Ces objections contestent la possibilité de trouver les causes physiques réelles de ce
qui est observé - donc les lois déterministes avec leurs effets - parce que :
 L'observation humaine est entachée de filtrages, d'erreurs et d'approximations
(c'est l'image de la réalité projetée sur le mur de la caverne de Platon). Elle peut
être perturbée par des facteurs parasites, comme le croient les holistes.
D'après Popper, cité par [209] pages 35-36, l'énoncé d'une observation (ce qu'on
y a constaté) n'est pas utilisable parce qu'il est certain, mais parce qu'il a été
accepté conventionnellement par la communauté scientifique. Aucun énoncé n'est
certain, aucune observation ne donne une certitude ; tout énoncé est critiquable.

394
Exemple : un savant publie un résultat de recherche sous forme d'un énoncé E ;
tant que d'autres savants n'auront pas accepté cet énoncé, par exemple après
avoir reproduit les expériences ou parce qu'il est cohérent avec leurs propres
résultats, l'énoncé E n'est pas digne de confiance, il n'est qu'une publication, une
proposition ou une conjecture. Et même après acceptation il reste critiquable, il
peut être contesté si l'on constate des contradictions ou imprécisions.
 Lorsqu'un énoncé scientifique n'est pas une déduction entièrement logique
(calculable) de lois déjà acceptées, mais qu'il résulte au moins en partie
d'observations, il est nécessairement entaché de simplifications et/ou de
généralisations par induction qui, en toute rigueur, le rendent probable mais pas
certain : c'est la théorie de Hume, exposée dans [208] sections 4 et 5.
Toute théorie est une simplification du réel, son caractère schématique résultant
du besoin humain de comprendre et de modéliser, mais cette simplification la rend
critiquable et perfectible.

Difficulté de trouver la vérité


La recherche de la vérité à partir d'observations et sa description par un énoncé sont
donc vouées à des imprécisions, simplifications, schématisations, etc. :
 Une observation n'est jamais parfaite, débarrassée d'hypothèses, d'événements
parasites, de limitations et d'imprécisions expérimentales ;
 Un énoncé autre que de logique formelle a les défauts du langage humain :
imprécision, ambiguïté, erreurs dues à des préjugés ou des émotions, etc. ;
 La réalité elle-même est souvent :
 multiple (exemples : matière ET énergie, superposition d'états, etc.) ;
 ou imprécise (position floue, longueur d'onde de Compton, etc.) ;
 ou indéterminée (principe d'incertitude de Heisenberg) ;
 ou contraire à notre intuition (à la fois onde ET particule [135] ; incertitude
relativiste sur celui des événements A et B qui a précédé l'autre ; non-
séparabilité, etc.) ;
 ou extrêmement complexe (processus psychiques, etc.)
Notre langage et nos mécanismes naturels de raisonnement eux-mêmes sont mal
adaptés à ces caractères.

Quelle méthode de raisonnement ?


En somme, ces objections affirment que la manière même dont nous raisonnons, en
utilisant des représentations mentales des objets, phénomènes sensibles et
évolutions, est au mieux sujette à caution et au pire fausse. Nos représentations
mentales sont soupçonnées d'être réductrices ou abusivement généralisatrices, par
induction ou du fait des préjugés de l'observateur qui filtre ce qu'il constate ; et en plus
elles sont approximatives.
Comment alors leur faire confiance si même les penseurs les plus rigoureux
tiennent parfois pour vrais des faits ou des lois non avérés ? Notre manière de
raisonner n'est justifiée à coup sûr que lorsqu'elle déroule des algorithmes, qui ne sont
valables que lorsqu'ils portent sur les abstractions de nos représentations, pas sur la
réalité elle-même.

395
Enfin, un phénomène d'évolution dépend de la nature intime d'une cause, alors
que nous ne disposons que des résultats d'une expérience, qui ne peut jamais prendre
en compte tous les aspects de cette nature intime. Pour toutes ces raisons, la meilleure
approche pour trouver la vérité scientifique consiste à faire coopérer plusieurs
spécialistes.

De son côté, Nietzsche constate que chaque connaissance nouvelle fait découvrir des
choses que nous ne savons pas. Ignorant, lui aussi, la possibilité qu'une science
converge [219] et se laissant aller au pessimisme, il préfère renoncer à l'idéal des
Lumières [47] de finir par tout expliquer scientifiquement ; il recommande de
s'abandonner au destin et même d'en aimer les manifestations ("amor fati" [48b]). Pour
le nihiliste qu'il est, puisque le monde est et demeurera éternellement dénué de sens,
la recherche de causalités est dénuée d'intérêt ; il la remplace par une décision de
considérer a priori le monde comme acceptable et d'en aimer ce qu'on peut pour en
profiter au maximum ("Le Gai savoir" [48]).

Autre objection importante pour des philosophes : la science ne s'occupe pas de


l'essence des objets et des phénomènes, de leur ontologie ; elle ne s'occupe que de
leur comportement, tantôt prévisible tantôt imprévisible. C'est pourquoi l'un des
objectifs de la philosophie des sciences est de penser au-delà de la science, quitte à
prendre le risque de se tromper. La science ne s'occupe pas, non plus, du sens
psychologique de ce qu'elle découvre, de son caractère éventuellement dangereux
pour l'homme : par curiosité, par goût de savoir, on a pris le risque d'étudier des
bactéries extrêmement dangereuses, adaptées à une guerre bactériologique…

De manière pragmatique, si l'on admet les progrès de l'humanité en matière de


connaissances, de santé, etc., on doit aussi admettre que malgré ces objections notre
méthode scientifique nous a apporté des progrès ; son emploi est donc justifié par la
pratique, ainsi que par l'absence d'objection fondamentale et d'une méthode meilleure.

3.9.3.2 Causalité et théorie de la Relativité


Deux événements ne peuvent être reliés par une relation de causalité lorsque aucune
interaction physique n'a eu le temps de se propager de l'un à l'autre ; ils sont alors
nécessairement indépendants (explication). Toute interaction physique [18] entre deux
événements "1" et "2" situés respectivement aux points A(x1, y1, z1) et B(x2, y2, z2), aux
instants respectifs t1 et t2 tels que t1 précède t2, se propage au plus vite à la vitesse de
la lumière dans le vide, c : la causalité a une vitesse de propagation finie, nous l'avons
vu précédemment.

Considérons alors la quantité Δ telle que

Δ = c²(t2-t1)² - (x2-x1)² - (y2-y1)² - (z2-z1)²

Δ est donc la différence entre le carré de la distance D L parcourue par la lumière entre
les instants t1 et t2, et le carré de la distance DAB entre les points A et B. La racine
carrée √|𝛥| de la valeur absolue de Δ est appelée « intervalle d'espace-temps entre
les deux événements 1 et 2 ».

La condition d'indépendance des deux événements s'écrit alors Δ < 0 (en langage
relativiste on dit que « l'intervalle d'espace-temps entre ces deux événements est du

396
genre espace »). Elle exprime le fait que la lumière n'a pas le temps de parcourir la
distance AB entre t1 et t2. Selon la position d'un observateur, l'événement 1 sera
antérieur ou postérieur à l'événement 2 (surprenant, non ?), mais aucun des
événements ne pourra être cause de l'autre car ils sont trop éloignés pour qu'une
interaction propagée à la vitesse maximale c ait pu aller de l'un à l'autre (Explication).

Par contre, si Δ > 0 on peut imaginer un signal physique, se propageant aussi vite ou
moins vite que la lumière, qui relie les deux événements : l'événement 1 peut être la
cause de l'événement 2, et leur ordre de succession (1 précède 2) est le même pour
tout observateur, y compris pour un observateur en A qui serait en mouvement par
rapport à un observateur en B ; la transformation de Lorentz de la Relativité Restreinte
respecte la causalité, même si elle ne respecte pas la simultanéité. On dit alors que
« l'intervalle d'espace-temps entre ces deux événements est du genre temps ».

Enfin, si Δ = 0 les deux événements sont simultanés pour certains observateurs et


successifs pour d'autres. On dit que « l'intervalle d'espace-temps entre ces deux
événements est du genre lumière ».

Prendre en compte la constance de la vitesse de la lumière c impose donc un


changement considérable : on remplace le couple de référence (espace absolu DAB ;
temps absolu t2-t1) de Newton et Kant par un couple {vitesse de la lumière dans le vide
c ; intervalle d'espace-temps √|𝛥|}. Les mesures d'espace et de temps dépendent
alors du mouvement de l'observateur : elles sont devenues relatives, on applique la
théorie de la Relativité Restreinte. Espace et temps sont devenus « élastiques » : par
rapport à un observateur donné, une horloge en mouvement bat plus lentement qu'une
horloge fixe, et à la vitesse de la lumière elle ne bat plus : le temps alors ne s'écoule
plus et il n'y a plus de causalité. (Plus de détails)

Même si prévoir l'avenir (par exemple le temps qu'il fera) est souvent très utile, rien ne
justifie de croire à l'existence (ou même la possibilité) d'une chaîne causale entre deux
points arbitraires de l'espace-temps considérés par notre esprit. Tant qu'elle n'a pas
été démontrée par raisonnement, ou par l'interprétation d'expériences et la prévision
de résultats, et sans aucun démenti, une affirmation n'est qu'une conjecture. Et
l'histoire a montré que même des lois démontrées, comme celles de Newton pour la
dynamique [110], peuvent être ultérieurement remplacées par de nouvelles lois plus
précises ou s'appliquant à un domaine plus étendu, comme celles de la Relativité et
de la Mécanique quantique.

3.9.3.3 Définitions approfondies d'une cause et de la causalité


Jusqu'à ce point, nous avons supposé que les notions de « cause » et de « causalité »
sont suffisamment comprises pour notre propos. Nous avons maintenant besoin de
les préciser.

Cause physique
Une cause physique est une situation (état) à un instant donné, cause efficace [39] et
raison suffisante des phénomènes et situations qui en résultent. La situation d'une
cause physique est définie par :
 Un système : l'Univers, les réactifs en présence d'une expérience de chimie, un
obus qu'on vient de lancer, etc.

397
Ce système est défini par une structure matérielle et des variables susceptibles
d'évoluer (variables de position et de déplacement, liaisons entre les parties de la
structure - atomes ou molécules, par exemple -, température, état d'énergie des
atomes, etc.) Des parties du système peuvent interagir.
 Les interactions de ce système avec l'extérieur : forces subies et exercées,
rayonnement électromagnétique reçu ou émis, échanges de matière, etc.
 L'instant considéré t.

Les choix du système et de l'instant t sont arbitraires, ils caractérisent le centre d'intérêt
d'un observateur. Les interactions du système avec l'extérieur et les interactions entre
les parties du système sont imposées par les lois de la nature.

A toute cause physique, la nature applique automatiquement et instantanément une


ou plusieurs lois d'évolution : la réaction chimique se déroule, l'obus lancé parcourt
une trajectoire... Nous avons vu que toute loi physique d'évolution est régie par le
déterminisme étendu.

Causalité
En physique, le mot causalité a 2 sens :
 Premier sens :
C'est une condition d'existence ou d'apparition d'une situation ou d'une évolution ;
cette cause peut être la seule cause ou l'une des causes agissant dans la
situation.
Exemple : pour que deux corps s'attirent il faut qu'il existe un champ de force.
 Deuxième sens :
C'est une loi d'évolution, relation qui fait passer d'une situation-cause à sa
conséquence. La causalité peut s'envisager vers l'avenir qu'on essaie de prédire,
ou vers le passé qu'on essaie de reconstituer. Dans les deux cas, il y a :
 Des lois d'évolution qui s'appliquent automatiquement :
 Nécessairement, dans le cas d'une prédiction ;
 Après choix arbitraire d'une cause dans le passé parmi toutes celles qui
ont pu produire la situation actuelle, cause à qui la nature a appliqué les
lois successives d'évolution qui s'imposent.
 Un horizon temporel arbitraire : je peux vouloir prédire l'évolution pendant la
seconde qui suit ou l'année qui suit ; je peux vouloir reconstituer la situation-
cause de l'évolution qui a conduit à la situation actuelle il y a une heure ou
un siècle.

3.9.3.4 Horizon de prédiction ou de reconstitution du passé


Plus cet horizon est lointain, plus le risque d'imprécision est grand :
 Pour une prédiction, du fait de l'imprécision sur les variables initiales et les
paramètres des lois d'évolution ; dans le cas particulier d'évolution d'une
superposition d'états quantiques vers un état final par décohérence, ce dernier
est choisi au hasard parmi les valeurs propres du dispositif expérimental ; dans
le cas d'une évolution régie par une grande sensibilité à la précision des
conditions initiales, l'évolution peut être impossible à préciser.

398
 Pour une reconstitution de cause passée, du fait de l'incertitude sur l'évolution
possible qui a conduit à la situation présente. Lorsqu'une pierre est trouvée par
terre, il y a de nombreux lieux d'où elle peut provenir, de nombreuses dates où
elle a pu arriver, etc. Pour chaque évolution supposée, il y a en plus les mêmes
imprécisions que dans le cas d'une prédiction, ci-dessus.

Considérons le cas d'une chaîne de situations successives séparées par des


évolutions : S1, S2, S3…Sn…. Partie de la situation présente S0 à l'instant t0, la
succession peut progresser soit vers l'avenir que l'on veut prédire, soit vers le passé
que l'on veut reconstituer. Chaque situation Sn de la chaîne est définie par un instant
arbitraire tn, que l'homme choisit parce qu'il simplifie son raisonnement, satisfait sa
curiosité, ou toute autre raison. Que l'instant tn progresse vers l'avenir ou régresse vers
le passé lorsque n augmente, les incertitudes et/ou imprécisions dues à l'application
successive des lois physiques à chaque situation augmentent.
 Lorsqu'une chaîne progresse vers l'avenir, l'imprécision sur les variables d'une
situation atteinte Sn peut entraîner la possibilité d'application de plusieurs lois
d'évolution vers Sn+1. Exemple : lorsqu'un rayon lumineux atteint des plaques en
verre successives, l'imprécision sur un angle d'incidence ou la mauvaise planéité
de la surface peuvent transformer la propagation d'une réfraction (où le rayon
incident pénètre la plaque de verre) à une réflexion totale (effet miroir) dont la
direction est complètement différente.
 Lorsqu'une chaîne régresse vers le passé, dont on essaie de reconstituer des
instants successifs, le nombre de branches de l'arborescence des causes
possibles peut augmenter vite, d'autant plus vite qu'il y a peut-être eu, dans le
passé, des variables supplémentaires qui intervenaient.
Remarque : dans l'arborescence des causes possibles, il y a eu une chaîne de
causalité unique qui a été effectivement parcourue, parce que dans une situation
donnée la nature a pris une décision-conséquence et une seule. Cette remarque,
valable en physique macroscopique, est fausse en physique quantique où une
cause déclenche simultanément de multiples conséquences assorties de
probabilités.

Cette chaîne de situations pasées successives (la chaîne de causalité), a


nécessairement existé ou peut exister, mais à partir de la situation actuelle il est en
général impossible en pratique de la reconstituer, ou de le faire avec une certitude et
une précision suffisantes. Plus on remonte loin dans le passé, moins la causalité est
utilisable pour raisonner, car on sait de moins en moins quelle loi avec quels
paramètres appliquer à une situation, elle-même définie avec une marge d'erreur. On
est alors réduit à postuler l'existence d'une cause sans pouvoir la préciser, démarche
spéculative de peu d'intérêt pratique ; on raisonnerait comme des mathématiciens qui
affirment « il existe un élément X de l'ensemble E » sans pouvoir en dire plus sur X.

Conclusion : plus un horizon est lointain, dans l'avenir comme dans le passé, moins le
concept de "causalité-condition nécessaire et suffisante" a d'intérêt pratique. A un
horizon lointain, la causalité assure seulement que quelque chose s'est passé ou se
passera, produisant une situation elle-même mal définie, certitude d'intérêt
uniquement spéculatif.

399
Les philosophes qui parlent de « régression à l'infini » à propos d'une suite infinie de
causes d'une situation donnée omettent de signaler qu'à l'infini le concept de causalité
physique n'a plus d'intérêt, tant l'incertitude sur l'enchaînement des situations et lois
d'évolution est grande.

Méthodes de déduction directe


Lorsqu'on essaie de savoir quelque chose concernant un passé ou un avenir lointain,
on applique en pratique une méthode de déduction directe, qui extrapole une loi
d'évolution admise aujourd'hui. On utilise, par exemple, une « datation au carbone
14 » pour estimer l'âge d'outils préhistoriques trouvés dans des fouilles de sites de
moins de 50 000 ans, sachant que cet élément a une demi-vie de 5730 ans et que la
matière à dater en contient une certaine proportion.

3.9.3.5 Critique de la notion de cause première (cause ultime)

3.9.3.5.1 Définition et problématique


Le postulat de causalité suppose que « Toute situation a nécessairement une cause
qui l'a précédée et dont elle résulte, et rien ne peut exister sans avoir été créé
auparavant » (cette cause est un postulat, pas une certitude). L'homme justifie ce
postulat par le fait qu'il peut, dans de nombreux cas, expliquer un phénomène par une
situation-cause qui l'a précédé ; par induction, il postule que chaque fois qu'il aura une
explication de ce même phénomène, ce sera la même cause.

Régression à l'infini
Lorsque des philosophes considèrent la « cause de la cause », puis la « cause de la
cause de la cause... », etc. ils parlent d'une suite de situations constituant une chaîne
de causalité unique. Celle-ci doit compter, d'après le postulat de causalité, autant de
chaînons qu'il y a d'instants arbitraires avant le présent auxquels on considère la
situation. Si cette chaîne avait une situation initiale S0, le postulat de causalité affirme
que cette situation aurait une cause. La situation S0 ne serait donc pas la première, ce
qui contredit l'hypothèse qu'elle l'est. Donc quel que soit le nombre initial N de chaînons
considéré, il en existe N+1. Donc le nombre de chaînons est infini : d'après le postulat
de causalité, toute chaîne de causalité est infiniment longue.

Comme une suite infinie peut converger à distance finie ou infinie, selon sa « vitesse
de convergence », la chaîne de causalité de l'Univers lui-même peut converger à une
date infiniment lointaine ou non. L'hypothèse d'un Univers ayant toujours existé n'a
rien d'aberrant ou d'impossible dans l'état actuel de nos connaissances
cosmologiques, mais elle exclut toute cause première, toute création initiale, divine ou
non.
 Si l'Univers est né à une date infiniment lointaine, toute situation est précédée
d'une suite infinie d'autres situations, quelle que soit la durée entre deux
situations successives. (La notion de situation à un instant donné est une
abstraction regroupant les variables qui décrivent un système auquel nous nous
intéressons.)
Cette conjecture n'a rien d'aberrant ou d'impossible dans l'état actuel de nos
connaissances cosmologiques ; elle est même compatible avec un temps
quantifié, où toute durée serait multiple d'un minimum minuscule. Le fait que notre
physique actuelle n'ait aucune certitude concernant les étapes de la naissance de

400
l'Univers lors du Big Bang, ou des événements qui l'ont précédé comme l'inflation,
n'exclut pas qu'il ait existé un « avant » dont nous ne savons rien, notamment de
la durée si cette notion a un sens.
L'Univers n'aurait alors jamais été créé, il aurait toujours existé. Mais cette
conjecture est et restera invérifiable parce qu'elle défie nos possibilités
expérimentales : la vitesse de la lumière nous interdit de « voir » un passé plus
lointain que 13.8 milliards d'années, et la physique actuelle nous interdit d'imaginer
ce qui a précédé le temps de Planck. (Compléments : [313])
 Si l'Univers est né à une date particulière du passé, comme le Big Bang d'il y a
13.8 milliards d'années, la suite des causes-situations s'arrête à cette date-là.
La situation à ce moment-là constitue en pratique la cause première. Le principe
de causalité cesse alors de s'appliquer « parce qu'il n'y a pas d'avant », la cause
première étant une apparition (hypothèse déjà évoquée).

Solution de la contradiction de la cause première : l'apparition


Les philosophes traditionnels, que la notion de passé infiniment lointain gênait, ont
ajouté au postulat de causalité une exception : « Chaque chaîne de causalité a un
début appelé cause première ou cause ultime », une « cause sans cause » que
certains ont attribué à la volonté de Dieu, créateur de l'Univers.

S'il a existé une situation première qui n'était précédée d'aucune situation différente
alors que le temps d'écoulait, cette situation première a nécessairement été stable,
incapable d'évoluer depuis le commencement des temps ou un passé infiniment
lointain. Elle n'aurait donc pu causer les situations suivantes et elle existerait toujours.
La situation actuelle, sa conséquence, serait alors la même et nous ne constaterions
pas d'évolution, pas d'écoulement du temps, conclusions contredites par l'expérience ;
et puisque la vie est évolution, il n'y en aurait pas non plus.

Si une situation première stable avait brusquement commencé à évoluer, c'est qu'elle
n'aurait pas été stable. Pourquoi serait-elle restée stable jusque-là, et quelle est la
cause de son début d'évolution ? On ne peut le savoir. On voit que le concept de cause
première est contradictoire si on ne prend pas en compte la possibilité d'une apparition,
comme nous l'avons fait précédemment.

Conclusion : ou l'Univers a toujours existé, et il n'y a pas de cause ou situation


première, ou il est né et il faut postuler la possibilité d'au moins une apparition.

Enfin et pour terminer de manière souriante, voici le point de vue de Spinoza sur la
cause ultime dans [97] :
"Et ainsi ils ne cesseront de vous demander la cause de la cause, jusqu’à ce que
vous recouriez à la volonté de Dieu, c’est-à-dire à l’asile de l’ignorance."

Voyons à présent une autre conjecture sur la structure du temps permettant de se


représenter un temps sans commencement : le temps cyclique. Quelques philosophes
(Nietzsche, par exemple) l'ont envisagée.

401
3.9.3.5.2 Un temps cyclique, pure spéculation
Le concept de « temps cyclique » où l'Univers revient au temps t2 à l'état exact où il se
trouvait au temps précédent t1 est pure spéculation. En supposant que l'Univers est un
système fermé (conformément à sa définition en tant que « tout »), il n'échange rien
avec un extérieur quelconque : ni énergie, ni travail, ni chaleur, ni matière, rien. Le
deuxième principe de la thermodynamique s'applique alors, et l'entropie de l'Univers
ne peut que rester stable ou croître. Rester stable implique un équilibre incompatible
avec l'évolution constatée de l'Univers, qui est une certitude ; croître implique une
évolution irréversible. Dans les deux cas, le temps ne peut être cyclique.

L'évolution de l'Univers peut échapper au deuxième principe de la thermodynamique


si l'Univers échange quelque chose avec un « extérieur ». L'existence d'un tel extérieur
est possible, mais pas (comme on l'a écrit à tort) parce que nous recevons encore de
la lumière de phénomènes qui se sont déroulés il y a plus de 13.8 milliards d'années
[313] : cette lumière s'explique par l'expansion de l'Univers, expansion que nous
n'avons aucune raison de supposer se produire dans un Univers englobant.

Si on conjecture que l'Univers est un système ouvert qui échange l'énergie qu'il faut
pour que son entropie diminue, la thermodynamique permettrait qu'il revienne à un
niveau d'organisation du passé. Mais il resterait alors une seconde objection :
comment l'Univers pourrait-il rétrécir jusqu'à la dimension minuscule qu'il avait lors du
Big Bang, puisque nous savons qu'il est en expansion, au contraire, et même en
expansion de plus en plus rapide du fait de l'énergie sombre ? [313]

Du point de vue cosmologique, donc, la doctrine de « l'Eternel retour » de Nietzsche


est injustifiable ; du reste, Nietzsche a sans doute renoncé à cette intuition
métaphysique [371] car il n'en a plus parlé après 1885 [222].

3.9.3.5.3 Théorie cosmologique de la gravitation quantique


Cette théorie cosmologique récente [223] unifie la Relativité et la Mécanique quantique
en quantifiant la gravitation, l'espace et le temps. Elle modélise le Big Bang et l'inflation
qui l'a précédé. Elle prévoit un avant-Big Bang qui se termine par une contraction
infinie de l'espace appelée Big Crunch. Cette contraction, immédiatement suivie du
Big Bang, est appelée Big Bounce (grand rebond).

Selon cette théorie, l'Univers existerait avant le Big Bang/Big Bounce et le 2e principe
de la thermodynamique serait respecté, l'entropie croissant bien jusqu'au Big Bounce,
s'annulant alors, et croissant de nouveau dans notre Univers actuel. Les causes
pourraient alors remonter au-delà du Big Bang…

Nous savons début 2014 [313] que la gravitation est quantifiée, que l'inflation a duré
moins de 10-35 s et qu'elle a été suivie du Big Bang, début de l'expansion actuelle.

3.9.3.5.4 Conséquences de la cosmologie sur le « début de la causalité »


L'Univers visible a un âge fini, 13.8 milliards d'années. A l'instant de son
commencement et dans la toute petite fraction de seconde qui a suivi jusqu'au temps
de Planck, nous savons seulement que nos lois physiques ne s'appliquaient pas [17].
La causalité des lois physiques telle que nous l'entendons aujourd'hui ne s'appliquait
pas non plus avant le temps de Planck, si nous entendons l'utiliser dans des
raisonnements scientifiques. Il faut donc limiter la remontée des causes utilisables

402
dans nos raisonnements concernant des phénomènes de l'Univers au temps de
Planck. Et comme nous savons que l'Univers est né avant, une éventuelle cause
ultime serait née avec lui, mais nous ne pouvons raisonner scientifiquement à partir
d'elle car aucune loi physique ne correspond à une situation entre le début et le
temps de Planck.
En résumé, la cause ultime à partir de laquelle nous pouvons raisonner est la
situation au temps de Planck, très proche du Big Bang. Si un jour les modèles
cosmologiques, basés par exemple sur la théorie des cordes, donnent des résultats
scientifiquement vérifiables, nous pourrons peut-être remonter plus loin dans le
passé…

3.9.3.5.5 Conséquences de la Relativité sur l'unicité de la cause première


Comme nous l'avons vu, depuis la théorie de la Relativité le temps n'est plus défini de
manière absolue comme à l'époque de Newton [103] : il varie avec l'observateur, il se
déroule à une vitesse qui peut varier avec lui. Une éventuelle cause unique de tous
les événements serait nécessairement l'événement point de départ unique de toutes
les lignes d'univers. Si un tel point existait, ce qui n'est pas démontré, ce serait un
événement qui aurait eu des conséquences multiples (comme c'est le cas en physique
quantique) en déclenchant des évolutions multiples, chacune donnant lieu à une ligne
d'univers particulière conduisant jusqu'à une situation observable aujourd'hui.
L'unicité du point de départ de tous les événements de l'Univers n'est nullement
démontrée. Je l'ai postulée parce qu'entre le début et le temps de Planck
(0.54 .10-43 s) l'Univers était plus petit que la distance de Planck, 1.6 .10-35 m et
que les durées étaient inférieures à 0.54 .10-43 s ; mais l'unicité n'est qu'une
conjecture.

Pendant l'intervalle de temps entre le Big Bang et le temps de Planck il se peut que le
temps et l'espace aient été discontinus, voire quantifiés, et qu'ils aient eu des
propriétés différentes de celles que nous connaissons, propriétés qui impactent la
causalité. La cause première qu'est la situation du début serait alors suivie jusqu'au
temps de Planck d'événements régis par des lois physiques que nous ne connaissons
pas [17].

Relativité et temps cyclique - Big Crunch


Il existe une interprétation des équations de la Relativité Générale selon laquelle le
temps serait cyclique : l'expansion actuelle de l'Univers serait suivie d'une contraction
infinie (le « Big Crunch »), qui serait suivie d'un nouveau Big Bang, etc.
Cette théorie est contestable, car basée sur une densité moyenne de l'Univers
plus forte que celle qui a été calculée, et sur l'absence « d'énergie sombre » à l'origine
de la « gravitation négative » qui fait que l'expansion accélère [217] ; en outre, elle
ignore le deuxième principe de la thermodynamique. Mais des travaux théoriques
récents sur la théorie des cordes [232] lui redonnent un espoir de crédibilité en cas de
confirmation expérimentale. Voir aussi [269].

Lors du Big Crunch l'Univers finirait par se comporter comme la matière autour d'un
trou noir, qui s'effondre sur elle-même du fait de son propre poids comme les étoiles
lourdes en fin de vie, et c'est ce trou noir de masse colossale qui terminerait la phase
de contraction. Mais comme, parmi les milliers de trous noirs que nous connaissons il
n'y en a pas un qui explose comme l'a fait le Big Bang, cette théorie n'est pas confirmée

403
par l'expérience. Elle n'est pas non plus confirmée par les calculs, qui prédisent qu'un
trou noir « s'évapore » lentement quand il est grand, puis de plus en plus vite au fur et
à mesure que sa masse diminue, mais qu'il n'explose pas avec l'inflation qui a suivi le
Big Bang faute d'énergie sombre.

3.9.3.6 Autres problèmes de la notion de causalité

3.9.3.6.1 Objections de multiplicité


Ces objections contestent la possibilité, démontrée par la mécanique quantique,
qu'une même cause ait des conséquences (ou des résultats) multiples, d'autant plus
que ces conséquences impliquent parfois un choix stochastique parmi ces
conséquences (ou ces résultats) lors de la décohérence. Nous avons vu que ces
objections à la causalité tombent lorsque le déterminisme est complété (déterminisme
statistique, déterminisme étendu) pour être en accord avec la Mécanique quantique et
les phénomènes macroscopiques instables décrits par des équations à solutions
multiples, comme les diffusions. C'est l'esprit humain épris de simplicité qui voudrait
qu'une cause donnée produise un résultat unique, mais la nature n'en a cure et la
causalité s'applique aux lois de la nature.

3.9.3.6.2 Objections de complexité et de chaos


Ces objections limitent le domaine (temps, espace, structure, etc.) auquel s'applique
une prédiction, par impossibilité de prendre en compte tous les paramètres de la
situation initiale et/ou de les connaître avec une précision suffisante. Nous y avons
répondu en montrant qu'il faut séparer causalité (de la nature) et prévisibilité ou
précision (désirs humains) : le déterminisme d'une évolution n'entraîne ni la
prédictibilité de son résultat, ni sa précision.

Ces objections sont valables en tant qu'objections de domaine : en dehors du domaine


où elle a été prouvée et fournit une précision acceptable, une loi physique d'évolution
ne s'applique pas.

3.9.3.6.3 Objection de séparabilité


Cette objection apparaît en physique quantique et nous oblige à remettre en cause ou
à étendre considérablement des notions aussi intuitives que la position, l'étendue et la
simultanéité de deux ou plusieurs événements distincts [9].

Cette objection peut avoir des conséquences pratiques, comme on le voit dans [10],
elle oblige à étendre le déterminisme, mais elle ne remet pas en cause la causalité.

3.9.3.6.4 Légitimité d'une recherche de causalité


La volonté même de trouver des causes et de prédire des conséquences est sujette à
caution, tant est grande la tentation pour l'homme de donner du sens aux choses en
cherchant leur essence et des lois qui gouvernent les phénomènes, ou en cédant au
finalisme (une superstition). La prudence nécessaire dans ce domaine doit s'appuyer
sur la méthode scientifique, avec ses hypothèses claires, ses déductions logiques, ses
vérifications expérimentales, et la remise en cause de chaque théorie ou hypothèse :
 chaque fois qu'apparaît un doute, une contradiction ou une précision
insuffisante ;

404
 a priori, comme le recommande Popper, en tentant d'imaginer des situations
factuelles où la théorie ou l'hypothèse serait fausse.

3.9.4 Critique de la méthode scientifique et de la vérité scientifique


Sans remettre en cause le déterminisme étendu, on peut craindre que notre approche
pour établir la vérité scientifique soit critiquable, et qu'elle nous conduise parfois à mal
organiser nos expériences ou à mal interpréter leurs résultats. Approfondissons donc
la méthode scientifique.

Les notions de cause, de conséquence et de relation de cause à effet reposent sur


des critères de vérité [220]. Voici quelques écoles philosophiques qui proposent des
fondements de la vérité et de la connaissance scientifique.

3.9.4.1 Les formalistes


Certains scientifiques appelés formalistes ont espéré systématiser, fiabiliser et
accélérer l'établissement de théorèmes et de lois scientifiques en dotant le plus
possible de sciences d'une axiomatique [67], dont on manipulait logiquement les
axiomes sans faire référence à leur signification ; ce fut le cas, pour les
mathématiques, de David Hilbert en Allemagne et du groupe Bourbaki en France, et
cela s'est aussi avéré fécond en physique quantique, dont nous avons vu les postulats.

Leur approche matérialiste (et même mécaniste puisque la manipulation des axiomes
est algorithmique et calculable) enferme le scientifique dans un rôle limité, en
négligeant au maximum la signification des sciences et de leurs résultats au profit de
démonstrations formelles : on se contente de construire des théorèmes à partir
d'axiomes et de règles posés a priori. Leurs ambitions de formaliser toutes les sciences
ont été limitées par les théorèmes d'incomplétude de Gödel [6].

3.9.4.2 Les intuitionnistes


D'autres scientifiques et philosophes, les intuitionnistes, ont nié la réalité extérieure au
profit d'un solipsisme, attitude qui limite la vision du monde d'une personne à ce qui
est accessible à sa subjectivité, à son intuition. Pour un intuitionniste comme Brouwer
il n'y a pas de réalité extérieure, pas de vérité objective, il n'y a que des cas particuliers
qu'il constate et peut prouver personnellement ; toute affirmation qu'on ne peut ni
prouver ni infirmer de manière pratique est réputée indécidable jusqu'à ce qu'une
preuve concrète ait été apportée.

C'est ainsi qu'il y a deux manières d'interpréter les résultats de la Mécanique


quantique, si bien validés par l'expérience :
 ou l'on considère qu'il n'y a pas de loi générale, mais seulement des cas
particuliers associant une expérience et ses conclusions - attitude intuitionniste ;
 ou l'on considère que la réalité elle-même existe objectivement, bien que sous
une forme non intuitive représentée et compréhensible :
 à l'échelle atomique et humaine à travers les postulats de la Mécanique
quantique ;
 à l'échelle cosmologique à travers la Relativité Générale [328], avec ses
postulats comme l'espace-temps quadridimensionnel et ses équations.
Cette attitude réaliste est acceptée aujourd'hui par tous les scientifiques.

405
Les intuitionnistes rejettent le principe du tiers exclu [99], sur la base d'une définition
particulière de l'existence : alors qu'un mathématicien se contente souvent de prouver
qu'il existe un être mathématique ayant certaines propriétés, sans pouvoir en donner
la valeur ou un procédé de construction pratique, un intuitionniste n'accepte une
affirmation d'existence qu'accompagnée d'une méthode de construction, c'est-à-dire
une existence vérifiable. Pour un intuitionniste, donc :
 Un nombre réel non calculable n'existe pas ;
 Un raisonnement par l'absurde n'est pas probant, puisqu'il suppose le principe
du tiers exclu ;
 La validité d'une affirmation doit attendre une preuve expérimentale ;
 La preuve elle-même ne peut être basée seulement sur la logique et le calcul,
elle nécessite en plus une vérification pratique qui peut demander du temps ou
des moyens expérimentaux hors de portée.

L'intuitionnisme n'a plus beaucoup de partisans de nos jours, où le rationalisme critique


triomphe, et où l'on a tendance à associer une approche axiomatique formelle et une
approche basée sur la sémantique.

3.9.4.3 Les platoniciens


A l'opposé de l'intuitionnisme, certains scientifiques idéalistes, les platoniciens, suivent
Platon en affirmant que les objets réels ne sont que des copies d'Idées
transcendantes, seule réalité objet de la connaissance. Pour un platonicien, les vérités
mathématiques, même si ce sont de pures abstractions comme la théorie des
ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref universelles ;
elles seraient tenues pour vraies même par les habitants d'un autre système solaire.

Pour une description plus complète de la doctrine idéaliste de Platon voir [343].

Plus généralement, les innéistes comme Descartes considèrent que le seul fondement
certain de la vérité est l'évidence intellectuelle ; toute connaissance scientifique est
fondée sur des Idées, abstractions ne dépendant pas de l'expérience [4]. Le
philosophe mathématicien Husserl [312] a montré la puissance de cette approche ;
elle est féconde bien que, plus nos connaissances progressent, plus on trouve
d'exemples de concepts qui sont tout sauf intuitifs ou évidents, comme dans les
modèles probabilistes de la physique quantique (qui relèvent du déterminisme
statistique).

3.9.4.4 Les rationalistes du XVIIIe siècle


Le rationalisme du XVIIIe siècle (le siècle des Lumières [47]) postule que tout ce qui
existe ou survient a une raison d'être, la volonté de l'Etre Suprême ; qu'il est intelligible,
et qu'il existe un fondement sur lequel on peut baser nos connaissances scientifiques.
Ce fondement est un ensemble de principes universels non issus de l'expérience,
c'est-à-dire existant a priori dans l'esprit humain.

Le grand philosophe rationaliste Kant limitait les certitudes nées dans notre esprit à la
raison [210], dont les principes permettent d'imaginer les expériences sur les résultats
desquelles l'homme peut ensuite fonder ses sciences par induction, principe qu'il

406
appelait « énoncé synthétique a priori ». Pour lui, la thèse est dogmatique, a priori,
l'antithèse est à posteriori, construite par induction à partir d'expériences [206]. Au-
delà de la raison, il estimait que la vérité de « la chose en soi » est inconnaissable, et
qu'on ne peut en construire que des représentations abstraites et approximatives dans
notre esprit.

Contrairement à la possibilité théorique de prévoir l'avenir et de reconstituer


mentalement le passé qu'il énonçait en 1814 dans son déterminisme philosophique,
Laplace écrivait en 1798 dans un résumé de la méthode scientifique : « Les causes
premières et la nature intime des êtres nous resteront éternellement inconnues. » [204]

Comme le remarque [209] page 26, on peut critiquer le fait que les vérités synthétiques
a priori de Kant soient basées sur les postulats de la physique de Newton. Ces
postulats n'ont rien d'évident ou de consubstantiel à la raison humaine, à preuve leur
découverte si tardive, à la fin du XVIIe siècle. Et quand ces postulats newtoniens ont
été remis en cause par la Relativité, certaines vérités synthétiques a priori de Kant l'ont
été aussi.

La confiance de Kant dans la validité des théories issues des concepts et méthodes
de raisonnement a priori était trop grande. A part le domaine des mathématiques, dès
qu'une théorie modélise la réalité, elle ne peut être considérée comme valable
qu'après confrontation avec des faits constatés. La raison profonde de l'incapacité des
raisonnements a priori à théoriser toute réalité est qu'ils ne prennent pas en compte
tous les faits. Une théorie entièrement issue de concepts et méthodes de
raisonnement a priori est comme une proposition issue d'une axiomatique [67] à
laquelle il risque de manquer des axiomes ou des règles de déduction.

3.9.4.5 Les empiristes


Pour les empiristes qui, comme Hume [208], s'opposent au rationalisme, la seule
vérité, le seul fondement de la connaissance est l'expérience, malgré la confiance aux
sens et mesures qu'elle implique ; et l'expérience doit être partageable pour être
objective. Les empiristes admettent les théories issues d'expériences par induction en
considérant leur représentation de la réalité comme plausible mais non certaine. Ils
admettent aussi des théories formulées en tant qu'hypothèses a priori lorsqu'elles sont
confirmées par l'expérience.

Enfin, les empiristes sont sceptiques vis-à-vis de ce que la doctrine rationaliste


considère comme nécessaire ; ils cherchent la vérité dans les faits, tout en se méfiant
de la causalité par induction qui ne repose que sur l'habitude, attitude
psychologiquement rassurante. (Exemple : ils refusent de déduire du seul fait que tous
les hommes ont toujours fini par mourir qu'un homme donné est certain de mourir lui
aussi.)

3.9.4.6 Le rationalisme critique de Karl Popper


Source principale : [209]
L'idée essentielle sur la vérité scientifique de l'épistémologue [265] du XXe siècle
qu'était Popper - un des rares philosophes qui était en même temps un véritable
scientifique - est que, la vérité absolue étant inaccessible, on peut toujours émettre
des hypothèses et les soumettre à la critique, notamment de l'expérience ; celles qui
sont fausses apparaîtront alors, et leur fausseté sera, elle, une certitude - un seul

407
contre-exemple suffit. La connaissance d'une hypothèse fausse est une information
en soi, qui réduit le nombre de vérités possibles et nous fait donc progresser vers la
vérité cherchée.

Caractéristiques d'une hypothèse scientifique valable


Une hypothèse n'est donc acceptable que si elle est falsifiable [203] : elle doit donc
être formulée de manière à ce qu'on puisse la réfuter [153]. Son auteur doit accepter
la critique et reconnaître ses éventuelles erreurs, ce qui implique qu'il communique
avec les autres personnes compétentes dans le sujet choisi. Il doit en plus chercher
activement des conditions de falsification, car s'il n'en énonce pas son hypothèse n'est
pas scientifique. Et les tentatives de falsification doivent concerner les hypothèses
d'une théorie autant que la théorie elle-même.
Exemples d'affirmations dont Kant a démontré le caractère infalsifiable :
« Dieu existe » et « L'âme est immortelle ».

Toute théorie qui n'est pas encore falsifiée doit être considérée comme provisoire ; elle
peut toujours être remise en cause ou perfectionnée. Exemples :
 La physique de Newton, avec son espace et son temps absolus et sa masse
invariable, est devenue deux siècles plus tard un cas particulier de la physique
relativiste d'Einstein, car on a trouvé des cas particuliers où elle était fausse.
 On a cru en France que le soleil se lève et se couche tous les jours, tant qu'on
n'a pas su ce qu'il en est au-delà des cercles polaires.

Puisqu'une vérification expérimentale n'apporte de certitude que dans son cas


particulier, et que tant qu'une falsification est possible la certitude est impossible, [209]
conclut page 46 :

Un énoncé scientifique ne peut jamais être vérifié,


mais seulement falsifié.

3.9.4.6.1 Définition d'une vérité scientifique


Résumons ce qui précède, pour définir les critères de vérité scientifique admis
aujourd'hui par la communauté mondiale des scientifiques. (Ces critères concernent
les énoncés qu'on n'a pas pu établir par une démonstration déductive formelle dans le
cadre d'une axiomatique [67], c'est-à-dire ceux qui nécessitent une vérification
expérimentale.)

Un énoncé qui décrit un fait ou une loi de la nature est considéré comme vérité
scientifique si et seulement si :
 Il est falsifiable (il permet d'en déduire des caractéristiques ou des prédictions
permettant, si elles se révèlent inexactes, de considérer l'énoncé comme faux) ;
 Il a été soumis à la communauté scientifique, qui l'a examiné et approuvé sans la
moindre réfutation. Un unique contre-exemple suffit pour réfuter l'énoncé.

408
On voit que la véracité définie comme qualifiant "un énoncé conforme aux faits"
s'est avérée si peu utilisable, à la suite de nombreux débats où sont intervenus
philosophes et scientifiques, qu'on l'a remplacée par un consensus de non-
réfutation.

Un tel énoncé ne sera considéré comme vrai que de manière provisoire, jusqu'à ce
qu'on découvre des faits ou des prédictions qui le font considérer comme faux.

La véracité d'un énoncé scientifique est décrite par une variable logique (binaire) : il
peut seulement être vrai ou faux ; il ne peut pas être « presque vrai », « en général
vrai » ou « plus vrai qu'un autre texte vrai ». Par conséquent, des vérités scientifiques
peuvent être tout aussi vraies bien que d'origines différentes, comme :
 Des lois construites par induction à partir de résultats d'expériences ;
 Des théorèmes, résultant de démonstrations basées sur des lois admises ;
 Des théories de sciences appliquées (voir ci-dessous) ;
 Des postulats construits par induction à partir de constatations empiriques
(exemple : postulat de déterminisme induit de l'uniformité de l'Univers) ;
 La définition des unités du Système international, comme le mètre (longueur
parcourue par la lumière dans le vide en 1/299 792 458ème de seconde
exactement) ;
 Des énoncés divers validés par la communauté scientifique…

3.9.4.6.2 Définition d'une théorie appliquée à un domaine pratique


Voici ma définition d'une théorie d'une science expérimentale (science empirique,
contrairement aux mathématiques, science a priori qui n'a pas besoin d'expériences).
On peut la rapprocher de celle de Popper donnée en annexe [218]. Elle suppose
connue la définition suivante d'un théorème :

"Un théorème est une proposition démontrée dans le cadre d'une axiomatique" [67]

Une théorie d'une science expérimentale est un ensemble de


théorèmes pour expliquer et/ou prévoir des faits dans des
circonstances initiales données.

Elle est dite acceptée si ses théorèmes sont falsifiables [203] à l'aide
d'expériences et ont recueilli un consensus de la communauté
scientifique, sinon c'est une conjecture.

Exemple de théorie scientifique acceptée : la Mécanique quantique, dont l'axiomatique


est ici.

On remarquera dans la définition d'une théorie scientifique ci-dessus l'identité entre


ses objectifs et ceux du déterminisme : expliquer et prévoir.

409
Les lois de déduction de l'axiomatique peuvent être exprimées sous forme positive ou
négative. Exemple : le deuxième principe (loi) de la thermodynamique [25] peut
s'exprimer sous de multiples formes.
 Exemple de forme positive de cette loi physique :
"Tout système macroscopique isolé évolue vers son état le plus probable,
caractérisé par le maximum de désordre (c'est-à-dire d'entropie)."
 Exemples de forme négative de cette loi :
 "On ne peut pas convertir la totalité d'une quantité de chaleur en énergie
mécanique ou électrique".
 "Il n'y a pas de mouvement perpétuel de seconde espèce." (Il n'y a pas de
machine qui produit du travail en refroidissant une source de chaleur,
transformant ainsi complètement de la chaleur en travail.)
 "Il n'existe pas de système isolé dont l'entropie totale décroît."

3.9.4.6.3 Critères à respecter pour qu'une théorie scientifique soit acceptable


Nous avons défini ci-dessus les deux critères de Popper pour qu'un énoncé puisse
être une vérité scientifique provisoire. En pratique :
 Lorsqu'on publie une théorie on la présente avec une justification : qu'est-ce qui
suggère que cette théorie est nécessaire, de quelles connaissances ou faits
fournit-elle une explication ou permet-elle une synthèse, etc.
 Une théorie doit être énoncée de manière complète et claire, en recourant à une
formulation axiomatique à syntaxe rigoureuse chaque fois que c'est possible
sans déformer ou limiter son énoncé. Cette formulation clarifiera ses postulats.
On y ajoutera en langage naturel les exemples et explications nécessaires à une
bonne compréhension :
 Pour qu'on puisse concevoir les expériences et les raisonnements qui vont
la confirmer ou la réfuter.
 Pour qu'on puisse s'en servir pour prédire les résultats d'expériences
futures. Si ces prédictions se révèlent fausses, elles la réfutent.
Une théorie et le déterminisme ayant tous deux pour buts de comprendre et
prévoir, le caractère prédictif d'une théorie est très important, et d'autant plus
important que les prédictions sont nouvelles et n'étaient pas possibles en
l'absence de la théorie.
C'est ainsi qu'Einstein a prédit une conséquence de la Relativité Générale : la
lumière est déviée dans un champ gravitationnel. Cette prédiction a été
vérifiée pour la lumière d'une étoile lointaine passant au ras du Soleil, lorsque
la lumière de celui-ci est occultée par une éclipse. La déviation prévue de la
lumière de l'étoile, voisine de 1.75 seconde d'arc, a été observée en 1919,
assurant immédiatement la célébrité d'Einstein.
 La méthode utilisée pour acquérir des connaissances scientifiques doit être
indépendante des processus psychiques accompagnant les raisonnements dans
l'esprit du scientifique, processus qui varient d'une personne à une autre, dont la
rationalité n'est nullement garantie et qui empêchent l'objectivité.

410
Une méthode d'acquisition de connaissances scientifiques est valable si et
seulement si elle produit des énoncés falsifiables et communicables. Un
scientifique n'a pas à justifier ses méthodes de raisonnement, dans la mesure où
elles n'apparaissent pas dans un énoncé qu'il soumet à la communauté
scientifique. Cette remarque permet des énoncés relevant de l'intuition ou de
l'indécidabilité. Elle permet aussi de baser une théorie sur des faits incertains ou
imprécis, car seul compte l'énoncé falsifiable. Comme le souligne [209] page 83 :
"L'objectivité de la connaissance réside dans sa testabilité, ou dans sa
réfutabilité". (Voir définition d'une théorie scientifique objective).
Une théorie scientifique n'a pas obligatoirement à faire référence à des
perceptions, c'est-à-dire des expériences accessibles aux sens humains.
La Mécanique quantique, par exemple, est basée sur des postulats abstraits
et une modélisation mathématique de la réalité physique, réalité le plus
souvent inaccessible aux perceptions humaines du fait de l'échelle des
dimensions et énergies mises en œuvre. La cosmologie s'applique à des
dimensions, des durées et des énergies si énormes qu'elles échappent, elles
aussi, aux perceptions humaines.
Une théorie scientifique peut être motivée par des perceptions, des espoirs, des
expériences ou la critique d'une autre théorie, mais ces motivations ne peuvent en
justifier la validité. Seule l'absence de réfutation logique ou expérimentale peut la
justifier, après examen par la communauté scientifique.
On ne doit jamais juger une théorie d'après son auteur, mais seulement d'après
son contenu et ses prédictions [153].
Si on avait jugé la vraisemblance des théories révolutionnaires que sont la
Relativité Restreinte et l'effet photoélectrique d'après la notoriété de son jeune
auteur, à l'époque obscur ingénieur, leur publication [49] n'aurait jamais été
acceptée.
L'expérience montre que les grands éditeurs acceptent rarement de publier
un texte, scientifique ou non, d'un auteur non célèbre : ils craignent que
l'ouvrage ne soit acheté que par un nombre de lecteurs insuffisant pour qu'ils
y trouvent un profit. Un tel auteur n'a une chance qu'ils le publient que si son
ouvrage est suffisamment étonnant : scandaleux, inattendu, etc.
Heureusement, il existe des sites Internet où les scientifiques peuvent publier
tout ce qui n'est pas, ou pas encore, publié sur papier [319].
 L'énoncé d'une loi peut avoir une forme négative, décrivant une impossibilité.
Nous en avons vu des exemples à propos du 2 e principe de la
thermodynamique.

3.9.4.6.4 Risques et inconvénients d'une vérité scientifique par consensus


En vertu de ce qui précède, une vérité scientifique résulte d'un consensus et d'une
absence de contre-exemple. Le postulat de causalité, le déterminisme scientifique et
le déterminisme étendu sont aussi vrais que s'ils étaient démontrés (puisque le
déterminisme étendu regroupe les règles d'évolution de l'ensemble des lois de
l'Univers, s'il était faux une au moins de ces lois serait fausse dans un cas au moins).

Le problème est alors, pour l'auteur d'une nouvelle théorie, d'obtenir l'attention de la
communauté scientifique. C'est souvent très difficile parce que la publication dans les

411
revues qui font autorité comme Physical Review, Science ou Nature est filtrée par des
comités de lecture dont l'ouverture d'esprit et la neutralité ne sont pas nécessairement
toujours parfaites. Il reste la publication dans des revues de moindre notoriété, sur
Internet ou chez un éditeur, mais sans garantie d'attirer suffisamment l'attention pour
que le texte soit correctement examiné et critiqué. Ce problème n'est pas nouveau :
déjà en 1906 Ludwig Boltzmann, immense savant père de la Mécanique statistique et
précurseur des travaux de Planck et Einstein, s'était suicidé de désespoir devant
l'attention insuffisante accordée à ses travaux.

Autre problème : le financement d'une recherche est souvent accordé par des
politiciens dont les motivations sont tout sauf scientifiques ; il arrive aussi qu'il soit
soumis à l'approbation de spécialistes concurrents qui voudraient les fonds et la
notoriété pour leurs propres travaux…

3.9.4.6.5 Une théorie peut-elle être probable ?


La notion de probabilité d'une théorie est aberrante parce qu'elle implique l'existence
de cas où elle est fausse, nous l'avons vu. On peut cependant estimer le degré de
corroboration d'une théorie en fonction de la difficulté des tentatives de réfutation
auxquelles elle a résisté ([209] pages 41-43) ; plus ce degré est élevé, plus la validité
de la théorie est psychologiquement certaine, alors qu'elle n'est encore, en toute
rigueur, qu'une conjecture.

3.9.4.6.6 Définition d'une théorie scientifique objective


C'est une suite de théories reliées par des relations logiques (comme DONC, OR, ET,
etc.) qui a été approuvée par la communauté scientifique sans réfutation, même
partielle.

Le caractère objectif résulte du fait que la théorie globale, ses théories constitutives et
leur enchaînement ont été communiqués à d'autres que leur auteur et n'ont fait l'objet
d'aucune remise en cause. Une connaissance objective ne résulte jamais d'une
interaction entre une personne et d'autres, interaction qui ne peut produire que des
connaissances subjectives.

Voir aussi les limitations de la connaissance scientifique décrites au paragraphe


"Un énoncé ne peut ni se décrire lui-même ni se comparer à lui-même".

3.9.4.6.7 Comparaison du rationalisme critique avec l'empirisme


Popper admet avec les empiristes qu'aucun ensemble fini d'expériences ne peut
justifier une conclusion générale, qui en serait nécessairement déduite par induction.
Mais pour lui rien ne prouve, non plus, que l'induction n'est justifiée que par le confort
psychologique de l'homme, que la généralité d'une théorie rassure. L'induction est
aussi valable que n'importe quel autre processus psychique pour énoncer une loi
générale, car ce n'est pas le processus dont on doit juger la validité mais son résultat,
et ce jugement reposera sur une critique. Popper recommande donc d'examiner en
priorité les conjectures les plus riches, les plus audacieuses pour apprendre le
maximum de choses nouvelles le plus vite possible. Un énoncé hypothétique peut
même être indécidable [6], et être accepté jusqu'à preuve d'erreur s'il est falsifiable et
qu'on ne lui a pas trouvé d'exemple prouvant qu'il est faux, alors qu'il a au moins un
exemple qui le confirme.

412
Les empiristes justifient leurs inductions en tentant d'en apporter le plus possible de
preuves expérimentales, démarche de vérification qui à l'évidence ne peut être
exhaustive, donc ne peut être probante. Les rationalistes critiques, au contraire,
justifient leurs conjectures par une démarche falsificatrice, en cherchant à les réfuter,
démarche où un seul contre-exemple suffit ([209] page 28).

Pour qu'une théorie puisse être considérée comme acceptable au moins


provisoirement, elle doit être falsifiable [203] et résister à toutes les critiques. Mais pour
qu'une théorie soit critiquable il faut d'abord qu'elle existe, qu'on l'ait formulée. La
recherche de la vérité doit donc partir d'une théorie énoncée, comme l'affirment les
rationalistes du XVIIIe siècle, et non des expériences comme le recommandent les
empiristes.
Exemple : lorsqu'il cherchait la forme de l'orbite de Mars à partir des relevés de
positions célestes de Tycho Brahe, Kepler a essayé successivement de nombreux
types de courbes planes avant de trouver (au bout d'une douzaine d'années !) que
celle qui convient le mieux est une ellipse ayant le Soleil pour foyer [212]. Chaque
essai consistait à partir d'une forme de courbe (exemple : un ovale), à calculer ses
paramètres à partir de quelques points observés, puis à vérifier si d'autres points
observés étaient bien sur la courbe, aux erreurs d'observation près. La méthode
de Kepler a bien consisté à partir d'une théorie (la forme testée) et à la soumettre
à la critique, pas à partir d'observations pour en déduire une théorie des orbites.

On ne peut jamais prouver qu'une théorie est parfaite, c'est-à-dire qu'elle ne peut être
rendue rendre plus précise ou plus complète ; les empiristes considèrent à tort un
résultat d'expérience comme une vérité absolue, à jamais infalsifiable [203].

3.9.4.6.8 Polémique entre le rationalisme critique et le conventionalisme

Définition
On appelle conventionalisme une conception de la science qui considère qu'elle ne
manipule dans ses énoncés que des abstractions créées par l'homme pour modéliser
la réalité d'une manière qui l'arrange (par réduction, schématisation, simplification…),
et que ces abstractions peuvent être sans rapport avec la réalité.
(Contrairement au conventionalisme, le réalisme est une conception de la science
qui soutient que ses lois et théories sont des représentations utilisables de la
réalité, malgré leur abstraction intrinsèque.)

Le raisonnement des conventionnalistes


Pour un conventionnaliste comme le mathématicien Henri Poincaré, la science est une
construction logique, pas un modèle de la nature ; elle ne découle pas de la nature,
mais de la pensée humaine (ce qui est particulièrement vrai pour les mathématiques).
Elle n'est donc pas nécessairement conforme à la réalité physique, mais plutôt aux
attentes des scientifiques. Par conséquent, on ne peut réfuter une théorie par
l'observation empirique, puisque chaque observation, chaque expérience, est basée
sur un énoncé de la théorie qu'elle est censée réfuter !
(Nous l'avons vu ci-dessus : pour concevoir les expériences qui vont confirmer ou
réfuter une théorie on a besoin que cette théorie soit formulée de manière claire
et complète. Exemple : pour trouver expérimentalement le plan de polarisation

413
d'un faisceau lumineux et concevoir l'analyseur approprié on a besoin d'une
théorie de la polarisation de la lumière ; nous en avons déjà parlé.)

Popper a admis cette critique de la possibilité de réfuter une théorie, tout en reprochant
au conventionalisme d'être lui-même infalsifiable. Il y a un problème de fond : si on
considère la pensée humaine comme déconnectée de la réalité, on ne peut ni l'utiliser
pour comprendre et prévoir cette réalité (objectifs du déterminisme et des théories
scientifiques) ni utiliser une comparaison avec la réalité pour critiquer une pensée.
Heureusement, le conventionalisme ne s'oppose ni au principe d'intelligibilité de la
nature à la base du rationalisme, ni à sa représentation par des théories, mais
seulement à la falsifiabilité d'une théorie à l'aide d'expériences conçues à l'aide de
cette théorie.

Je considère cette doctrine comme stérilisante - donc néfaste - dans la mesure où elle
refuse la falsification des énoncés, réputée sans valeur. Je considère comme probante
la falsification d'un énoncé basée sur des prédictions qui ont été démenties par
l'expérience.

3.9.4.6.9 Objection holistique à la falsifiabilité


Source : [209] pages 52-53

L'interprétation holistique (appelée aussi "holiste", "globaliste" ou "de Duhem-Quine")


affirme que ce n'est jamais une hypothèse isolée qui est testée, c'est un contexte
entier, une axiomatique non (ou mal) explicitée dont l'hypothèse n'est qu'une partie.
Donc lorsqu'une hypothèse testée est réfutée, il n'est pas facile de savoir si la
réfutation porte sur elle seule, ou sur tout ou partie de son contexte, ou sur l'hypothèse
dans son contexte ; et lorsqu'elle est vérifiée, elle l'est dans un certain contexte
expérimental - et lui seul. Nous avons déjà vu ce phénomène à propos de la
polarisation : un appareil ne mesure que ce qu'il a été fait pour mesurer, pas forcément
ce que nous souhaiterions mesurer.

Donc si une expérience réfute un énoncé, on est seulement certain que quelque chose
a produit une erreur, mais pas forcément que c'est l'énoncé tel qu'il est. Il appartient
donc à l'expérimentateur et à l'ensemble de la communauté scientifique d'attribuer ou
non la réfutation à l'énoncé en question, ou d'expliquer les causes de l'échec d'une
manière satisfaisante.

3.9.4.6.10 Les systèmes interprétatifs


Une théorie empiriste qui ne fait qu'interpréter un ensemble de cas particuliers
(appelée système interprétatif) n'est pas falsifiable, puisqu'elle est vraie dans tous les
cas considérés. Souvent, son adaptation à ces divers cas provient de l'imprécision et
du réductionnisme de ses concepts, ou du caractère circulaire de ses énoncés et
raisonnements, caractéristiques qui rendent la falsification impossible et permettent
d'expliquer tout et son contraire sans sortir du cadre de la théorie. [209] page 47 cite
comme exemples de telles théories la psychanalyse et le marxisme :
"Qu'un homme sauve un enfant ou le noie, dit Popper, un freudien le
comprendra également en fonction de l'Œdipe, un adlerien en fonction du
sentiment d'infériorité ; les événements politiques les plus contraires seront de
même pour un marxiste des signes de la crise du capitalisme."

414
Page 49, [209] donne un exemple de raisonnement circulaire, donc d'autojustification
infalsifiable :
"Un bon exemple de ce caractère circulaire, est fourni par la réponse que fit un
jour Adler à Popper (qui travailla avec lui un certain temps). Popper demanda au
père de la « psychologie individuelle » pourquoi il venait de diagnostiquer un
complexe d'infériorité chez un enfant qui n'en présentait que de faibles signes.
« C'est, dit Adler, que j'ai déjà vu mille cas de ce genre ». Alors ce sera le mille
et unième, répondit Popper, mettant en lumière que toute interprétation qui ne se
fonde que sur ses précédentes applications est condamnée à voir sa gratuité
s'accroître en même temps que sa confiance en elle-même. A la limite, la
description psychologique tend à se confondre avec un délire interprétatif
d'autant plus dangereux que tout ne peut que le confirmer. Ce qui justifie
amplement l'attitude méfiante du rationaliste à l'égard d'une possible déformation
du réel."

Une théorie interprétative n'est donc pas scientifique, mais pseudo-scientifique. Elle
est d'autant moins scientifique qu'elle progresse en ajoutant des cas particuliers,
auxquels elle s'adapte à chaque fois avec l'impression d'être de plus en plus confirmée
(notion qui n'a pas de sens, nous l'avons vu) et tout en restant infalsifiable. Toute
théorie peut trouver des exemples qui la confirment, mais elle n'a de valeur que si elle
est falsifiable et si son énoncé a été soumis à la critique.

Nous avons déjà vu un exemple de "preuve" d'une affirmation par un exemple.

3.9.4.6.11 Sciences dures et sciences molles


On distingue souvent les sciences dures des sciences molles.
 Les sciences dures sont rigoureuses. Exemples : les mathématiques,
l'astronomie, la physique, la chimie et la biologie moléculaire. Elles sont basées
sur une axiomatique [67] et permettent des prévisions d'évolution ou de résultats
dont la précision n'est limitée que par celle des instruments et méthodes de
mesure, par les phénomènes de chaos et par la complexité des systèmes.
 Les sciences molles sont trop complexes (nombre de lois intervenant
simultanément) pour que le déterminisme de leurs phénomènes sous-jacents
permette une prévision précise d'évolution ou de résultats. Exemples : diverses
sciences de la vie comme la biologie, la physiologie, la médecine ; divers
domaines (je n'ose pas écrire sciences) comme la psychologie, la sociologie.

Popper a raison de qualifier de non scientifiques les systèmes interprétatifs, mais nous
avons vu que le caractère en grande partie imprévisible de l'homme exclut la possibilité
de structurer les connaissances qui le concernent sous forme de sciences « dures »
axiomatiques, aussi rigoureuses que le voudrait Popper. Et celui-ci admet que la
psychanalyse est utile, reconnaissant ainsi que le rationalisme critique et la méthode
scientifique qui en découle sont un idéal, mais que certains domaines de connaissance
ne s'y prêtent pas, ou pas encore.

En médecine comme en psychologie il existe des domaines de connaissances


particuliers dont les phénomènes sont assez bien connus pour permettre des

415
explications, des prévisions et des soins ; exemple : la circulation du sang et la
pression artérielle. Ce sont des sciences « molles », bien plus complexes que les
sciences dures du fait du nombre de mécanismes et de variables, et plus difficiles à
aborder expérimentalement du fait de la faible reproductibilité des résultats
d'expérience qui oblige de recourir à des statistiques et des essais en « double
aveugle » [311].

J'admire l'aptitude de certains psychothérapeutes à comprendre une personne qui leur


soumet un problème, puis à la conseiller de manière pertinente. La psychothérapie est
une science extrêmement molle, faite pour l'essentiel d'un grand nombre de cas
particuliers. En dialoguant, le thérapeute essaie de situer le problème de son patient
par rapport aux cas qu'il connaît, puis il laisse jouer son intuition pour trouver un
diagnostic de son problème et des suggestions de thérapie. Et il faut reconnaître que
la proportion de succès est assez significative avec les bons thérapeutes pour qu'on
ait raison de les solliciter.

3.9.4.6.12 Evolution d'une vérité, de la science et du monde selon Popper


Une vérité ne peut devenir définitive que si l'on cesse de la soumettre à la critique !
La science, ensemble de vérités établies conformément à la méthode scientifique, ne
peut donc cesser de progresser que si l'homme cesse de remettre en cause ses
connaissances.

Le seul domaine qui fournit des vérités absolues est celui des mathématiques,
notamment celui de la logique formelle. Dans tous les autres domaines toute vérité est
provisoire, destinée à durer tant qu'on n'en a pas trouvé une meilleure, qui résiste à
davantage de critiques. Et nous pouvons nous contenter de vérités provisoires et
perfectibles, comme nous le faisons en astronomie et astrophysique.

Evolution de la science selon Popper


Je suis d'accord avec cette thèse de Popper, mais je regrette qu'il n'ait pas envisagé
ou pas retenu la possibilité d'une science convergente, dont les progrès au-delà d'un
certain stade seraient négligeables [219]. Une telle convergence est possible à mon
avis, même si dans de nombreux domaines les progrès sont encore si rapides qu'on
ne voit pas vers quelles connaissances. Par exemple, il me semble que les progrès
dans la connaissance du mouvement des planètes sont devenus si infimes depuis que
nous avons la Relativité et les théories de chaos déterministe, que cette connaissance
est à son point de convergence [219]. Par contre, la connaissance du génome est
encore balbutiante.

Pouvoir de l'homme de transformer le monde


La science permettant à l'homme d'agir sur le monde, son progrès lui donne de plus
en plus de pouvoir ; perpétuel insatisfait, l'homme transforme le monde de plus en
plus. Cette transformation continuera tant que l'homme poursuivra ses recherches.

Le mythe de l'historicisme
Selon [209] page 165, Popper a combattu l'historicisme, qu'il définit comme la
croyance en un destin de l'histoire humaine qui vouerait l'humanité à atteindre un but
à travers une suite d'étapes nécessaires. Ce finalisme est une croyance idéaliste qui
attribue un sens à l'histoire humaine, sens qui est le progrès. Cette croyance est
combattue par l'évolutionnisme de Darwin, aujourd'hui bien compris et expliqué. Nous

416
savons aujourd'hui que c'est une croyance non scientifique, reposant sur des intuitions
ainsi que sur la négation de la généralité du principe de causalité au nom de finalités
transcendantes qui régiraient l'évolution. Bref, d'un point de vue scientifique la finalité
de l'évolution de l'humanité est un mythe ; sur ce point je pense comme Freud,
Nietzsche et les autres philosophes matérialistes.

Popper conclut de cette absence de finalité que ni la science ni le monde n'évoluent


en direction d'un terme ultime. En outre, il pense que l'évolution du monde est
fondamentalement non déterministe, opinion que nous allons à présent commenter.

3.9.4.6.13 Critique de la position de Popper sur le déterminisme


Tout en rejetant comme Popper la thèse finaliste de certains idéalistes, je ne suis pas
d'accord avec son raisonnement concernant le non-déterminisme de l'évolution du
monde. J'ai prouvé dans ce texte-ci la nécessité d'abandonner la définition du
déterminisme philosophique [200] avec plusieurs exemples de ses erreurs. Je propose
de repartir du déterminisme scientifique traditionnel et de construire ce que j'appelle le
déterminisme étendu, celui de la nature. Ce nouveau postulat dérive par induction de
l'unité, la cohérence et la complétude de l'Univers ; il est falsifiable et il n'existe aucune
observation qui le contredise. Au sens du rationalisme critique le déterminisme étendu
est donc un principe de raisonnement vrai jusqu'à preuve du contraire.

Je pense que Popper a bien compris la méthode scientifique et ses implications, y


compris les aspects prédictibles et imprédictibles des lois de la nature, de l'homme et
de la société. Il y a entre son raisonnement et le mien une différence de définition : j'ai
défini et postulé un déterminisme étendu, qui accepte l'existence de phénomènes
déterministes à conséquences imprévisibles parce qu'ils existent dans des cas précis
de la nature, alors que Popper a conservé la définition du déterminisme philosophique,
celui qui suppose toujours possible la prédiction de l'avenir.

Popper n'a pas vu qu'il fallait séparer le déterminisme scientifique (principe de


causalité et règle de stabilité) de la prédictibilité, dont nous avons vu l'impossibilité
dans des cas précis. La séparation s'impose parce que le déterminisme scientifique
concerne les lois de la nature, alors que la volonté de prédire est un souci de l'homme
que la nature n'a pas – sauf à lui prêter une finalité, nous l'avons vu.

Popper pense avec raison que l'évolution de la nature n'est pas gouvernée par une
finalité, mais sans conclure que la prédiction de l'avenir n'est pas celle d'un
phénomène naturel, et qu'il n'y a donc pas lieu de relier évolution et prédiction dans la
définition du déterminisme. Popper s'est contenté de démontrer qu'une prédiction
totale de l'avenir est impossible de l'intérieur de l'Univers contenant l'humanité, sans
s'apercevoir que cette prédiction n'a pas lieu d'être car elle n'intervient dans aucun
phénomène naturel (non humain). Même si on réduit l'humanité à l'ensemble des corps
physiques des hommes la prédiction est inenvisageable, car les actions des hommes
résultent de leurs psychismes, non déterministes au moins à cause de l'inconscient.
L'erreur consistant à relier déterminisme et prédictibilité est surprenante chez un
homme qui a si bien su déconstruire les raisonnements boiteux. N'ayant pas
suffisamment approfondi le déterminisme, Popper l'a complété par les notions
métaphysiques [371] à mon avis inadéquates de vérisimilitude [219] et de propension
(sorte de tendance probabiliste dans laquelle je n'entrerai pas ici), notions qui ne
rendent pas bien compte de la réalité.

417
3.9.4.7 Dogmatisme de ma méthode de travail
Une lecture critique de cet ouvrage-ci ne peut manquer de constater le caractère
souvent tranché, voire dogmatique de mes affirmations. Je pars le plus souvent de
postulats clairs ou de faits établis par des sources vérifiables (références à l'appui), et
raisonne tant que je peux de façon binaire, en opposant vérités et non-vérités selon
leur conformité à ces postulats et faits. Je refuse d'expliquer ce manichéisme par ma
culture scientifique, qui ne peut constituer une excuse si elle aboutit à des erreurs ; je
refuse aussi de m'abriter derrière la volonté d'être clair et facile à suivre pour justifier
des simplifications abusives.

J'ai une seule explication de ma méthode de travail, qui la justifiera, j'espère, aux yeux
de certains lecteurs : je me soumets à la critique. Et chaque fois qu'une réfutation me
parvient, j'accepte sans discuter de changer d'avis ou de chercher une autre vérité,
même s'il me faut remettre en cause ce que je croyais savoir. Mon but n'est jamais
d'avoir raison, même si cela me fait plaisir, mais de faire progresser les connaissances,
à commencer par les miennes. Un énoncé clair est bien plus facile à contredire qu'un
énoncé plein de nuances et de non-dits. En matière de déterminisme, le caractère
tranché n'est dangereux que s'il refuse la critique. En somme, ce texte est une
contribution à la pensée rationnelle, et seulement cela.

3.10 L'homme est-il libre malgré le déterminisme ?


Nous avons vu dans ce livre que la pensée rationnelle de l'homme n'est qu'un outil au
service de ses désirs du moment : chaque fois qu'il réfléchit, l'homme cherche une
solution pour satisfaire un désir ; il n'existe pas de réflexion sans but. C'est là un
principe de causalité de la réflexion humaine, une partie du déterminisme humain.

Il apparaît alors un problème de liberté : l'homme peut-il réfléchir librement, sans


contrainte ni influence extérieures ? Lorsque sa réflexion aboutit à une décision, est-il
libre de choisir ce qu'il veut ? Ce chapitre est consacré à ces questions sur le libre
arbitre de l'homme auxquelles tant de philosophes ont déjà réfléchi.

3.10.1 L'homme est toujours insatisfait


Sartre a montré dans [252] que la conscience de l'homme constate à tout moment une
insatisfaction, un manque de quelque chose que Sartre appelle « manque d'être » ou
« non-être ».
Cette opinion est confirmée par des recherches récentes : l'auteur de [71] confirme
que le mécanisme biologique de satisfaction du cerveau humain rend hors
d'atteinte une satisfaction totale, en ne permettant au mieux qu'une satisfaction
partielle laissant subsister certains désirs.

Le psychisme de l'homme réagit à cette insatisfaction en générant sans cesse des


besoins physiques et des désirs psychologiques. Certains de ces besoins et désirs
franchissent le seuil de conscience, déclenchant ainsi une réflexion, d'autres restent
inconscients tout en exerçant une influence par l'intermédiaire de processus de
l'inconscient [353].

3.10.2 Les 3 déterminants de la conscience et l'imprévisibilité de l'homme


Trois catégories de variables déterminent le contexte dans lequel notre psychisme
(conscience et subconscient) fonctionne, c'est-à-dire ses valeurs :

418
 L'héritage génétique (inné) [51] ;
 L'acquis (culture reçue, formation et éducation, expériences vécues) ;
 Les circonstances (contexte du moment), comprenant :
 Une situation réelle (exemples : danger immédiat, faim…).
 Un futur imaginé ; ce dernier représente le sens de la vie ou de l'action
(pourquoi me donner du mal, quel espoir ai-je, que peut-il m'arriver…).
Ainsi, un homme jugera une même tâche insupportable, désagréable ou très
supportable selon l'avenir qu'il imagine s'il l'accomplit :
 Insupportable s'il est obligé de l'accomplir pendant très longtemps sans
profit personnel identifiable, comme un condamné aux travaux forcés ;
 Désagréable si en l'accomplissant il gagne de quoi vivre, ce qui justifie
de supporter le désagrément ;
 Très supportable si en l'accomplissant il participe à une œuvre
admirable qui lui vaudra le respect de toute la nation.
 L'interprétation du contexte et de l'acquis par le subconscient, qui produit
des jugements de valeur non exprimés par des mots, mais influents.

A un instant donné, l'héritage et l'acquis d'une personne déterminent ce qu'elle est ;


les circonstances déterminent des contraintes, des opportunités et l'avenir qu'elle
imagine.

L'inné ne change que très peu pendant la vie d'un individu, car l'adaptation de son
génome et des mécanismes par lesquels il s'exprime à ses conditions de vie est
modeste et lente. L'acquis s'enrichit chaque fois que nous apprenons quelque chose
et s'appauvrit à chaque oubli ou déformation des informations mémorisées, nous
l'avons vu. Quant aux circonstances, elles changent tout le temps. Enfin, à elle seule
la complexité globale de cet ensemble de contraintes suffit pour expliquer
l'imprévisibilité fréquente de l'homme, nous l'avons vu aussi.

Les mécanismes génétiques et psychiques peuvent créer des comportements


humains imprévisibles - non déterministes - du fait de leur complexité, de l'influence
de l'inconscient, d'un acquis variant sans cesse et de contextes toujours différents.

3.10.3 Désirs conscients de l'homme et critères d'appréciation


Il résulte de ce qui précède que les désirs conscients proviennent toujours de l'une au
moins des trois origines précédentes : l'inné, l'acquis et le contexte.

Ces trois sources des désirs fournissent en même temps les critères d'appréciation
nécessaires pour juger de l'importance et de l'urgence de chaque désir, ainsi que des
suggestions d'actions que la conscience envisage pour le satisfaire. Ces critères font
partie des valeurs du moment de l'homme, provenant de sa culture, de ses croyances
(religieuses, philosophiques ou idéologiques) et de son vécu. Et ces valeurs forment
un ensemble ordonné, une hiérarchie : à tout instant l'homme sait, consciemment ou
non, quelle valeur domine les autres.

3.10.4 L'homme ne maîtrise ni ses valeurs, ni ses désirs


Les valeurs d'un homme proviennent toujours, en dernière analyse, d'une source dont
il n'est pas maître. Qu'il s'agisse de ses déterminants génétiques, des déterminants

419
acquis reçus de son entourage ou de déterminants imposés par le contexte du moment
(perceptions, besoins physiques ou peurs, pressions sociales, etc.) l'homme les subit,
ils lui sont imposés. Même les valeurs que l'homme s'est données après réflexion ou
méditation ont été créées par sa conscience pour satisfaire d'autres valeurs et sous
leur influence : un soldat prisonnier qui s'est persuadé de ne pas parler, même sous la
torture, a pris cette décision pour satisfaire une valeur plus forte pour lui que la douleur
physique, le devoir patriotique.

Il en va de même pour les désirs, que la conscience génère toujours accompagnés de


références à des valeurs pour que l'homme puisse en apprécier l'importance et
l'urgence : l'homme ne maîtrise pas ses désirs, ils apparaissent spontanément dans
sa conscience en réponse à un manque d'être venant d'une au moins des trois mêmes
origines : l'inné, l'acquis et le contexte. On peut résumer cela par la formule :
« l'homme ne peut pas créer ses désirs » [224] ; il peut seulement choisir entre des
désirs présents dans sa conscience celui ou ceux qu'il cherchera à satisfaire parce
qu'ils ont le plus de valeur à ses yeux.

Lorsque l'homme réfléchit à la manière de satisfaire ses désirs du moment et qu'il


choisit entre plusieurs possibilités, la liste de celles-ci ne comprend que des choix
acceptables par ses valeurs : une possibilité présente à son esprit mais inacceptable
au sens de la valeur dominante du moment est automatiquement éliminée ; Freud a
considérablement approfondi les mécanismes de refoulement [361].
Exemple : entre la possibilité de sauver sa peau et celle de se sacrifier pour sauver
ses enfants, une mère héroïque choisit de mourir car elle valorise plus la vie de
ses enfants que la sienne.

3.10.5 Définitions du libre arbitre et de la liberté


Libre arbitre et liberté sont des formes d'indépendance par rapport à d'autres hommes
ou à des circonstances.

Le libre arbitre est le pouvoir de choisir des actions conformes à ses aspirations sans
subir d'influence extérieure
A tout moment un homme doué de conscience et de raison a des aspirations du fait
même qu'il vit. Lorsqu'il a l'impression que ces aspirations sont vraiment les siennes,
qu'elles ne lui ont pas été imposées, et qu'il ne dépend que de lui d'agir pour tenter de
les réaliser - et par là de se réaliser, l'homme se dit libre et on dit qu'il jouit de son libre
arbitre : voir la définition [81]. Comme nous l'avons vu, ses libres choix se font en
fonction de ses valeurs, certaines conscientes et d'autres non. Sa liberté a aussi été
définie par André Comte-Sponville dans la citation [2], exemples à l'appui. La définition
est complétée par la remarque [224].
En fait, l'homme se dit libre de ses choix tout en sachant que la vie en société lui
impose des lois, des coutumes et la pression de l'opinion des autres ; mais comme
ces limites à sa liberté d'action lui paraissent normales, il n'en souffre pas trop et
s'estime quand même libre de ses choix. Ou au contraire, s'il est de nature rebelle,
il trouvera excessive l'obligation de conduire en respectant les règles de priorité
ou de limitation de vitesse. J'ai cité ces exemples pour illustrer le caractère
subjectif de l'impression de liberté.

420
Beaucoup de philosophes croient au libre arbitre de l'homme. La présence constante
des suggestions d'action, générées automatiquement par la conscience en réponse à
son insatisfaction, donne à l'homme une impression de libre arbitre : « il y a toujours
quelque chose à faire pour être plus heureux, quelque chose que je suis libre de
choisir, que je désire le plus. »

Liberté et différence avec le libre arbitre


Un homme est dit libre lorsqu'il peut, sans contrainte extérieure et conformément à son
libre arbitre :
 Agir, c'est-à-dire faire ce qu'il a décidé de faire ;
 Ou ne pas agir, alors que les circonstances, les lois, la morale, son propre intérêt
ou d'autres hommes voudraient qu'il agisse.

Le libre arbitre qualifie la possibilité pour un homme de décider (choisir) lui-même,


sans contrainte ou influence externe, ce qu'il a envie de faire, y compris lorsque c'est
immoral ou suicidaire. Comme Sartre l'a expliqué dans [15], l'homme peut aussi
décider ce qu'il veut devenir.

La liberté qualifie l'absence de contrainte extérieure sur l'action voulue par l'homme du
fait de son libre arbitre (exemples : liberté par rapport à toute contrainte liée à
l'hérédité, l'appartenance à un groupe, une catégorie ou une corporation, les
coutumes, la religion, la langue maternelle ; liberté d'opinion politique ; liberté
d'expression ; liberté de posséder des biens ; liberté économique ; liberté de
mouvement, etc.).
Lorsqu'un homme a fait un choix en exerçant son libre arbitre, sa liberté d'agir
conformément à ce choix doit être d'autant plus grande que les contraintes sur cette
action sont fortes et nombreuses.
Si je choisis, fin juillet, de prendre une semaine de vacances plutôt que de
continuer à travailler, j'ai besoin pour partir de la liberté de disposer de mon
temps ; mais si je m'occupe de ma mère âgée, qui ne peut se passer de moi pour
vivre, je dois en plus trouver une solution de remplacement, obligation qui diminue
sensiblement ma liberté.

Le déterminisme affirme une absence de liberté de la nature : chaque situation


détermine l'évolution qui va la transformer, évolution soumise aux lois de la physique.

3.10.6 Exclusions de la discussion qui suit sur le libre arbitre


Avant l'analyse du libre arbitre de l'homme compte tenu des contraintes du
déterminisme, nous allons d'abord faire des hypothèses d'exclusion.

Impossibilité d'expliquer
La liberté et le libre arbitre ne s'expliquent pas ; ils ne résultent d'aucune cause
particulière, ils ne sont déterminés par rien. L'homme en est certain parce qu'il sait que
rien ne l'empêche de penser.

421
Exclusion du surnaturel
J'exclus tout pouvoir surnaturel de l'homme, et plus généralement toute possibilité pour
un objet de notre Univers de désobéir aux lois de la nature, lois régies par le
déterminisme étendu conformément à la doctrine matérialiste.

J'exclus en fait toute possibilité surnaturelle. J'exclus donc l'intervention de Dieu ou de


quelque chose d'extérieur à l'Univers dans celui-ci, donc aussi dans une décision
humaine : conformément au matérialisme, je considère que l'homme est parfaitement
libre par rapport à toute intervention transcendante, dans ses pensées, ses désirs, ses
décisions et ses actes. Comme un homme ne maîtrise pas son inconscient, dont le
fonctionnement peut lui apparaître comme transcendant, voire soumis à une
puissance surnaturelle, il n'est pas libre par rapport à son influence.

Exclusion du libre arbitre total


A l'évidence, le libre arbitre de l'homme est soumis aux contraintes du contexte dans
lequel il vit.
 L'homme ne peut s'empêcher d'éprouver des besoins physiques (manger et
boire, par exemple). Il ne peut s'empêcher de désirer quelque chose, c'est-à-dire
de fantasmer à son sujet. Et sous l'empire d'une passion, il ne se maîtrise pas.
Besoins, désirs et passions sont associés à des valeurs qui limitent les
circonstances dans lesquelles s'exerce le libre arbitre de l'homme.
 L'homme subit de nombreuses contraintes contre lesquelles il ne peut rien : ses
propres limites, les lois de la nature et de la société, l'action d'autres hommes,
etc.

J'exclus donc le libre arbitre total, défini comme le pouvoir pour un homme d'être si
indépendant de tout dans ses choix que son libre arbitre n'est influencé par rien,
échappant ainsi même aux contraintes de son propre corps et de son esprit ; je
considère que c'est là une illusion, une impossibilité parce qu'elle implique :
 L'indépendance par rapport aux lois de la nature, une négation du fait que la
pensée est toujours soumise aux trois déterminants de la conscience ;
 Une contradiction du principe d'identité : à un instant donné, l'homme ne peut
vouloir que ce qu'il veut [16].

En dehors de ce cas très particulier, je crois bien entendu au libre arbitre : chaque
homme peut décider lui-même ce qu'il veut faire, en fonction de ses valeurs du
moment, quitte à s'apercevoir parfois qu'il n'a pas le pouvoir de le faire.

Exclusion de la liberté d'indifférence


J'exclus la liberté d'indifférence, pouvoir d'être indifférent aux conséquences de l'acte
ou de l'inaction, par exemple en agissant au hasard (selon un résultat "pile ou face"),
ou de manière immorale ou suicidaire. Nous avons vu que le psychisme (conscience
et inconscience) d'un homme évalue tout événement qu'il perçoit, tout résultat d'une
action qu'il accomplit et toute pensée qu'il élabore, selon une valeur ; ce jugement est
conscient ou non, mais si automatique que l'homme ne peut l'empêcher. Et comme à
tout instant l'ensemble des valeurs d'un homme est ordonné, il ne peut vouloir agir
contrairement à une des valeurs que pour satisfaire une valeur supérieure.

422
Je pense donc qu'en toute rigueur, pour un homme en état psychique d'agir
conformément à ses valeurs, l'indifférence est impossible. Nous négligerons donc
désormais la liberté d'indifférence dans le reste du texte, car le respect de ses valeurs
est inévitable dans toute décision d'un homme donné ; il fait partie du déterminisme
humain lui-même.

Cas particuliers
Il existe des choix insignifiants qu'un homme peut faire sans se sentir concerné, sans
qu'une valeur consciente entre en jeu. Je peux, par exemple, saisir un verre de la main
droite ou de la main gauche ; ce choix ne me touche pas particulièrement, j'y suis
indifférent. Heureusement, la nature a doté l'homme d'une aptitude à décider même
quand la décision est sans conséquence pour lui : je prends le verre de la main gauche
et je bois ; ne cherchez pas pourquoi, je ne peux l'expliquer.

Il est clair qu'un individu en état de démence ou souffrant d'une incapacité d'apprécier
les conséquences de ses actes peut être indifférent au contenu de l'acte accompli, ou
même approuver un acte que d'autres considéreraient comme immoral ou suicidaire.
Un assassin dément ne doit pas être puni, il doit être soigné et empêché de
recommencer tant qu'il est dangereux.

Même un individu sain d'esprit, donc capable d'apprécier la folie ou l'immoralité d'un
acte, peut néanmoins commettre cet acte à un moment où une pulsion irrépressible
est maîtresse de son esprit. Le jugement d'un homme dépend d'une échelle de valeurs
et celle-ci est instable car fragile.

Liberté de penser
Les actions irréfléchies de l'homme étant fréquentes mais exclues de notre discussion,
on ne peut parler de liberté de choix que pour une action ou inaction qui résulte d'une
réflexion. La décision d'agir ou de refuser d'agir suppose donc la liberté de penser.

L'homme est libre de penser tant qu'il n'est pas soumis à une douleur si intense que
sa pensée se limite à une immense souffrance ; en excluant ce cas, il est toujours libre
de penser.
Les régimes dictatoriaux croient souvent mater leurs opposants ou ennemis par
des actes matériels : emprisonnement, torture, confiscation des biens, menaces,
etc. Ils peuvent les empêcher de s'exprimer et d'agir, mais pas de penser.

Nous avons vu ci-dessus que les processus de la conscience (qui interviennent dans
la pensée) se déroulent dans un contexte contraint par trois catégories de variables
correspondant respectivement à l'inné, l'acquis et les circonstances. Aucune pensée
n'échappant à ce contexte, il n'y a pas de pensée totalement libre par rapport à lui.

Un homme ne dirige sa pensée que dans un sens qui satisfait ses valeurs, c'est-à-dire
ce qu'il a envie de trouver, ce qu'il désire. Si, pendant sa réflexion ou en dehors d'elle,
une pensée ou une représentation devient consciente sans résulter d'un processus
volontaire - comme lors d'une perception, d'une idée ou une d'intuition - elle est aussitôt
soumise à une évaluation par rapport aux valeurs du moment, évaluation qui concerne
aussi ses conséquences, telles que la conscience les prévoit. L'homme ne choisit

423
jamais ses valeurs (il n'en est pas maître), et toute conclusion de sa pensée est
évaluée automatiquement par rapport à elles, ou repensée et approfondie. La raison
n'est pas une valeur pour un homme, ce n'est qu'un outil au service de ses aspirations,
nous l'avons déjà remarqué.

Lorsque des philosophes comme Descartes affirment que la raison est toute-puissante
pour guider l'homme vers les « bons choix », ils présupposent que l'homme a des
valeurs qui définissent ces choix ; mais ces valeurs individuelles ne sont pas toujours
conformes à la morale, dont les règles varient d'une culture à une autre, d'un homme
à un autre, et même (hélas !) selon les circonstances. Et rares sont les hommes dont
les valeurs de devoir sont situées si haut dans la hiérarchie qu'elles s'imposent souvent
par rapport à des désirs plus égoïstes ; je conteste donc l'opinion de ces philosophes
sur la primauté de la raison.

L'homme n'est libre de penser et de décider que dans le cadre du respect de ses
valeurs du moment ; dans ce cadre-là il peut s'estimer libre. J'ai constaté même qu'un
homme s'estime d'autant plus libre qu'il voit davantage de choix possibles.
Les recherches [228] illustrent le caractère limité de la liberté de l'homme, dont le
comportement, influencé par ses valeurs et désirs, dépend fortement aussi de son
héritage génétique : il y a ainsi des gens prédisposés à s'impliquer politiquement
et à voter, d'autres non [51].

3.10.7 Le libre arbitre selon Sartre


Pour Sartre [252] l'homme jouit d'un libre arbitre parce qu'il a une conscience ; et sa
conscience échappe au déterminisme, car elle lui permet de penser juste ou faux, et
même d'être de mauvaise foi lorsque la bonne foi le conduirait à des conclusions qui
le dérangent.

En somme, pour Sartre, le caractère transcendant (c'est-à-dire échappant aux lois


déterministes de la nature) du libre arbitre de l'homme n'a pas à être prouvé, c'est une
simple conséquence de la manière de fonctionner de sa conscience. Celle-ci est libre
par nature, ses désirs provenant du « manque d'être » de l'homme, c'est-à-dire de son
psychisme [347] qui constate à tout instant que quelque chose lui manque ou lui
déplaît. En somme l'homme jouit de son libre arbitre, mais pas au point de pouvoir
s'empêcher de désirer quelque chose : même sage, il souffrira toujours de manque
d'être.

Le libre arbitre de l'homme le rend responsable de ses actes, bien sûr, mais aussi de
ce qu'il cherche à devenir : pour Sartre, l'homme se fait lui-même, librement [15].

3.10.8 Conclusion sur le libre arbitre


En constatant avec raison que l'homme ne peut jamais s'empêcher de désirer quelque
chose, Sartre contribue à la compréhension de la nature humaine. Il suit aussi Freud,
qui attribue à l'inconscient de l'homme tous ses désirs profonds. Aucun homme ne
peut chercher à diriger sa pensée consciente dans une direction contraire à ses désirs
inconscients, qui correspondent à l'idée qu'il se fait de ce qui est bien, pour lui-même
et pour tous ses semblables.

Je pense aussi que Sartre fait la même erreur que les autres philosophes qui ne
séparent pas déterminisme et prédictibilité. Pour moi, le libre arbitre bien réel de

424
l'homme, agissant d'après les désirs dus à son manque d'être, s'exerce entre des choix
délimités par l'inné, l'acquis et le contexte ; le libre arbitre n'échappe pas aux lois
physiques même si l'inconscient les cache, il n'a rien de transcendant.

Comme nous l'avons vu, l'homme est souvent imprévisible et sa première raison de
se croire libre, y compris dans ses choix, est son ignorance des contraintes qui pèsent
sur son inconscient et sur ses décisions conscientes ; Spinoza l'avait bien vu, et pour
Nietzsche l'homme est esclave de sa "volonté de puissance" [343]. En outre, les règles
de la psychologie de l'homme, qui se sont construites et adaptées au fil des
générations, privilégient des évaluations basées sur des émotions par rapport à celles
qui utilisent la raison. En cas de conflit, elles privilégient donc un comportement
imprévisible et irrationnel par rapport à un comportement prévisible et rationnel.

C'est cette imprévisibilité de l'homme que Sartre (comme beaucoup de philosophes)


prend pour de la liberté absolue de choisir.

L'homme a beau être libre de ses choix, comme nous l'assurent tous les philosophes
qui croient à son libre arbitre, les choix entre lesquels il choisit librement lui ont été
dictés par des désirs et des valeurs qui lui ont été imposés. Pour moi, donc, le libre
arbitre de l'homme est illusoire.
En somme, l'homme est comme un prisonnier dans sa cellule : son libre arbitre lui
permet de décider quand l'arpenter de long en large et selon quel parcours, mais
à condition de rester dans la cellule, où il est enfermé par des contraintes externes
contre lesquelles il est impuissant, c'est-à-dire où il n'est pas libre.

Remarque : relation entre choix étendu et choix libre


Beaucoup de gens croient qu'ils sont libres de leur choix lorsque celui-ci porte sur un
grand nombre de possibilités. Ils pensent alors par erreur que l'étendue du choix le
rend plus libre des contraintes extérieures.

3.10.9 Libre arbitre, déterminisme et responsabilité


Les décisions conscientes d'action d'un homme sont basées sur des jugements de
valeur, eux-mêmes souvent influencés par des considérations morales. Nous allons
en voir quelques aspects, notamment concernant la responsabilité. La tradition
philosophique distingue deux doctrines concernant la relation entre libre arbitre et
responsabilité : le matérialisme et l'idéalisme.

3.10.9.1 Point de vue idéaliste


Pour un idéaliste, Dieu (ou l'Esprit qui règne sur l'Univers) a tout créé, régente tout à
tout instant et tout Lui obéit. Produit et esclave permanent d'une Idée extérieure à lui
(son essence, ou l'idée que Dieu s'en faisait quand Il l'a créé, ou l'idée qu'Il a chaque
fois qu'Il intervient dans une action humaine), l'homme n'est donc en toute logique
jamais libre, et il n'a pas de libre arbitre : il n'est donc jamais responsable.
Alors que (comme nous le verrons ci-dessous) le matérialisme traditionnel rend
l'homme esclave du déterminisme physique indifférent aux valeurs humaines,
pour un idéaliste cohérent il est esclave d'une Idée, d'une essence ou de Dieu,
toutes causes externes à lui-même : quelle que soit la doctrine choisie,
matérialisme ou idéalisme, l'homme est irresponsable. Dans les deux cas, cette

425
irresponsabilité est incompatible avec une vie en société, comme nous le verrons
bientôt.

3.10.9.2 Point de vue matérialiste


Pour un matérialiste cohérent, le déterminisme exclut le libre arbitre de l'homme : tout
acte humain, qu'il résulte ou non de sa pensée, résulte en dernière analyse de causes
matérielles, que la science peut ou ne peut pas expliquer, ou pas encore. Ces causes
matérielles sont externes et/ou internes à l'homme, mais leur action est déterministe
même lorsqu'une action résulte d'une pensée, car celle-ci résulte elle-même de
conditions matérielles-logicielles : état du corps, monde environnant, fonctionnement
du cerveau et de sa mémoire, interprétation du code génétique, etc., c'est-à-dire inné,
acquis et contexte. L'action de toutes les causes matérielles obéit nécessairement aux
lois de la nature, c'est ce qui la rend déterministe par définition. (Pour plus de détails
voir le court texte de Luc Ferry [37]). Rappelons si nécessaire que le déterminisme
n'entraîne pas la prédictibilité et que la pensée n'est pas déterministe.

Par conséquent, si l'homme avait un libre arbitre, celui-ci serait au moins en partie
transcendant, c'est-à-dire échappant aux contraintes du déterminisme ; et comme
pour un matérialiste il n'existe aucune influence extérieure au monde matériel, le libre
arbitre transcendant est impossible ; c'est donc une croyance humaine irrationnelle.

Donc, pour un matérialiste cohérent, même lorsque l'homme se croit libre de ses choix
il ne l'est pas vraiment : les possibilités entre lesquelles il choisit sont prédéterminées
par ses valeurs et par le contexte. Et un homme qui n'est pas libre, c'est-à-dire dont
les choix sont dictés par sa hiérarchie de valeurs du moment, n'est pas responsable
de ce qu'il fait, qu'il ne peut s'empêcher de faire ; la société ne devrait donc jamais le
punir lorsqu'elle n'approuve pas ses actes !

3.10.9.3 La société passe avant l'individu


En toute logique, l'irresponsabilité d'un homme sain d'esprit n'est possible qu'en
l'absence de liberté de choix [14].

Pour un croyant cohérent, comme dans son infinie bonté la Providence protège
chaque homme du mal, à chaque instant, nous devrions vivre dans un monde
paradisiaque comme le jardin d'Eden : l'homme ne serait pas libre de penser le mal et
ne le ferait pas ! Comme on constate, hélas, beaucoup de mauvaises actions et de
souffrances dans le monde, il faut en déduire que la Providence est souvent prise en
défaut, que Dieu infiniment bon a donné à l'homme la volonté et le pouvoir de faire le
mal au moins de temps en temps. Cette contradiction dérangeant beaucoup les
croyants, ceux-ci ont trouvé une règle de comportement de Dieu vis-à-vis de l'homme :
selon une controverse entre Saint Augustin [82] et Pélage [83], Dieu laisse à l'homme
son libre arbitre, l'homme est libre de choisir le mal comme le bien, mais il est
responsable de ses actes. Le libre arbitre de l'homme est donc défendu par les
croyants à la fois dans le but d'innocenter Dieu aux yeux des hommes et de
responsabiliser l'homme.

Pour un croyant comme pour un matérialiste - mais pour des raisons différentes et
toutes deux utilitaires - l'homme doit être déclaré libre et responsable de ses choix.

426
La société ne peut donc, en toute logique, exiger qu'un individu qui n'est pas libre de
ses choix respecte les lois civiles et morales ; elle ne peut le punir puisqu'il n'est pas
responsable [14]. Cette conséquence logique est inacceptable dans la vie en société,
où la protection de la société a priorité sur celle de l'individu. Lorsque leurs intérêts
s'opposent, la société doit tenir l'homme pour responsable de ses actes, l'intérêt
général passant avant l'intérêt particulier. La société doit donc inculquer à chaque
homme les règles de comportement à l'égard des autres, et les faire respecter au
moyen des lois, de la force publique et de la pression sociale.

Ce point de vue sur la responsabilité individuelle doit être complété par les
conséquences de l'imprévisibilité de l'homme. Compte tenu de cette imprévisibilité
dont il doit se méfier, la société exige que l'homme sain d'esprit maîtrise ses actes et
se comporte de manière responsable : c'est affaire de volonté, comme Descartes, Kant
et d'autres l'ont affirmé. La société - et d'abord sa famille - a pour devoir d'apprendre
à chaque homme les valeurs et les règles dont le respect est nécessaire à la vie en
commun, de les préciser dans des textes de loi, etc. Et l'homme a pour devoir de
respecter les lois civiles et morales, c'est sa responsabilité.

3.10.9.4 Pas de tyrannie de la majorité


Chaque homme vivant en société, sa liberté est nécessairement limitée par celle des
autres et par les règles de fonctionnement de la société. Ces règles s'imposent dans
le domaine juridique : les lois et règlements ; dans le domaine politique : les
institutions ; dans le domaine social : la solidarité des transferts sociaux et des
organismes d'entraide ; dans le domaine économique : production, consommation,
achat et vente ; et dans le domaine moral sous forme de pression de l'opinion et de
culture partagée.

D'une part, la liberté est une valeur considérée comme positive, désirable. D'autre part,
un excès de liberté peut produire l'anarchie, le mépris des lois, l'exploitation des
prolétaires pauvres et faibles par les capitalistes riches et puissants (comme dirait
Marx) ; l'usage abusif d'un suffrage démocratique à 51 % contre 49 % produit la
tyrannie d'une majorité qui impose des lois injustes à une minorité.
C'est ce que font en France les gouvernements trop à gauche qui écrasent une
minorité de « riches » d'impôts excessifs, confiscatoires et punitifs, qui finissent
par les faire fuir en Belgique, en Suisse ou au Royaume-Uni, et leurs capitaux et
impôts avec eux. Il est donc aussi nécessaire d'éviter la tyrannie d'une majorité
que celle d'une minorité.

3.10.9.5 Morale naturelle, morale acquise et responsabilité de l'homme


Puisque l'homme a une morale naturelle basée sur l'altruisme (Kant dirait sur le
devoir), il sait bien dès qu'il est adulte si un acte de la vie courante est moral ou non.
(S'il ne le sait pas, de deux choses l'une : ou sa personnalité n'a pas fini de se
construire, ou elle a été dévoyée, par exemple par un endoctrinement ; exemple : celui
des jeunes devenus islamistes, puis assassins.

Les valeurs morales sur lesquelles se base le jugement d'une action (projetée ou
effectuée) font partie de l'ensemble des valeurs d'un individu, ensemble ordonné. Dans
des circonstances données, donc, l'individu ne respectera ses valeurs morales
naturelles que si des valeurs plus fortes ne lui enjoignent pas de les ignorer : à tout
moment, un homme ne peut vouloir que ce que ses valeurs les plus fortes lui font

427
vouloir, et si ces valeurs lui commandent d'ignorer la morale, il l'ignorera, ignorant
aussi, à l'occasion, les exigences de la raison.

Le déterminisme de l'ordre des valeurs d'un individu peut lui faire faire des choix
contraires à la morale. Un homme n'est donc responsable de ses choix que dans la
mesure où il est responsable de ses valeurs. Or celles-ci proviennent d'abord de la
culture qui lui a été transmise par la société, première responsable. La personnalité
d'un homme se construit pendant son enfance et se complète tout au long de sa vie.
Selon ce que son entourage lui aura appris, selon les exemples d'actes et de
jugements de ces actes qu'il aura vu autour de lui ou dans les medias, l'homme
construira ses valeurs.

Les valeurs d'un homme proviennent ensuite de lui-même, dans la mesure où il aura
lu, appris et réfléchi. Je connais certaines personnes - hélas assez rares – qui ont eu
la capacité intellectuelle et l'envie de se doter de valeurs morales par un effort
personnel, et y ont consacré du temps ; ce sont, par exemple, des moines bouddhistes,
des prêtres, des missionnaires ou des philosophes.

3.11 Conclusions et recommandations pratiques


A travers le fil conducteur du déterminisme, ce livre est consacré à la pensée
rationnelle. Il en présente des règles, des mécanismes et des contraintes. Il plaide
pour l'objectivité et la pensée scientifique, et contre l'ingérence de la subjectivité, des
idées préconçues et des superstitions dans l'interprétation des faits et les prises de
décision. S'il peut apporter au lecteur quelques connaissances et suggestions utiles, il
atteint son objectif.

La conclusion et les recommandations qui suivent sont si simples qu'elles


m'embarrassent. J'ai peur que le lecteur s'exclame « Tout ça pour seulement ça ! » et
m'accuse d'enfoncer des portes ouvertes. Mais si je ne les formulais pas, il pourrait se
demander « Tout ça pour quoi ? »

Ce texte est surtout descriptif : après avoir énoncé et critiqué le déterminisme


traditionnel, il explique pourquoi et comment étendre sa définition dans le domaine de
la physique par une approche constructive, dans celui de la psychologie, dans celui
des sciences de la vie et dans celui des "sciences" sociétales. Mais la connaissance
du déterminisme ayant pour but de comprendre et de prévoir, il me faut déduire de ce
qui précède des conseils de raisonnement rationnel.

Je m'appuie sur cette (longue) description et ses nombreux exemples surprenants de


comportement de la nature, de l'homme et de sa société, pour conclure par induction
que dans tous les cas pour avoir l'impression de comprendre et la possibilité de
prévoir, il faut une connaissance suffisante : c'est là ma conclusion essentielle. Et
comme elle a été formulée avec enthousiasme par un savant que j'estime, Brian
Greene, j'ai joint en annexe [266] la traduction d'un petit argumentaire de sa plume.

Cette conclusion implique des recommandations pratiques :


 Apprendre, encore et toute la vie, en profitant des possibilités désormais
immenses et peu coûteuses d'accéder aux informations et d'échanger des idées.

428
 Raisonner en scientifique, comme le recommandent Descartes [4] et le
rationalisme critique, ce qui exige de se remettre souvent en question, attitude
demandant de faire passer sa fierté après le respect des faits.
En pratique, il suffira souvent de raisonner en ajoutant aux règles de causalité et
de stabilité du déterminisme traditionnel :
 Les règles de raisonnement axiomatique, avec leur obligation d'énoncer
clairement les incontournables axiomes et règles de déduction de départ, et
de renoncer aux idées préconçues et aux erreurs métaphysiques [371]
comme le principe anthropique.
 Des représentations mentales structurées par niveaux hiérarchiques.
 Les représentations mentales et règles de prévision de la physique
quantique, avec ses descriptions par équations, ses solutions multiples
entraînant des conséquences multiples d'une même cause, ses choix d'une
solution appartenant à un ensemble prédéfini, l'irréversibilité de ses
mesures, sa non-séparabilité, etc.
 Admettre les déterminants de la pensée humaine, avec ses contraintes issues
de l'inné, de l'acquis et des circonstances, et l'imprévisibilité qui en résulte.
 « Connais-toi toi-même ». Ce conseil, déjà donné par le philosophe grec Socrate
[321], est de plus en plus d'actualité dans un monde qui offre chaque jour plus
de possibilités que la veille. Pour décider ce que je veux faire, je dois savoir ce
qui me ferait plaisir et ce qui ne me ferait pas plaisir. Je dois connaître mes
limites comme mes droits, et je dois les connaître le plus objectivement possible,
sans me mentir à moi-même et sans complaisance. Ce n'est pas facile, cela
demande un effort constant et des conseils d'amis, mais c'est indispensable.
Il faut aussi ne pas céder au désespoir face à l'absence de libre arbitre de l'homme
due au déterminisme qui régit ses désirs. Je recommande vivement le livre sur le
bonheur [255], qui se lit vite et facilement, et peut apporter beaucoup.
 Admettre son ignorance sans jamais s'estimer dévalorisé, car l'honnêteté
intellectuelle valorise, et ne pas croire quelque chose pour la seule raison qu'elle
satisfait l'intellect, la justice, l'intérêt personnel, la fierté ou les aspirations.
 Et ne rien tenir pour faux ou impossible qui ne le soit démontré.

Au niveau de chaque pays il y a de fortes corrélations, lorsqu'il ne vit pas de la rente


pétrolière, entre progrès technologique, niveau scolaire, croissance du niveau de vie
et institutions démocratiques [282]. La domination économique et le faible niveau de
chômage des Etats-Unis pendant le XXe siècle jusque vers 1970 sont dus en grande
partie à des proportions de personnes ayant une instruction de niveau secondaire et
de niveau universitaire plus élevées que dans les autres pays avancés.
Le décrochage de la proportion d'Américains ayant une instruction de niveau
secondaire par rapport au progrès technologique depuis les années 1975-1980
explique le ralentissement de la croissance de la productivité américaine et du niveau
de vie de la grande majorité de la population, ainsi que la croissance considérable des
inégalités. Comme chaque individu, un pays a donc intérêt à faire en sorte que le plus
possible de jeunes atteignent un niveau universitaire dans des spécialisations qui ont
une valeur économique.

429
3.12 Références et compléments

[1] CNRS - "Du monde quantique au monde macroscopique : la décohérence prise


sur le fait" (15/12/1996) - http://www.cnrs.fr/Cnrspresse/n34a2.html

[2] "La sagesse des Modernes - Dix questions pour notre temps" par André Comte-
Sponville et Luc Ferry (publié chez Robert Laffont en mars 1998). Je recommande la
lecture de cet ouvrage. Extraits des pages 41 à 43 (mes remarques ou ajouts sont
entre crochets) :
Faut-il en conclure qu'il [l'homme] n'a aucune liberté, donc aucune
responsabilité ? je n'en crois rien. Qu'une machine puisse disposer d'une marge
de choix, d'indétermination, d'imprévisibilité, qu'elle puisse partiellement
s'autoprogrammer, s'autoréguler, s'autotransformer, qu'elle soit capable
d'invention, de progrès, d'initiative - qu'elle puisse être libre, en ce sens -, rien
n'interdit de le penser. […] Pourquoi ne serait-ce pas le cas aussi, ou plutôt bien
davantage, de cette machine vivante (la plus complexe de toutes : au moins
trente milliards de neurones, peut-être un million de milliards de synapses...)
qu'est notre cerveau ? Comment ? C'est aux neurobiologistes de répondre, et ils
le font de mieux en mieux. Mais que ce soit possible, il me paraît de plus en plus
difficile de le refuser.
[Contrairement à l'opinion d'André Comte-Sponville un ordinateur ou une
machine n'ont pas de marge de choix ou d'imprévisibilité ; ils n'ont pas, non
plus, de possibilité d'invention ou d'initiative ; soumis à un programme, ils ne
sont jamais libres au sens d'agir sans contrainte. Leur attribuer de telles
possibilités prouve une méconnaissance de leur fonctionnement, la croyance
dans l'existence possible de robots à la Isaac Asimov… ou la présence d'une
panne intermittente. Ce genre d'erreur se rencontre souvent lorsqu'un esprit
de culture trop exclusivement littéraire trouve dans son intuition des vérités
scientifiques hélas imaginaires.]
II reste que toute autoprogrammation suppose un programme préalable, que tout
choix demeure soumis aux conditions, même partiellement aléatoires, qui le
permettent, bref, qu'une liberté matérielle (physique) ne saurait être absolue
(métaphysique [371]), ni donc constituer un libre arbitre [81] ou une volonté
absolument indéterminée.
Si c'est le cerveau en moi qui veut, comme je le crois, je peux faire ce que je
veux (liberté d'action) et vouloir ce que je veux (spontanéité de la volonté) : je
peux être libre, donc, au sens d'Epicure, d'Epictète, de Hobbes, et même sans
doute, quoique dans une problématique différente, au sens de Leibniz ou de
Bergson. Si mon cerveau est capable de vérité, comme je le crois également, je
peux même devenir libre au sens de Spinoza (liberté de la raison, qui échappe,
parce qu'elle est universelle, à la prison du moi).
[Précision : ma raison ne peut influencer ce que je veux, qui résulte de mes
valeurs, de mon hérédité et du contexte [16]. A la rigueur, après beaucoup de
lecture, de réflexion et certaines pratiques d'autosuggestion, j'ai une petite
chance de modifier certaines valeurs, mais seulement en conformité avec
d'autres valeurs (plus influentes) préexistantes ; mes valeurs se construisent
surtout par le simple fait de vivre en société.]

430
Mais comment pourrais-je être libre au sens de Descartes, de Kant ou de
Sartre ? Comment pourrais-je, au présent, vouloir autre chose que ce que je
veux ou penser autre chose que ce que je pense ? Il faudrait que je sois autre, et
cela contredit l'hypothèse...
[André Comte-Sponville veut dire qu'au sens de Descartes, Kant et Sartre, la
liberté suppose la négation du principe d'identité [16]. Et il nie la possibilité
d'être à un instant donné autre que ce que l'on est, ce qui est évident. Je
pense aussi à la possibilité d'adaptation progressive de l'homme à son
contexte de vie par évolution de ses connexions entre neurones, et même de
l'expression de son génome. L'homme ne peut échapper à son système de
valeurs et contraintes innées ou acquises - pour la plupart cachées dans son
inconscient ; je crois donc l'homme incapable de vouloir autre chose que ce
que ces valeurs et contraintes lui dictent.]
Faut-il en conclure que nous sommes prisonniers du passé, comme Kant nous
l'objecterait (qui ne peut sauver la liberté qu'en mettant le moi nouménal hors du
temps) et comme Spinoza semble nous y contraindre ? Sommes-nous dès lors
voués au fatalisme ou, cela revient au même, au prédéterminisme ? Pas
forcément, puisque les séries causales peuvent être indépendantes les unes des
autres (il y a du hasard) et surtout discontinues (il y a du nouveau : cf. le
clinamen chez Lucrèce ou l'indéterminisme dans la physique contemporaine).
[Ces arguments philosophiques d'André Comte-Sponville sont erronés :
l'indépendance de séries causales est une illusion due au refus de prendre en
compte le contexte tout entier. Et non, il n'y a pas de hasard en dehors des
évolutions par décohérence en physique quantique où le déterminisme est
statistique. Pour moi, rien n'échappe au déterminisme étendu qui gouverne
les lois de la nature, pas même le libre arbitre de l'homme. Il est seulement
impossible, parfois, de prédire un résultat par le calcul.]
[…] Qui peut croire un instant que notre rencontre d'aujourd'hui était inscrite
dans l'état de l'Univers - et donc inévitable - il y a dix milliards d'années ? Qui
peut croire, même, qu'elle était inévitable (donc ne dépendait pas de nous !) hier
ou ce matin ? Nous aurions pu mourir, ou changer d'avis, ou changer (c'est
d'ailleurs ce que nous avons fait !) de sujet... Bref, il y a du hasard, il y a du
volontaire, il y a de l'imprévisible, il y a de l'absolument nouveau : la nature est
libre, comme disait Lucrèce bien avant Prigogine, et nous dans elle.
[André Comte-Sponville attribue au hasard ce qui est imprédictible, position
erronée. Le hasard n'existe pas dans les évolutions naturelles, et dans
l'inconscient ce n'est pas parce que les processus nous sont inaccessibles
que notre esprit pense n'importe quoi - Freud et Jung ont étudié cela. Mais en
affirmant implicitement, André Comte-Sponville qui se dit matérialiste, la
possibilité libre, donc transcendante, de changer d'avis ou de volonté, il se
trompe en admettant implicitement que le déterminisme (l'opposé de la
transcendance) entraîne la prédictibilité. Que la nature soit libre (ses lois ne
dépendant que d'elle) me paraît évident en tant que matérialiste qui refuse
d'attribuer les lois physiques à Dieu ; mais que l'homme soit libre des choix
dictés par ses valeurs et son génome, non ! Le philosophe a cette impression
d'abord parce qu'il oublie que les choix qu'il croit libres sont en fait esclaves
de ses valeurs et de son génome, souvent sous l'influence de son inconscient.
Il a ensuite cette impression de liberté parce que, souvent, beaucoup de choix

431
s'offrent à l'homme, mais tous ces choix sont déterminés par des
circonstances et des lois de la nature, conformément au déterminisme étendu.
L'homme est seulement libre de penser et d'agir, mais toujours sous la
contrainte de ses valeurs, de son inconscient et de son génome.]

[3] Eudémonisme : doctrine philosophique qui fait du bonheur le bien suprême, donc
le but de toute action, et selon laquelle le bonheur véritable est :
 intellectuel, non le résultat d'un plaisir des sens ;
 durable et non passager ;
 rationnel et non émotionnel.

Exemple : l'épicurisme est un eudémonisme. L'épicurien définit le bonheur comme une


vie paisible où il y a plus de plaisir que de peines et de douleurs.

[4] René Descartes - "Discours de la méthode pour bien conduire sa raison et


chercher la vérité dans les sciences" (publié en 1637) -
http://philoserveur.info/resources/descartesdiscoursdelamethode.pdf
Extrait dit des « quatre préceptes » :
"Le premier était de ne recevoir jamais aucune chose pour vraie que je ne la
connusse évidemment être telle ; c’est-à-dire, d’éviter soigneusement la
précipitation et la prévention, et de ne comprendre rien de plus en mes
jugements que ce qui se présenterait si clairement et si distinctement à mon
esprit que je n’eusse aucune occasion de le mettre en doute.
Commentaire sur ce premier précepte : cette approche est erronée sur un
point, la certitude par évidence : Descartes la pense fiable si elle est
prégnante, remplaçant ainsi une preuve factuelle ou démontrée absente par
une absence de doute, et excluant la possibilité qu'un homme sérieux puisse
se tromper de bonne foi. Cette doctrine de la validité des certitudes
personnelles est appelée innéisme ; Locke en 1690, puis Kant en 1781, ont
montré à quel point elle est illusoire. Et Sartre a montré en 1943 à quel point
l'homme peut être de mauvaise foi quand sa compréhension lui fournit une
représentation qu'il n'aime pas, par exemple parce qu'elle l'incite à faire
quelque chose qu'il déteste ou parce qu'elle crée une dissonance cognitive.
Les erreurs d'intuition, de mémoire ou de raisonnement sont hélas fréquentes.
Le second, de diviser chacune des difficultés que j’examinerais en autant de
parcelles qu’il se pourrait, et qu’il serait requis pour les mieux résoudre.
Le troisième, de conduire par ordre mes pensées, en commençant par les objets
les plus simples et les plus aisés à connaître, pour monter peu à peu comme par
degrés jusques à la connaissance des plus composés, et supposant même de
l’ordre entre ceux qui ne se précèdent point naturellement les uns les autres.
Et le dernier, de faire partout des dénombrements si entiers et des revues si
générales, que je fusse assuré de ne rien omettre."

432
[5] André Comte-Sponville "L'esprit de l'athéisme - Introduction à une spiritualité
sans Dieu", résumé et commenté dans
http://www.danielmartin.eu/Textes/EspritAtheisme.htm .

[5-a] Emile Durkheim "Les formes élémentaires de la vie religieuse" (1912)


Livre 1, chap. 1, page 51 - http://dx.doi.org/doi:10.1522/cla.due.for2

[6] Propositions indécidables – Théorèmes d'incomplétude de Gödel


On appelle proposition logique, ou en raccourci proposition, une affirmation qui ne peut
être que toujours vraie ou toujours fausse ; on dit que sa valeur logique est vrai ou
faux. Cette définition repose sur le principe du tiers exclu [99].

Critique de cette notion de proposition


Considérons la proposition "Cette proposition est fausse".
 Si la proposition est fausse, alors elle est vraie, ce qui est contradictoire.
 Si la proposition est vraie, alors elle est fausse, il y a aussi contradiction.

Il y a contradiction dans tous les cas, la proposition n'est ni vraie ni fausse : elle est
contradictoire. Ce problème est évoqué et résolu dans [220].

Une proposition vraie n'est pas toujours démontrable


Une proposition démontrable est vraie par définition, mais la réciproque ne l'est pas
toujours. Le mathématicien Gödel a établi en 1931 les deux théorèmes ci-dessous,
dits d'incomplétude :

1 - Impossibilité, pour une axiomatique, de prouver sa propre cohérence


Voir d'abord les définitions concernant une axiomatique dans [67] ou le texte
pédagogique sur "Axiomatique et théorèmes de Gödel" [44].

Lorsqu'une axiomatique est assez complète pour inclure l'arithmétique des nombres
entiers non négatifs avec les opérations d'addition et de multiplication, il n'existe pas
de démonstration de sa cohérence (c'est-à-dire de l'impossibilité d'y démontrer à la
fois une proposition et son contraire) qui ne recoure à des règles de déduction externes
à cette axiomatique.

En d'autres termes et puisque la condition d'inclure une arithmétique munie des


opérations d'addition et multiplication n'est guère contraignante, aucune axiomatique
raisonnablement complète ne permet d'établir sa propre cohérence ; celle-ci exige le
recours à des règles sémantiques externes.

2- Incomplétude
Dans tout système axiomatique comprenant l'addition et la multiplication des nombres
entiers non négatifs on peut formuler des propositions indécidables.
(Une proposition est dite indécidable si on ne peut démontrer ni sa véracité ni sa
fausseté par une suite finie de déductions logiques utilisant les axiomes et règles
de déduction de l'axiomatique dans laquelle elle a été formulée : voir exemple
[93]).

433
L'existence de l'indécidabilité n'empêche pas certaines des propositions formulées
d'être vraies et d'autres fausses, mais elle empêche un ordinateur ou un homme de
les démontrer au moyen d'une suite finie de déductions logiques partant d'axiomes du
système, c'est-à-dire d'un algorithme.

Au sens du déterminisme, de telles propositions sans justification algorithmique n'ont


pas de cause identifiable, donc pas d'origine logique puisqu'elles ne découlent pas des
axiomes par un raisonnement logique. Si on découvre dans l'esprit d'un homme une
telle proposition (ce qui arrive, voir l'important complément [92] et aussi [141]) on peut
qualifier sa présence dans le psychisme [347] de non déterministe ; elle résulte
souvent, par l'intermédiaire de l'inconscient, d'intuitions, d'analogies ou d'inductions.
L'inconscient fabrique comme cela des représentations sans tenir compte d'aucune
logique, d'aucune contrainte de temps ; seules y entrent en jeu des considérations de
rapprochement neurologiques que l'esprit interprète ensuite.

Ainsi, je sais que j'aime la musique de Mozart. J'en suis sûr, aussi sûr que 2 et 2 font
4, car j'ai plaisir à l'écouter. Mais je sais parfaitement aussi que je ne peux donner
aucune justification de ce plaisir, aucune explication logique : ma certitude est
inexplicable car elle concerne un affect ressenti par l'intermédiaire de mon inconscient.
Du reste la plupart des certitudes qui concernent un de mes sentiments ou jugements
de valeur sont inexplicables. Je suis sûr, aussi, que mon cerveau a été fait pour pouvoir
ainsi se doter de certitudes - et même de valeurs - sans passer par l'effort nécessaire
à un raisonnement logique. Cela va même plus loin : ces certitudes arrivent sans effort
dans mon inconscient, alors que raisonner est un acte volontaire !

Le cerveau d'un être vivant contient de nombreuses "certitudes" de ce type, qu'il


accepte et utilise bien qu'elles n'aient été ni démontrées ni vérifiées, comme il accepte
certaines intuitions si prégnantes qu'il n'a nulle envie de les remettre en question [141].
Une telle certitude peut aussi provenir des sens, comme celle d'aimer le chocolat ou
Mozart, ou être incorporée à l'inconscient parce qu'elle fait partie de la culture. Un
homme peut aussi construire ses certitudes personnelles, par exemple en généralisant
par induction quelques constatations qu'il a faites, ou en leur appliquant un
raisonnement par analogie, ou encore en laissant courir sans critique une imagination
débordante, c'est-à-dire d'une manière non rationnelle (voir [92]). Mais rien ne garantit
qu'à partir des mêmes constatations ou dans la même situation il aboutira aux mêmes
intuitions le lendemain, ou que d'autres hommes partageront les certitudes du premier,
ce qui les rendrait objectives.

Rapprochements de pensées
Les processus mentaux qui construisent les intuitions, les analogies, les inductions et
autres "certitudes" non démontrées sont mal connus. Ils ne relèvent pas du
déterminisme parce qu'ils ne satisfont pas sa définition par condition nécessaire et
suffisante et règle de stabilité ; du reste, le déterminisme s'applique aux lois de la
nature et aux calculs algorithmiques, mais pas à la pensée humaine (où intervient
l'inconscient) et dont seuls les mécanismes physiologiques sous-jacents sont
déterministes car basés sur des phénomènes biologiques.

Je suppose qu'une "certitude" de l'esprit peut résulter du rapprochement de deux ou


plusieurs connaissances ayant abouti, chacune, à des "certitudes" préexistantes ;
l'esprit effectue inconsciemment un rapprochement puis une synthèse de ces

434
certitudes dès qu'il estime qu'elles peuvent interagir et que le résultat prévisible de
cette interaction a une valeur. Mais le processus psychique d'attribution de valeur, qui
rendra pertinente ou non une rencontre, est lui-même entaché d'incertitudes : il y a des
jours, par exemple, où l'on voit tout en noir, alors que d'autres fois on est euphorique…

Un matérialiste soucieux de faire triompher sa doctrine déterministe affirmera alors


qu'en considérant l'ensemble de la situation de départ la rencontre des diverses
chaînes de causalité était prévisible, donc que tous les processus psychiques sont
bien déterministes, y compris les rapprochements surprenants et improbables. Mais
son raisonnement, vrai au niveau physiologique des mécanismes neuronaux, sera
globalement faux s'il oublie de prendre en compte les couches "logicielles" psychiques
complexes au-dessus des mécanismes neuronaux, c'est-à-dire les interactions. Ce
point est abordé à partir du paragraphe "Mécanismes psychiques non algorithmiques
ou imprévisibles".

Cohérence d'une axiomatique


Parmi les affirmations indécidables d'une axiomatique, Gödel a trouvé celle-ci :
"Les axiomes de cette axiomatique sont cohérents" (ils ne permettent pas d'en
déduire deux théorèmes contradictoires.)

Il est donc impossible de démontrer à partir des axiomes et règles de déduction logique
d'une axiomatique que ses axiomes sont cohérents ! La cohérence d'une axiomatique
doit être établie à l'extérieur (avec des hypothèses englobantes suffisamment larges)
ou postulée ; Gödel a montré qu'elle nécessitait l'emploi de notions impliquant la
signification, en plus des propriétés formelles seules décrites dans l'axiomatique, et
Tarski a trouvé comment formuler les conditions nécessaires [220].

Du point de vue philosophique, ces théorèmes de Gödel confirment le principe selon


lequel on ne peut appliquer les certitudes et la logique du monde matériel à des
concepts externes (transcendants) comme Dieu, l'âme, la liberté, etc. ; des
propositions comme « Dieu existe » sont donc indémontrables. La philosophie, cadre
moins restrictif et rigoureux que celui d'une axiomatique, permet de formuler des
affirmations indécidables (voir exemple [93]).

Conclusions
 Pour être rationnelle, toute réalité physique doit être déduite et décrite :
 à partir de vérités de base non démontrées, acceptées comme axiomes [67]
et constituant de ce fait une réalité ultime artificielle ;
 à l'aide de règles de déduction portant sur ces vérités et leurs
conséquences, règles admises elles aussi sans démonstration.
 Il existe des affirmations non contradictoires (dont la véracité ou la fausseté est
certaine) indémontrables par un algorithme calculable par un ordinateur ou un
esprit humain. [69] et [93]
L'homme acquiert une certitude indémontrable à la suite d'expériences estimées
suffisamment nombreuses ou prégnantes, de sensations, d'analogies, intuitions
ou imaginations, processus inconscients non rationnels ou non reproductibles
dont il prend le risque de tenir le résultat pour vrai. C'est là « l'esprit de finesse »
que Pascal opposait à « l'esprit de géométrie » rationnel. Voir [66], [141] et [92].

435
 Le cerveau de l'homme contient et utilise des propositions non démontrées, voire
indémontrables, en plus de propositions prouvées, le plus souvent issues de son
inconscient. Il utilise aussi des règles de raisonnement "à risques" (intuition,
analogie, induction). C'est là un effet de son esprit de finesse.

Compléments :
 Voir "Le Hasard des Nombres" - La Recherche, N° 232 (mai 1991), pp. 610-615
- Gregory J. Chaitin - http://www.umcs.maine.edu/~chaitin/paris.html
 G J Chaitin "Information, Randomness & Incompleteness – Papers on
Algorithmic Information Theory – Second Edition"
http://www.umcs.maine.edu/~chaitin/ws.html
 Voir [220].

[7] Luc Ferry, dans son ouvrage "Kant - Une lecture des trois critiques" (éditions
Grasset, septembre 2006) m'aide à justifier mon extension du déterminisme en
écrivant page 23 :
"…pour Kant, il va de soi que l'horizon de la physique moderne est désormais le
seul vrai, que c'est à partir de lui qu'il faut maintenant tout repenser si l'on veut
aussi reconstruire."
(Kant faisait allusion à la physique de Newton, moderne à son époque.)

[8] Exemple de suite convergente de nombres réels. Soit un premier nombre x 1 à qui
l'on attribue une valeur, par exemple x1 = 1. Soit un nombre constant A, par exemple
A = 2. Construisons à présent la suite des nombres x1, x2,… xn, xn+1… tels que pour
tout indice n on puisse calculer xn+1 à partir de xn par la formule

1 A
xn1  ( xn  )
2 xn

On trouvera ainsi successivement x2 = ½(x1 + A/x1) = ½(1 + 2/1) = 1.5, puis


x3 = ½(x2 + A/x2) = ½(1.5 + 2/1.5) = 1.415, etc. Cette suite converge vers 2 , qui vaut
1.41421… Cela veut dire que lorsque l'indice n augmente, les xn successifs sont aussi
proches que l'on voudra de 2 .

[9] Selon l'expérience, l'espace local entre deux points A et B peut s'avérer :
 Séparable, la propagation de l'effet d'une cause située en A ne pouvant alors
s'effectuer jusqu'à B plus vite que la vitesse de la lumière, conformément à la
Relativité ;
 Non séparable, la propagation étant alors instantanée, conformément à la
Mécanique quantique ; c'est ce cas surprenant qui a été vérifié dans l'expérience
d'Alain Aspect, au début des années 1980 [10].

Inversion du temps
Dans les années 1950, John Bell a montré, dans son étude de l'invariance CPT que
les lois de la physique restent inchangées lorsqu'on change simultanément les

436
particules en antiparticules (C), la parité - réflexion miroir de l'espace qui change la
droite en gauche (P) - et le sens du temps (T). Et le formalisme de l'électrodynamique
quantique dû à Feynman montre qu'une antiparticule d'énergie positive (comme le
positon - identique à l'électron mais de charge positive) qui se déplace du présent vers
l'avenir est équivalente à une particule d'énergie négative qui remonterait le cours du
temps.

[10] "Cette étonnante Mécanique quantique", discours d'Alain Aspect du 17/06/2002.


http://www.academie-sciences.fr/academie/membre/s170602_aspect.pdf
Deux photons [117] jumeaux, dits « intriqués » car produits ensemble d'une façon qui
leur confère un état quantique global, se comportent comme une particule unique,
inséparable : toute mesure de l'état de l'un correspond toujours à l'état de l'autre, quelle
que soit leur distance ; et une action sur l'un d'eux se répercute sur l'autre en un temps
nul – donc inférieur au temps qu'il faudrait à la lumière pour l'atteindre.
L'état quantique décrivant les deux photons est unique : il ne s'agit pas de deux
états identiques, mais d'un état représentant les deux photons ensemble ; c'est
ainsi, par exemple, que leurs directions de polarisation opposées sont prises en
compte toutes deux en tant qu'ensemble. Lorsqu'une expérience agit sur la
polarisation de l'un des photons, elle agit aussi instantanément celle du second
photon, même s'il est loin du premier, car la polarisation de l'ensemble doit rester
la même. Si on mesure les polarisations des deux photons, les résultats sont
toujours corrélés, conformément aux équations de la Mécanique quantique.
On sait même produire des groupes de plus de 2 photons intriqués, puisqu'en
2004 on a réussi à produire un tel groupe avec 6 photons [235].

C'est ainsi que des chercheurs ont réussi à transmettre l'un des photons à 144 km de
l'autre sans détruire l'intrication avec son jumeau resté au laboratoire.

Par contre, cette propriété de corrélation préservée lors d'une évolution d'un des
photons ne peut servir à transmettre instantanément un message : le récepteur d'une
suite de photons ne peut en déduire quoi que ce soit concernant le message de
l'émetteur du fait de la corrélation ; celle-ci se constate après coup, en comparant
l'émission à la réception, elle ne permet aucune transmission instantanée
d'information. La transmission instantanée de messages n'existe qu'en science fiction !

L'expérience d'Alain Aspect prouve que pour certains phénomènes, certaines


propriétés, l'espace n'est pas séparable [9], c'est-à-dire qu'il existe des phénomènes
pour lesquels la notion de lieux différents ne s'applique pas. C'est là une modification
fondamentale du principe de causalité et du déterminisme, phénomène abordé au
paragraphe "Indépendance entre deux événements et relation de causalité".

Cette expérience illustre le principe de correspondance, selon lequel certaines


équations et certains modèles de raisonnement de la physique quantique sont
également valables à l'échelle macroscopique. Dans l'expérience précédente, tout se
passe comme s'il existait une propriété fondamentale de la physique appelée
« conservation de l'intrication des photons d'une paire indépendamment de leur
distance ».

437
Le raisonnement du paragraphe "Indépendance entre deux événements et relation de
causalité" montre que l'ordre dans lequel on a mesuré la polarisation des deux photons
est sans importance, puisque lorsque l'intervalle entre deux événements A et B est du
genre espace (notion expliquée ci-dessous), des observateurs différents peuvent voir
deux événements dans l'ordre A puis B pour l'un et B puis A pour l'autre !

Voir aussi l'abolition des distances et des durées dans certaines circonstances.

[11] Hobbes, philosophe anglais (1588-1679) :


 Petit texte sur Hobbes : http://www.memo.fr/dossier.asp?ID=418
 "De Cive" (1642-1651)
http://etext.lib.virginia.edu/toc/modeng/public/HobDeci.html

[12] "La culture arabe ennemie de la démocratie"


http://www.danielmartin.eu/Religion/Culture-Arabe-Ennemie-Democratie.htm.

Voir aussi l'article "Hezbollah’s Actions Ignite Sectarian Fuse in Lebanon" publié par
The New York Times du 18/05/2008
http://www.nytimes.com/2008/05/18/world/middleeast/18lebanon.html?_r=1&th=&ore
f=slogin&emc=th&pagewanted=print

[13] "Adhésion de la Turquie : le pour et le contre"


http://www.danielmartin.eu/Politique/Adhesion-Turquie.htm

[14] Le philosophe Nietzsche disait :


"On n'est pas coupable parce qu'il y a des lois morales, on a inventé des lois
morales pour trouver des coupables !"
La loi n'accepte l'irresponsabilité d'un individu que lorsqu'un méfait a été commis à son
insu, contre sa volonté, ou alors qu'il était en état de démence. Mais un homme sain
d'esprit qui commet ou laisse commettre un crime sans intervenir doit être puni ; il doit
être tenu pour responsable. C'est là une exigence morale destinée à préserver la
société, dont l'intérêt passe avant celui d'un individu.

[15] Sartre : "L'existentialisme est un humanisme" (1946)


http://www.danielmartin.eu/Textes/Existentialisme.htm

Extrait où Sartre affirme que l'homme est responsable de lui-même et même de tous
les hommes :
"Quand nous disons que l'homme se choisit, nous entendons que chacun d'entre
nous se choisit, mais par là nous voulons dire aussi qu'en se choisissant il choisit
tous les hommes. En effet, il n'est pas un de nos actes qui, en créant l'homme
que nous voulons être, ne crée en même temps une image de l'homme tel que
nous estimons qu'il doit être. Choisir d'être ceci ou cela, c'est affirmer en même
temps la valeur de ce que nous choisissons, car nous ne pouvons jamais choisir
le mal ; ce que nous choisissons, c'est toujours le bien, et rien ne peut être bon
pour nous sans l'être pour tous. Si l'existence, d'autre part, précède l'essence et
que nous voulions exister en même temps que nous façonnons notre image,
cette image est valable pour tous et pour notre époque tout entière. Ainsi, notre

438
responsabilité est beaucoup plus grande que nous ne pourrions le supposer, car
elle engage l'humanité entière.
Si je suis ouvrier, et si je choisis d'adhérer à un syndicat chrétien plutôt que
d'être communiste, si, par cette adhésion, je veux indiquer que la résignation est
au fond la solution qui convient à l'homme, que le royaume de l'homme n'est pas
sur la terre, je n'engage pas seulement mon cas : je veux être résigné pour tous,
par conséquent ma démarche a engagé l'humanité tout entière. Et si je veux, fait
plus individuel, me marier, avoir des enfants, même si ce mariage dépend
uniquement de ma situation, ou de ma passion, ou de mon désir, par là j'engage
non seulement moi-même, mais l'humanité tout entière sur la voie de la
monogamie. Ainsi je suis responsable pour moi-même et pour tous, et je crée
une certaine image de l'homme que je choisis ; en me choisissant, je choisis
l'homme."

[16] Principe d'identité


Le principe philosophique d'identité s'énonce : « Ce qui est, est ; ce qui n'est pas, n'est
pas. » Une chose (objet, situation, événement) est (existe, a lieu ou a eu lieu) ou n'est
pas (n'existe pas, n'a pas eu lieu). Si la chose est, elle est identique à elle-même, pas
à autre chose : c'est la seule réalité. On peut toujours imaginer un monde différent,
mais ce sera une imagination, c'est-à-dire une abstraction, une chose non démontrée.

A un instant donné l'Univers est ce qu'il est, avec ses lois physiques et les valeurs
précises de leurs constantes. Toute considération de situation en cet instant autre que
la situation constatée est possible, mais seulement en tant que pure spéculation ; c'est
le cas notamment pour le principe anthropique et pour une partie de la métaphysique.
Enfin, toute considération à un instant du passé de situation autre que ce qu'elle a été
à cet instant-là est aussi spéculative.

Voir aussi le paragraphe Caractère humain, artificiel, de la notion d'échelle.

Le principe d'identité s'applique aussi à la pensée humaine : si en cet instant je veux


quelque chose, c'est cela que je veux, pas autre chose ; pour vouloir autre chose, il
faudrait que je sois autre, ce qui est logiquement impossible ; à un instant donné on
ne peut vouloir que ce qu'on est en train de vouloir [339].

Application aux ensembles, aux descriptions et aux comparaisons


 Un ensemble ne peut être une partie non exhaustive de lui-même.
Un objet matériel de l'Univers - ou l'Univers tout entier - ne peut être une partie
non exhaustive de lui-même.
 « L'essence » (ou « chose en soi ») d'un être ou d'un objet constitue sa
description complète, avec toutes ses propriétés. C'est une abstraction, comme
toute description. Une même essence (même description) peut décrire un objet
imaginaire, non encore créé, ou un objet réel, ou plusieurs objets identiques ; et
si on crée un objet qui n'existe pas encore on ne change pas son essence.
L'essence peut donc exister, en tant que description abstraite, pour un objet
physique qui existe réellement ou non. Elle ne peut donc comprendre parmi ses
propriétés l'existence matérielle de l'objet, qui est une information séparée. Donc
ce n'est pas parce que j'imagine la description détaillée et précise d'un couteau

439
que celui-ci existe ; il existera, par exemple, si je le fabrique. Et ce n'est pas parce
que quelqu'un imagine Dieu qu'Il existe, comme Kant l'a si bien remarqué.
Conséquences du principe d'homogénéité :
 Il ne peut exister aucune causalité reliant une abstraction et une réalité
matérielle, parce qu'ils appartiennent à des domaines disjoints ; une
causalité n'est possible qu'entre deux éléments du même domaine. Une
idée d'un esprit humain n'est cause d'aucune réalité matérielle et une telle
réalité n'est cause d'aucune idée en l'absence d'un homme pour la penser.
 Une idée n'est cause ou conséquence que par l'intermédiaire d'un esprit
humain, ou de Dieu pour les croyants.
 Une réalité ne peut être cause d'une idée que dans un esprit qui pense.
En distinguant cause efficace, cause formelle et cause matérielle [39] :
 Une idée peut être cause formelle d'une réalité, mais ni cause efficace, ni
cause matérielle. Si un esprit humain pouvait agir sur la matière en tant que
cause efficace, comme le croient certains mystiques et certains
superstitieux, au moins deux lois physiques seraient violées : la
conservation de l'énergie et le deuxième principe de la thermodynamique.
 Une réalité peut être cause efficace et/ou cause matérielle d'une autre
réalité, mais pas cause formelle de quoi que ce soit (sinon par homme
interposé).
 Une description matérielle complète (texte, par exemple) d'un objet matériel ne
peut pas faire partie de cet objet car elle se contiendrait elle-même ; l'Univers ne
peut contenir de description complète de lui-même, une telle description se
contenant elle-même.
 Une axiomatique [67] ne peut inclure ses propres critères de jugement global,
qui impliquent la comparaison avec quelque chose d'externe ; par contre, elle
peut contenir des règles permettant certains jugements de cohérence [6] ou
l'établissement de relations (d'implication, d'ordre, etc.) entre deux ou plusieurs
de ses propositions. L'adéquation d'une axiomatique (système formel) à un
ensemble de lois physiques qu'elle modéliserait ne peut donc se juger sans
comparaison de ses résultats à quelque chose d'externe à l'axiomatique,
comparaison qui implique une sémantique.
 D'après ce qui précède, la cause première (ou cause initiale) d'un phénomène
ou d'un objet (création, première apparition) ne peut être qu'externe à ce
phénomène ou cet objet. Un objet ne peut se créer lui-même, il doit résulter d'un
phénomène extérieur ; car pour se créer lui-même, il devrait exister avant et
pendant cette création, ce qui est impossible ; par contre, un objet créé peut se
transformer ensuite sans intervention extérieure. En conséquence, la notion de
cause première dépourvue de cause est logiquement absurde.
Si on admet Dieu en tant que cause première de l'Univers au moment où Il l'a
créé, Dieu existait déjà et l'a créé sans utiliser quoi que ce soit de l'Univers, soit à
partir de rien, soit en transformant une partie de Lui-même et/ou de quelque chose
d'autre. Pour nous, sont inconcevables en respectant la logique :
 Une création physique à partir de rien (sauf si on postule des apparitions) ;

440
 La création de l'Univers (Univers veut dire « tout ce qui existe et a jamais
existé ») à partir d'autre chose, ou d'un acteur extérieur préexistant comme
Dieu.
C'est pourquoi Spinoza pensait qu'il faut respecter l'enseignement moral des
religions judéo-chrétiennes sans croire leur cosmologie.
Voir aussi "L'objection philosophique dite « de la cause ultime » ou « de la cause
première »".

[16-a] Aristote - Principe d'homogénéité


"Les œuvres majeures - 7 œuvres complètes" (La métaphysique, chapitre VII) -
Traductions téléchargeables au format Amazon Kindle http://www.amazon.fr/Aristote-
majeures-compl%C3%A8tes-m%C3%A9taphysique-
ebook/dp/B009EBE4OO/ref=sr_1_1?s=digital-text&ie=UTF8&qid=1375621350&sr=1-
1&keywords=aristote (3,97€)

Dans ce texte traduit, Aristote appelait "mouvement" ce que nous appelons "évolution".
(1) "La Physique" traduction Barthélémy Saint Hilaire. Citation exacte :
« Pour que deux mouvements soient comparables, il faut qu'ils soient du même
genre. Ainsi on peut bien comparer des mouvements de translation avec des
mouvements de translation, des mouvements d'accroissement avec des
mouvements d'accroissement ; mais on ne pourrait point passer d'un genre à un
autre, et comparer, par exemple, un accroissement avec une translation, ou un
déplacement avec une altération. Seulement le temps peut servir ici de commune
mesure entre des espèces d'ailleurs fort différentes, et il est possible que telle
altération dure autant de temps que telle translation. L'altération alors et la
translation pourront être comparées entre elles. »

(2) "La métaphysique" Livre X traduction Barthélémy Saint Hilaire :


« § 2. On ne pourrait pas, d'ailleurs, changer d'un genre à un autre, si ce n'est
d'une manière indirecte ; et, par exemple, changer du genre de la couleur au genre
de la figure. Il s'ensuit qu'il faut que les intermédiaires soient dans le même genre
les uns que les autres, et dans le même genre que les choses dont ils sont les
intermédiaires. »

[16-b] Géraud Tournadre – "Le principe d'homogénéité" édité aux Presses


Universitaires de Paris-Sorbonne en 1988.

[17] Entre l'instant théorique t = 0 du Big Bang et le temps de Planck


(0.54.10-43 seconde), on ne sait pas ce que le temps et l'espace signifient
physiquement. De toute manière, les atomes eux-mêmes sont nés bien après le temps
de Planck. Aucune loi de notre physique ne s'applique à la région minuscule de
l'espace qu'occupait l'Univers avant le temps de Planck, région où la température, la
densité de masse et la courbure de l'espace étaient, pour nous, infinis. Avec notre
physique, aucune causalité ne peut donc remonter au-delà du temps de Planck.

On peut même douter que la notion de « temps zéro » ait un sens un jour. Si notre
conjecture sur l'apparition ne tient pas, une éventuelle création de l'Univers au temps
zéro impliquerait à cet instant-là l'existence de quelque chose d'autre que l'Univers,

441
chose dont nous sommes incapables de parler ; et le temps lui-même étant lié à la
matière et l'espace par la Relativité, nous ne pouvons pas, non plus, parler de temps
avant l'Univers ou à son commencement.

[18] Interactions. Le modèle standard de la physique [59] a 4 types d'interactions


(appelées aussi forces), chacune correspondant à un champ et agissant sur des objets
macroscopiques ou des particules subatomiques par échange de quanta d'interaction
appelés bosons :
 La gravitation, agissant entre toutes les particules qui ont une masse, dont le
quantum d'interaction est le graviton, aujourd'hui observé expérimentalement
[313]. Le graviton a un spin 2 [22] et une charge nulle. Sa masse nulle fait que la
gravitation a une portée infinie, agissant même aux distances astronomiques.
 L'électromagnétisme, agissant entre charges électriques, dont le quantum
d'interaction est appelé photon [117]. Sa portée est aussi infinie et son intensité
diminue comme le carré de la distance.
 L'interaction nucléaire (ou "interaction forte" ou "force forte"), agissant de
manière attractive entre quarks du noyau atomique pour en maintenir la
cohésion sous forme de protons ou neutrons ; le quantum d'interaction
correspondant est appelé gluon. Sa portée est très faible (environ
1 fm = 10-15 m) mais son intensité augmente avec la distance !
 L'interaction faible, agissant entre les particules appelées fermions (électrons,
neutrinos, quarks et leurs antiparticules) par l'intermédiaire de quanta
d'interaction appelés bosons W et Z. Sa portée est extrêmement faible, de l'ordre
de 10-17 m.

L'essentiel à retenir est que toute interaction entre deux objets ou particules se traduit
par l'échange d'un nombre entier de quanta d'interaction, et que les grandeurs qui la
caractérisent sont discontinues. Une comparaison des intensités et portées relatives
des interactions est disponible.

[19] Au Ve siècle avant J.-C. le philosophe grec Zénon "démontrait" que le mouvement
n'existe pas objectivement en disant ceci :
« Le rapide Achille ne peut rattraper une tortue partie avant lui parce que, tandis
qu'il parcourt la distance qui le sépare de la tortue, celle-ci avance et franchit un
nouvel intervalle qu'Achille doit franchir à son tour, etc. Le nombre d'étapes de
rattrapage d'Achille est donc infini, et il ne peut rattraper la tortue. »

Et Zénon, qui ne connaissait pas les notions de suite et de série convergentes [8], en
déduisait que le mouvement n'existe pas objectivement ! Il est regrettable qu'un grand
nombre de personnes pensent encore, de nos jours, qu'une suite infinie tend toujours
vers l'infini, et que des philosophes déplorent les régressions à l'infini (comme la cause
de la cause de la cause…) en oubliant qu'elles peuvent converger à distance finie.

[20] Impulsion : c'est le produit d'une masse par une vitesse, mesuré en kg.m/s comme
une quantité de mouvement. On l'exprime par un vecteur p = mv, produit de la masse
m par le vecteur vitesse v et module |p| = mv. En toute rigueur, on parle :
 De quantité de mouvement pour un corpuscule qui a une masse m non nulle ;

442
 D'impulsion pour une particule comme le photon [117] qui a une masse nulle,
mais a une impulsion p = h/, où h est la constante de Planck et  est la
longueur d'onde du photon. (Voir aussi [134])

L'énergie d'un photon de fréquence  est E = h, alors que l'énergie cinétique d'une
particule de masse m et vitesse v est E = ½mv².

[21] Thèse "Détection sans destruction d'un seul photon" (15/12/1999)


http://www.theses.fr/1999PA066373

[22] Spin : c'est une grandeur vectorielle, moment angulaire intrinsèque d'une particule
qui a les dimensions d'un moment cinétique ; elle est analogue à la rotation d'une
particule sur elle-même, sans être une rotation. C'est une propriété intrinsèque d'une
particule, au même titre que sa charge électrique ou sa masse.

Le module s du vecteur spin est quantifié : c'est un multiple entier (0, 1, 2…) ou demi-
entier (1/2, 3/2,…) de ä = h/2 qui peut prendre les 2s+1 valeurs :
-s ; -s+1 ;..; s-1 ; s. Le spin d'un électron ou d'un proton valant ½ (c'est-à-dire ä/2),
l'électron et le proton peuvent avoir 2*½ + 1 = 2 valeurs de spin. Le photon [117] a un
spin 1, le graviton un spin 2, le baryon  - (oméga moins) un spin 3/2, etc. Ce module
est absolument constant, mais la direction de l'axe de rotation du spin peut varier en
adoptant n'importe quelle direction de l'espace.

L'inversion du sens du vecteur spin d'une particule, remplacé par le vecteur opposé,
correspond à un changement de polarisation.

Les spins de l'électron et du proton sont à la base des propriétés magnétiques de la


matière. Une particule de spin non-nul se comporte comme un petit barreau aimanté.

Le spin est donc une propriété fondamentale d'une particule, et la description de l'état
de celle-ci est incomplète sans le spin, aussi incomplète que si elle omettait son
impulsion. Cette propriété est si fondamentale qu'elle permet de classer les particules
en deux catégories :
 Les particules de spin demi-entier (1/2ä, 3/2ä, 5/2ä …), appelées fermions.
Exemples de particules de spin ½ (= ½ä) : l'électron, le proton et le neutron. Ce
spin est constant en grandeur - et sans rapport avec la masse ou la vitesse de la
particule - mais il peut changer de signe comme si la particule inversait son sens
de rotation. Les particules soumises à l'interaction électromagnétique ont un
moment magnétique colinéaire (parallèle dans l'espace) à leur vecteur spin.
 Les particules de spin entier (0, ä, 2ä, 3ä…), appelées bosons.
Exemples de particules de spin 1 (=ä) : le photon [117] (eh oui, même un photon
de masse nulle peut avoir un moment cinétique, ce qui prouve que le spin n'est
pas lié à une masse en rotation) ; les bosons W et Z et le gluon [18].

Au plan philosophique, l'existence du spin nous conduit à admettre qu'il peut exister
des propriétés fondamentales de la matière-énergie sans rapport avec des concepts
issus de nos sens comme la masse. Nous en avions déjà un exemple avec le photon,

443
particule-onde de masse nulle, mais d'énergie h non nulle, d'impulsion [20] non nulle
et de spin non nul. C'est là une des raisons pour représenter la réalité à l'échelle
atomique avec des formules mathématiques.

[23] L'instabilité énergétique de certains noyaux atomiques ne s'explique pas


parfaitement dans l'état actuel de nos connaissances ; elle se modélise cependant en
faisant intervenir des mécanismes de liaison entre nucléons comme la tension
superficielle d'une goutte de liquide, la répulsion électrostatique (force de Coulomb
[341]), etc.

On sait malgré tout que certains noyaux lourds, synthétisés à l'origine dans des
supernovas, ont une faible énergie de liaison par nucléon. Si un tel noyau est déformé
- par exemple par un choc ou par la forte agitation de ses nucléons - la répulsion entre
ses protons amplifie la déformation : le noyau lourd a tendance à se rompre. Et comme
une décomposition du noyau se fait avec perte de masse, donc dégagement d'énergie
et augmentation de l'entropie, il peut y avoir fission spontanée.

[24] Nombre d'Avogadro. Une quantité d'un élément chimique de masse égale à sa
masse atomique contient le même nombre d'atomes quel que soit l'élément. Ce
nombre est appelé nombre d'Avogadro et vaut 6.02.1023. Exemples :
 L'hydrogène a pour masse atomique 1 ; 1 gramme d'hydrogène contient donc
6.02.1023 atomes.
 Le fer a pour masse atomique 56 ; 56 grammes de fer contiennent donc
6.02.1023 atomes.
 L'eau H2O a pour masse moléculaire 18 ; 18 grammes d'eau contiennent donc
6.02.1023 molécules, etc.

[25] Principes de la thermodynamique - Entropie


 1er principe : équivalence de la chaleur et du travail, qui peuvent être échangés
car ils sont tous deux des formes d'énergie. Ce principe a pour conséquence la
conservation de l'énergie d'un système isolé, donc aussi de l'énergie de l'Univers
dans son ensemble (voir Lois de conservation).
 2e principe : le transfert de chaleur ne peut se faire que dans un seul sens, d'un
corps chaud vers un corps froid. Soit un système matériel que l'on met en
contact avec plusieurs sources de chaleur, de températures absolues T 1, T2,..,
etc. Il échange alors avec ces sources des quantités de chaleur Q1, Q2,…, etc.
Chacune de ces quantités peut être positive ou négative, selon le sens du
transfert de chaleur. Lorsque l'échange de chaleur du système se fait de manière
réversible, on définit la variation d'entropie ΔS du système par la somme des
rapports :

ΔS = Q1/T1 + Q2/T2 + … en joules par degré Kelvin.


Dans les transformations réelles, non réversibles, l'égalité précédente devient une
inégalité :

ΔS  Q1/T1 + Q2/T2 + …

444
Cette inégalité, due au physicien Clausius, fournit d'autres formulations du 2 e
principe de la thermodynamique ; exemples : l'entropie d'un système isolé qui
subit des transformations est toujours croissante ; et l'énergie disponible pour une
conversion en travail dans l'Univers s'épuise peu à peu. L'entropie ne peut être
constante que pour un système en état d'équilibre thermodynamique, à partir
duquel toute petite transformation est réversible.
L'entropie d'un système est une mesure de sa désorganisation : plus l'entropie est
faible, plus le système est organisé, structuré ; plus elle est forte, plus il est
désorganisé. La désorganisation d'un système s'interprète aussi comme un
manque d'information descriptive. Le 2e principe affirme qu'un système isolé tend
toujours vers la désorganisation (et l'entropie) maximum. Il y a là une irréversibilité,
obligeant le temps à avoir un sens d'écoulement, une « flèche », du présent vers
l'avenir.
 3e principe (appelé aussi « principe zéro ») : Si deux systèmes sont en équilibre
thermique avec un même troisième, alors ils sont en équilibre entre eux. Ce
principe sert à fonder la température en tant que notion universelle, valable pour
un solide comme le fer, un liquide comme l'eau, ou un gaz comme l'air. Un
thermomètre, étalonné par rapport à deux situations comme le point triple de
l'eau et son ébullition à pression normale, peut ensuite mesurer la température
d'un autre corps.
 4e principe : aucun système ne peut être porté à une température égale au zéro
absolu en degrés Kelvin (environ -273.15 degrés C), température à laquelle son
entropie serait nulle. Ce principe permet de définir une échelle absolue de
l'entropie, c'est-à-dire de la désorganisation d'un système.

[26] Ilya Prigogine, prix Nobel de chimie 1977, livre "La fin des certitudes" publié chez
Odile Jacob en 1996.

[27] Nous avons vu qu'à une température donnée T la vitesse moyenne d'une molécule
H2 est plus grande que celle d'une molécule N 2. Si on augmente T dans une boîte
jusqu'à T1 > T, la vitesse des molécules H2 croît plus que celle des molécules N2, qui
sont donc repoussées lors des chocs entre molécules et ont tendance à passer dans
l'autre boîte. Inversement, dans l'autre boîte le refroidissement de T à T 2 < T fait
diminuer la vitesse des molécules H2 plus que celle des molécules N2, ce qui favorise
l'expulsion de molécules H2 vers la boîte la plus chaude. La proportion de molécules
H2 croît donc dans la boîte à température T 1 et décroît dans l'autre.

[28] Densité de probabilité : c'est une fonction de point p(Q) telle que la probabilité
associée à un volume dV entourant le point Q est le produit p(Q)dV.

Exemple : soit un espace à une dimension, où la position d'un point Q est caractérisée
par son abscisse x. La fonction connue sous les noms de "Loi de Laplace-Gauss" ou
de "distribution normale"
x2
1 
p( x)  e 2
2

445
représente une densité de probabilité au voisinage du point x telle que la probabilité
de trouver Q entre x = a et x = b est :
x2
1 b 2
p ( a  x  b)   e dx
2 a

La certitude de trouver un point quelque part résulte de l'égalité :


1  
x2

2 
e 2
dx  1

[29] Combinaison linéaire. On appelle combinaison linéaire de deux variables de


même nature X et Y (par exemple toutes deux nombres réels) une fonction F de ces
variables calculée en multipliant chacune par un coefficient et en sommant. Avec les
coefficients scalaires (nombres réels ou complexes [126]) a et b, on a ainsi
F = aX + bY.

On peut étendre cette définition à un ensemble de n variables X 1, X2…Xn et n


coefficients a1, a2…an en définissant F = a1X1 + a2X2 +…+anXn .

On peut étendre encore cette définition en remplaçant les variables X par des vecteurs
V à p dimensions de composantes V1, V2…Vp, toutes définies sur le même ensemble
(par exemple le corps des réels ou des complexes), et où chaque composante Vj est
une fonction, par exemple une fonction du temps Vj(t).

Par définition, un vecteur V est dit combinaison linéaire des k vecteurs V1, V2…Vk s'il
existe k scalaires a1, a2…ak tels que
j k
V   a jV j
j 1

Considérons enfin une suite infinie de fonctions de plusieurs variables comme


F1(x; y; z), F2(x; y; z), F3(x; y; z)… On peut définir une combinaison linéaire F, elle-
même fonction des mêmes variables, qui est combinaison linéaire des fonctions F 1,
F2, F3… par l'intermédiaire de coefficients a1, a2, a3…

F(x; y; z) = a1F1(x; y; z) + a2F2(x; y; z) + a3F3(x; y; z)…

[30] Observable : C'est une grandeur physique mesurable (énergie, position,


composante du moment cinétique, etc.) représentée par un être mathématique appelé
opérateur linéaire auto-adjoint et défini sur l'espace des vecteurs d'état du système
physique. Lors d'une mesure, une observable ne peut prendre que des valeurs qui
sont valeurs propres de l'opérateur ([278]).

[31] Stochastique (adjectif) : En langage courant : « qui dépend ou résulte du hasard ».


En mathématiques ou statistiques (sens utilisé dans ce texte) : « qui relève du calcul
des probabilités, notamment parce qu'il dépend d'une variable aléatoire ».

446
[32] La femme ayant deux chromosomes X et l'homme un seul, plusieurs maladies
neurologiques sont plus répandues chez l'homme que chez la femme, car celle-ci a
moins de chances d'avoir subi des mutations des deux exemplaires d'un même gène.
Il y a là un effet réparateur : chez la femme, la présence de l'exemplaire sain d'un gène
annule parfois l'effet d'une mutation de l'autre.

[33] "Self-Organization in the Physico-Chemical and Life Sciences" (29/03/1996)


http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:601715

Abstract: Experimental and theoretical analysis have by now established the existence
of self-organization, from the molecular (e.g. self-assembly) to the macroscopic level
(e.g. chemical oscillations and pattern formation). There is increasing awareness that
self-organization is likely to provide the key to understanding the marked polymorphism
of matter in the mesoscopic and macroscopic levels as well as many phenomena in
the life sciences such as evolutionary processes, the development of patterns and the
principles underlying the brain function. This publication concentrates on phenomena
observed in the life sciences that take place far from equilibrium. Also included are
oscillating chemical reactions because they provide a well characterized paradigm for
self-organization of direct relevance to biology. Furthermore, some specific ordering
processes operating near chemical equilibrium, such as molecular recognition, are
included in the essay because they are a prerequisite for the biological function.

[34] Le graphique montre bien l'arrivée à zéro des deux courbes, et ce n'est pas dû au
hasard ou à une erreur d'arrondi. L'écriture en base 2 des divers x n, qui sont tous
compris entre 0 et 1, donc de la forme 0,abcdef… (où chaque chiffre a, b, c, d, e, f…
après la virgule vaut 0 ou 1) montre que tout doublement de x n effectué pour obtenir
xn+1 est un décalage de tous les chiffres abcdef… vers la gauche, avec si nécessaire
élimination du 1 qui représente la partie créée avant la virgule par le doublement pour
tenir compte du modulo 1. A force de décaler les décimales vers la gauche, deux cas
peuvent se présenter :
 Soit la représentation binaire de x0 a un nombre infini de décimales périodique à
partir d'un certain rang, et il y aura convergence vers l'oscillation
correspondante. C'est ce qui s'est passé dans notre exemple, avec une
représentation terminée à droite par un nombre infini de zéros et convergence
des xn vers zéro.
L'évolution de la suite depuis x0 jusqu'à la limite de convergence L est irréversible :
lorsque cette limite est atteinte pour une certaine valeur de n, toutes les sous-
chaînes suivantes de la suite restent égales à L.
 Soit la représentation binaire de x0 a un nombre infini de décimales sans groupe
répétitif à droite (comme ce serait le cas si x0=/4), et la suite des xn ne converge
pas.
Notons que même dans ce cas-là l'évolution est irréversible, car après un
décalage suivi d'une éventuelle suppression de 1 avant la virgule on a perdu
l'information nécessaire pour reconstituer la suite initiale de décimales binaires.

[35] Encyclopédie Universalis 2007, article "URSS - Histoire".

447
[36] Principe d'additivité vectorielle des vitesses : deux trains qui roulent l'un vers
l'autre sur des voies parallèles à des vitesses respectives v 1 et v2 par rapport à ces
voies se rapprochent à la vitesse v1 + v2.

En d'autres termes, si un repère R' parallèle à un repère R se déplace par rapport au


repère R à la vitesse V parallèlement à son axe des x, et si un mobile se déplace à la
vitesse v' par rapport à R' parallèlement à l'axe x, le principe d'additivité des vitesses
affirme que le mobile se déplace par rapport à R à la vitesse v' + V.

Mais la Relativité Restreinte nous apprend que lorsque les vitesses v' et/ou V
croissent, et que l'une au moins n'est pas négligeable par rapport à la vitesse de la
lumière c, la vitesse v du mobile par rapport à R est :

v'V
v
v'V
1

La vitesse v n'est donc plus v'+V. Si par exemple v'=V=c/2, alors v=0.8c, et non c.

[37] "De la vraie nature du matérialisme et de la séduction légitime qu'il exerce" :


citation de Luc Ferry issue de [2] pages 21-22. Elle résume bien ce qu'est et ce
qu'implique le matérialisme, notamment en matière de réductionnisme [179] et de
déterminisme.
"De la vraie nature du matérialisme et de la séduction légitime qu'il exerce
[…] on doit entendre par matérialisme la position qui consiste à postuler que la
vie de l'esprit est tout à la fois produite et déterminée par la matière, en quelque
acception qu'on la prenne. En clair : les idées philosophiques ou religieuses,
mais aussi les valeurs morales, juridiques et politiques, ainsi que les grands
symboles esthétiques et culturels n'ont ni vérité ni signification absolues, mais
sont au contraire relatifs à certains états de fait matériels qui les conditionnent de
part en part, fût-ce de façon complexe et multiforme. Par rapport à la matière,
donc, il n'est pas d'autonomie véritable, absolue, du monde de l'esprit ou, si l'on
veut, pas de transcendance réelle, mais seulement une illusion d'autonomie.
Constance du discours matérialiste : la critique de la religion, bien sûr, mais
aussi de toute philosophie qui postule une transcendance réelle de la vérité des
idées ou des valeurs morales et culturelles.
En ce sens précis, les grandes « philosophies du soupçon » qui ont tant marqué
les années soixante, celles de Marx, Nietzsche et Freud, sont des illustrations du
matérialisme contemporain : on y réduit les idées et les valeurs en les rapportant
à ce qui les engendre « en dernière instance » : l'infrastructure économique, la
Vie des instincts et des pulsions, la libido et l'inconscient. Même s'il prend en
compte la complexité des facteurs qui entrent en jeu dans la production des
idées et des valeurs, le matérialisme doit donc assumer ses deux traits
caractéristiques fondamentaux : le réductionnisme et le déterminisme.
- Tout matérialisme est, en effet, à un moment ou à un autre, un
« réductionnisme » […] : « Si l'on entend par réductionnisme la soumission du
spécifique au général et la négation de toute autonomie absolue des

448
phénomènes humains, le matérialisme ne saurait, sans cesser d'être
matérialiste, s'en passer » […] [179]
- Tout matérialisme est aussi un déterminisme en ce sens qu'il prétend montrer
comment les idées et les valeurs dont nous croyons pouvoir disposer librement,
comme si nous pouvions sinon les créer, du moins les choisir, s'imposent en
vérité à nous selon des mécanismes inconscients que le travail de l'intellectuel
consiste justement à mettre au jour.
De là, me semble-t-il, la réelle séduction qu'il exerce.
- D'une part, son travail se développe, presque par définition, dans l'ordre du
soupçon, de la démystification : le matérialiste prétend par nature « en savoir
plus » que le vulgaire, puisqu'il se livre à une véritable généalogie de ce qui
apparaît dès lors comme nos naïvetés. La psychanalyse, par exemple,
appartient au registre de la psychologie « des profondeurs », elle est censée
décrypter au plus profond, là où le commun des mortels n'ose guère
s'aventurer ; elle va au-delà des apparences, des symptômes, et se prête ainsi
volontiers à une lecture matérialiste. Même chose, bien sûr, chez Nietzsche ou
chez Marx.
- D'autre part, le matérialisme offre, plus que toute autre option philosophique, la
particularité non seulement de ne pas prendre les idées pour argent comptant,
mais de « partir des faits », de s'intéresser enfin, si je puis dire, aux « vraies
réalités », c'est-à-dire à celles qui sont réellement déterminantes : Freud nous
parle de sexe, Nietzsche des instincts, Marx de l'histoire économique et sociale.
Bref, ils nous parlent de ce qui importe vraiment et que l'on cache si volontiers, là
où la philosophie idéaliste se tourne vers les abstractions. Or le plus souvent,
c'est vrai, le réel est plus intéressant que les brumes philosophiques."

[38] Univers réel et Univers visible : le texte en annexe explique qu'il y a une dimension
limite de l'Univers visible, due au voyage de la lumière à la vitesse c, supposée
constate, pendant l'âge de l'Univers (13.8 milliards d'années). L'Univers réel est plus
grand (distance de la galaxie la plus lointaine visible aujourd'hui : environ 47 milliards
d'années-lumière) parce que pendant les 13.8 milliards d'années que la lumière a mis
pour nous parvenir l'espace s'est dilaté. [111] [370]

La lumière provenant de points en dehors de l'Univers visible qui n'a pas encore eu le
temps de nous atteindre ne nous atteindra jamais, car l'Univers se dilate plus vite que
la lumière le parcourt ; aucun objet ou événement de cet Univers extérieur ne peut
aujourd'hui exercer d'action dans l'Univers visible. Peu à peu les galaxies visibles
externes à notre amas local disparaîtront de notre vue, emportées par l'expansion, et
finiront par sortir de notre Univers visible.

L'Univers visible est nécessairement sphérique car il est homogène et isotrope,


propriété si générale qu'elle est devenue un principe : le « Principe cosmologique ».

Voir aussi [313].

[39] Cause efficace et cause finale :


 La cause efficace (ou efficiente, agissante ou suffisante) est le phénomène
physique, la situation ou l'être à l'origine d'une autre situation ;

449
 La cause finale est le but (la finalité) d'une action, lorsque celle-ci a un auteur
pensant susceptible d'avoir un but.

Dans ce texte il s'agit toujours de cause efficace.

Aristote avait défini deux autres causes :


 La cause matérielle : substrat ou matériau nécessaire à la construction d'un
objet ;
 La cause formelle : idée, plan ou cahier des charges nécessaire à la construction
d'un objet ; c'est aussi la prémisse dont se déduit une conclusion.

[40] Théorie de l'avantage relatif de David Ricardo : voir le court texte "L'intérêt du
commerce international libre" http://www.danielmartin.eu/Cours/Ricardo.htm.
Voir aussi les deux ouvrages de David Ricardo :
 "On the Principles of Political Economy and Taxation" (1817)
http://socserv.mcmaster.ca/econ/ugcm/3ll3/ricardo/Principles.pdf
 "An Essay on the Influence of a low Price of Corn on the Profits of Stock;
shewing the Inexpediency of Restrictions on Importation:
With Remarks on Mr Malthus' Two Last Publications:
"An Inquiry into the Nature and Progress of Rent;"
and "The Grounds of an Opinion on the Policy of restricting the Importation of
Foreign Corn" (1815)
http://socserv2.socsci.mcmaster.ca/~econ/ugcm/3ll3/ricardo/profits.txt

[41] "Cours d'économie pour citoyens qui votent - Tome 2 Mondialisation et


délocalisations"
http://www.danielmartin.eu/Cours/CoursT2.htm#DefinitionMondialisation.

[42] Charles Darwin "De l'origine des espèces" (1859) disponible gratis en français à
l'adresse http://www.danielmartin.eu/Arg/Darwin.pdf.

Darwin n'a étendu qu'en 1869 la théorie de la sélection naturelle à l'évolution de


l'homme, en publiant une première édition de :
"La descendance de l'homme et la sélection sexuelle"
http://classiques.uqac.ca/classiques/darwin_charles_robert/descendance_homme/de
scendance_homme.html .

[43] "The Kochen-Specker Theorem" (Stanford Encyclopædia of Philosophy, Dec.


2006) http://plato.stanford.edu/entries/kochen-specker/

[44] "Axiomatique et théorèmes de Gödel" (Daniel MARTIN, 2009)


http://www.danielmartin.eu/Philo/Axiomatique.pdf

[46] Philosophie positiviste


Dans son "Dictionnaire de la langue française", Littré (1801-1881) écrit :
« Philosophie positive : se dit d'un système philosophique émané de l'ensemble
des sciences positives ; Auguste Comte en est le fondateur ; ce philosophe

450
emploie particulièrement cette expression par opposition à philosophie
théologique et à philosophie métaphysique. »

Pour Auguste Comte, fondateur du positivisme, on peut et on doit appliquer la méthode


scientifique, rationnelle et expérimentale, aux sciences humaines, notamment à la
sociologie. Seule la connaissance des faits est féconde et tout a priori doit être évité,
de même que tout concept de « chose en soi » et la métaphysique [371] en général.
Cette approche permet de relier la réalité concrète aux abstractions qui la représentent
par des relations et des lois sur la validité desquelles on peut compter.

[47] Kant - "Qu'est-ce que les Lumières ?" (1784)


http://www.danielmartin.eu/Philo/Lumieres.htm
Les philosophes des Lumières rêvaient d'apporter, grâce aux approches fondées sur
la raison, le bonheur aux hommes et la liberté à leur société. Le mot « Lumières » a
été choisi en tant qu'opposé de l'obscurantisme né de la crainte de l'homme de penser
par lui-même et de son habitude de penser comme le lui commandent l'Eglise ou le
tyran au pouvoir. En somme, ces philosophes promettaient à l'humanité de sortir de
l'enfance où l'on obéit sans discuter et d'accéder à un âge adulte, où un individu peut
réfléchir et décider par lui-même, et une société peut se gérer elle-même au lieu d'obéir
aveuglement à un prince. La valeur de la raison vient d'une foi dans la science, dont
on pouvait attendre le pouvoir par la connaissance.

[48] Nietzsche a publié les quatre premiers livres du "Gai savoir" ("Die fröhliche
Wissenschaft") en 1882, puis a complété l'ouvrage en 1887. C'est un livre souvent
joyeux, qui oblige à ne pas considérer Nietzsche comme exclusivement pessimiste.
C'est aussi un éloge de la connaissance, qualifiée de « gai savoir » lorsqu'elle
permet de se libérer des illusions naïves pour accepter le monde tel qu'il est. C'est
l'ouvrage dans lequel il affirme, selon l'article :
"Dieu est mort ! (Nietzsche, "Le Gai savoir" §125) - Résumé et analyse"
(Daniel MARTIN 2011) http://www.danielmartin.eu/Philo/Dieu-est-mort.pdf
"Dieu est mort ! Dieu reste mort ! Et c'est nous qui l'avons tué ! Comment nous
consolerons-nous, nous, meurtriers entre les meurtriers ! Ce que le monde a
possédé de plus sacré et de plus puissant jusqu'à ce jour a saigné sous notre
couteau ; qui nous nettoiera de ce sang ? Quelle eau pourrait nous en laver ?
Quelles expiations, quel jeu sacré serons-nous forcés d'inventer ? La grandeur
de cet acte est trop grande pour nous. Ne faut-il pas devenir Dieu nous-mêmes
pour, simplement, avoir l'air dignes de lui ?"

Voir ou revoir aussi les critiques sévères de Nietzsche sur nos illusions.

[48b] Dans le texte 276 du Gai savoir, Nietzsche écrit :


"Je veux apprendre toujours plus à voir dans la nécessité des choses le beau : je
serai ainsi l'un de ceux qui embellissent les choses. Amor fati…" (amour du destin)

[49] Albert Einstein "Sur l'électrodynamique des corps en mouvement" (1905). Ce petit
texte à la portée d'un élève de terminale jetait les bases de la Relativité Restreinte, qui
a révolutionné toute la physique à l'exception de la thermodynamique. Einstein a reçu

451
le Prix Nobel de physique en 1921 pour sa découverte de l'effet photoélectrique, pas
pour sa théorie de la Relativité, qui n'a pas été appréciée à sa juste valeur à l'époque.

[50] Définition de la vie de Gerald Joyce (The Scripps Research Institute) :


"Life is a self-sustaining chemical system capable of Darwinian evolution"
http://www.scripps.edu/mb/joyce/joyce.html

[51] "Genes and Behavior – Nature-Nurture Interplay Explained" (Gènes et


comportement – Interactions entre inné et acquis, mars 2008) par Sir Michael Rutter,
publié chez Blackwell Publishing. Extraits traduits :
 Page 14 :
"…l'action des gènes étant indirecte il n'est pas possible de réduire tous les
phénomènes au niveau moléculaire. Les organismes sont organisés sous forme
de hiérarchie de niveaux. Il y a une chaîne causale précise reliant le produit d'un
gène aux actions de ce gène dans l'organisme, mais cette chaîne causale passe
par divers niveaux organisationnels. A chaque niveau, la chaîne est transformée
et suit des règles différentes. La complexité commence avec le fait qu'un gène
donné quelconque peut avoir plusieurs effets assez différents.
[…] Les protéines produites par l'interprétation des gènes n'agissent pas de
manière isolée ; elles participent à la formation de réseaux et structures
complexes intégrés à leur tour dans une organisation hiérarchique. De plus,
dans le cadre des caractéristiques multifactorielles de l'individu (qui expliquent la
grande majorité des comportements intéressants) il y a des interactions avec
l'environnement qui peuvent mettre en jeu des corrélations gène-environnement,
des influences génétiques sur la sensibilité à l'environnement, et des effets de
l'environnement sur l'expression des gènes."
 Page 82
"De même, la probabilité qu'une personne divorce un jour dépendra, entre
autres, du fait qu'elle s'est mariée ou non pendant l'adolescence (circonstance
favorable au divorce), de la qualité de ses rapports avec son conjoint, de sa
tendance à avoir des liaisons extraconjugales, et de sa tendance à réagir aux
difficultés conjugales en optant pour un divorce ou une séparation. Autrement
dit, s'il est inconcevable qu'il existe un gène du divorce, il n'est pas ridicule de
penser que des influences génétiques sur le comportement jouent un rôle dans
la probabilité qu'une personne divorce un jour."
 Page 83
"…l'influence de ses gènes peut rendre une personne plus ou moins émotive
dans son comportement, plus ou moins impulsive dans ses réactions, plus ou
moins sociable et extravertie, d'humeur plus ou moins stable ou labile (sujet à
changer ou à se transformer), et plus ou moins assurée ou agressive dans ses
rapports avec autrui. Tous ces traits de caractère sont quantitatifs plutôt que
présents ou absents. Autrement dit, la population ne se subdivise pas en
individus agressifs et individus que ne le sont pas ; mais d'une personne à une
autre, la probabilité qu'elle soit agressive varie."
 Page 222
"Le fonctionnement de l'esprit est nécessairement basé sur celui du cerveau,
dont la structure et le développement sont façonnés à la fois par les gènes et

452
l'environnement, comme ceux de tout organe. Nous devons à tout prix nous
débarrasser de l'idée que certains comportements résultent de causes externes
au corps, idée sans fondement biologique. Les effets des gènes sont
omniprésents – ce qui n'implique pas, bien entendu, qu'ils prennent le pas sur
ceux de l'environnement."
Voir aussi [228].

[52] La libre circulation des marchandises et des services est négociée entre les pays
à l'Organisation Mondiale du Commerce (OMC)
http://www.wto.org/french/thewto_f/whatis_f/tif_f/fact1_f.htm,
qui arbitre aussi les conflits commerciaux entre pays.

[53] Nations unies - Conférence des Nations unies pour le commerce et le


développement (CNUCED) – "World Investment Report 2006"
http://www.unctad.org/en/docs/wir2006_en.pdf.

[54] Livre "Your Brain Is (Almost) Perfect - How We Make Decisions" (professeur
Read Montague, publié le 25/09/2007 par Dutton Adult )
http://us.penguingroup.com/nf/Book/BookDisplay/0,,9780452288843,00.html?strSrch
Sql=Read+Montague/Your_Brain_Is_(Almost)_Perfect_Read_Montague.

[55] Les séquences de code génétique ne doivent pas être interprétées comme des
suites de phrases ne contenant que des instructions. En effet, en informatique il n'y a
pas de distinction nette entre instructions (exécuter telle opération) et données
(nombres, chaînes de caractères, images, etc.), les instructions manipulant des
données. Un ordinateur peut travailler en interprétant des données dans un
programme ad hoc appelé « interpréteur » ; alors, si les données interprétées
changent, la logique du programme qu'elles constituent change et le résultat final
aussi.
Exemple d'interpréteur : le logiciel d'application MAPLE
http://www.maplesoft.com/ permettant de faire des calculs mathématiques
formels comme la dérivation de fonctions ou la résolution de systèmes
d'équations différentielles. MAPLE interprète des chaînes de caractères tapées
au clavier en y reconnaissant des commandes (ordres d'exécution) et des
données, et en affichant à l'écran le résultat de l'exécution de ces commandes
avec ces données. C'est ainsi que si on lui demande la dérivée de la fonction ax²
par rapport à x, MAPLE répond 2ax.
Il existe aussi des logiciels générateurs de programmes, qui interprètent des
données qu'un homme leur fournit pour écrire à sa place un programme dans un
langage de haut niveau. Ce langage sera ensuite traduit par un compilateur en
langage exécutable par le processeur de l'ordinateur, ou interprété par un
programme interpréteur spécifique. L'intérêt de cette approche est de simplifier
au maximum ce que l'homme doit exprimer pour obtenir un programme adapté à
des besoins précis, en adaptant cette expression à l'application (analyse
statistique de données, par exemple).

Il en va de même pour l'ADN, que l'on peut considérer aussi comme des données
interprétées par la machinerie cellulaire. C'est pourquoi, par exemple, on peut prélever
un gène (donc son code) dans une espèce vivante et l'introduire dans l'ADN d'une

453
autre espèce pour améliorer sa résistance à une maladie, ce qui produit un organisme
génétiquement modifié (OGM). En fait, l'ADN et la machinerie cellulaire forment un
ensemble matériel+logiciel capable d'adaptation et d'auto-organisation - tant
fonctionnelle que structurale - parce qu'il fonctionne tantôt comme un interpréteur,
tantôt comme un générateur de programme.

Voir aussi Evolution due à une modification de l'expression de gènes.

[56] On appelle nombre algébrique un nombre réel (comme 1.1195405303469) qui est
racine d'un polynôme à coefficients entiers (comme 4x3 + 2x2 - x - 7). Les nombres
comme Pi qui ne sont racine d'aucun polynôme à coefficients entiers sont appelés
transcendants. Pour Pi, ce résultat n'a été établi qu'en 1882.

Le nombre 142857, qui se répète indéfiniment dans la suite des décimales de la


fraction 22/7 (22/7 = 3.142857 142857 142857…), était connu des anciens Grecs pour
la propriété suivante : si on le multiplie successivement par 2, puis 3, puis 4, puis 5,
puis 6 on retrouve les mêmes chiffres dans le même ordre, mais commençant par un
chiffre différent ; et si on le multiplie par 7 on trouve 999999 !

[57] Livre "Decisions, Uncertainty, and the Brain - The Science of Neuroeconomics"
par Paul W. Glimcher (2003) - The MIT Press.
 Voir définition de la neuroéconomie dans [256].
 Voir la description critique du livre ci-dessus par un professeur de philosophie
dans http://www.cns.nyu.edu/~glimcher/BOOK/HumanNatureRev.pdf.
 Voir l'article "Indeterminacy in Brain and Behavior" (2005)
http://eebweb.arizona.edu/Faculty/Dornhaus/courses/materials/papers/Glimcher
%20behavior%20is%20indetermined.pdf

[58] L'économiste Joseph Stiglitz a reçu le prix Nobel d'économie en 2001 pour ses
travaux sur l'économie de l'information, qui traitent notamment de l'asymétrie
d'information. Exemple d'asymétrie : une transaction de vente de voiture d'occasion :
le vendeur, qui connaît le véhicule qu'il vend pour l'avoir utilisé et entretenu, a un
avantage sur l'acheteur, qui ne le connaît pas. Voir par exemple les textes :
 "Credit Rationing in Markets with imperfect information"
http://www.econ.ucdavis.edu/faculty/jorda/class/235b/notes/Topic%203%20-
The%20Credit%20Channel/Stiglitz%20and%20Weiss.pdf
 "Credit and Equity Rationing in Markets with Adverse Selection"
http://strategy.sauder.ubc.ca/hellmann/pdfs/Credit.pdf
 "Théories financières et intermédiation" http://theoriefinance.canalblog.com/,
dont voici un extrait légèrement édité :
"Deux individus, A et B, souhaitent coopérer. Il y a alors deux cas :
 Soit A fait confiance à B, deux types de gains sont possibles : si B triche, il
en résulte -5 pour A et 10 pour B ; si B est honnête, les gains sont de 5 pour
chaque partie.
 Soit A ne fait pas confiance à B, et les gains sont nuls pour chaque partie
car la transaction n'a pas lieu.

454
La coopération entre A et B permet la formation d'un état social plus satisfaisant
pour tous. A n'entrera dans cette relation que s'il a suffisamment confiance en B.
La théorie économique analyse cette situation en supposant que les agents A et
B sont parfaitement rationnels : ils vont essayer de maximiser leur satisfaction.
Dans ce cas, A qui étudie la situation sait que s'il choisit de faire confiance à B, B
étant rationnel va tricher. Donc A n'entrera pas en relation avec B. Le blocage
est lié au fait que les individus ne partagent rien si ce n'est le désir de maximiser
leur gain."

[59] Matière et particules élémentaires – Modèle standard de la physique


Le Modèle standard de la physique associe deux théories de la physique atomique en
un modèle unique qui décrit les 4 interactions [18] des particules subatomiques. Ses
deux théories sont : la théorie électrofaible (qui décrit et unifie l'interaction
électromagnétique et l'interaction nucléaire faible) et l'électrodynamique quantique.

Voici ce qu'en pensent les scientifiques du CERN [262] -


http://home.web.cern.ch/fr/about/updates/2015/05/cms-and-lhcb-experiments-reveal-
new-rare-particle-decay :
"Mis au point au début des années 1970, le Modèle standard est actuellement la
meilleure description existante du monde subatomique. Il arrive à expliquer la
quasi-totalité des résultats expérimentaux en physique des particules et a prédit
avec précision toute une série de phénomènes. Toutefois, il ne permet pas de
répondre à certaines questions importantes, par exemple : « qu'est-ce que la
matière noire ? » ou « qu’est-il arrivé à l'antimatière après le Big Bang? »."

Echelles
Regardons un objet matériel, supposé être un corps chimique pur, avec un
grossissement croissant, en supposant que l'on peut voir des objets aussi petits que
l'on veut.
 Lorsqu'on arrive à une dimension observée de l'ordre de 1 nanomètre
(1nm = 10-9 m) on voit une molécule de l'objet.
 A l'échelle dix fois plus petite de 1 angström (1Å = 10-10 m) on voit un atome de
molécule.
 A l'échelle de 10 femtomètres (10-14 m) on voit le noyau d'un atome.
 A l'échelle de 1 femtomètre (appelé aussi fermi, 1 fm = 10-15 m) on voit un proton
ou un neutron du noyau atomique. Les protons et neutrons d'un même noyau
atomique sont liés entre eux par une force extrêmement intense, appelée force
(ou interaction) nucléaire (ou forte) [18], suffisamment intense pour s'opposer à
la répulsion électrostatique naturelle entre protons (de charge positive) d'un
même noyau.
 A l'échelle de 0.1 attomètre (1 am = 10-18 m) on verrait un quark, constituant du
proton ou du neutron. N'ayant pas de composant plus petit dans le modèle
physique standard, c'est une particule élémentaire.

Il n'y a pas d'échelle où un électron serait visible. Disons simplement, pour fixer les
idées, que la région de l'espace autour d'un noyau atomique (appelée orbitale) où un
électron a une forte probabilité de se trouver a une dimension de l'ordre de 1Å.

455
L'électron n'ayant pas de composant plus petit connu, c'est aussi une particule
élémentaire.

Particules et modèle standard - Une particule est :


 Une très petite partie de la matière (un corpuscule), comme un atome, un noyau
atomique, un électron, un fermion, un quark, etc. Un tel objet a une masse et
peut avoir une charge électrique et d'autres propriétés comme le spin [22] ;
 Ou un quantum d'énergie sans masse, comme un photon [117] ;
 Ou une quantité minuscule d'énergie, de masse nulle ou extrêmement faible,
mais réagissant à certaines interactions [18]. Exemple : le neutrino, dont on
connaît trois variétés dans le modèle standard des particules ci-dessous.

Modèle standard des particules fondamentales (source : [270])


(e est la valeur absolue de la charge électrique de l'électron, e=1.6 .10-19 joules)

456
Les particules de familles différentes ne diffèrent que par leur masse, pas par leur
interaction. Les interactions du modèle standard sont décrites dans [18].

Quarks et leptons
 Les constituants élémentaires de la matière qui réagissent à l'interaction forte
sont appelés quarks. Les quarks s'associent grâce à la cohésion de l'interaction
forte pour constituer des protons et des neutrons.
 Les constituants élémentaires de la matière qui ne réagissent qu'à la gravitation,
l'interaction faible et la force électromagnétique [18] sont appelés leptons (du
grec leptos, léger).

Les quarks ont une couleur, les leptons n'en ont pas. Quarks et leptons sont appelés
particules fondamentales parce qu'ils n'ont pas de sous-particules composantes.

Fermions
Les constituants de base de la matière que sont les quarks et les électrons sont
appelés fermions, du nom du physicien Enrico Fermi, prix Nobel de physique 1938. Ils
réagissent aux interactions [18]. Ceux qui ne réagissent pas aux interactions fortes
[18] sont appelés leptons ; exemples : l'électron (lepton chargé) et le neutrino (lepton
neutre). Le spin [22] d'un fermion est un multiple demi-entier de Ô :
1/2ä, 3/2ä, 5/2ä, etc.

Les fermions ont une propriété curieuse, qui défie le déterminisme intuitif mais
s'explique en Mécanique quantique : après une rotation d'un tour complet (360°) sur
lui-même, l'état |> d'un fermion change de signe et devient -|> au lieu de rester
inchangé ! Il faut 2 tours pour revenir à l'état initial.

Hadrons
Les particules qui réagissent aux interactions fortes [18] sont appelées hadrons (du
grec hadros, fort). Un hadron est composé de quarks, d'antiquarks et de gluons. Un
hadron est soit un fermion, soit un boson.

Bosons
Les bosons sont définis comme des particules de spin [22] multiple entier de Ô :
0, Ô, 2Ô, etc.

Les interactions [18] entre particules correspondent à l'émission d'un champ auquel
les ions (atomes qui ont perdu au moins un électron et sont donc de charge positive)
et les fermions réagissent. Ces interactions étant quantifiées, leur énergie ne peut
prendre que des valeurs discrètes. Chaque interaction agissant sur une particule ayant
une énergie peut être, elle aussi, considérée comme une particule du fait de
l'équivalence masse-énergie d'Einstein. C'est alors une particule d'interaction appelée
boson, du nom du physicien Indien Satyendranath Bose. Exemple de boson : le photon
[117], particule de l'interaction électromagnétique.

457
Il y a cependant des bosons qui sont des corpuscules, pas des particules d'interaction.
Exemple : les noyaux d'atomes de nombre de masse pair, comme le noyau d'hélium
4, aussi appelé « particule alpha ».

Contrairement à celui d'un fermion, l'état quantique |> d'un boson reste inchangé par
rotation de 360°.

[60] Liste des prix Nobel de physique de la Fondation Nobel


http://nobelprize.org/nobel_prizes/physics/laureates/

[61] Le Figaro du 02/06/2007, débat "André Comte-Sponville - Jean Staune : la


science va-t-elle réfuter l'athéisme ?"
http://www.lefigaro.fr/debats/20070602.FIG000001519_andre_comte_sponville_jean
_staune_la_science_va_t_elle_refuter_l_atheisme.html.

[62] Principe de moindre action de Maupertuis. Définition d'une action


Maupertuis appelle action AC lors du déplacement d'un point matériel dans un champ
de force sous l'effet de celle-ci le long de l'arc de courbe C, de l'instant t1 à l'instant t2,
le produit d'une énergie par un temps donné par l'intégrale :

t2
AC   L(q1 , q2 , q3 ; q1 , q2 , q3 ; t )dt
t1

où :
 q1, q2, q3 sont les coordonnées généralisées du point, fonctions du temps t ;
 q'1, q'2, q'3 sont les vitesses généralisées du point, dérivées de q1, q2, q3 par
rapport au temps t ;
 L(q1, q2, q3 ; q'1, q'2, q'3 ; t) est le lagrangien du point matériel, différence fonction
du temps entre son énergie cinétique et son énergie potentielle.

Le « Principe de moindre action » (qui est en fait un théorème démontrable) affirme


que parmi toutes les trajectoires possibles d'un point matériel entre deux points A et
B, celle qui est choisie par la nature est celle qui minimise l'action. On démontre que
ce principe équivaut aux lois du mouvement de Newton [110], dont il remplace la
détermination du mouvement de proche en proche par une approche globale.

Le déterminisme peut donc aussi, parfois, présenter un comportement global où les


situations intermédiaires sont déterminées par la situation initiale (« oubliée » tout de
suite après le départ dans le déterminisme de proche en proche) et la situation finale
qui n'a pas encore été atteinte !

L'approche « moindre action » de la mécanique (science du mouvement sous l'action


de forces), proposée par Maupertuis en 1744 dans le cadre de la Mécanique
analytique [340], se trouve particulièrement apte à traiter les théories qui considèrent,
non un seul mouvement réel, mais une collection de mouvements possibles, c’est-à-
dire la Mécanique statistique et la Mécanique quantique. Elle est donc d'une grande
importance.

458
Le déterminisme, principe régissant l'évolution d'une situation (comme la trajectoire
d'un objet soumis à une force) sous l'action de lois physiques, affirme que cette
évolution n'est pas quelconque (imprécise, indéterminée ou soumise au hasard).
L'existence du Principe de moindre action montre qu'une évolution entre un état initial
et un état final peut aussi être déterminée (choisie par la nature parmi plusieurs
évolutions théoriquement possibles) en fonction de ces seuls états, et que les états
intermédiaires en résulteront.

En fait, considérer le seul déterminisme de proche en proche est faire preuve de


myopie. Il n'y a pas de raison de déduire un mouvement de la seule situation initiale
au voisinage du point de départ A, en ignorant l'ensemble du champ de force. Si on
prend en compte l'ensemble du champ, il n'est pas étonnant qu'une loi globale de la
mécanique, le Principe de moindre action, en tienne compte et détermine une
trajectoire globale qui dépend du champ tout entier. Le champ en un point M et la force
qui en résulte ne sont que les manifestations ponctuelles, en M, du champ dans son
ensemble.

En réfléchissant bien, une détermination globale d'une trajectoire en fonction de


conditions globales est tout aussi logique et naturelle qu'une détermination locale, de
proche en proche. Du reste, l'application du Principe de moindre action entre deux
points très voisins d'une trajectoire est aussi valable que son application entre points
lointains, et minimise également l'intégrale d'action ; et son application répétée autant
de fois qu'il faut donne le même résultat qu'une application directe entre points
éloignés.

Les deux approches pour déterminer une trajectoire, l'approche locale et l'approche
globale, utilisent le même principe de mécanique, la conservation de l'énergie totale
dans un champ de force, mais elles l'utilisent différemment : l'approche globale calcule
directement la trajectoire menant à la destination, alors que l'approche locale calcule
une infinité de destinations successives de proche en proche.
En réalité, le concept d'échelle locale ou globale est strictement humain, la nature
ne s'en sert pas : dans une situation donnée, elle applique la loi qu'il faut, avec
tous ses paramètres.

Parmi les trajectoires possibles d'un objet pesant dans un champ de force, le choix de
celle qui minimise l'action est analogue au choix par la lumière de la trajectoire qu'elle
parcourt entre deux points A et B d'un milieu optique (d'indice de réfraction constant
ou non) : elle emprunte toujours le chemin qui prend le moins de temps à parcourir.
Dans l'espace habituel (espace euclidien, à courbure nulle), c'est une ligne droite. A la
surface d'une sphère, c'est l'arc de grand cercle le plus court passant par A et B (et
dont le centre est, par définition, celui de la sphère). La courbure de la lumière
provenant d'une galaxie lointaine par une galaxie située entre elle et la Terre (galaxie
dont la masse déforme l'espace-temps) produit le phénomène de lentille
gravitationnelle, prévu par Einstein dans la théorie de la Relativité Générale et observé
tous les jours par les astronomes.

459
[63] Baruch Spinoza - Citation de "L'Ethique" (1663-1677), partie I - Axiome III (voir
[97]) :
"Etant donnée une cause déterminée, l'effet suit nécessairement ; et au
contraire, si aucune cause déterminée n'est donnée, il est impossible que l'effet
suive."

[64] "Travail ou Capital ? - La fonction de production"


http://www.danielmartin.eu/Cours/Capital-Travail.htm.

[65] Newsweek International du 04 juin 2007 - 3 articles :


 "Scientists Push the Boundaries of Human Life"
 "Q&A: Craig Venter's Next Quest"
 "A Nobel Winner Pioneers the Personal Genome".

[66] Blaise Pascal - "Pensées" http://abu.cnam.fr/cgi-bin/donner_html?penseesXX1 .

Extrait "Différence entre l'esprit de géométrie et l'esprit de finesse"


"En l'un les principes sont palpables mais éloignés de l'usage commun de sorte
qu'on a peine à tourner la tête de ce côté-là, manque d'habitude : mais pour peu
qu'on l'y tourne, on voit les principes à plein ; et il faudrait avoir tout à fait l'esprit
faux pour mal raisonner sur des principes si gros qu'il est presque impossible
qu'ils échappent.
Mais dans l'esprit de finesse, les principes sont dans l'usage commun et devant
les yeux de tout le monde. On n'a que faire de tourner la tête, ni de se faire
violence ; il n'est question que d'avoir bonne vue, mais il faut l'avoir bonne : car
les principes sont si déliés et en si grand nombre, qu'il est presque impossible
qu'il n'en échappe. Or l'omission d'un principe mène à l'erreur ; ainsi il faut avoir
la vue bien nette pour voir tous les principes, et ensuite l'esprit juste pour ne pas
raisonner faussement sur des principes connus.
Tous les géomètres seraient donc fins s'ils avaient la vue bonne, car ils ne
raisonnent pas faux sur les principes qu'ils connaissent. Et les esprits fins
seraient géomètres s'ils pouvaient plier leur vue vers les principes inaccoutumés
de géométrie.
Ce qui fait donc que certains esprits fins ne sont pas géomètres c'est qu'ils ne
peuvent du tout se tourner vers les principes de géométrie, mais ce qui fait que
des géomètres ne sont pas fins, c'est qu'ils ne voient pas ce qui est devant eux
et qu'étant accoutumés aux principes nets et grossiers de géométrie et à ne
raisonner qu'après avoir bien vu et manié leurs principes, ils se perdent dans les
choses de finesse, où les principes ne se laissent pas ainsi manier. On les voit à
peine, on les sent plutôt qu'on ne les voit, on a des peines infinies à les faire
sentir à ceux qui ne les sentent pas d'eux-mêmes. Ce sont choses tellement
délicates, et si nombreuses, qu'il faut un sens bien délicat et bien net pour les
sentir et juger droit et juste, selon ce sentiment, sans pouvoir le plus souvent le
démontrer par ordre comme en géométrie, parce qu'on n'en possède pas ainsi
les principes, et que ce serait une chose infinie de l'entreprendre. Il faut tout d'un

460
coup voir la chose, d'un seul regard et non pas par progrès de raisonnement, au
moins jusqu'à un certain degré.
Et ainsi il est rare que les géomètres soient fins et que les fins soient géomètres,
à cause que les géomètres veulent traiter géométriquement ces choses fines et
se rendent ridicules, voulant commencer par les définitions et ensuite par les
principes, ce qui n'est pas la manière d'agir en cette sorte de raisonnement. Ce
n'est pas que l'esprit ne le fasse mais il le fait tachement, naturellement et sans
art…"

Pascal a résumé cela dans ses Pensées en écrivant :


"Le cœur a ses raisons que la raison ne connaît point ; on le sait en mille
choses."
"Les principes se sentent, les propositions se concluent et le tout avec certitude
quoique par différentes voies - et il est aussi inutile et aussi ridicule que la raison
demande au cœur des preuves de ses premiers principes pour vouloir y
consentir, qu'il serait ridicule que le cœur demandât à la raison un sentiment de
toutes les propositions qu'elle démontre pour vouloir les recevoir."

L'esprit de finesse (intuition, sagacité, etc.) est non déterministe : ses idées ne
résultent d'aucun raisonnement logique. Nous en avons tous les jours des exemples
dans les discours de nos politiciens et de nos journalistes. Ces personnes affirment
souvent sans preuve, émettent des jugements de valeur sans justification, etc. (voir
[170]). Leur comportement ressemble là à celui d'artistes, dont la fantaisie et
l'imprévisibilité sont souvent à l'origine des créations. Mais alors que les artistes ne
cherchent qu'à nous intéresser ou à nous émouvoir, les politiciens cherchent à nous
convaincre sur des sujets sérieux et les journalistes à nous informer…

Les intuitions font partie de l'esprit de finesse : [141].

[67] Axiomatique : définitions et applications


L'axiomatique est une méthode de présentation structurée d'une science par
déductions logiques à partir des principes qui la fondent. Le résultat de cette méthode
est une axiomatique. Voir le texte pédagogique sur ce sujet "Axiomatique et théorèmes
de Gödel" [44] et les exemples d'axiomatique.

Voici les étapes logiques de la construction de l'axiomatique d'une science, étapes qui
suivent souvent des constatations empiriques [241] :
 Inventaire exhaustif des symboles de base (alphabet) de la science considérée,
les éléments d'information qu'elle manipule (par exemple dans le cas de
l'arithmétique : les nombres entiers, les symboles des opérations comme
l'addition et les symboles logiques comme l'égalité et l'implication) ;
 Définition de règles de syntaxe permettant de construire formellement des
propositions "syntaxiquement correctes" par concaténation de symboles de
base ;
 Inventaire exhaustif de ses axiomes (postulats), c'est-à-dire de toutes les vérités
admises sans démonstration.

461
Exemple d'axiome : « Si une affirmation A est vraie, l'affirmation contraire ¬A est
fausse » [99] ; (¬A se prononce « non A »).
 Définition des règles de déduction (appelés aussi règles d'inférence ou axiomes
de logique) permettant de déduire des théorèmes à partir des axiomes et
éventuellement de théorèmes précédemment établis, mais en s'interdisant de
recourir à des vérités ou des règles externes à cette axiomatique.
Exemple de règle de déduction : « quels que soient les nombres a, b, c, on a :
(a + b) x c = (a x c) + (b x c), où "+" est le symbole d'addition, "x" est le symbole
de multiplication, et un contenu entre parenthèses doit être considéré comme un
tout. »

Les théorèmes d'une axiomatique n'apportent donc pas de vérité nouvelle : ils sont
implicitement contenus dans ses définitions ; ils en sont des conséquences logiques
et n'y ajoutent que des présentations nouvelles, des rapprochements nouveaux.

Démontrer un théorème T dans le cadre d'une axiomatique revient à trouver la suite


de déductions qui, partant de certains axiomes de base et de théorèmes déjà établis,
aboutit au théorème proposé en appliquant des règles de déduction de l'axiomatique.
Cette démonstration peut être complètement automatisée en exécutant un algorithme
dans un ordinateur, algorithme qui combinera tous les axiomes, théorèmes déjà établis
et règles de déduction connus jusqu'à ce qu'il aboutisse à T. Il peut cependant arriver
qu'il aboutisse à ¬T, la proposition contraire de T, montrant ainsi que T est faux. Il peut
aussi arriver que T soit indécidable [6] et qu'aucune démonstration n'aboutisse à T ou
¬T en un temps fini (voir la définition de la complétude ci-dessous).

[67a] Remarque sur la différence entre vérité formelle et vérité sémantique


Un théorème démontré dans le cadre d'une axiomatique est vrai, mais sa signification
et sa valeur dans un domaine réel auquel on applique l'axiomatique ne sont pas établis
par la démonstration ; celle-ci est dite formelle. Ainsi, un théorème formellement établi
en mathématiques peut se révéler faux ou dénué de sens dans certains cas en
physique, lorsqu'on y modélise la réalité par des fonctions et équations mathématiques
relevant d'une axiomatique.

En somme, l'application correcte des règles de déduction et l'existence d'un théorème


ne garantissent rien quant à la sémantique de ce théorème. Pour tout théorème (ou
formule, ou équation…) il faudra ensuite effectuer des vérifications :
 Ce qu'il affirme ou prédit est-il conforme à la réalité expérimentale ?
 Les conséquences qu'on en tire ne contredisent-elles pas une autre certitude ?
Une seule contradiction suffit pour prouver qu'un énoncé est faux !
 Si le théorème, la formule ou l'équation décrivent une réalité physique, une
vérification empirique (c'est-à-dire expérimentale) s'impose pour vérifier
l'absence de résultat qui constitue un démenti.

Une axiomatique est un cadre déterministe


Déduire un théorème à l'aide des règles d'une axiomatique est un processus
parfaitement déterministe. Le théorème lui-même (ou ses formules ou équations)
exprime une réalité déterministe (dans le cadre d'un déterminisme de traduction).

462
Cohérence d'une axiomatique
Une axiomatique est dite cohérente si tout théorème déduit de ses axiomes (et/ou
d'autres théorèmes précédemment démontrés) est lui-même non contradictoire et ne
contredit aucun autre théorème ou axiome de l'axiomatique. Gödel a prouvé
l'impossibilité de démontrer la cohérence d'une axiomatique en tant que théorème de
cette axiomatique, c'est-à-dire sans recourir à des axiomes ou règles de déduction
externes à l'axiomatique [6].

Complétude d'une axiomatique


Une axiomatique est dite complète si on peut démontrer que toute proposition qu'on y
déduit (théorème), ou qu'on y énonce a priori en la formant à partir de son alphabet
conformément à ses règles de syntaxe, est soit vraie soit fausse ; la démonstration
éventuelle ne doit utiliser que des axiomes, théorèmes et règles de déduction de
l'axiomatique.

Mais hélas, Gödel a montré que toute axiomatique définissant un minimum


d'arithmétique des nombres entiers permet l'énoncé de propositions indécidables
[100]. Une telle proposition est soit vraie soit fausse, mais il n'existe pas de
démonstration basée sur les axiomes de l'axiomatique et appliquant ses règles de
déduction permettant de la démontrer. La démonstration de Gödel est présentée dans
[44].

On peut enrichir une axiomatique : voir [92], et définir un langage formel associé.

Exemples d'axiomatiques
 L'axiomatique du calcul des propositions.
 "Les Eléments d'Euclide" (IVe au IIIe siècle avant J.-C.)
http://jfgilles.club.fr/mathematiques/bibliotheque/euclide/index.html
Exemple de postulat extrait du "Livre premier" des Eléments
http://jfgilles.club.fr/mathematiques/bibliotheque/euclide/elements/livre_1.htm :
"Si une droite, tombant sur deux droites, fait les angles intérieurs du même côté
plus petits que deux droits, ces droites, prolongées à l’infini, se rencontreront du
côté où les angles sont plus petits que deux droits."
La géométrie axiomatique d'Euclide constitue une représentation
extraordinairement précise et complète de l'espace physique habituel, sur laquelle
reposent toute la physique classique et l'ensemble des travaux de Newton [103]
[109] [110].
La Relativité (Restreinte et Générale) ne fait que compléter cette physique.
 David Hilbert : "Fondements de la géométrie" http://www-
cabri.imag.fr/abracadabri/GeoNonE/GNEIntro/Hilbert.htm
Exemple d'axiomes de Hilbert :
 "Si un point B est entre un point A et un point C, les points A, B, C sont sur
une droite et B est aussi entre C et A."
 "Etant donnés deux points A et C, il existe au moins un point B sur la droite
(AC) qui soit entre A et C."

463
 "De trois points d'une droite, il n'y a pas plus d'un qui soit entre les deux
autres."
 "Si une droite du plan d'un triangle ne passe par aucun des sommets et
rencontre un des côtés, alors elle rencontre l'un des deux autres côtés."

Application d'une axiomatique à la physique : postulats de la Mécanique quantique


En tant que méthode, l'axiomatique s'applique à la physique pour permettre une
certaine formalisation et l'application (automatique, sans considération de signification)
de mathématiques à ses problèmes. Après adoption d'axiomes mathématiques et de
règles de correspondance décrivant le passage des phénomènes physiques aux
symboles des axiomes mathématiques, l'étude d'un problème se réduit à des
déductions théoriques suivies d'une vérification expérimentale. Nous avons abordé
dans ce texte la Mécanique quantique, qui est un bon exemple d'axiomatique et
d'application des mathématiques à la physique de l'échelle atomique.

Voici les 6 postulats de la Mécanique quantique, extraits de [68] :

 1er postulat :
A un instant t0 fixé, l'état d'un système physique est défini par la donnée d'un ket
|(t0)>E, où E est l'espace des états.

E étant un espace vectoriel, ce premier postulat implique le principe de superposition :


une combinaison linéaire de vecteurs d'état est un vecteur d'état.

2e postulat :
Toute grandeur physique mesurable A est décrite par un opérateur A agissant dans
E ; cet opérateur est une observable [278].

3e postulat :
La mesure d'une grandeur physique A ne peut donner comme résultat qu'une des
valeurs propres [278] de l'observable A correspondante.

Toute valeur propre pouvant résulter d'une mesure est affectée d'une probabilité si elle
est discrète, et d'une densité de probabilité si elle est continue (4e postulat, ci-
dessous). L'équation de Schrödinger, elle, est déterministe au sens traditionnel.

 4e postulat (cas d'un spectre discret, dégénéré ou non) :


Lorsqu'on mesure la grandeur physique A d'un système dans l'état |> normé,
la probabilité d'obtenir comme résultat la valeur propre a n de l'observable A
correspondante [278] est :
gn
P(an )  | u in |  | ²
i 1

464
où gn est le degré de dégénérescence de a n et {|uni>} (i=1, 2...gn) est
une base orthonormée du sous-espace propre En associé à la valeur propre an.

 4e postulat (cas d'un spectre continu et non dégénéré) :


Lorsqu'on mesure la grandeur physique A d'un système dans l'état |> normé,
la probabilité dP() d'obtenir un résultat compris entre  et +d est :
dP() = |<v|>|² d
où |v> est le vecteur propre correspondant à la valeur propre  de l'observable
A associée à A

 5e postulat : Si la mesure de la grandeur physique A sur un système dans l'état


|> donne le résultat an, l'état du système immédiatement après la mesure est la
projection normée
Pn |  
  | Pn |  

de |> sur le sous-espace propre associé à an.

 6e postulat : L'évolution dans le temps du vecteur d'état |(t)> est régie par
l'équation de Schrödinger iä d/dt|(t)> = H(t)|(t)>, où H(t) est l'observable associée
à l'énergie totale du système.

Remarques :
 La mesure d'une variable introduit un caractère probabiliste (postulats 3 et 4).
 L'équation de Schrödinger est déterministe et invariante par renversement du
sens du temps (changement de t en -t : postulat 6). Elle définit l'état d'un
système en fonction du temps, ce qui peut conduire, par exemple, à un état
stationnaire combinaison linéaire d'états, ou à une particule en mouvement dont
chaque position est floue car définie par un paquet d'ondes (superposition de
particules au voisinage de la position considérée, chacune avec sa probabilité).

Langage formel
Un langage est dit formel s'il ne définit pas la sémantique de ses mots et phrases,
sémantique supposée connue, comprise et rédigée en langage naturel ou dans un
langage adapté appelé métalangage.

465
Un langage formel est défini (spécifié) par :
 Une liste de symboles primitifs (on dit aussi symboles de base), comme certains
caractères d'un clavier d'ordinateur et des symboles comme 3; =; ¤; etc. ;
 Une liste de mots, formés par concaténation de symboles de base et considérés
comme atomiques (non décomposables en leurs symboles de base) ;
 Une syntaxe, comprenant notamment une liste d'opérateurs permettant de
combiner des mots en phrases (opérateurs logiques comme ET ; OU ; QUEL
QUE SOIT ; IL EXISTE ; opérateurs arithmétiques comme + ; - ;…, etc.).
Plusieurs phrases peuvent aussi être concaténées pour former une autre
phrase.

Certaines phrases sont appelées axiomes et constituent les postulats de l'axiomatique


[67] basée sur ce langage formel. On définit aussi des règles de déduction (appelées
également règles d'inférence) permettant de passer d'une phrase dont la valeur
logique est VRAI à une autre phrase également vraie. L'ensemble des axiomes et
règles de déduction constituent une axiomatique basée sur ce langage ; inversement,
à une axiomatique donnée on peut associer un langage formel ou plusieurs. (Détails :
[44])

L'intérêt d'un langage formel est de permettre la rédaction d'algorithmes, puis la


traduction de ceux-ci en un programme informatique calculable.

Structure axiomatique hiérarchisée des valeurs d'un individu


La structure des valeurs d'un individu constitue une axiomatique hiérarchisée. Les
axiomes de base sont des valeurs incorporées à l'inconscient, considérées par
l'individu comme allant de soi. L'individu les tient de son patrimoine génétique, de la
culture dont il hérite, de son éducation et de son expérience. Bien qu'elles puissent
changer avec le temps et l'expérience de la vie, la conscience ne peut y accéder ; elle
ne peut ni les créer ni les modifier. Les axiomes de base sont accompagnés de règles
d'application non explicites permettant des jugements de valeur et la déduction par la
conscience de valeurs secondaires.

La conscience peut connaître n'importe quelle valeur en se posant des questions du


type : « Est-ce bien ou mal de… ? », « Est-ce que j'apprécie… ? » ou « Est-ce que je
dois… ». Elle peut aussi, en réfléchissant, se créer des valeurs secondaires à partir
des valeurs de base, et elle peut les enregistrer dans la mémoire pour s'y référer
ultérieurement.

Lorsqu'un individu peut baser une décision d'action sur une valeur, A, ou une autre, B,
c'est celle qui est placée le plus haut dans la hiérarchie qui prévaut. Si j'ai le choix
entre gagner un million et préserver ma vie, par exemple, je choisis de vivre. La
hiérarchie des valeurs d'une personne est analogue à celle de ses gènes, dont chaque
niveau commande le niveau inférieur.

[68] Cours : "Mécanique quantique" par Claude Cohen-Tannoudji (prix Nobel de


physique 1997 [60]), Bernard Diu et Franck Laloë, éditions Hermann.

466
C'est le seul cours que je connaisse qui soit parfait : aucune erreur scientifique, aucune
faute de français ou d'orthographe, pédagogie si exemplaire que c'est un des très rares
cours de physique français traduits en anglais, texte si clair qu'on peut l'étudier seul
(je l'ai fait : compter deux mille heures pour ses 1480 pages, si on a le niveau
mathématique suffisant, notamment une bonne compréhension des espaces de
Hilbert).

[69] Algorithme
Suite d'étapes (instructions) de calcul permettant de traiter des données pour produire
un résultat, avec ou sans ordinateur. Ces instructions doivent être utilisées dans un
ordre précis, en commençant nécessairement par la première. Une instruction peut
consister à tester un résultat intermédiaire et à choisir en fonction du résultat de ce
test par laquelle des autres instructions il faut poursuivre l'exécution :

si <condition> alors <exécuter l'instruction X> sinon <exécuter l'instruction Y> ;

L'algorithme peut avoir pour données des nombres, des textes, des tableaux ou autres
structures de données, des sons, des images ou même du code informatique. Il peut
aussi traiter des propositions à valeur booléenne ("vrai" ou "faux") pour établir ou
vérifier un théorème [67].

Tout logiciel informatique est un ensemble d'algorithmes, exécutés à la demande d'un


utilisateur ou sous les ordres du système d'exploitation, lui-même algorithme complexe
gérant à tout instant toutes les ressources de calcul, de mémorisation et d'entrées-
sorties de l'ordinateur, ainsi que son logiciel d'application.

Tout algorithme, tout logiciel est un processus parfaitement déterministe.

Inversement, un ordinateur ne sait pas effectuer d'opération non algorithmique (qu'on


n'a pas décrite sous forme d'algorithme). Pour lui faire utiliser une logique autre que
celle du code dont il dispose, il faut soit lui fournir le code de l'algorithme correspondant
en entrée, soit lui faire générer un code d'algorithme exécutable résultant du code déjà
disponible et éventuellement de données externes fournies. Un ordinateur n'est donc
pas capable, comme l'homme, d'avoir des intuitions [141] qui constitueraient pour lui
des données ou des algorithmes non calculables. Autrement dit, à part la génération
de nombres ou de données pseudo-aléatoires par un algorithme déterministe
(génération d'une suite de données calculable), il est incapable de fonctionner de
manière non déterministe ou imprévisible.

Un ordinateur est cependant capable d'exécuter des algorithmes :


 De réseau neuronal, capables d'autoapprentissage à partir de nombreux cas
particuliers, donc d'autoprogrammation (utilisant un processus d'induction) ; mais
après apprentissage, l'exécution est déterministe.
 De logique floue, où en plus de valeurs logiques (on dit aussi booléennes) "vrai"
(représentée par 1) et "faux" (représentée par 0) on utilise des valeurs
intermédiaires entre 0 et 1, attribuées selon divers algorithmes de décision qui,
eux, sont parfaitement déterministes.

467
Le déroulement d'un algorithme du début à la fin dans le sens de sa logique est
toujours déterministe ; son existence même prouve qu'on peut prévoir son résultat en
déroulant l'algorithme, par exemple dans un ordinateur. Mais son résultat ne peut être
prédit au vu de son texte et de ses données initiales, il faut attendre la fin de son
exécution… et tous les algorithmes ne se terminent pas en un temps fini ou acceptable.

L'immense majorité des algorithmes ne sont pas réversibles : on ne peut pas les
dérouler à l'envers et retrouver les données de départ à partir du résultat final.
Exemple : si le résultat de l'addition de deux nombres entiers est 5, il est impossible
de savoir, après, si ces deux nombres étaient 1 et 4 ou 2 et 3.

Convergence et arrêt d'un algorithme


Il est important de savoir qu'en général on ne peut pas prévoir si l'exécution d'un
algorithme va s'arrêter, simplement en examinant son code.
Exemple : L'algorithme itératif cité dans [8] :
1 A
xn1  ( xn  )
2 xn

trouve des valeurs successives xn qui convergent vers la racine du nombre réel positif
donné A quelque soit la valeur de départ réelle positive x1 (par exemple x1 = 1). Mais
lorsque la racine à trouver est un nombre irrationnel (qui a donc une infinité non
périodique de décimales après la virgule) l'algorithme n'a pas de raison de s'arrêter et
l'ordinateur qui l'exécute ne fournira son résultat qu'après un temps infini, donc en
pratique jamais. Il le fournira d'autant moins que ses calculs se font avec un nombre
de décimales fini et fixe. L'algorithme doit donc être muni d'un test lui permettant de
s'arrêter.

Validité d'un algorithme


La validité sémantique d'un algorithme n'est pas évidente : l'existence d'un algorithme
donné ne garantit pas que le résultat de son exécution sera jugé correct par un homme.
La validité de l'algorithme doit être établie avant son écriture. Une tentative de l'établir
expérimentalement, en constatant qu'il donne des résultats corrects dans N cas ne
prouve pas que ses résultats seront corrects dans tous les cas.

[70] Valeur, culture et morale : définitions

Valeur
C'est la qualité de ce qui est désiré ou estimé, ou au contraire rejeté, redouté.
Exemples de valeurs : vérité, justice, amour, beauté, etc.

Toute valeur est en même temps objet d'un désir et objet d'un jugement : le désir est
la cause, le jugement, l'arbitre ; si l'un de ces deux facteurs disparaît, il n'y a plus de
valeur. Dans l'esprit humain, chaque valeur est automatiquement associée à un ou
plusieurs affects sur lesquels le jugement peut se baser.

En plus des valeurs positives précédentes, il y a bien entendu des valeurs négatives
correspondant à ce qui est détesté, craint, etc. Les valeurs d'une personne qui

468
s'appliquent à une situation donnée sont ordonnées ; en cas de choix entre deux
valeurs, le jugement se base toujours sur la plus forte.

Une valeur « secondaire » peut être créée par une réflexion ou une interprétation de
situation, si elle ne s'oppose pas à une valeur plus forte.

Les valeurs d'une personne sont toujours accompagnées d'apriori issus de son
génome, de sa culture ou de son expérience, et agissant dans son inconscient. En
France, par exemple, beaucoup de gens craignent les OGM et les retombées de la
science ou de la mondialisation.

Culture
 Au niveau d'un groupe humain, c'est l'ensemble des valeurs, croyances et
coutumes partagées par les membres du groupe (peuple, fidèles d'une religion,
etc.) depuis suffisamment longtemps pour qu'ils les aient incorporées au
inconscient (c'est-à-dire que ces valeurs, croyances et coutumes leur paraissent
inconsciemment naturelles et indiscutables). Ce partage résulte :
 De l'histoire commune ;
 De l'environnement géographique et climatique où le groupe vit depuis des
générations ;
 De la (ou des) religion(s) les plus répandues dans le groupe ;
 De l'éducation transmise aux enfants par les parents ou l'enseignement ;
 Des informations diffusées par les medias ;
 Des formes d'art dominantes depuis des décennies (littérature, peinture,
sculpture, danse, architecture, cinéma, cuisine, etc.) ;
 Des coutumes sociales, etc.
Une culture comprend, par exemple :
 Des habitudes et préférences dans des domaines comme la manière
d'élever des enfants, la nourriture et la cuisine, les expressions et gestes
utilisés pour exprimer son opinion, les relations avec les autres dans la vie
familiale ou au travail, et la discipline que chacun s'impose – par exemple
pour faire des efforts ou aborder un problème complexe ;
 Des valeurs comme les canons de beauté et les critères d'honnêteté ;
 Des croyances en matière de médecine, de cosmologie, de religion et de vie
après la mort ;
 Des idéologies et une éthique en matière d'économie ou de politique, etc.
La culture d'un groupe humain est en rapport avec l'ethnie, définie par son héritage
génétique et socioculturel (en particulier la langue), l'espace géographique et la
conscience de ses membres d'appartenir à un même groupe.
 Au niveau d'une personne, la culture (l'acquis) résulte de celle de son groupe,
qui lui a transmis ses valeurs, croyances et coutumes, ainsi que des
connaissances et expériences issues de sa propre vie.
Mais la culture d'une personne est sans rapport avec sa couleur de peau ou
d'autres caractéristiques provenant de sa naissance : c'est une caractéristique
transmise par la vie en société. Il n'y a donc pas de rapport entre culture et race.

469
Du reste, la notion de race est trop vague pour pouvoir être définie d'une manière
utilisable : la génétique moderne montre que les différences biologiques entre
races n'ont rien d'absolu et que tous les hommes ont un patrimoine héréditaire
commun.
 Une civilisation est définie par une culture, une société (institutions, législation,
modèle économique, etc.) et des réalisations (infrastructures, sciences et
techniques, architecture et autres arts, etc.).

Morale
La morale, ensemble des règles de la vie en société - qu'elles soient ou non confirmées
par la loi - fait partie de la culture. Voici ce que [5] dit de la morale page 36 :
"… la morale ne relève ni d'une décision ni d'une création. Chacun ne la trouve
en lui qu'autant qu'il l'a reçue (et peu importe au fond que ce soit de Dieu, de
la nature ou de l'éducation) et ne peut en critiquer tel ou tel aspect qu'au nom
de tel ou tel autre (par exemple la morale sexuelle au nom de la liberté individuelle,
la liberté au nom de la justice, etc.). Toute morale vient du passé : elle s'enracine
dans l'histoire, pour la société, et dans l'enfance, pour l'individu. C'est ce que
Freud appelle le « surmoi », qui représente le passé de la société, disait-il, au
même titre que le « ça » représente le passé de l'espèce."

Les règles de morale doivent guider chacun d'entre nous lorsqu'il se pose la question :
« Que dois-je faire ? ». Cette question utilise le verbe devoir parce qu'on peut aussi la
formuler sous la forme « En quoi consiste mon devoir ? ». Kant faisait du devoir la
valeur suprême et affirmait que l'homme n'avait de mérite à le faire que s'il le faisait de
manière désintéressée, c'est-à-dire sans espoir de récompense ou crainte de
châtiment, il ne procure que la satisfaction du devoir accompli.

Générosité et solidarité
Comme l'explique si bien André Comte-Sponville dans [194] pages 126 à 136, il y a
une grande différence entre la générosité, vertu morale caractérisant un acte dont on
n'attend aucune récompense, et la solidarité, caractérisée par des intérêts communs.
Il n'y a pas de générosité dans une relation d'entreprise ou une transaction
commerciale, elle n'aurait pas de sens et serait contraire à la raison d'être de
l'entreprise et du commerce, qui est le profit de chacun. Mais il y a de la solidarité, en
ce sens que l'entreprise cotise à des organismes de solidarité comme l'URSSAF et
paie des impôts, qu'elle contribue au comité d'entreprise, et que les membres d'une
même équipe commerciale doivent s'entraider par intérêt commun.

Il y a d'autres règles que les règles de morale


La morale ne suffit pas, ses règles ne font que s'ajouter aux lois que la société s'est
données (démocratiquement, espérons-le). Avec les seules lois une action pourrait
être légale mais immorale, avec la seule morale une action pourrait être altruiste mais
illégale (par exemple en volant un riche pour donner à un pauvre, ce que la société ne
peut permettre).

Voir aussi le paragraphe "Hiérarchiser les représentations et les raisonnements".

[71] Gregory Berns "Satisfaction: The Science of Finding True Fulfillment" (2005)
chez Henry Holt & Company, New York http://us.macmillan.com/HenryHolt.aspx

470
[72] Paul W. Glimcher (Center for Neural Science, New York University)
"Decisions, Decisions, Decisions: Choosing a Biological Science of Choice" (2002)
http://www.cns.nyu.edu/~glimcher/PUBLICATIONS/abstracts/neuron.pdf

[73] Paul W. Glimcher "Indeterminacy in brain and behavior"


http://eebweb.arizona.edu/Faculty/Dornhaus/courses/materials/papers/Glimcher%20
behavior%20is%20indetermined.pdf (2005)

[74] The New York Times du 19/06/2007, article "Taxes a Pleasure? Check the Brain
Scan"
http://www.nytimes.com/2007/06/19/science/19tier.html?th=&emc=th&pagewanted=p
rint

[75] Compte-rendu de recherches qui soutiennent la thèse de l'existence d'une


certaine imprévisibilité dans les jugements et décisions de l'homme :
Eldar Shafir and Robyn A. LeBoeuf - "Rationality" (2002)
http://psy.ucsd.edu/~mckenzie/ShafirAnnualReview.pdf

Conclusion de cette étude résumant les travaux sur ce sujet :


"Various arguments have been made disputing the accumulation of findings that
show people systematically violating fundamental normative principles of
reasoning, judgment, and decision. This review suggests that the violations
cannot be dismissed as either random or trivial, nor can they be attributed to
experimenters’ misinterpretation of answers that are actually appropriate to
alternative, valid interpretations of the problems. The systematic and well-
documented findings cannot be attributed to simple computational limitations, nor
does it appear that inappropriate types of questions are being asked or
inappropriate norms applied. The compelling nature of the rationality critique is
having an ever greater impact on work in neighboring disciplines, most notably in
the increasing popularity of behavioral economics…"

[76] Compte-rendu de recherches qui soutiennent la thèse de l'existence d'une


certaine imprévisibilité dans les jugements et décisions de l'homme :
R. Hastie - "PROBLEMS FOR JUDGMENT AND DECISION MAKING" (2001).
http://faculty.chicagobooth.edu/reid.hastie/research/AnnRev01.pdf

Ce texte fait le point sur 16 problèmes identifiés en matière d'étude des processus de
jugement et de décision, et en montre la complexité. On y trouve aussi une
confirmation de l'importance de l'intuition et de l'analogie dans ces processus, donc de
leur caractère souvent non déterministe.

[77] Méthode de comparaison de plusieurs décisions possibles qui s'excluent


mutuellement, compte tenu de leur probabilité : si on connaît pour chaque décision un
poids (critère chiffré de valeur comme le bénéfice économique qu'elle peut entraîner)
et sa probabilité de réussite, on peut lui attribuer une note par l'opération

note = poids x probabilité

La meilleure décision est alors celle qui a la note la plus élevée.

471
Cette méthode de comparaison illustre le caractère trompeur du pari de Pascal
("Pensées" http://abu.cnam.fr/cgi-bin/donner_html?penseesXX1 ) :
"Pesons le gain et la perte en prenant croix [de nos jours, en parlant de ce côté-
là d'une pièce nous dirions face] que Dieu est. Estimons ces deux cas : si vous
gagnez vous gagnez tout [le bonheur éternel], et si vous perdez vous ne perdez
rien [seulement votre courte vie ici-bas] : gagez donc qu'il est sans hésiter. Cela
est admirable. Oui il faut gager, mais je gage peut-être trop [je risque de sacrifier
les plaisirs de toute une vie pour une illusion de bonheur éternel après la mort].
Voyons puisqu'il y a pareil hasard de gain et de perte, si vous n'aviez qu'à
gagner deux vies pour une vous pourriez encore gager, mais s'il y en avait 3 à
gagner ?"

Pascal fait comme si la probabilité que Dieu existe était comme celle qu'une pièce
retombe sur la face choisie, une chance sur deux. Comme ni lui ni personne n'en
savent rien, son raisonnement est sans valeur ; il a d'autant moins de valeur que
l'impossibilité de prouver l'existence de Dieu par une suite de déductions logiques est
démontrable. Ensuite, Pascal prétend qu'en pariant sur Dieu on peut gagner une
éternité de bonheur infini, mais là encore il n'en sait rien, il tient pour certaine ou
plausible une vérité révélée !

[78] Ontogenèse : Ensemble des processus qui conduisent de la cellule œuf d'un
être vivant à l'adulte reproducteur.

[79] The New York Times du 22/06/2007, article "When Preaching Flops"
http://select.nytimes.com/2007/06/22/opinion/22brooks.html?th=&emc=th&pagewant
ed=print

[80] Encyclopédie Universalis version 10, article "GENOME - Le génome


mitochondrial" par Roger Durand, professeur de biochimie à l'université Blaise
Pascal (Clermont-Ferrand).

[81] Libre arbitre : par définition, c'est la possibilité pour un homme de se déterminer
par sa seule volonté, sans contrainte d'un tiers ou d'une puissance surnaturelle ; c'est
une liberté absolue qui consiste, le plus souvent, à choisir parmi plusieurs possibilités.
Descartes, Kant et Sartre, par exemple, la croient possible. Pour ces philosophes, le
libre arbitre de l'homme est tel qu'il n'est déterminé par aucune essence ou règle de
pensée préalable. Comme le fait remarquer Sartre, au contraire, du simple fait qu'il
existe, l'homme peut penser librement et se déterminer si complètement qu'il crée alors
sa personnalité, celle qui intervient dans ses décisions et ses actes. Sartre résume
cela en disant que l'existence [de l'homme] précède l'essence [son caractère], que
l'homme décide librement ce qu'il veut être et qu'il en est responsable.

D'après Encyclopædia Britannica 2007 Ultimate Reference Suite, article "Free Will" :
"Les arguments en faveur du libre arbitre sont basés sur l'impression subjective
de liberté, le sentiment de culpabilité, une religion révélée, ou sur le postulat de
responsabilité des actions de chacun qui sous-tend les concepts de loi,
récompense, punition et incitation."

472
Je considère, moi, que le libre arbitre est une illusion, car à un instant donné un homme
étant prédéterminé par son inné (génétique), son acquis (mémoire), et le contexte où
il vit, ses désirs et ses rejets (conscients ou non) sont prédéterminés. L'homme est
libre de décider ce qu'il veut, cette liberté-là définissant son libre arbitre. Mais ce qu'il
veut étant déterminé par son inné, son acquis et le contexte, le libre arbitre est limité
par l'obéissance à des désirs et rejets prédéterminés, donc illusoire. (Comme le
respect du principe d'identité [16] impose qu'à tout instant donné l'homme ne puisse
vouloir que ce qu'il veut, et que ce qu'il veut résulte de contraintes dont il n'est pas
maître, le libre arbitre est illusoire).

Rappelons ici que la raison d'un homme ne fait pas partie de ses valeurs : l'homme ne
fait jamais quelque chose parce que c'est raisonnable, mais parce que cela satisfait
une de ses valeurs ; la raison n'est qu'un outil au service des valeurs.

[82] Saint Augustin (né en 354 après J.C. et mort en 430), un des plus influents
penseurs de la foi chrétienne, à laquelle il a adapté la pensée de Platon. Environ 5
millions de mots de ses textes sont parvenus jusqu'à nous, une œuvre immense.

[83] Pélage (environ 360-environ 422), théologien.

[84] Encyclopédie Universalis version 10, article "Génome - introduction"

[85] ADN et ARN, selon [84] :


"La notion de cellule s'applique aux systèmes où coexistent deux types différents
d'acides nucléiques liés à des structures protéiques. Dans ce cas, c'est l'ADN
d'un chromosome qui va être le dépositaire de l'information génétique, tandis
que l'ARN interviendra dans l'expression de cette information, en fait sa
traduction en protéines au niveau de ribosomes, particules cytoplasmiques
chargées d'ARN."
L'ARN agit comme un interrupteur marche-arrêt pour autoriser ou inhiber
l'expression de chaque gène. Il peut agir comme un enzyme en catalysant des
réactions.

Comme l'ADN, l'ARN est composé de nucléotides, mais c'est une classe de molécules
dont la forme est tantôt un brin replié (comme une protéine), tantôt une double hélice
comme l'ADN.

[86] Scientific American du 12 février 2007, article "A Simpler Origin for Life"
Voir aussi, dans la revue Nature "Carbon isotope composition of individual amino
acids in the Murchison meteorite"
http://www.nature.com/nature/journal/v348/n6296/abs/348047a0.html .

[87] Rapport au Congrès des Etats-Unis "Turkey’s 2007 Elections: Crisis of Identity
and Power" du 12 juin 2007

[88] Scientific American de juin 2007, article "The Traveler's Dilemma"

[89] The New York Times du 26/06/2007, article "From a Few Genes, Life’s Myriad
Shapes"

473
http://www.nytimes.com/2007/06/26/science/26devo.html?th=&emc=th&pagewanted
=print

Voici des publications qui confirment cet article :


 ScienceWatch - "Beak Variation in Darwin's Finches: It's in the Genes"
(novembre - décembre 2004) http://www.hras.org/sw/sw11-04.html
 ScienceWatch - "Genetic Control of Beak Variation in Darwin’s Finches: The
Long and Short of It" (janvier 2007) http://www.hras.org/sw/swjan07.html
 The New York Times – "A Natural Selection" (22/07/2008)
http://judson.blogs.nytimes.com/2008/07/22/a-natural-selection/?th&emc=th
 Journal of Young Investigators - "A Review of the Highly Conserved PAX6 Gene
in Eye Development Regulation" (décembre 1998)
http://www.jyi.org/volumes/volume1/issue1/articles/friedman.html
 Cyril Langlois, ENS Lyon - "Tiktaalik, un nouveau témoin de la transition
poissons Sarcoptérygiens - Tétrapodes" (09/06/2006) http://planet-terre.ens-
lyon.fr/planetterre/XML/db/planetterre/metadata/LOM-tiktaalik-2006-06-01.xml
 Nature (mai 2007), article "An autopodial-like pattern of Hox expression in the
fins of a basal actinopterygian fish"
http://www.nature.com/nature/journal/v447/n7143/abs/nature05838.html

[90] Tétrapodes : ensemble de tous les vertébrés, surtout aériens et terrestres,


primitivement munis de quatre membres marcheurs (Amphibiens, Reptiles, Oiseaux et
Mammifères).

[91] Sir Roger Penrose, mathématicien et physicien anglais célèbre pour ses travaux
sur les trous noirs en collaboration avec Stephen Hawking - "The Emperor's New Mind"
(1989 - Oxford University Press).

[92] Théorème de Goodstein - Comment compléter une axiomatique


Le livre [91] décrit dans sa préface (pages xviii à xx) un exemple de théorème vrai
mais non démontrable dans une certaine axiomatique [67], le théorème de Goodstein
[94]. Dans une axiomatique ayant pour règle de déduction la récurrence, on ne peut
démontrer le théorème de Goodstein, qui nécessite une autre règle de déduction, la
récurrence transfinie, règle utilisée par Goodstein pour prouver son théorème.

Tirons les conséquences de ce qui précède. Soit une axiomatique [67] où l'on ne
dispose que de certaines règles de déduction. Supposons que l'on constate - par
exemple à l'aide de nombreux exemples - qu'une certaine affirmation A est vraie mais
non démontrable avec les règles dont on dispose. Alors notre intuition nous incite à
admettre que l'affirmation A est toujours vraie jusqu'à preuve du contraire ; nous
recourons alors à une induction, c'est-à-dire à une généralisation sans démonstration,
et nous ajoutons l'affirmation indémontrable A à la liste des axiomes de notre
axiomatique [241].

Généralisons cette approche consistant à compléter une axiomatique par ajout de


toute affirmation que nous estimons pouvoir admettre, parce que :
 Elle est vraie dans tous les cas que nous connaissons ;

474
 Nous ne connaissons ni cas où elle est fausse, ni conséquences qui
contredisent des vérités admises.

Nous obtenons ainsi une axiomatique plus riche, dont nous avons admis la validité des
axiomes comme dans toute axiomatique, et que nous pouvons désormais utiliser
comme base de déductions formelles, donc déterministes.

C'est ainsi que procèdent les sciences expérimentales : elles considèrent comme
vraies les conclusions de quelques expériences reproductibles non contredites par
d'autres expériences ou conséquences, et en tirent (par raisonnement, interpolation,
extrapolation, calcul exact ou statistique…) des lois considérées comme générales ;
ces lois seront supposées vraies jusqu'à ce que de nouvelles connaissances amènent
à les remettre en question ou à les préciser. Cette méthode n'explique pas les
phénomènes constatés, elle les pose comme vérités admises (c'est-à-dire comme
axiomes) et fournit avec ses lois une méthode de prédiction.

[93] Exemples d'affirmations indémontrables


 L'affirmation "Cette affirmation est indémontrable" a un sens, mais elle est
indémontrable. Raisonnons par l'absurde : si l'affirmation était démontrable, elle
serait vraie ; mais comme elle affirme être indémontrable, elle serait à la fois
indémontrable et démontrable, ce qui est contradictoire ; donc elle est
indémontrable. Ce paradoxe existe pour de nombreuses affirmations qui portent
sur elles-mêmes.
 Exemple dû à Bertrand Russell :
"R est l'ensemble de tous les ensembles qui ne sont pas membres d'eux-
mêmes" (c'est-à-dire dont aucun n'est inclus dans lui-même).
 Si R n'est pas membre de lui-même, il devrait appartenir à R, ce qui est
contradictoire ;
 Si R est membre de lui-même, c'est un ensemble qui n'est pas membre de
lui-même, ce qui est contradictoire.
 Autre exemple : considérons l'axiomatique ayant pour axiomes :
 Toute affirmation est soit vraie soit fausse [99] ;
 Quand une affirmation est fausse on l'appelle "mensonge" et l'homme qui
l'affirme est appelé "menteur" ;
 Un menteur ment chaque fois qu'il parle, disant alors le contraire de la
vérité ;
 Un non-menteur dit la vérité chaque fois qu'il parle.
Cette axiomatique permet à un homme d'énoncer l'affirmation "Je suis un
menteur", mais cette affirmation est indémontrable : s'il existait une démonstration,
l'affirmation serait vraie, l'homme serait un menteur, donc il aurait menti, donc il
aurait dit l'opposé de la vérité, donc "Je suis un menteur" est l'opposé de la vérité,
donc la vérité est que l'homme n'est pas menteur, ce qui contredit l'hypothèse
initiale que l'affirmation "Je suis un menteur" est démontrable.

La solution linguistique pour interdire l'expression de tels paradoxes est dans [220].

475
[94] Textes sur les théorèmes de Gödel et Goodstein :
 "Gödel's Proof" (Ernest Nagel, James R. Newman – Revised Edition – New York
University Press, 2001)
 "Tâches herculéennes ou sisyphéennes ? Un regard neuf sur le phénomène
d’incomplétude en logique mathématique" Mathématiques d’hier et d’aujourd’hui,
Modulo éditeur, 2000, pages 62–68
 Hofstadter, Douglas. "Gödel, Escher, Bach : les brins d’une guirlande éternelle"
éditions Dunod, 1985 - republié en 2000.
 Goodstein's Theorem
 http://www.fact-index.com/g/go/goodstein_s_theorem.html
 http://en.wikipedia.org/wiki/Goodstein's_theorem

[95] Dualisme : doctrine qui décrit quelque chose à partir de deux principes premiers
et irréductibles dont elle suppose l'existence.
Exemples : Principes d'une explication relative à l'homme :
 (concernant son esprit) par la raison et les passions ;
 (concernant sa vie) par la machinerie cellulaire (matérielle) et le code génétique
(logiciel) ;
 (concernant l'organisation de son corps) par l'organisation architecturale
(anatomie) et l'organisation fonctionnelle (physiologie).

Selon l'Encyclopédie Universalis version 10, article "Descartes" :


"En dehors de Dieu, substance incréée et infinie, il existe, selon Descartes, deux
sortes de substances, des substances créées, immatérielles et pensantes : les
âmes ; des substances créées, matérielles et étendues : les corps. Nous
pouvons penser l'âme sans faire intervenir l'idée du corps, et réciproquement."

[96] Clonage : une expérience de pensée nécessairement imaginaire.


Imaginons, comme l'ont fait des auteurs de science-fiction, que nous sachions, à un
instant précis t :
 Stocker en un temps nul des copies de tous les atomes du corps d'un certain
homme, M. Dupont, dans 92 récipients destinés, chacun, aux atomes identiques
à l'un des 92 éléments de la classification périodique de Mendeleev ; chaque
atome serait copié avec son état d'énergie exact ;
 Mémoriser en un temps nul toutes les caractéristiques des molécules du corps
de M. Dupont dans une gigantesque mémoire d'ordinateur, avec pour chaque
molécule sa structure (atomes et leur ordre, liaisons entre atomes), son
emplacement dans le corps, son mouvement (qui définit aussi sa température
d'après la thermodynamique), etc.

Supposons aussi que nous sachions effectuer, toujours à un instant t, les opérations
qui reconstituent instantanément le corps de M. Dupont à partir des copies d'atomes
des 92 récipients, et de la mémoire ci-dessus.

476
Alors, selon la doctrine matérialiste qui prétend qu'il n'existe rien d'autre dans un être
vivant que sa matière (et, de nos jours, son logiciel génétique), nous aurions cloné M.
Dupont dans l'état physique et psychique exact de celui du Dupont d'origine à l'instant
t ; et bien entendu Dupont-clone serait vivant. Mais une seconde après, les deux
Dupont seraient devenus différents, car leurs organismes échangent continuellement
de la matière et de l'énergie avec l'environnement - qui n'est pas et ne peut être
exactement le même, ne serait-ce que parce qu'ils sont situés en des lieux différents -
et leurs esprits perçoivent des événements différents et créent des pensées
imprévisibles différentes, par exemple dans leurs inconscients.

Cette expérience de pensée illustre le fait que ce n'est pas la matière proprement dite
(avec ses molécules) qui porte la vie, c'est sa structure. Celle-ci se comporte comme
un ensemble logiciel + données que l'on peut stocker et réutiliser. Les auteurs de
science-fiction ont même imaginé que la structure d'un être vivant pourrait être
numérisée et transmise d'un endroit à un autre comme un message, puis réinterprétée
avec ajout d'atomes pour recréer l'être d'origine, vivant, conscient et porteur de toute
sa personnalité. Ils ont appelé ce processus téléportation et, pendant qu'ils y étaient,
ont imaginé que le message pourrait voyager plus vite que la lumière et que les atomes
du corps d'origine voyageraient en même temps que leur information de structure, au
mépris des lois de la Relativité.

La vie peut être bloquée indéfiniment puis redémarrer, après stockage dans des
conditions appropriées ; c'est le cas, par exemple, pour les ovules ou spermatozoïdes
stockés pendant des années dans l'azote liquide, puis ramenés à la vie par simple
réchauffement.

Aucune espèce d'âme ou d'esprit n'est nécessaire dans toutes ces expériences,
contrairement à ce que voudrait la doctrine idéaliste [248].

[97] Baruch Spinoza - "L'Ethique" (publié en 1677)


http://www.spinozaetnous.org/download-file-15.html

[98] Nombre aléatoire, nombre normal


Question : Les suites de décimales de , de "racine de 2" ou de e (e = 2.71828…)
sont-elles aléatoires ? Pour préciser la notion de suite aléatoire de chiffres d'un
nombre qui présente déjà une absence de régularité connue, le mathématicien Emile
Borel a défini la notion de nombre normal comme suit dans
http://archive.numdam.org/article/BSMF_1917__45__125_1.pdf :

Un nombre est dit normal dans une base b si :


 Chacun des b chiffres possibles apparaît, dans le développement du nombre
selon cette base, avec la même fréquence 1/b ;
 Chacun des b2 groupes de 2 chiffres successifs possibles apparaît, dans le
développement du nombre selon cette base, avec la même fréquence 1/b 2 ;
 Chacun des b3 groupes de 3 chiffres successifs possibles apparaît, dans le
développement du nombre selon cette base, avec la même fréquence 1/b3 ;
 Etc.

477
Un nombre est dit absolument normal s'il est normal dans toute base b.

Emile Borel a démontré en 1909 que presque tous les nombres réels sont absolument
normaux (« presque tous » a un sens précis en mathématiques : dans n'importe quel
intervalle donné, la probabilité de trouver un réel non absolument normal est infiniment
faible, alors que la probabilité de trouver un réel absolument normal est aussi proche
de 1 que l'on voudra ; cela vient de ce que l'ensemble des nombres non absolument
normaux de l'intervalle est de mesure nulle). Mais bien que les constatations sur de
longues suites de décimales montrent que "racine de 2",  et e sont normaux en base
10, nous ne connaissons pas de démonstration de cette propriété. En outre, comme
ce sont des nombres calculables, l'hypothèse d'absence de régularité de la suite de
leurs décimales successives est fausse.

Un nombre est dit algorithmiquement aléatoire si, pour déterminer les N bits de son
développement en base 2 il faut un programme dont la taille est au moins N bits. (Cela
veut dire qu'on ne peut décrire d'algorithme qui génère un développement binaire sur
N bits du nombre qui soit plus concis que N bits. Voir définition du hasard)

[99] Principes de la logique classique


La logique repose sur des principes fondamentaux respectés par toutes les
propositions appelées "propositions logiques", car chacune est une affirmation
toujours vraie ou toujours fausse :
 1er principe fondamental : Le principe de contradiction (on dit aussi de non-
contradiction)
Le contraire du vrai est faux. Une affirmation est soit vraie, soit fausse, mais pas
en même temps vraie et fausse. Il y a une exigence de non-contradiction : aucune
proposition ne peut être vraie si elle contredit une vérité établie sans la remplacer.
 2ème principe fondamental : Le principe du tiers exclu (ou du milieu exclu)
Il n'y a que deux cas de valeur logique. Une proposition p ne peut être que :
 vraie, et alors la proposition contraire ¬p est fausse ;
 ou fausse, et alors la proposition contraire ¬p est vraie.
(Il n'y a pas de troisième cas).
C'est sur ce principe que reposent les démonstrations par l'absurde. Les
intuitionnistes n'admettent pas ce principe.
 3ème principe fondamental : Le principe d'identité
Ce qui est, est ; ce qui n'est pas, n'est pas. (Détails : [16])

Ces trois principes fondamentaux ne suffisent pas, en tant qu'axiomes, pour le calcul
des propositions. En voici d'autres.
 Le principe du syllogisme
En notant  la relation "implique" : "si A  B et B  C, alors A  C",
ce qu'on peut écrire sous la forme symbolique : (A  B  B  C)  (A  C)
La relation  est transitive, comme la relation =, la relation >, etc.

478
 Le principe d'abstraction
 L'esprit humain ne peut manipuler que des abstractions, il n'a pas de prise
directe sur la réalité physique. Même pour l'homme qui adopte une doctrine
réaliste, l'Univers n'existe que par les représentations qu'il conçoit par une
opération d'abstraction. Une représentation est un rapport sujet-objet.
 Une opération mentale d'abstraction peut créer un concept à partir d'une ou
plusieurs perceptions (et leurs représentations), affirmations ou autres
concepts. Le concept créé, parfois plus simple que les abstractions de
départ, est plus utile qu'elles pour raisonner malgré son caractère réducteur.
On appelle essence d'un objet la description de toutes ses propriétés
constitutives et fonctionnelles ; l'objet peut exister ou non.
L'esprit humain a une faculté d'abstraction très développée, permettant toutes
sortes d'associations d'idées, justes ou fausses, basées sur la réalité ou
l'imagination ; elle est donc à la fois précieuse et dangereuse.
 Une opération d'abstraction peut aussi classer un concept, jugement qui le
relie par « est » à une catégorie d'attributs. Kant, par exemple, distingue 4
groupes de 3 catégories :
 quantité (unité, pluralité, totalité) ;
 qualité (réalité, négation, limitation) ;
 relation (inhérence, causalité, réciprocité) ;
 modalité (possibilité, existence, nécessité).
 Le principe d'homogénéité
Aristote l'a énoncé sous la forme "On n'a pas le droit de conclure d'un genre à un
autre". (Description détaillée)
 Le principe de raison suffisante
La raison explique les causes des situations et phénomènes : tout ce qui existe
ou arrive a une cause, rien n'existe ou n'arrive sans cause ; la cause explique
pourquoi cela existe, est arrivé ou arrivera, connaissance plus importante qu'une
simple certitude d'existence. Le principe de raison suffisante énonce une relation
certaine, nécessaire : l'existence de la cause implique nécessairement la
conséquence.

Voir aussi te texte Principes de logique

[100] Minimum d'arithmétique et de théorie ensembliste nécessaire aux


démonstrations d'incomplétude de Gödel :
 Axiomes de base d'une arithmétique (nombres entiers naturels et opérations
d'addition et de multiplication sur ces nombres) ;
 Axiomes de logique (ceux de [99] plus "il existe"  et "quel que soit" ) ;
 Définir une proposition logique P(x) fonction d'un entier naturel x, et une
opération qui trouve le plus petit entier naturel x (s'il existe) tel que P(x) soit vraie
(en notation symbolique, il faut montrer que x | [P(x)] est vraie.)

Ces postulats n'ont rien de contraignant et ne restreignent pas la généralité des


théorèmes de Gödel. (Détails sur les théorèmes de Gödel : [44])

479
[101] Point d'accumulation d'un ensemble infini
Etant donné un ensemble infini tel que l'ensemble des nombres réels R, l'ensemble
des nombres complexes C [126], ou l'ensemble des points d'un espace des phases,
on appelle point d'accumulation de l'ensemble un élément de l'ensemble dont tout
voisinage contient une infinité de points (éléments) de l'ensemble. Tout point de
l'ensemble qui n'est pas un point d'accumulation est appelé point isolé.

[102] Mécanisme : théorie philosophique matérialiste qui explique certains faits, ou


même tous les phénomènes, par un déterminisme mécanique, c'est-à-dire
automatique, soumis aux lois naturelles et dépourvu d'intervention transcendante et
de finalité.

Exemple : une approche axiomatique [67] est mécaniste, car ses théorèmes découlent
automatiquement (sous-entendu : sans intervention intelligente ou créatrice) des
axiomes admis et des théorèmes précédemment établis.

Mécaniste ou mécaniciste
 L'adjectif "mécaniste" ou son synonyme "mécaniciste" qualifie quelque chose de
relatif au mécanisme ;
 Le nom "mécaniste" ou son synonyme "mécaniciste" désigne un adepte du
mécanisme.

[103] Sir Isaac Newton fut un des plus grands savants de tous les temps. Son
principal ouvrage, Principia (exactement : "Philosophiæ Naturalis Principia
Mathematica", "Principes mathématiques de la philosophie naturelle"), publié en 1687,
est à la base de la physique classique (théories de l'espace et du temps, forces, lois
fondamentales du mouvement [110], gravitation, optique…) et une contribution
essentielle aux mathématiques (calcul infinitésimal, géométrie analytique).

Les lois de cette physique classique sont régies par le déterminisme scientifique
traditionnel. Elles permettent d'expliquer et de prévoir un nombre immense de
phénomènes de la vie courante. Mais certaines sont aujourd'hui dépassées, car elles
ne prennent pas en compte des connaissances scientifiques acquises depuis le début
du XXe siècle, connaissances qui demandent une mise à jour du déterminisme,
comme le montre ce livre-ci.

[104] Moments magnétiques d'un électron


La charge électrique négative d'un électron se comporte comme un petit aimant, dont
la "force" est mesurée par le moment magnétique de spin. Celui-ci a été déterminé
avec une précision du cent-millionième (10-8). Il y a aussi un moment magnétique
orbital correspondant à la rotation de l'électron autour de son noyau. La somme de ces
deux moments magnétiques définit le moment magnétique total de l'électron dans son
atome.

[105] "Handbook of Physics", publié en 2002 aux éditions Springer

480
[106] Principe de Fermat et loi de Descartes

Principe de Fermat
Le principe de Fermat est l'un des deux axiomes fondamentaux de l'optique
géométrique, axiomes sur la base desquels toute axiomatique [67] de cette science
doit être basée :
 1er axiome : propagation rectiligne de la lumière (dans un espace homogène
sans courbure) ;
 2e axiome : principe de Fermat proprement dit, qui s'énonce comme suit :
"Le chemin optique parcouru par le rayon lumineux qui va de A à B à travers p
milieux intermédiaires d'indices respectifs n 1, n2,… np séparés par des surfaces
réfringentes quelconques est maximum ou minimum." (Et comme en général le
chemin optique maximum est infiniment long, le seul chemin physiquement
acceptable et constaté est le plus court ; dans un milieu unique et homogène, ce
chemin est une ligne droite.)
Vitesse de la lumière
Dans le vide, la lumière se propage à la vitesse c = 299 792.458 km/s
exactement. Ci-dessous nous appellerons v la vitesse de la lumière dans un
milieu différent, v étant toujours inférieur à c.
On appelle indice (absolu) d'un milieu le rapport n = c/v. L'indice n est donc le
nombre de fois que la lumière va plus vite dans le vide que dans le milieu donné.
D'après [105] page 415, l'indice du vide est (par définition) 1, celui de l'air est
1.00029 et celui de l'eau 1.333.
En appelant e1, e2,… ep les distances respectives parcourues par un rayon
lumineux donné dans les p milieux d'indices n1, n2…np, le chemin optique de A à
B est la longueur totale L = n1e1 + n2e2 + … + npep. Le principe de Fermat affirme
que parmi tous les chemins possibles de A à B traversant les p milieux, celui qui
est choisi par la lumière est celui qui rend L minimum.
En général, le principe de Fermat s'énonce ainsi : "Pour aller d'un point à un autre,
la lumière choisit le chemin le plus rapide (celui qu'elle mettra le moins de temps
à parcourir)".

Lois de Descartes
Les lois de Descartes décrivent le changement de direction (réfraction) d'un rayon
lumineux qui passe d'un milieu "1" (d'indice n 1) à un milieu "2" (d'indice n2) comme
suit :
 1re loi : le rayon réfracté dans le milieu "2" est dans le plan d'incidence défini
dans le milieu "1" par ce rayon et la normale au point d'impact à la surface
séparant les deux milieux ;
 2e loi : il existe un rapport constant entre le sinus des angles d'incidence i1 et de
réfraction i2 conformément à la formule :
sin i1 n2

sin i2 n1

On démontre que ces lois sont équivalentes au principe de Fermat.

481
Exemple de réfraction :

i1

Air
O
C

Eau

i2
B

Pour passer du point A, dans l'air, au point B, dans l'eau, la lumière ne parcourt pas le
chemin en ligne droite ACB, mais le chemin AOB tel que les angles avec la verticale
i1 et i2 satisfont la loi de Descartes n1sini1 = n2sini2, loi qui rend le chemin optique AOB
plus court que le chemin ACB compte tenu des indices de réfraction ; le temps
nécessaire à la lumière pour parcourir AOB est plus court que pour ACB.

Conséquence de la réfraction : un observateur en A qui veut voir le point B doit


regarder en direction de O et non de C ; un observateur en B qui veut voir A doit aussi
regarder en direction de O.

[107] Murray Gell-Mann, prix Nobel de physique 1969.

[108] Texte de Jean-Claude Charmet (ESPCI)


"Mécanique du solide et des matériaux - Elasticité-Plasticité-Rupture"
http://www.espci.fr/enseignement/download.php?e=msol&id=23

Extrait de la page 4 :
"La liaison chimique et les propriétés mécaniques
Pour résister aux efforts qui lui sont appliqués un matériau n’a d’autre ressource
que de se déformer de manière à stocker ou à dissiper l’énergie qui lui est
fournie. Dans les matériaux cristallins la déformation est associée à de légères
variations des distances interatomiques, mais elles entraînent des variations
considérables de l’énergie de cohésion (énergie interne). Ainsi, pour comprendre
les caractéristiques mécaniques des matériaux comme leur module il faut

482
descendre à l’échelle atomique. Deux facteurs ont un effet prépondérant sur ces
propriétés :
 Les forces qui retiennent les atomes les uns aux autres (les liaisons
atomiques). Elles agissent comme de petits ressorts qui lient un atome à ses
proches voisins dans l’état solide.
 La manière dont les atomes sont empilés (l’empilement atomique) qui va
déterminer le nombre de ressorts par unité de surface et l’angle sous lequel
ils sont étirés.
Les liaisons atomiques
Les propriétés des matériaux sont fortement corrélées au type de liaison entre
atomes car il détermine l’énergie de cohésion de la matière, la force nécessaire
pour écarter les atomes les uns des autres jusqu’à rupture, le coefficient de
dilatation, la conductibilité électrique ou thermique, la stabilité des phases, la
réactivité…"

[109] Géométries de l'espace


La géométrie dont nous avons l'habitude et dont nous utilisons instinctivement le
déterminisme est la géométrie euclidienne, dont nous avons vu des exemples
d'axiomes. En fait, il y a d'autres axiomes, comme :
 Par un point externe à une droite donnée on peut mener une droite et une seule
parallèle à cette droite.
 La somme des angles d'un triangle est égale à deux droits (c'est-à-dire 180°).
 Le chemin le plus court entre deux points est une ligne droite.
 Selon la Relativité Générale, si l'Univers a une géométrie de cette forme,
le rapport Ω = ρ/ρ0 entre la densité de l'espace ρ et une densité critique
ρ0 = 9 .10-27 kg/m3 est tel que Ω=1.

L'espace que postule la géométrie euclidienne est dit plat, par opposition à d'autres
géométries dites d'espace courbe :
 La géométrie de Riemann, qui généralise celle d'Euclide en admettant un
système de coordonnées et un tenseur de courbure au voisinage de chaque
point. Elle sert de modèle à l'espace astronomique de la Relativité Générale
d'Einstein. Quelques propriétés :
 L'espace est courbe, avec une courbure éventuellement différente en
chaque point ;
 Si l'espace est sphérique (comme la surface de la Terre), le chemin le plus
court entre deux points est le plus petit des deux arcs de grand cercle
passant par ces deux points ; la somme des angles d'un triangle (sphérique)
est supérieure à 180° ;
 Selon la Relativité Générale, si l'Univers a une géométrie de cette forme,
le rapport Ω = ρ/ρ0 entre la densité de l'espace ρ et une densité critique
ρ0 = 9 .10-27 kg/m3 est tel que Ω>1.

483
 La géométrie hyperbolique de Lobatchevski, où :
 Par un point donné externe à une droite donnée il passe au moins deux
droites parallèles à une droite donnée ;
 La somme des angles d'un triangle est inférieure à 180°.
 Selon la Relativité Générale, si l'Univers a une géométrie de cette forme,
le rapport Ω = ρ/ρ0 entre la densité de l'espace ρ et une densité critique
ρ0 = 9 .10-27 kg/m3 est tel que Ω<1.

L'existence de géométries courbes et le caractère réel de celle de Riemann (puisqu'il


modélise l'espace-temps astronomique et généralise la géométrie euclidienne) nous
oblige à enrichir le déterminisme traditionnel newtonien à espace plat. La structure
plate de l'espace euclidien, que Kant et Newton considéraient comme une nécessité
de l'Univers, n'est en fait qu'une intuition résultant d'observations empiriques à une
échelle de dimension accessible à l'homme. Ce modèle intuitif avait l'avantage d'être
simple et élégant, alors que le modèle riemannien est d'une difficulté mathématique
redoutable.

L'univers infiniment grand a une masse infinie


Source : Tegmark [136].

L'Univers est plat, donc infini


Nous avons vu ci-dessus que la Relativité Générale prévoit 3 géométries possibles de
l'Univers compatibles avec son évolution : selon la valeur du rapport de densités Ω,
l'espace peut être sphérique, hyperbolique ou plat (Euclidien).
 Si l'espace est sphérique à grande échelle, sa sphère ne peut être qu'immense
pour expliquer qu'à l'échelle de notre Univers observable il est plat. On peut
donc le considérer comme plat (Euclidien) avec une approximation très
acceptable.
 Si l'espace est hyperbolique à grande échelle, il a une propriété de répétition : un
déplacement rectiligne toujours dans la même direction finit par revenir au même
point. En regardant très loin dans deux directions opposées, par exemple le fond
diffus cosmologique à la limite de l'Univers observable, on devrait voir les
mêmes images. Or il n'en est rien : notre Univers n'est donc pas hyperbolique.

En pratique, donc, notre Univers est plat : Ω=1. Nous savons aussi que s'il était de
dimension finie on n'observerait, dans le fond diffus cosmologique, que des
ondulations de température (donc de densité d'énergie) de fréquences bien définies.
Comme on n'observe aucune régularité de cette espèce, nous devons admettre - au
moins jusqu'à une découverte future - que l'Univers est aussi infiniment grand.

L'univers contient une masse-énergie infinie


A très grande échelle, mettons au-delà de 100 millions d'années-lumière, la densité de
matière-énergie observée dans l'Univers est constante : sa répartition est uniforme, à
toutes les distances et dans toutes les directions ; on doit donc postuler qu'elle est la
même, aussi, au-delà de notre Univers observable, donc que la quantité de matière-
énergie contenue dans l'Univers est infinie.

484
[110] Lois du mouvement et de la gravitation universelle de Newton
Les trois lois du mouvement de Newton [103] qui constituent la base de la Mécanique
classique s'énoncent comme suit :
 1re loi : Un corps immobile ou se déplaçant en ligne droite à vitesse constante
restera immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas
sur lui : c'est la loi d'inertie.
Au point de vue déterminisme, un mouvement linéaire uniforme est une situation
stable, qui ne changera pas tant qu'une force n'agira pas sur le corps. Et une
situation stable est sa propre cause et sa propre conséquence !
 2e loi : un corps de masse M animé d'une vitesse de vecteur v et soumis à une
force de vecteur F subit une accélération de vecteur a telle que :

F = Ma = dp/dt

où on a appelé p = Mv le vecteur quantité de mouvement, v = dr/dt et a = d²r/dt²


(dr/dt est le vecteur dérivée du vecteur position r par rapport au temps et d²r/dt²
est le vecteur accélération, dérivée de dr/dt par rapport au temps).
C'est la loi de proportionnalité de la dérivée de la quantité de mouvement à la
force, valable à tout instant t.
 3e loi : quand deux corps interagissent, la force de vecteur F12 exercée par le
premier sur le second est l'opposé de celle du second sur le premier, F21 :

F12 = -F21

C'est la loi d'égalité de l'action et de la réaction, valable à tout instant t.

Loi d'attraction universelle


A ces trois lois on doit ajouter une quatrième, due elle aussi à Newton, celle de
l'attraction universelle : deux points matériels de masses M et M' distants de d s'attirent
avec une force F donnée par :

MM '
F G
d2

où G est la constate universelle de gravitation, G = 6.67 .10-11 Nm2/kg2. L'attraction


universelle agit donc à distance sans contact ! Mais si le point de masse M attire celui
de masse M' avec une force représentée par le vecteur F, le point de masse M' attire
celui de masse M avec une force -F, conformément à la 3e loi.

Lorsqu'il s'agit de la pesanteur terrestre, on peut prendre comme masse de la Terre


M = 5.98 1024 kg et comme distance entre le centre de la Terre et sa surface (le rayon
terrestre à l'équateur) d = 6378 km.

485
Remarques importantes
 Les deux premières lois ne sont valables que dans des systèmes de référence
non accélérés. Un tel système de référence est appelé référentiel d'inertie ou
référentiel galiléen.
En outre, si un système de référence se déplace par rapport à un autre à une
vitesse non négligeable par rapport à celle de la lumière, c, il faut prendre en
compte la transformation de Lorentz et la Relativité Restreinte.
 L'accélération d'un corps soumis à une force de gravitation est indépendante de
sa masse : sur la Lune, vu l'absence de frottement atmosphérique, une pierre de
100 kg et une pierre de 1 kg tombent à la même vitesse, qui augmente à chaque
seconde aussi vite pour une des pierres que pour l'autre. Cette vérité scientifique
contredit l'intuition qui voudrait qu' « un kilo de plomb tombe plus vite qu'une
plume ». Démonstration :
L'accélération g d'une masse M' due à la pesanteur de la Terre (de mase M) est
telle que : F = GMM'/d²= M'g. Donc g = GM/d², coefficient constant à la surface de
la Terre qui vaut 9.805 m/s². Donc g est indépendant de la masse M' du corps.
 Différences entre l'espace newtonien et l'espace relativiste :
 L'action à distance de l'attraction universelle est instantanée dans l'espace
newtonien, dont tous les observateurs sont à la même heure, qu'ils soient ou
non en mouvement relatif.
 Dans l'espace relativiste, au contraire, aucune action (gravitationnelle,
électromagnétique, etc.) ne peut se propager plus vite que la lumière. Et
selon sa position dans l'espace-temps, un observateur peut voir apparaître
deux événements distincts A et B dont aucun n'est conséquence de l'autre,
dans l'ordre A, puis B ou dans l'ordre B, puis A.
 La force de gravitation selon la Relativité Générale :
La présence d'une masse (la Terre, par exemple) déforme l'espace-temps dans
son voisinage. La déformation de l'espace fait qu'une ligne droite devient courbe ;
un corps soumis à la seule attraction gravitationnelle a une trajectoire courbe. La
déformation du temps fait :
 Que le temps passe plus vite lorsqu'on s'éloigne du centre de masse
attractif, donc que la force de gravitation décroît ;
 Qu'un objet pesant a tendance à « tomber » vers une position où le temps
passe moins vite ; cela explique la gravitation, qui attire vers le centre de la
Terre.

[111] Edwin Hubble a énoncé en 1929 dans l'article "A Relation Between Distance
and Radial Velocity among Extra-Galactic Nebulae"
( http://www.pnas.org/content/15/3/168.full.pdf ) la loi de Hubble, selon laquelle la
vitesse d'éloignement v des galaxies lointaines est proportionnelle à leur distance d,
et ceci dans toutes les directions : v = Hd, où H est la constante de Hubble.
"The results establish a roughly linear relation between velocities and distances
among nebulae for which velocities have been previously published, and the
relation appears to dominate the distribution of velocities."

486
Pour chaque million d'années-lumière d'éloignement, la « vitesse de fuite » des
galaxies augmente d'environ 21.6 km/s [250]. On dit que la constante de Hubble H
vaut 69.6 km/s par mégaparsec (Mpc, avec 1 MPC = 3.26 années-
lumière = 3.09.1013 km). Ainsi, une galaxie vue à 1 milliard d'années-lumière de la
nôtre s'en éloigne à 21 600 km/s.

Les trois distances d'une galaxie lointaine compte tenu de la vitesse de la lumière et
de l'expansion de l'Univers (dont la vitesse a varié depuis le Big Bang)
Quand on parle de « la distance d'une galaxie lointaine » qui a émis il y a longtemps
la lumière que nous en voyons aujourd'hui, il peut s'agir de :
 La distance entre notre position actuelle et celle de la galaxie lorsqu'elle a émis
la lumière que nous en voyons aujourd'hui ;
 La distance entre notre position lorsque la galaxie a émis la lumière que nous
voyons et sa position à ce moment-là ;
 La distance entre notre position actuelle et la position actuelle de la galaxie, dont
la lumière n'a pas encore eu le temps de nous parvenir.

Les trois rayons de l'Univers


Il y a 3 réponses à la question : « Quel est le rayon de l'Univers ? »
 On appelle Univers observable la sphère de l'intérieur de laquelle la lumière a eu
le temps de nous parvenir en 13.8 milliards d'années, c'est-à-dire depuis le Big
Bang ; son rayon R est plus grand que 13.8 milliards d'années-lumière. La loi de
Hubble ne peut s'expliquer que par une expansion simultanée de cet Univers en
tous ses points.
 Cet espace n'est pas le même que celui du Volume de Hubble, défini comme la
sphère dont les galaxies s'éloignent de nous à une vitesse inférieure ou égale à
c. Les étoiles à sa surface sont à une distance d = 13.8 milliards d'années-
lumière, et leur lumière a mis 9.1 milliards d'années à nous atteindre.
La différence de rayon entre l'Univers observable et le Volume de Hubble est due
à l'expansion, dont la vitesse a varié : elle a décru pendant 8 à 9 milliards d'années
et croît depuis.
Une galaxie située à l'extérieur du Volume de Hubble, mais dont la lumière nous
parvient parce qu'elle est partie il y a moins de 13.8 milliards d'années, s'éloigne
de nous à une vitesse supérieure à c. Une telle vitesse ne contredit pas la
Relativité Générale, car celle-ci ne limite à c que les vitesses par rapport à l'espace
de ce qui est matière ou rayonnement, pas celle de l'expansion. [370]
 La sphère de rayon R est l'Univers physique actuel : R = 47 milliards d'années-
lumière ; cet espace contient environ 1011 galaxies, 1023 étoiles. La lumière des
galaxies à cette distance nous parvient encore, car elle est partie il y a 13.8
milliards d'années, quand l'Univers était beaucoup plus petit. Mais leur lumière
partie aujourd'hui ne nous parviendra plus.

487
[112] Karl Marx - "Contribution à la critique de la philosophie du droit de Hegel"
(1843) - http://marx.engels.free.fr/marx/txt/1843critiqueh.htm - Citation :
"L'homme fait la religion, ce n'est pas la religion qui fait l'homme. La religion est
en réalité la conscience et le sentiment propre de l'homme qui, ou bien ne s'est
pas encore trouvé, ou bien s'est déjà reperdu."
"La religion est le soupir de la créature accablée par le malheur, l'âme d'un
monde sans cœur, de même qu'elle est l'esprit d'une époque sans esprit. C'est
l'opium du peuple.
Le véritable bonheur du peuple exige que la religion soit supprimée en tant que
bonheur illusoire du peuple."
Marx voulait dire :
 Que la religion est une invention humaine, une illusion, une superstition.
 Qu'historiquement la religion chrétienne a promis le bonheur après la mort pour
que les gens du peuple malheureux (les prolétaires), opprimés et exploités, ne
se révoltent pas pendant cette vie-ci. Il considérait donc que la religion endormait
le peuple comme l'opium endort celui qui le fume, et que l'Eglise a donc été de
ce fait complice des tyrans et des exploiteurs.

Alors que le matérialisme explique un fait constaté à partir de ses causes logiques et
du hasard, c'est-à-dire en quelque sorte « de bas en haut », l'idéalisme l'explique à
partir d'une volonté et d'une conception supérieures, c'est-à-dire « de haut en bas ».

On peut dire aussi que le matérialisme implique une connaissance par constatation,
preuve et démonstration (donc de type scientifique), alors que l'idéalisme implique une
connaissance par intuition ou révélation religieuse.

[113] Science volume 317, 13 juillet 2007, article "Suppressing Emotional


Memories"
http://www.sciencemag.org/cgi/reprint/317/5835/165f?maxtoshow=&HITS=10&hits=1
0&RESULTFORMAT=&fulltext=Brain&searchid=1&FIRSTINDEX=0&issue=5835&res
ourcetype=HWCIT.pdf.

[114] Stanford University – "The Church-Turing Thesis" (version du 19/08/2002)


http://plato.stanford.edu/entries/church-turing/

Extrait de ce texte sur la calculabilité à l'aide d'un ordinateur :


"La thèse de Church-Turing concerne la notion de méthode de calcul mécanique
[nous dirions « automatique »] appliquée à la logique et aux mathématiques. Par
définition, une procédure ou méthode M destinée à l'obtention d'un résultat est
dite « mécanique » [nous dirions calculable], si et seulement si :
 M est un algorithme comprenant un nombre fini d'instructions, chacune
exprimée avec un nombre fini de symboles [chaque symbole représentant
une opération ou une donnée] ;
 Une exécution sans erreur de M produit le résultat désiré en un nombre fini
d'étapes ;

488
 L'exécution de M pourrait être effectuée par un homme avec du papier et un
crayon sans l'aide d'aucune machine ;
 L'exécution de M n'exige de l'homme aucune donnée externe, aucune
perspicacité ou invention particulière."

Tout ordinateur peut exécuter tout algorithme défini ci-dessus comme "mécanique" ou
"calculable". Mais aucun ordinateur ne peut écrire automatiquement (par calcul)
l'algorithme de résolution d'un problème donné quelconque, c'est-à-dire imaginer puis
traduire une solution de ce problème en liste d'instructions susceptible d'un calcul
automatique : comprendre un problème, puis en imaginer une méthode de résolution
n'est pas un processus algorithmique, il faut de l'invention, de l'intuition, de l'analogie…

[115] Article "IS WAVE PROPAGATION COMPUTABLE OR CAN WAVE


COMPUTERS BEAT THE TURING MACHINE?"
http://journals.cambridge.org/action/displayAbstract;jsessionid=64E637A7273855F16
C9DA940957B4681.tomcat1?fromPage=online&aid=113911 - Citation :
"En 1983 Pour-El et Richards ont défini une onde tridimensionnelle u(t,x) dont
l'amplitude u(0,x) à l'instant t=0 est calculable et l'amplitude u(1,x) à l'instant t=1
est continue mais non calculable."

Voir le détail dans : "The Wave Equation with Computable Initial Data Whose Unique
Solution is Nowhere Computable"
ftp://ftp.informatik.uni-trier.de/pub/Users-Root/reports/96-44/pourel.ps

[116] Cas de non calculabilité de la valeur d'une fonction de propagation d'onde


Une fonction de propagation d'onde a des points où elle n'est pas calculable seulement
lorsqu'à l'instant t=0 elle n'est pas deux fois dérivable. Numériquement, cela peut
arriver lorsqu'on a des fonctions à variations très rapides dont les valeurs sont
calculées avec beaucoup de chiffres significatifs. Dans les cas « habituels » de la
physique, la fonction est partout calculable et deux fois dérivable.

[117] Photon
On peut se représenter un photon de fréquence  comme une suite d'alternances
d'une onde électromagnétique voyageant à la vitesse de la lumière (c dans le vide) et
transportant une énergie h, où h est la constante de Planck. La durée de cette onde
est celle de la transition de l'atome qui l'a émise entre l'état d'énergie de départ et l'état
de moindre énergie à la fin de l'émission : c'est le temps que met l'atome à émettre le
photon.
Une transition d'énergie d'un atome provient le plus souvent d'un changement
d'orbite d'un électron : lorsque l'atome absorbe un photon, l'électron passe d'une
orbite proche du noyau à une orbite plus éloignée ; lorsque l'atome émet un
photon, l'électron passe d'une orbite plus éloignée du noyau à une orbite plus
proche.
Mais la transition d'énergie peut aussi provenir d'une inversion du sens du spin
[22] de l'électron par rapport à celui du noyau ; lorsque ces deux spins sont de
sens opposés l'énergie de l'atome est plus faible que lorsqu'ils sont de même
sens, et il est plus stable. C'est ainsi que, lorsqu'un atome d'hydrogène dont les
spins du noyau et de l'électron sont de sens opposés reçoit un photon de 21 cm

489
de longueur d'onde, le spin de l'électron bascule, s'alignant sur celui du noyau ;
l'atome pourra ensuite revenir à son état de basse énergie à spins opposés, plus
stable, en émettant un photon de 21 cm de longueur d'onde.

Un photon a une masse nulle et n'est jamais arrêté, il se déplace toujours. Se


déplaçant à la vitesse de la lumière, il reste toujours à la même heure (celle de son
émission), il ne voit pas passer le temps ! (Voir "demi-droites de lumière" dans
l'annexe.)

A l'échelle humaine l'énergie d'un photon est minuscule. Exemple : une lampe de 25W
émettant 12.5 % de l'énergie électrique sous forme de lumière jaune orangée, produit
1019 photons/seconde. Cette petitesse vient de celle de la constante de Planck,
h = 6.6261 .10-34 joule.seconde, que la fréquence élevée de la lumière jaune-orangée,
0.5.1015 Hz, ne parvient pas à compenser.

Malgré sa masse nulle, un photon de longueur d'onde  a une impulsion [20] p = h/.
Son spin [22] est 1.

[118] Article "Misconceptions about the Big Bang" par Charles H. Lineweaver and
Tamara M. Davis (21/02/2005) -
http://coe.kean.edu/~afonarev/Physics/ExtraCredit_files/Big%20bang/Big%20Bang-
1.htm

[119] Valeurs infinies, d'après [91] pages 245-247


Dans les équations de mouvement des particules ponctuelles chargées électriquement
dans un champ électromagnétique proposées par Lorentz en 1895, il apparaît un
problème dû à une valeur infinie de champ au voisinage d'une particule elle-même
(l'action du champ varie comme l'inverse du carré de la distance). Ce problème a été
résolu par Dirac en 1938, mais au prix d'hypothèses très contraignantes : il fallait
connaître à l'instant t=0 l'accélération d'une particule, en plus de sa vitesse et de sa
position ; et même alors, pour certaines accélérations initiales une particule atteint
pratiquement la vitesse de la lumière !

[120] Science du 28/06/2007 - "Genome Transplantation in Bacteria: Changing


One Species to Another"
http://www.sciencemag.org/cgi/content/abstract/1144622v1?maxtoshow=&HITS=20&
hits=20&RESULTFORMAT=&andorexacttitle=or&andorexacttitleabs=or&fulltext=Vent
er+genome+%22bacterial+cell%22&andorexactfulltext=and&searchid=1&FIRSTIND
EX=0&sortspec=relevance&fdate=7 ("Transplantation du génome entre bactéries :
changement d'une espèce en une autre") - Résumé :
"As a step toward propagation of synthetic genomes, we completely replaced the
genome of a bacterial cell with one from another species by transplanting a
whole genome as naked DNA. Intact genomic DNA from Mycoplasma mycoides
large colony (LC), virtually free of protein, was transplanted into Mycoplasma
capricolum cells by polyethylene glycol-mediated transformation. Cells selected
for tetracycline resistance, carried by the M. mycoides LC chromosome, contain
the complete donor genome and are free of detectable recipient genomic
sequences. These cells that result from genome transplantation are
phenotypically identical to the M. mycoides LC donor strain as judged by several
criteria."

490
[121] Température absolue
C'est une température mesurée à partir du zéro absolu, -273.15 degrés Celsius. On la
mesure en degrés kelvin (abréviation °K). La relation entre température Celsius T C et
température absolue TK est donnée par la formule simple :

TK = TC + 273.15

C'est ainsi que la température absolue d'une chambre à coucher à 20°C est 293.15°K.

[122] Ludwig Boltzmann, physicien autrichien, père de la Mécanique statistique,


science qui explique les propriétés macroscopiques comme la température, la
conductibilité thermique, la diffusion et la viscosité d'un fluide à partir des propriétés
de ses molécules. On a donné son nom à la constante de Boltzmann k,
k = 1.38066 .10-23 joule par degré Kelvin, constante fondamentale de l'Univers.

[123] James Clerk Maxwell, physicien écossais, père de la théorie


électromagnétique, résumée par ses quatre équations :

rot E = - B/t
rot B = 0J + 00E/t
div E = /0
div B = 0
Equations de Maxwell

où, à un instant t donné :


 E est le vecteur champ électrique, fonction du temps ;
 B est le vecteur champ magnétique, fonction du temps ;
 0 est la perméabilité du vide, 4 .10-7 newtons par ampère carré ;
 J est le vecteur densité de charges en mouvement ;
 0 est la permittivité du vide, 8.854 .10-12 coulombs/volt/mètre ;
  est la densité de charge immobile.

Opérateurs :
 ∂/∂t désigne la dérivée partielle par rapport au temps t ;
 rot désigne le vecteur rotationnel d'un vecteur ;
 div désigne le scalaire [126] divergence d'un vecteur.

Ces équations sont valables pour des champs dans le vide, en présence d'une densité
de charge immobile  et d'une densité de charges en mouvement J.

La loi div B = 0 signifie qu'il n'y a pas d'autre source de champ magnétique que les
courants.

491
Une onde électromagnétique véhicule de l'énergie, celle de ses photons ; nous
pouvons le vérifier facilement avec des fours à micro-ondes et la chaleur de la lumière
solaire.

[124] Encyclopædia Britannica 2007 Ultimate Reference Suite, article "Orbital".

[125] Passage des fonctions d'onde de position à des fonctions d'onde d'impulsion
Pour illustrer ce passage et le passage inverse pour une même fonction d'onde (r, t),
on se limitera ici au cas des ondes planes à une seule dimension, x.

La fonction d'onde de position (x) peut s'écrire en fonction de sa transformée de


Fourier décrivant des impulsions  ( p) :

ipx
1 
 ( x) 
2


 ( p)e dp 

 ipx
1 
 ( p) 
2
 
 ( x )e 
dx

[126] Nombres complexes et scalaires


Les définitions ci-après ne sont que des rappels si simplifiés qu'ils ne prétendent pas
à la rigueur mathématique.

Nous supposons connue la notion de nombre réel. A partir d'un couple quelconque de
nombres réels (a,b) on peut définir un nombre complexe z = a + ib où la constante i
est elle-même un nombre complexe tel que i² = -1. La partie a du nombre complexe z
est appelée partie réelle et la partie b, qui est toujours multipliée par i, partie imaginaire.

Les nombres complexes peuvent être additionnés et multipliés, la somme ou le produit


étant aussi des nombres complexes. C'est ainsi que :
 La somme (a,b) + (c,d) vaut (a+c, b+d) = a+c + i(b+d)
 Le produit (a,b) x (c,d) vaut (ac-bd, ad+bc) = ac-bd + i(ad+bc)

Un nombre complexe z = a + ib est équivalent à un vecteur v du plan rapporté aux


axes Ox, Oy (voir graphique ci-dessous) dont :
 La longueur (on dit aussi le module ou plus rarement l'amplitude) est

z  a2  b2

492
 L'angle α avec l'axe Ox a pour tangente tgα = b/a : v est incliné d'un angle α par
rapport à l'axe Ox. L'angle α est parfois appelé argument ou phase.

Sur le graphique ci-dessous on a aussi représenté le nombre complexe i, dont le


vecteur correspondant fait avec Ox un angle droit.

b v

α
O a x

Correspondance entre nombre complexe a+ib, vecteur v associé et argument α

Un nombre réel r équivaut au nombre complexe (r,0) = r + i0 et son vecteur associé


est porté par l'axe Ox.

Un vecteur v équivalent à un nombre complexe a + ib est donc aussi défini par un


couple (v,α) où v est le module de v : v = |v| et α = Arctg(b/a) (arc dont la tangente est
b/a). Cette définition d'un nombre complexe par module et angle de rotation par rapport
à Ox est aussi appelée définition par module et argument ou définition par amplitude
et phase.

Avec cette définition, le produit de deux nombres complexes z = (v,α) et w = (w,β) vaut
zw = (vw, α+β) (produit des deux modules "incliné" de la somme des deux
inclinaisons).

Le nombre i = (0,1) dont le vecteur associé est porté par l'axe Oy et a pour module 1,
est donc tel que son carré vaut i² = (1,180°) : c'est le nombre réel -1.

Enfin, on appelle scalaire un nombre réel ou complexe.

[127] Vecteur, espace vectoriel, base, produit scalaire, module


Les définitions ci-après ne sont que des rappels simplifiés qui ne prétendent pas à la
rigueur mathématique.

On appelle vecteur à n dimensions v l'ensemble ordonné de n scalaires [126]


(v1, v2…vn) appelés composantes de v, ensemble qui a les propriétés suivantes :
 Deux vecteurs v et w de même dimension peuvent être additionnés, le résultat
étant alors un vecteur s dont les composantes sont (v1+w1, v2+w2…vn+wn).

493
 Un vecteur v peut être multiplié par un scalaire , le résultat étant un vecteur w
noté v tel que w = v a pour composantes (v1, v2…vn).

On qualifie d'espace vectoriel à n dimensions un ensemble E de vecteurs à n


composantes scalaires (c'est-à-dire réelles ou complexes) définis comme ci-dessus.

Un tel espace vectoriel a une base, ensemble de n vecteurs (a1, a2…an) de E dits
"linéairement indépendants", c'est-à-dire tels que toute combinaison linéaire [29]
1a1+2a2+…+nan où les i sont des scalaires est un vecteur nul si et seulement si
tous les i sont nuls :

1a1+2a2+…+nan = 0  1 = 2 =…=n = 0

Tout vecteur v de E est alors nécessairement combinaison linéaire des vecteurs


a1, a2…an de la base, c'est-à-dire qu'il existe un ensemble unique de scalaires
(1, 2,… n) tels que v = 1a1+2a2+…+nan. Les n scalaires i sont alors appelés
composantes de v dans la base a1, a2…an.

On appelle produit scalaire des deux vecteurs v(v1, v2…vn) et w(w1, w2…wn) le
scalaire noté <v|w> tel que : <v|w> = v1w1 + v2w2 +…+ vnwn. Cas particulier : on
appelle carré scalaire ou carré du module d'un vecteur v(v1, v2…vn) le produit scalaire
de v par lui-même, noté |v|² tel que |v|² = <v|v> = v1² + v2² +…+ vn².

Une composante vj du vecteur v peut être une variable ou une fonction d'une ou
plusieurs variables comme vj(x,y,z).

Enfin, le nombre de dimensions d'un espace vectoriel peut être infini. Cela peut être
utile, par exemple, pour représenter l'infinité des composantes fonctions du temps d'un
vecteur à 1 dimension scalaire fonction périodique du temps f(t) = f(t), vecteur
développé en série infinie de fréquences harmoniques (dite de Fourier) de la forme :

f(t) = a0 + a1sin(t+1) + a2sin(2t+2) + a3sin(3t+3) +….

Espaces vectoriels de Hilbert : voir [326].

[128] Encyclopédie Universalis 2007, article "BOOLE algèbre & anneau de"

[129] Jeu de poker homme contre ordinateur :


 The New York Times du 26/07/2007, article "In Poker Match Against a Machine,
Humans Are Better Bluffers"
http://www.nytimes.com/2007/07/26/business/26poker.html?th=&adxnnl=1&emc
=th&adxnnlx=1185462721-HjfguD4C9Wih1ZlsUJ8tfw&pagewanted=print
 Université d'Alberta - Groupe de recherche sur le jeu de poker par ordinateur
http://poker.cs.ualberta.ca/
 FAQ - Why Study Poker? http://webdocs.cs.ualberta.ca/~darse/msc-
essay/thesis.html

494
[130] "Subtle Is the Lord: The Science and the Life of Albert Einstein" par
Abraham Pais, Clarendon Press, Oxford (1982, page 444) cité par [91] page 393.

[131] Nébuleuse du Crabe http://antwrp.gsfc.nasa.gov/apod/ap991122.html,


photographiée le 22/11/1999 au télescope de 8.2 mètres de l'ESO, au Chili. Il s'agit
des restes de l'explosion d'une supernova en l'an 1054. Au centre, il y a une étoile à
neutrons (pulsar) qui tourne sur elle-même 30 fois par seconde !

[132] Encyclopédie Universalis 2007 article "Constituants majeurs de l'Univers"

[133] La formule donnant l'entropie d'un trou noir en fonction de sa masse est due
aux travaux de Stephen Hawking et Jacob Bekenstein dans les années 1970.
Voir "Bekenstein-Hawking entropy" (octobre 2008)
http://www.scholarpedia.org/article/Bekenstein-Hawking_entropy

[134] Longueur d'onde de Compton [135] c d'une particule de masse m :

h
c 
mc

C'est l'ordre de grandeur de l'extension spatiale de la fonction d'onde associée à


l'objet. En dessous de c une dimension est trop petite pour une particule de masse
m, dont la position est alors mal définie. Pour l'électron de masse 0.9 .10-30 kg,
c = 2.4 .10-2 angström (1Å = 10-10 m), longueur environ 40 fois plus petite que le
diamètre d'un atome d'hydrogène (0.92 Å).

[135] Compton : physicien américain, prix Nobel de physique en 1927 pour la


preuve expérimentale de la dualité onde-particule, confirmant la thèse de Louis de
Broglie et sa formule  = h/p, où p est l'impulsion ou la quantité de mouvement [20].

[136] Quelques textes sur l'Univers, l'inflation et le Big Bang


 Sir Martin Rees "Before the Beginning - Our Universe and Others" (Perseus
Books, 1998)
 Mario Livio "The Accelerating Universe - Infinite Expansion, the Cosmological
Constant, and the Beauty of the Cosmos" (John Wiley and Sons, 2000)
 Timothy Ferris "The Whole Shebang - A State-of-the Universe(s) Report" (Simon
& Schuster, 1998)
 Hubert Reeves "Dernières nouvelles du cosmos - Vers la première seconde"
(Seuil, 1994)
 Hubert Reeves "La première seconde - Dernières nouvelles du cosmos. 2"
(Seuil, 1995)
 Max Tegmark (professeur de physique au M.I.T.) "Our Mathematical Universe"
(Alfred A. Knopf, New York, 2014)

Voir aussi [109], [118], [143] et [313].

495
[137] Le diamètre DA du noyau d'un atome de masse atomique A est donné (en
fermis, 1 fm = 10-15m) par la formule approximative :

D A  d 0 3 A , où d0 = 2.4 fm

Exemple : pour l'atome de fer de masse atomique 56 on trouve 9.2 fm.

[138] Mort et renouvellement des neurones


En général un neurone vit aussi longtemps que l'organisme qui l'abrite. Il a cependant
deux façons de mourir :
 par nécrose résultant d'un traumatisme aigu, mécanique ou chimique ;
 ou par apoptose, sorte de suicide ou de mort programmée pour ne pas
endommager le tissu voisin.

Un neurone qui disparaît n'est remplacé dans un organisme adulte que lorsqu'il reste
une cellule-souche capable de se différencier en neurone, ce qui est assez rare. Le
cerveau adulte continue de produire des neurones, mais en deux endroits seulement :
le bulbe olfactif et l'hippocampe.

[139] Comptes-rendus de recherches sur la sensibilité rétinienne à un seul photon,


cités par [91] page 516 :
 (Œil de crapaud) "Responses of retinal rods to single photons" par Baylor D. A.,
Lamb T. D. et Yau K.-W. (1979)
http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=1281447
 (Œil humain) "Energy, quanta and vision" par Hecht S., Schlaer S., Pirenne M. H.
(1942)
http://www.cogsci.umn.edu/OLD/calendar/past_events/millennium/files/0101000
299.html

[140] Isaac Asimov (1920-1992), docteur ès sciences, auteur de science-fiction


célèbre, a écrit des romans sur les robots - dont l'un finit par être reconnu comme
humain !

[141] Exemple d'intuition en tant qu'idée apparue brusquement et qui paraît valable
a priori, cité par [91] page 541 (traduction) :
"Dans l'ouvrage [142], un classique écrit par le très distingué mathématicien
français Jacques Hadamard, celui-ci cite de nombreuses expériences
d'inspiration décrites par d'éminents mathématiciens et d'autres personnes. Un
des exemples les plus connus provient d'Henri Poincaré. Celui-ci décrit d'abord
ses efforts intenses et prolongés pour trouver ce qu'il appelle des fonctions
fuchsiennes, efforts qui s'étaient soldés par une impasse. Puis il ajoute :
« …Je quittai Caen, où je demeurais, pour participer à une excursion géologique
organisée par l'Ecole des Mines. Les événements du voyage me firent oublier
mon travail mathématique. En arrivant à Coutances, nous montâmes dans un
omnibus pour poursuivre notre trajet. Au moment où je posai le pied sur la
marche l'idée me vint, sans que rien dans mes pensées antérieures parût m'y
avoir préparé, que les transformations dont je venais de faire usage pour définir

496
les fonctions fuchsiennes étaient identiques à celles de la géométrie non
euclidienne. Je ne fis pas la vérification ; je n'en aurais pas eu le temps puisque,
à peine assis dans l'omnibus, je repris la conversation commencée ; mais j'eus
tout de suite une entière certitude. De retour à Caen, je pris le temps de vérifier
le résultat. »
Ce qui frappe, dans cet exemple (et dans de nombreux autres cités par
Hadamard) c'est que cette idée profonde et complexe est venue à Poincaré en
un éclair, alors que sa pensée consciente était occupée à tout autre chose, et
qu'elle était accompagnée d'une impression de certitude qu'elle était valable -
comme les calculs ultérieurs le démontrèrent."

Voir aussi les citations de Pascal sur « l'esprit de finesse » [66].

[142] Livre : "Essai sur la psychologie de l'invention dans le domaine


mathématique" par Jacques Hadamard,
suivi de L'invention mathématique par Henri Poincaré - Editions Gabay
http://www.gabay-editeur.com/epages/300555.sf/fr_FR/?ObjectPath=/Shops/300555/Products/297

[143] Brian Greene "L'univers élégant" (publié chez Robert Laffont en 1999).

[144] Démonstration du théorème de Fermat


 Gerd Faltings: "The Proof of Fermat’s Last Theorem" by R. Taylor and A.Wiles
http://www.ams.org/notices/199507/faltings.pdf
 The Annals of Mathematics, 2nd Ser., Vol. 141, No. 3 (May, 1995), pp. 443-551
"Modular Elliptic Curves and Fermat's Last Theorem" by Andrew Wiles (109
pages) - http://math.stanford.edu/~lekheng/flt/wiles.pdf

[145] "Dreams of a Final Theory: The Scientist's Search for the Ultimate Laws of
Nature" par Steven Weinberg (Pantheon Books, 1992)

[146] Constante cosmologique : constante introduite par Einstein dans ses


équations de la Relativité Générale pour rendre compte d'une force de gravitation
négative capable de s'opposer à celle de l'attraction due à la matière. Selon la valeur
qu'on admet pour cette constante, l'Univers peut évoluer vers une poursuite de
l'expansion actuelle ou une fin de cette expansion suivie d'un Big Crunch.

[147] Encyclopædia Britannica 2007 Ultimate Reference Suite, article


"Quasiperiodicity", schémas "Penrose pattern" et "icosahedron".

[148] Articles :
 "Aperiodic Tilings" http://www.mathpages.com/home/kmath540/kmath540.htm
 "Non-Periodic Tilings With N-fold Symmetry"
http://www.mathpages.com/home/kmath539/kmath539.htm

[149] Article "The Crystallographic Restriction"


http://www.mathpages.com/home/kmath547/kmath547.htm prouvant que les seules
symétries de rotation dans un réseau plan à mailles régulières sont d'ordre 2, 3, 4 ou
6.

497
[150] Charge électrique de l'électron : e = -1.602189 .10-19 coulomb ; c'est une des
constantes fondamentales de l'Univers.

[151] Science online, 7 juin 2007, article "Dentate Gyrus NMDA Receptors
Mediate Rapid Pattern Separation in the Hippocampal Network"
http://www.sciencemag.org/cgi/content/full/317/5834/94
Résumé : http://web.mit.edu/newsoffice/2007/deja-vu-0607.html

[152] The New York Times du 31/07/2007, article "Who’s Minding the Mind?"
http://www.nytimes.com/2007/07/31/health/psychology/31subl.html?th=&adxnnl=1&e
mc=th&adxnnlx=1185901546-eNmii/4bw6skbvdy44b9Qg&pagewanted=print

[153] Maimonide (rabbin, philosophe, médecin et savant juif) - "Traité des huit
chapitres". Citation : « Accepte la vérité de quiconque l'a énoncée ».
A mon avis, le critère déterminant de vérité est le suivant : on doit tenir pour vraie
(au moins provisoirement) toute conjecture - même audacieuse - qui résiste à la
critique, et la critique ne peut être fondée ni sur l'auteur, ni même sur l'absence de
démonstration. Une conjecture issue de l'intuition ou de l'induction peut être valable
même sans démonstration si elle est falsifiable [203] et résiste aux critiques (voir le
paragraphe "Le rationalisme critique de Karl Popper").

Une pensée qui se veut rationnelle (voir définition) doit rejeter tout dogmatisme
autoritaire [206], tout argument d'autorité comme "Aristotele dixit" (Aristote a dit), toute
vérité révélée et non falsifiable. Par contre, dans le domaine de la subjectivité, qui ne
relève pas de la raison, on peut suivre Pascal [66] et croire son intuition.

[154] "The Science of Good and Evil - Why People Cheat, Gossip, Care, Share,
and Follow the Golden Rule" par Michael Shermer (Times Books, 2004). Ce livre est
un compte-rendu de recherches récentes sur l'avènement des règles morales.

Article citant des recherches qui confirment celles de ce livre : "Is ‘Do Unto Others’
Written Into Our Genes?" - The New York Times du 18/09/2007,
http://www.nytimes.com/2007/09/18/science/18mora.html?th=&emc=th&pagewanted
=print

[155] Adam Smith - "Recherches sur la nature et les causes de la richesse des
nations" (1776)
 Introduction et plan de l'ouvrage -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/richesse
_des_nations_intro.html
 Livre I -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/livre_1/ri
chesse_des_nations_1.pdf
 Livre II -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/livre_2/ri
chesse_nations_L2.html

498
 Livre III -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/livre_3/ri
chesse_des_nations_3.pdf
 Livre IV -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/livre_4/ri
chesse_des_nations_4.pdf
 Livre V -
http://classiques.uqac.ca/classiques/Smith_adam/richesse_des_nations/livre_5/ri
chesse_des_nations_5.pdf

[156] Complément au "Cours d'économie pour citoyens qui votent" :


"La valeur des choses" http://www.danielmartin.eu/Cours/Valeur.htm.

[157] Emory University - Woodruff Health Sciences Center - "Scientists Equip


Bacteria With Custom Chemo-Navigational System" (11/05/2007)
http://whsc.emory.edu/press_releases2.cfm?announcement_id_seq=10123

[158] The New York Times du 07/08/2007, article "In Dusty Archives, a Theory of
Affluence"
http://www.nytimes.com/2007/08/07/science/07indu.html?th=&emc=th&pagewanted=
print

[159] En France, l'industrialisation a commencé grâce à celle de l'Angleterre.


Exemples :
 C'est le métallurgiste anglais William Wilkinson qui a créé l'industrie
métallurgique du Creusot en 1778.
 Une première machine à vapeur commandée en Angleterre à Boulton et Watt
est installée à Chaillot en 1779.

[160] Scientific American juin 1995 - "The Arithmetics of Mutual Help - Computer
models show how cooperation rather than exploitation can dominate in Darwinian
struggle for survival".

[161] Bible Louis Segond http://www.onlinebible.org/html/fre/, Lévitique (livre 3 du


Pentateuque), chapitre 19, citations :
"Chacun de vous respectera sa mère et son père.
Vous ne déroberez point, et vous n'userez ni de mensonge ni de tromperie les
uns envers les autres.
Tu ne répandras point de calomnies parmi ton peuple. Tu ne t'élèveras point
contre le sang de ton prochain.
Tu ne te vengeras point, et tu ne garderas point de rancune contre les enfants
de ton peuple. Tu aimeras ton prochain comme toi-même.
Tu te lèveras devant les cheveux blancs, et tu honoreras la personne du
vieillard.

499
Vous ne commettrez point d'iniquité ni dans les jugements, ni dans les mesures
de dimension, ni dans les poids, ni dans les mesures de capacité."

[162] Bible Louis Segond http://www.onlinebible.org/html/fre/, Deutéronome (livre 5


du Pentateuque).
Dans les deux citations ci-dessous, la première s'applique aux membres de la même
tribu, avec qui tout homme a le devoir de bien se comporter, tandis que la seconde
s'applique à des étrangers ennemis : le comportement moral n'est pas le même !
 Chapitre 5, versets 17 à 19 :
"Tu ne tueras point.
Tu ne commettras point d'adultère.
Tu ne déroberas point."
 Chapitre 20, versets 10 à 16 :
"Quand tu t'approcheras d'une ville pour l'attaquer, tu lui offriras la paix.
Si elle accepte la paix et t'ouvre ses portes, tout le peuple qui s'y trouvera te sera
tributaire et asservi.
Si elle n'accepte pas la paix avec toi et qu'elle veuille te faire la guerre, alors tu
l'assiégeras.
Et après que l'Éternel, ton Dieu, l'aura livrée entre tes mains, tu en feras passer
tous les mâles au fil de l'épée.
Mais tu prendras pour toi les femmes, les enfants, le bétail, tout ce qui sera dans
la ville, tout son butin, et tu mangeras les dépouilles de tes ennemis que
l'Éternel, ton Dieu, t'aura livrés.
C'est ainsi que tu agiras à l'égard de toutes les villes qui sont très éloignées de
toi, et qui ne font point partie des villes de ces nations-ci.
Mais dans les villes de ces peuples dont l'Éternel, ton Dieu, te donne le pays
pour héritage, tu ne laisseras la vie à rien de ce qui respire."

[163] Pour plus de détails sur l'islam à la fois religion et régime politique, voir :
 "Le terrorisme islamiste : idéologie, exigences et attentats"
http://www.danielmartin.eu/Religion/Terrorisme-islamiste.htm.
 "La culture arabe ennemie de la démocratie"
http://www.danielmartin.eu/Religion/Culture-Arabe-Ennemie-Democratie.htm.

[164] Comparaison entre communisme et économie de marché


Dans une économie communiste :
 L'Etat est propriétaire des moyens de production et d'échange (usines, terres,
commerces, transports, etc.) ;
 Il planifie la production selon ce que ses fonctionnaires estiment nécessaire au
peuple et selon ce qu'ils pensent que le pays peut produire ;
 Il n'y a pas d'initiative économique personnelle, pas de recherche de profit, pas
de concurrence. Au contraire : comme un travailleur se donne toujours plus de
mal quand il en tire un profit personnel que quand il est salarié de l'Etat, la
productivité a toujours été le point faible des économies communistes et des
entreprises publiques (voir l'exemple comparant les effectifs des producteurs

500
d'électricité européens : EDF, RWE, etc.
http://www.danielmartin.eu/Cours/Cours-Economie.htm#EDFSureffectifs).

Comparaison 1 : après la guerre, en 1945, l'Allemagne était dans le même état


économique catastrophique à l'Est qu'à l'Ouest. En 45 ans de communisme, c'est-à-
dire jusqu'à la chute du mur de Berlin, le niveau de vie de l'Est communiste est devenu
3 fois inférieur à celui de l'Ouest libéral.

Comparaison 2 : d'après [165] page 116, en 1955 le PIB annuel par habitant était
comparable en Espagne ($516) et en Pologne ($755). Les deux pays avaient été
ravagés par la guerre : guerre civile en Espagne, guerre mondiale en Pologne,
désormais sous la coupe de l'URSS. L'Espagne a opté pour une économie libérale à
partir des années 1970, puis a intégré l'Union européenne en 1986. La Pologne a
stagné et s'est endettée, comme tous les pays communistes. En 1989, le PIB par
habitant en Espagne était 4 fois celui de la Pologne.

Ces exemples se généralisent : le communisme n'a marché nulle part :


 Ni en URSS (où selon l'article "URSS - Histoire " [35] Khrouchtchev avait promis
le 22 mai 1957 de rattraper le niveau de vie des Etats-Unis pour 1980) ;
 Ni à Cuba ;
 Ni dans les démocraties populaires d'Europe ;
 Ni en Corée du Nord, où selon [260] le PIB par habitant était de $1900 en 2007,
alors qu'en Corée du Sud il était de $24 600 (et de $33 300 en France).

Les raisons de fond de l'échec du communisme sont :


 L'impossibilité de planifier correctement, au niveau de l'Etat, les besoins et la
production, car il y a trop de cas particuliers et d'aléas, d'où des pénuries et des
gaspillages ; la production agricole, par exemple, dépend énormément du temps
qu'il fera, qu'on ne peut prévoir une saison à l'avance [301-b].
 La corruption et le marché noir endémiques, chacun cherchant à voler l'Etat à
son profit personnel.
 La productivité misérable des gens, due à leur absence de motivation, elle-
même due à l'absence d'intérêt personnel pour le progrès, et le gaspillage. En
outre, l'organisation du travail est mauvaise du fait de l'irresponsabilité générale.
 La non-compétitivité des industries de l'Est, protégées de la concurrence avec
celles de l'Ouest. Après le 1er choc pétrolier de fin 1973, l'URSS (à l'époque 2 e
producteur mondial de pétrole après l'Arabie Saoudite) a commencé à gagner de
plus en plus d'argent avec ses exportations de pétrole. Celles-ci, qui
représentaient 10 à 15 % de ses exportations, en représentaient désormais
40 %.
Au lieu d'utiliser ces ressources financières inespérées pour moderniser son
industrie et son infrastructure, pour en préserver la compétitivité dans un monde
en progrès rapide, elle les a consacrées à subventionner le niveau de vie de son
peuple, qui a donc augmenté ainsi artificiellement grâce aux prix bas des produits
subventionnés. Et lorsque les prix du pétrole ont fortement baissé au début des
années 1980, l'URSS a dû commencer à emprunter de l'argent à l'Ouest pour

501
continuer à subventionner son train de vie. Comme on ne peut vivre longtemps
au-dessus de ses moyens, surtout lorsque le concurrent américain vous oblige à
le suivre dans une coûteuse course aux armements de haute technologie,
Gorbatchev a été obligé de réformer en profondeur (perestroïka, glasnost). Mais
c'était trop tard, le pays ne pouvait plus maintenir artificiellement le niveau de vie
de ses habitants, le modèle économique soviétique était condamné, son
communisme s'est effondré et l'empire soviétique fut démantelé.
 Le retard technologique et industriel croissant des pays communistes par rapport
aux pays libres, retard dû :
 à l'isolement (frontières fermées et communications interdites entre
chercheurs de l'Est et de l'Ouest) ;
 au manque de concurrence sur les prix et la qualité entre produits de l'Est et
de l'Ouest, donc d'incitation au progrès technique et à la productivité ;
 au manque d'investissements, dû au gaspillage de la manne pétrolière ;
 au manque de motivation des chercheurs de l'Est.
 L'endettement extérieur colossal, dû à l'absence de compétitivité des produits
exportés par l'Est par rapport aux produits des économies libérales ; les produits
de l'Est coûtaient cher à produire et rapportaient peu à la vente sur les marchés
mondiaux ;
 L'absence de démocratie : partout, les régimes communistes sont devenus
tyranniques et totalitaires. Au lieu que les dirigeants écoutent le peuple, ils l'ont
muselé et réduit en esclavage. Partout, les media étaient au service du pouvoir,
la justice et les députés aux ordres de la classe gouvernante, les opposants
étaient déportés, mis en prison ou enfermés dans des asiles d'aliénés, etc.
 L'inadéquation d'une solution morale (organiser l'économie selon le principe
moral d'égalité communiste entre citoyens) à un problème économique (produire
suffisamment pour éradiquer la pauvreté). Karl Marx a préconisé une économie
communiste répondant à des critères moraux au mépris des lois économiques
déterministes, ce qui viole le principe de séparation des niveaux. Le
communisme est une idéologie qui fait fi de la nature réelle de l'homme, avec
son égoïsme, sa paresse, etc. En supposant un homme communiste parfait,
Marx a préconisé une solution utopique.

Voir aussi [166] ci-dessous.

[165] "The End of Poverty - How we can make it happen in our lifetime"
http://www.danielmartin.eu/Arg/Sachs2025.htm par Jeffrey Sachs, économiste,
professeur à l'université Columbia, conseiller du Secrétaire Général des Nations
unies Kofi Annan et de nombreux gouvernements. Editeur : Penguin Books.

[166] Planification centrale communiste ou économie de marché ?


Nous comparons ci-dessous - du seul point de vue économique, donc sans
préoccupation sociale ou morale - deux modèles économiques pour produire et
consommer des biens et services :
 Le modèle communiste, où production et consommation sont planifiées par une
administration centrale de l'Etat ;

502
 Le modèle de l'économie de marché, où chaque producteur et chaque
consommateur agit au mieux de son intérêt.

Economie communiste
Dans une économie communiste, l'Etat fixe le niveau des prix de la quasi-totalité des
articles et services, qu'il produit lui-même dans ses propres usines, fermes,
organismes de services, etc.
 Si l'Etat fixe un prix trop élevé, peu d'acheteurs peuvent s'offrir l'article, et si l'Etat
a prévu assez d'articles pour de trop nombreux acheteurs, il y a des invendus qui
lui restent sur les bras, c'est-à-dire du gaspillage.
 Au contraire, si l'Etat a prévu une production insuffisante, certains acheteurs ne
trouvent pas d'article, bien qu'ils aient fait la queue pendant des heures. Et un
marché noir se développe, avec ce qu'il implique de détournements et de
corruption.
 La lourdeur administrative du système de planification communiste fait, alors,
qu'il faut des semaines ou des mois pour planifier la fabrication d'articles
supplémentaires, parce que cette fabrication elle-même nécessite des produits
de base dont il faut aussi planifier la production et l'expédition [301]. Et pendant
ce temps-là, les consommateurs qui ont besoin des articles attendent ou
recourent au marché noir.
Dans un pays donné, le nombre d'articles différents à fabriquer, le nombre de
composants qui entrent dans chaque fabrication, le nombre d'heures nécessaires
pour chaque opération, le nombre d'acheteurs potentiels, tout cela est si
compliqué et si incertain qu'il n'y a jamais eu de système de planification
centralisée qui marche. Quelle que soit la qualité de la planification, des
productions agricoles dépendant du temps qu'il fait étaient soit surabondantes
soient insuffisantes ; et lorsqu'elles étaient surabondantes, la capacité de
transport nécessaire pour les acheminer aux consommateurs faisait souvent
défaut et on jetait des produits.
Les économies communistes planificatrices ont toujours associé des gaspillages
de produits excédentaires avec des pénuries de produits. Le niveau de vie
résultant a toujours été misérable. La combinaison de productions planifiées par
l'Etat et de prix arbitraires fixés par lui s'est avérée désastreuse.

Economie de marché
La bonne solution pour décider des quantités à produire et des prix de vente est
connue. On l'appelle « l'économie de marché ». C'est un système décentralisé basé
sur la liberté des producteurs et des consommateurs, sans intervention de l'Etat, c'est-
à-dire sur le libéralisme et son marché autorégulé.

La raison de son succès est la petitesse de l'échelle de planification : chaque


producteur ne produit que ce que lui-même prévoit de vendre, à ses clients. S'il reçoit
plus ou moins de commandes que prévu, il réagit très vite, beaucoup plus vite qu'une
hiérarchie administrative de planification, et sans se préoccuper d'autres intérêts que
les siens. S'il est trop cher, les clients le fuient et il baisse ses prix ou cesse de fabriquer
des produits trop chers pour être vendables. Si les clients lui commandent plus de
produits qu'il ne peut fabriquer, il augmente ses prix pour gagner davantage (exemple :
les prix du pétrole brut) ou sous-traite ou achète une partie des produits.

503
Un produit qui revient plus cher que ce que les clients veulent payer n'est pas (ou plus)
fabriqué. Un produit qui se vend à un prix rémunérateur attire de nouveaux
producteurs, prêts à le fabriquer eux aussi pour le vendre et gagner de l'argent. Les
vendeurs d'un produit sont automatiquement en concurrence lorsqu'il y a pénurie
d'acheteurs, et ils baissent leurs prix pour arriver à vendre.
Lorsqu'il y a pénurie de produits, ce sont les acheteurs qui sont en concurrence et
les prix montent. Dans tous les cas, un équilibre est atteint au bout d'un certain temps :
le prix d'un article s'établit alors à un niveau qui empêche à la fois la surproduction et
la mévente. On dit qu'il est fixé par la loi de « l'offre et la demande » [167] [301-c]. En
résumé, dans une économie de marché, la production et le prix d'un article ou service
donné s'adaptent automatiquement et le plus vite possible.

[167] Loi de l'offre et de la demande : voir [301-c] et "La valeur des choses"
http://www.danielmartin.eu/Cours/Valeur.htm.

[168] Universaux

Définition
Dans ce texte on appelle « universaux » des concepts universels, applicables à tous
les hommes, quelles que soient leur race, leur origine géographique et l'époque. Ils
caractérisent la culture, la société, le langage, le comportement et le psychisme [347]
d'une manière semblable pour toutes les sociétés humaines connues dans l'histoire.

Les universaux moraux sont des concepts toujours associés à des affects provoquant
automatiquement, instinctivement, un jugement de valeur dans tout esprit humain. Ils
concernent notamment :
 Une distinction entre le bien et le mal ;
 L'interdiction de faire violence à autrui (assassinat, torture, viol…) ;
 La honte et les tabous ;
 L'aptitude à s'identifier à autrui ;
 Les droits et les devoirs ;
 La justice, l'honnêteté ;
 Rendre le bien pour le bien et le mal pour le mal ;
 L'admiration de la générosité ;
 L'obligation de punir le tort fait à la société, etc.

Les universaux culturels ne représentent pas toute la culture ; ils ne représentent que
la partie de chaque culture commune aux autres (en termes mathématiques on dirait
« l'intersection des divers ensembles de valeurs, croyances et coutumes constituant
les cultures particulières »).

Exemples d'universaux
 Dans [154] pages 285 à 292 on trouve une liste de 202 universaux qui ont un
rapport avec la morale et la religion. En voici quelques-uns :

504
 Affection exprimée et ressentie (nécessaire pour renforcer l'altruisme et la
coopération) ;
 Statut social des aînés (élément vital de la hiérarchie sociale, de la
dominance, du respect pour la sagesse des aînés) ;
 Anthropomorphisme (base de l'animisme, des dieux anthropomorphiques
des Grecs et Romains, attribution de traits moraux humains au Dieu des
religions monothéistes) ;
 Anticipation (vitale pour tenir compte des conséquences de la situation
présente), etc.
 Liste de quelque 200 universaux parmi 373 identifiés par Donald E. Brown
http://condor.depaul.edu/~mfiddler/hyphen/humunivers.htm , dont voici un court
extrait, où les universaux sont classés par catégories :
 time; cyclicity of time; memory; anticipation; habituation; choice making
(choosing alternatives); intention; ambivalence; emotions; self-control; fears;
fear of death; ability to overcome some fears; risk-taking;
 daily routines; rituals;
 adjustments to environment; binary cognitive distinctions; pain; likes and
dislikes; food preferences; making comparisons;
 sexual attraction; sexual attractiveness; sex differences in spatial cognition
and behavior;
 self distinguished from other;
 mental maps; territoriality; conflict;
 sweets preferred; tabooed foods;
 childbirth customs; childcare; females do more direct childcare; preference
for own children and close kin (nepotism)…

Origine des universaux


Les universaux résultent d'une structure psychique commune à tous les hommes, que
les divers parcours historiques et ajouts culturels n'ont pu que compléter sans en
modifier les caractéristiques.

L'existence des universaux s'explique par une base biologique et génétique commune
à tous les hommes et une évolution identique. A un instant donné de l'histoire de
l'humanité, les universaux sont des caractéristiques d'une nature humaine universelle,
et de la partie de cette nature qui n'a pas été modifiée depuis des millénaires par une
culture ou des faits historiques particuliers. Ils font donc partie de « l'inné » (par
opposition au reste de la culture, qui fait partie de « l'acquis »). Historiquement, les
universaux ont évolué au même rythme que l'espèce humaine, sous l'influence de la
sélection naturelle puis socioculturelle, progressivement et sur une durée de l'ordre de
dix à cent mille ans.

Les universaux constituent une part importante du déterminisme humain.

Sources
 [154] page 60 ;

505
 L'ouvrage de Donald E. Brown "Human Universals" publié chez McGraw Hill en
1991 dont on trouve une analyse dans : "Review of Human Universals" par
Wallace Woolfenden http://www.ishkbooks.com/universals.pdf
 [247].

Conséquence de l'existence des universaux : dignité et égalité des droits


Tous les êtres humains ont la même dignité et les mêmes droits, quels que soient
leur pays d'origine ou de citoyenneté, leur couleur de peau, leur sexe, leur religion,
etc. Ces droits sont inhérents au fait même d'être homme et sont inaliénables. Cette
égalité est inscrite dans la Déclaration universelle des droits de l'homme des Nations
unies http://www.un.org/french/aboutun/dudh.htm, adoptée le 10 décembre 1948 et
reconnue aujourd'hui par tous les 193 états membres des Nations unies (liste :
http://www.un.org/french/aboutun/etatsmbr.shtml).

[169] "Pourquoi sont-ils devenus casseurs ou terroristes ?"


 Texte entier : http://www.danielmartin.eu/Religion/Pourquoi-Terroristes.htm
 Déshumanisation : http://www.danielmartin.eu/Religion/Pourquoi-
Terroristes.htm#Deshumanisation

[170] Livre de Daniel MARTIN "La démocratie malade des médias - Nous votons
sans savoir" (2006) http://www.danielmartin.eu/Livre/meddem.pdf.
Voir page 43 "Le contenu émotif".

[171] Raisons invoquées par Ben Laden pour sa « guerre aux croisés », c'est-à-
dire ses attentats :
 "Osama Bin Laden's 1998 Fatwa" :
http://www.mideastweb.org/osamabinladen2.htm
 "Osama Bin Laden's Jihad" : http://www.mideastweb.org/osamabinladen1.htm
 Interview diffusée par la chaîne de télévision publique non commerciale PBS en
mai 1998
http://www.pbs.org/wgbh/pages/frontline/shows/binladen/who/interview.html

[172] "Dictionnaire biographique", page Avicenne


http://www.cosmovisions.com/Avicenne.htm

[173] Livre "De la quadruple racine du principe de la raison suffisante" par Arthur
Schopenhauer (1813, remanié en 1847), publié par Librairie Germain Baillière et Cie
en 1882 - http://gallica.bnf.fr/ark:/12148/bpt6k5400813b

[174] LKB-ENS-CNRS - "Le « film » de la vie et de la mort d'un photon"


(14/03/2007) http://www2.cnrs.fr/presse/communique/1049.htm - Extrait :
"Détruire les photons pour les mesurer n'est cependant pas une nécessité
imposée par la nature. C'est ainsi que les chercheurs du laboratoire Kastler
Brossel (CNRS/ENS/Collège de France/Université Paris 6) ont réussi à
observer, des centaines de fois, un seul et même photon piégé dans une boîte.
Après un temps qui peut atteindre une demi-seconde, le grain de lumière finit par

506
s'échapper, de façon imprévisible et soudaine, réalisant un saut quantique. Les
chercheurs ont suivi pour la première fois « en direct » l'histoire de la vie et de la
mort de photons individuels.
La clé de cette expérience est une « boîte à photons » : c'est une cavité formée
de deux miroirs supraconducteurs refroidis à une température proche du zéro
absolu. Entre les miroirs, qui se font face à 2,7 centimètres de distance, un
photon issu du rayonnement thermique résiduel rebondit plus d'un milliard de
fois avant de disparaître (contre un million au maximum s'il s'agissait de miroirs
pour des photons visibles). Il parcourt en moyenne un trajet équivalent à la
circonférence de la Terre.
Habituellement, on détecte les photons par absorption atomique. Un atome peut
exister dans divers états d'énergie et il peut absorber un photon en passant d'un
état à un autre d'énergie supérieure. En mesurant la variation d'énergie d'atomes
absorbeurs traversant la cavité, on pourrait savoir si elle contient un photon,
mais on le détruirait et ne le verrait donc qu'une fois.
L'astuce des chercheurs a été de choisir des atomes dont la transition entre
deux états 0 et 1 correspond à une énergie différente de celle des photons. La
conservation de l'énergie interdit alors à l'atome d'absorber la lumière. En
revanche, la présence du photon modifie légèrement la fréquence de la
transition atomique (mesurée à l'aide d'un champ micro-onde auxiliaire à
l'extérieur de la cavité). Au final, l'atome est porté dans l'état 1 si la cavité
contient un photon, et reste dans l'état 0 si elle est vide, comme dans la méthode
classique, mais l'énergie absorbée par l'atome est empruntée au champ
auxiliaire et non à celui de la cavité : le photon est encore là après avoir été vu,
prêt à être mesuré à nouveau."

[175] "Le tao de la physique", par Fritjof Capra. Editeur : Eric Koehler, réédité en
2004, dont voici la présentation par l'éditeur trouvée chez Amazon
http://www.amazon.fr/tao-physique-Fritjof-Capra/dp/2710707136 :
"Les lois de la physique moderne confirment les concepts qui régissent les
mystiques de l'Asie : Hindouisme, Bouddhisme, Taoïsme. Le Dr Capra met à
notre portée le langage de la physique et nous entraîne dans un fabuleux
voyage à travers l'univers des atomes et le monde de la sagesse orientale. Il fait
table rase de notre représentation fragmentaire et mécaniste du monde.
L'univers devient alors un tout cohérent et harmonieux. Cadre philosophique
pour la physique la plus avancée, la spiritualité orientale nous propose un " lieu "
dans lequel notre être peut prendre toute sa dimension"

Pourvu qu'il n'y ait pas trop de gens qui, croyant les élucubrations pseudo-
scientifiques de M. Capra en déduisent que :
 Le mysticisme oriental est scientifiquement prouvé ;
 Tous les physiciens sont des charlatans !

[176] Neurotransmetteur : message chimique d'un neurone destiné à stimuler ou


inhiber l'activité d'un autre neurone. La dopamine, par exemple, est un
neurotransmetteur.

507
[177] "L'enseignement victime de l'idéologie"
http://www.danielmartin.eu/Enseignement/Enseignement-Victime.htm

[178] Blog "Bonnet d'âne" de M. Jean-Paul Brighelli :


http://bonnetdane.midiblogs.com/archive/2006/11/04/iufm-mon-amour.html
L'accès de ce site étant aujourd'hui restreint, les mots "décontextualisés" et
"certificatives" sont repris dans un texte de l'Institut français de l'éducation
http://centre-alain-savary.ens-lyon.fr/CAS/actualite/savoirs-pouvoirs-et-
gouvernement-des-esprits.-qui-controle-l2019enseignement-et-la-formation-compte-
rendu-du-colloque-du-reseau-education-et-formation-du-11-09-2013-a-geneve

Un article du Monde fait le point sur ce problème des néologismes ridicules de


l'Education nationale : "Vraies et fausses perles du jargon de l’éducation nationale"
(16/05/2015) - http://abonnes.lemonde.fr/education/article/2015/05/16/vraies-et-
fausses-perles-du-jargon-de-l-education-
nationale_4634634_1473685.html?xtmc=vraies_et_fausses_perles&xtcr=1

[179] Réductionnisme
On appelle réductionnisme un principe d'explication d'un phénomène complexe par
une seule de ses composantes, censée suffire à rendre compte des autres. Cette
définition s'applique notamment au vivant, lorsque les phénomènes de niveau
supérieur sont expliqués à partir du niveau inférieur : le psychisme [347] est expliqué
à partir de la seule biologie, et celle-ci à partir de la chimie et de la physique. Le
réductionnisme est donc une méthode d'explication par schématisation, approche
scientifique nécessairement analytique.

Avec une approche réductionniste, les propriétés d'un tout doivent se déduire de celles
d'une de ses parties.

Exemple de réductionnisme : la théorie de l'évolution


Cette théorie, publiée par Darwin en 1859, a été approfondie depuis par l'apport de la
génétique et de la théorie des attracteurs de Prigogine. Elle constitue un bon exemple
de réductionnisme : l'évolution de toutes les espèces vivantes peut s'expliquer à l'aide
d'un seul mécanisme de la vie, la transmission génétique, dont les « accidents »
observés lors des mutations sont dus à l'existence de solutions à faible probabilité des
équations linéaires décrivant l'évolution des vecteurs d'état en Mécanique quantique ;
ces accidents affectent les liaisons moléculaires du génome. A ce mécanisme de
mutation s'ajoutent deux autres phénomènes : l'expression des gènes et la sélection
naturelle.

[180] Zones de libre échange et organismes internationaux :


 Union européenne http://europa.eu/index_fr.htm
 North American Free Trade Agreement (NAFTA)
http://www.alenaaujourdhui.org/Default_fr.asp
 Organisation des Nations Unies http://www.un.org/french/
 Banque Mondiale http://www.banquemondiale.org/
 Fonds Monétaire International (FMI) http://www.imf.org/external/french/index.htm

508
[181] "Cours d'économie pour citoyens qui votent" - Tome 2 référence [203]
http://www.danielmartin.eu/Cours/CoursT2.htm#R203

[182] "Cours d'économie pour citoyens qui votent" - Tome 2


http://www.danielmartin.eu/Cours/CoursT2.htm#ExportationsPIB

[183] "Cours d'économie pour citoyens qui votent" - Tome 2


http://www.danielmartin.eu/Cours/CoursT2.htm#ComparOuvertsFermes

[184] "Cours d'économie pour citoyens qui votent" - Tome 2


http://www.danielmartin.eu/Cours/CoursT2.htm#MondialisationEtPauvrete

[185] "Altermondialisme : une analyse critique"


http://www.danielmartin.eu/Politique/Altermondialistes.htm

[186] "Globalisation et délocalisations : synthèse et recommandations"


http://www.danielmartin.eu/Cours/Arthuis.htm

[187] "Cours d'économie pour citoyens qui votent" - Tome 2


http://www.danielmartin.eu/Cours/CoursT2.htm#MondialisationProfiteAuxEntreprises

[188] "Cours d'économie pour citoyens qui votent" Tome 1


http://www.danielmartin.eu/Cours/Cours-Economie.htm#Liberalisme

[189] "Le scandale du scandale des parachutes dorés"


http://www.danielmartin.eu/Politique/ParachutesDores.htm

[190] Philosophie : tout ce que vous avez toujours voulu savoir sans jamais oser
le demander - Hommage au livre de Luc Ferry paru chez Plon :
"Apprendre à vivre - Traité de philosophie à l'usage des jeunes générations"
http://www.danielmartin.eu/Religion/Philosophie.htm#Postmodernite

[192] Mutations génétiques artificielles


L'article "Useful Mutants, Bred With Radiation"
http://www.nytimes.com/2007/08/28/science/28crop.html?th=&emc=th&pagewanted=
print publié dans The New York Times du 28/08/2007 est une interview du docteur
Pierre Lagoda, de l'Agence Internationale de l'Energie Atomique à Vienne, où il dirige
l'unité de recherches sur la génétique et la culture des plantes ; il fait aussi partie de
Biodiversity International - GMGC (37 institutions dans 24 pays) -
http://www.bioversityinternational.org/

[193] Raisonnements humains inaccessibles à un ordinateur


Les logiciels CAPTCHA (Telling Humans and Computers Apart Automatically
http://www.captcha.net/) permettent de créer en ordinateur des tests visuels qu'un
homme réussit le plus souvent alors qu'un ordinateur échoue. Ces tests servent à
authentifier un utilisateur par rapport à l'ordinateur qui lui fait passer le test : si
l'utilisateur réussit le test, l'ordinateur considère qu'il est bien l'humain qu'il prétend
être.

509
[194] André Comte-Sponville "Le capitalisme est-il moral ?" publié en 2007 aux
éditions "Le livre de poche" et dont on trouvera un compte-rendu de lecture dans
http://www.danielmartin.eu/Philo/CapitalismMoral.htm. Ce petit livre est remarquable
par la quantité de choses qu'il nous apprend sur la morale et ses relations avec
l'économie, en si peu de mots et avec autant de clarté. Son titre est en fait une question
piège, car la réponse n'est pas « le capitalisme est moral » ou « le capitalisme est
immoral », mais « le capitalisme est amoral », car les lois du système économique
capitaliste n'ont aucun rapport avec les lois morales.

[195] Recommandations adressées à la France concernant l'intensification de la


concurrence :
 OCDE - Etude économique de la France 2005 : concurrence sur les marchés de
produits et performance économique
http://www.oecd.org/document/18/0,3343,fr_2649_37421_34990994_1_1_1_374
21,00.html . Extrait :
"Les restrictions à la concurrence comme celles qui existent en France, freinent
non seulement les gains de productivité mais entravent aussi le développement
de l'emploi."
 OCDE - "PRODUCT MARKET REFORMS AND EMPLOYMENT IN OECD
COUNTRIES" (16-12-2005) http://www.oecd-ilibrary.org/product-market-reforms-
and-employment-in-oecd-
countries_5lgh2z2v2vtk.pdf;jsessionid=3hf0p61237j9h.delta?contentType=/ns/W
orkingPaper&itemId=/content/workingpaper/463767160680&containerItemId=/co
ntent/workingpaperseries/18151973&accessItemIds=&mimeType=application/pd
f
 OCDE - Recommandations pour la France (07-02-2006)
http://www.oecd.org/dataoecd/6/7/36055131.pdf
 OCDE - Etudes économiques - France 2007
 Rapport Camdessus "Le sursaut - Vers une nouvelle croissance pour la France",
http://www.danielmartin.eu/Economie/Camdessus.htm .
 Relever le défi - La stratégie de Lisbonne pour la croissance et l'emploi
http://www.consilium.europa.eu/ueDocs/cms_Data/docs/pressData/fr/ec/00100-
r1.f0.htm

[196] "Création volontariste d'emplois" (mars 2007)


http://www.danielmartin.eu/Cours/Creation-Volontariste-Emplois.htm

[197] Définition de la concurrence pure et parfaite


Les théories économiques supposent souvent, pour simplifier, que le marché permet
une « concurrence pure et parfaite ». Voici les conditions d'une telle concurrence :
 Atomicité. Chacun des offreurs et des demandeurs ne représente qu'une partie
insignifiante des ensembles respectifs d'offreurs et de demandeurs. On parle
alors « d'atomicité des offres et des demandes ».
Il en résulte une indépendance du prix d'équilibre par rapport à la modification de
la quantité offerte ou demandée par un offreur ou demandeur particulier, puisque
cette quantité est négligeable par rapport à l'ensemble du marché. Chaque offreur

510
ou demandeur doit donc considérer le prix du marché comme une donnée qui
s'impose à lui, sur laquelle il ne peut agir.
 Libre accès au marché. Cette condition implique l'absence :
 de barrières excluant certains offreurs ou demandeurs du marché ;
 de monopoles ;
 de normes artificielles de qualité excluant indûment certains produits ;
 de quotas d'importation ;
 de prix imposés ;
 de restrictions de publicité ;
 de restriction de lieu, de durée ou de surface de vente, etc.
Elle implique aussi l'absence d'entente entre fournisseurs ou entre clients comme
les centrales de vente ou d'achat ; elle exclut également les multiples interventions
dont l'Etat français s'est fait une spécialité (subventions, taxes spéciales…).
 Homogénéité des produits. Cette condition implique que les divers vendeurs
offrent des produits identiques, que leurs clients peuvent comparer. Bien
entendu, les offreurs font souvent tout ce qu'ils peuvent pour empêcher cette
comparaison : boîtes de lessive contenant des quantités différentes, structures
tarifaires différentes (exemples : prix des assurances ou des communications
téléphoniques), etc.
 Transparence du marché. Chaque acteur du marché (offreur ou demandeur) doit
être parfaitement informé des articles disponibles, de leurs conditions de vente,
des prix et quantités demandés, etc.
 Mobilité parfaite des produits et des facteurs de production. Chaque offreur doit
être libre de modifier ses produits ou d'en introduire de nouveaux. Cela implique
la possibilité pour les producteurs de recourir à de la main-d'œuvre étrangère,
d'emprunter ou de prêter les fonds à leur guise, d'acheter les matières premières
où ils veulent, etc. Elle implique aussi la possibilité pour les travailleurs de choisir
leur lieu de travail et de s'expatrier s'ils le désirent.

Ces conditions idéales de concurrence ne sont jamais réalisées, mais les économistes
font souvent l'hypothèse de concurrence pure et parfaite pour simplifier leurs
raisonnements et leurs modèles. Les consommateurs y ont tellement intérêt que tout
contexte de concurrence imparfaite est considéré comme préjudiciable à la collectivité.

Chaque pays, chaque entreprise et chaque personne qui a quelque chose à vendre a
intérêt à avoir le moins de concurrence possible. Pour y parvenir, ils pourront essayer
par exemple :
 De créer de nouveaux produits, qu'ils ont seuls à fabriquer ;
 D'inventer de nouvelles techniques ou procédés de fabrication, qu'ils pourront
breveter ;
 De changer la présentation d'un produit, pour donner aux consommateurs
l'impression que c'est un produit nouveau ;
 De faire de la publicité pour le produit ou la marque, pour donner aux
consommateurs une image qui les distingue des produits concurrents ;

511
 D'empêcher les consommateurs et les concurrents de connaître les
caractéristiques exactes de leur produit ;
 De s'entendre avec d'autres fournisseurs du même produit pour éviter de se faire
concurrence, ou de s'emparer des entreprises concurrentes pour remplacer cette
concurrence par une synergie industrielle ou commerciale ;
 D'obtenir de l'Etat des lois et règlements qui empêchent leurs concurrents
d'accéder au marché, etc.

Et il y a toujours des politiciens et des groupes de pression qui réussissent à fausser


les conditions de concurrence au profit de leurs amis. C'est ainsi que le président
Sarkozy a obtenu le 22/06/2007 de la présidence allemande de l'Union européenne
l'abandon de la référence à la "concurrence libre et non faussée" dans le projet de
traité institutionnel simplifié pour l'Union européenne. Il veut ainsi pouvoir faire
intervenir l'Etat français dans l'économie comme il le fait depuis toujours.

[198] Blaise Pascal, "Pensées", éditions Hachette, 1909


http://gallica.bnf.fr/ark:/12148/bpt6k56034742.r=.langFR

[199] Il y a 65 millions d'années une météorite d'environ 10 km de diamètre a frappé


la Terre au Yucatan (Mexique) creusant un cratère d'environ 200 km de diamètre et
tuant 70 % des espèces vivantes, dont les dinosaures.

[200] Déterminisme philosophique de Laplace


L'hypothèse fondamentale du déterminisme philosophique (celle de la chaîne de
causalité unique commençant infiniment loin dans le passé et se poursuivant
infiniment loin dans l'avenir) est connue sous le nom de déterminisme de Laplace.
Dans l'"Essai philosophique sur les probabilités" (1814) page 3
http://books.google.fr/books?hl=fr&id=EOQGAAAAYAAJ&q=une+intelligence#v=snip
pet&q=une%20intelligence&f=false
Laplace a imaginé un démon capable, à partir du présent, de reconstituer sans
erreur tout le passé et de prévoir sans erreur tout l'avenir.

[201] Aristote, "Analytiques postérieures" livre 2, chapitre VII. Citation :


"L'existence ne peut jamais faire partie de l'essence ; l'« être » ne peut jamais
appartenir à la substance de l'objet." En somme :
 La définition humaine d'une chose et la preuve de son existence physique ne
peuvent jamais se déduire l'une de l'autre.
 Une propriété définie dans l'essence d'un objet est une abstraction qui ne peut
être une cause agissant physiquement sur cet objet, ni de l'extérieur ni de
l'intérieur. La propriété et l'essence sont des abstractions, la cause est un effet
physique, aucune des deux catégories ne peut résulter de l'autre.

[202] Arthur Schopenhauer : "Le monde comme volonté et représentation" (1818,


remanié en 1844) - Collection Folio Essais, chez Gallimard - 2009

[203] Infalsifiable : qualifie une affirmation dont on ne peut prouver la fausseté


éventuelle. C'est le contraire de falsifiable. Une hypothèse (ou une théorie) est dite
falsifiable si on peut imaginer (ou mieux, créer expérimentalement) une situation où

512
elle est prise en défaut, même si on ne peut pas imaginer de situation où elle se réalise
- notamment parce qu'elle est indécidable [6] ou spéculative. Exemples :
 La loi d'Ohm "L'intensité de courant électrique à travers une résistance est
proportionnelle à la différence de potentiel entre ses bornes" est falsifiable ;
 L'affirmation "Ce feu de forêt a pour origine la volonté de Dieu" est infalsifiable.

Les situations testées sont des conséquences démontrables ou des prédictions


vérifiables de la théorie. Mais attention :
 Lorsqu'un phénomène prévu ne se produit pas, son absence ne suffit pas pour
réfuter la théorie car des circonstances perturbatrices inattendues peuvent être
intervenues, et il est impossible de raisonner sur quelque chose qui ne s'est pas
produit.
Lorsqu'une théorie prédit une certaine valeur d'une variable et que les mesures
expérimentales en fournissent une autre, la différence doit être expliquée et
provenir de circonstances hors du champ de la théorie (comme la précision des
mesures), sinon celle-ci doit être considérée comme fausse.
 Les prédictions testées doivent être strictement déductives (par un algorithme de
calcul des prédicats ou de calcul mathématique) ; on ne peut tester aucune
prédiction utilisant une induction, ni utiliser une induction pour réfuter une
prédiction de la théorie.

[204] Laplace, Pierre-Simon de : "Exposition du système du monde" (1798), Livre


premier, chapitre II
http://fr.wikisource.org/wiki/Exposition_du_syst%C3%A8me_du_monde/Livre_premier
Citation :
"En interrogeant ainsi la nature, et soumettant ses réponses à l'analyse nous
pouvons, par une suite d'inductions bien ménagées, nous élever aux causes des
phénomènes, c'est-à-dire, les ramener à des lois générales dont tous les
phénomènes particuliers dérivent. C'est à découvrir ces lois, et à les réduire au
plus petit nombre possible, que doivent tendre nos efforts ; car les causes
premières et la nature intime des êtres nous seront éternellement inconnues."

[205] Détails sur l'immatérialisme de Nietzsche - Voir dans [343]


le paragraphe "L'antimatérialisme intransigeant de Nietzsche".

[206] Dogmatisme : doctrine qui affirme que l'homme a la possibilité d'aboutir à des
certitudes. Antonyme : scepticisme. Par extension, le dogmatisme est la disposition
d'esprit à affirmer de manière péremptoire et à tenir des propositions pour vraies sans
discussion ; c'est aussi la doctrine qui en résulte.

Pour Kant, une thèse est dogmatique : c'est une vérité a priori, nécessaire et
déductive, alors qu'une antithèse est une vérité à posteriori, probable et inductive,
basée sur l'expérience.

[207] Postulat de détermination complète - Principe de perfection


Kant postule que toute chose existante est complètement déterminée par un ou
plusieurs des prédicats possibles, dont certains forment des couples contradictoires.

513
Il entend par là qu'une réalité donnée, la « chose en soi », est complètement définie
par les réponses "vrai" ou "faux" à un sous-ensemble de tous les prédicats possibles
qui comprend les lois de la nature qui s'appliquent à cette réalité ; mais l'homme ne
peut connaître de la réalité que ce qui résulte de ses expériences. Kant concilie donc
le « principe de perfection » de la métaphysique traditionnelle et le réalisme empirique.

[208] David Hume - "Enquête sur l'entendement humain" (1748), traduit du texte
anglais "An Enquiry Concerning Human Understanding"
http://classiques.uqac.ca/classiques/Hume_david/enquete_entendement_humain/En
quete_entende_humain.pdf.

[209] Livre "Karl Popper ou le rationalisme critique" par Renée Bouveresse, librairie
Vrin, 2e édition, 3e tirage 1998. L'auteur est une normalienne, maître de conférences
de philosophie à l'université de Dijon. Ce livre est une merveille de clarté et d'honnêteté
intellectuelle, dont le texte français a été approuvé par Karl Popper lui-même en 1978.

[210] Raison et rationalisme


La raison est la faculté de combiner logiquement des concepts et des propositions
pour comprendre, bien juger et discerner le vrai du faux. Elle utilise l'intelligence, et
refuse les réactions affectives ou les instincts. Elle combine les concepts et enchaîne
les propositions en respectant des principes comme ceux que citent [99], [4] et le "5e
précepte de Descartes".

Dans ce texte (et à la différence de sa signification habituelle), le mot rationalisme


désigne une méthode de réflexion qui base la pensée sur la raison.

Le rationalisme accorde un crédit à l'expérience, c'est-à-dire aux faits, même s'il se


réserve le droit d'en critiquer l'interprétation et les conséquences que le raisonnement
en tire. Le rationalisme critique de Popper va plus loin, en ne considérant comme
acceptable qu'une hypothèse falsifiable [203], mais en admettant en revanche qu'elle
n'a pas nécessairement à être justifiée par un raisonnement.

Le rationalisme accorde aussi un crédit à la pensée formelle (mathématiques et


logique formelle), à condition que ses conséquences résistent à la critique.

Le rationalisme se méfie des interprétations métaphysiques [371] de modèles


mathématiques ; exemple : méfiance à l'égard d'interprétations philosophiques du
principe d'incertitude de Heisenberg, lorsque ces interprétations concernent l'essence
des choses ou un caractère surnaturel.

[211] Le pouvoir séparateur angulaire d'un instrument d'optique est l'angle de visée
minimum  qui doit séparer deux points distincts pour qu'ils apparaissent séparés à
l'observateur utilisant l'instrument. Cet angle est donné par le critère de Rayleigh :
sin   1.22 /d où  est la longueur d'onde de la lumière et d le diamètre d'ouverture
de l'instrument.

On voit que  est d'autant plus petit (donc le pouvoir séparateur est d'autant meilleur)
à longueur d'onde donnée que l'instrument est grand. C'est l'une des raisons qui
incitent les astronomes à utiliser des télescopes à miroir géant, par exemple de 10 m
de diamètre pour les deux instruments Keck de Hawaii.

514
Exemple d'application : "Piqué des photos, ouverture et diffraction" (Daniel MARTIN,
2009) http://www.danielmartin.eu/Physique/DiffractionPhoto.pdf

[212] Arthur Koestler, "Les somnambules" (Editions Calmann-Lévy, 1959, republié


en 1994). Dans ce monumental ouvrage, l'auteur raconte comment l'humanité a réussi
à séparer la science de la religion et de la philosophie, la rendant objective et
productrice d'affirmations vérifiables.

[213] Karl R. Popper "La logique de la découverte scientifique", éditions Payot,


publié en allemand en 1934 et traduit en 1973.

[214] Karl R. Popper "La connaissance objective", éditions Champs-Flammarion.

[215] André Comte-Sponville "L'être-temps" publié en 1999 aux PUF dans la


collection "Perspectives Critiques".

[216] Scientific American, octobre 2007, article "How Does Consciousness


Happen?" (Comment les processus cérébraux produisent-ils la conscience ?)

[217] La théorie du Big Crunch fait l'objet de plusieurs modèles hypothétiques, qui
n'ont été à ce jour ni confirmés ni démentis. Certains de ces modèles expliqueraient
même l'état de l'Univers avant le Big Bang. (Voir l'article "Cosmology - New Beginnings
- Ideas for a time before the Big Bang - which might be testable" Scientific American,
octobre 2007).

[218] Définition d'une théorie scientifique selon Popper, d'après [213], cité par [209]
page 71 :
"Une théorie est « un système axiomatisé formé d'énoncés synthétiques
universels, tel qu'il permet, à l'aide de conditions initiales appropriées, de fournir
une explication causale de faits exprimés par des énoncés singuliers, ou d'en
effectuer la prédiction. »"

[219] Convergence d'une théorie et vérisimilitude selon Popper


Selon [209] pages 77 et suivantes, Popper a formulé le processus de la connaissance
en termes de proximité croissante de la vérité. Il appelle la qualité de proximité de la
vérité d'une théorie « vérisimilitude », terme qui ressemble à vraisemblance mais n'a
aucun rapport avec ce dernier. Il évalue la vérisimilitude d'une théorie à partir de son
« contenu de vérité » et de son « contenu de fausseté », grandeurs qu'il traite comme
si elles étaient mesurables.

Je considère cette approche comme irréaliste. Je pense notamment que dès qu'une
théorie a un contenu de fausseté non nul, elle est fausse. Je préfère la notion de
convergence d'une théorie vers la vérité à la notion de vérisimilitude. Pour moi, la
convergence d'une théorie empirique vers l'inaccessible vérité est évaluée à partir des
connaissances strictement croissantes qu'elle apporte en évoluant, connaissances
dont le progrès doit être de plus en plus insignifiant si elle converge.
Exemple : les théories successives sur le mouvement des planètes autour du
Soleil comportent des termes correctifs de plus en plus petits par rapport à l'ellipse

515
moyenne, et permettent la prévision du mouvement avec de plus en plus de
précision, jusqu'à une limite due aux perturbations chaotiques non calculables. Au
fil des siècles, les théories successives (Ptolémée et ses épicycles ; puis Kepler
et ses lois sur les orbites ; enfin Einstein et sa Relativité Générale) ont aujourd'hui
convergé, leur précision n'étant plus limitée que par des phénomènes
mathématiques de chaos.

[220] Langages et vérité. Complétude d'un énoncé et d'un langage


Les exemples d'affirmations indémontrables cités dans [44] et [93] mettent en évidence
le besoin d'un langage permettant d'exprimer la vérité sans permettre des affirmations
indécidables comme celles de [93]. En outre, nous avons vu l'impossibilité de prouver
un énoncé qui se décrit lui-même ou se compare à lui-même au paragraphe "Un
énoncé ne peut ni se décrire lui-même ni se comparer à lui-même".

La solution a été trouvée par le logicien Alfred Tarski, en complément des théorèmes
d'incomplétude de Gödel [6]. Une axiomatique ne peut contenir les axiomes et règles
de déduction permettant de vérifier sa cohérence, qui doit être vérifiée par des
considérations sémantiques externes à cette axiomatique.

Tarski a trouvé les règles à satisfaire par un langage pour qu'il puisse exprimer une
correspondance entre un énoncé et les faits réels, c'est-à-dire une vérité. Il a montré
qu'aucun langage ne peut contenir son propre prédicat de vérité, sous peine de
permettre des propositions indécidables et paradoxales comme :

"Cette affirmation est fausse."

Pour pouvoir qualifier une affirmation du langage courant représentée par la variable
logique X de vraie ou de fausse, il faut donc un autre langage, appelé métalangage,
c'est-à-dire un langage permettant à la fois de citer X et de comparer sa valeur logique
à la réalité. Par exemple, si dans le langage courant (appelé par Tarski langage objet)
on désigne par X l'affirmation « Nous sommes jeudi » et que nous sommes
effectivement un jeudi, alors on écrira dans le métalangage que X est vraie comme
ceci :

X  nous sommes jeudi

qui veut dire "X est vraie si et seulement si nous sommes jeudi", c'est-à-dire :

"L'affirmation « Nous sommes jeudi » est vraie si et seulement si nous sommes jeudi".

Non-existence d'un critère général de vérité


Tarski a aussi démontré que l'existence d'un critère général de vérité applicable à
n'importe quel énoncé dans un langage donné est impossible, aussi impossible que
l'existence d'un algorithme universel permettant de savoir si le calcul d'un algorithme
donné s'arrêtera et fournira son résultat en un temps fini.

Il n'existe donc pas de critère général permettant de savoir si un énoncé est vrai au vu
de cet énoncé. La vérité est donc inaccessible, parce que :
 On ne peut savoir si elle est atteinte, faute de critère absolu. [209] cite Tarski
page 102 :

516
"Nous ne pouvons même pas fournir un critère de vérité pour les énoncés
arithmétiques, bien que nous puissions évidemment décrire des séries infinies
d'énoncés arithmétiques vrais."
 La recherche scientifique est toujours susceptible de faire progresser la
connaissance, rapprochant ainsi les descriptions des faits et phénomènes de la
réalité, les rendant dont de plus en plus « vraies ».

La vérité scientifique absolue n'est pas un non-sens. Elle doit rester une norme, un
objectif, mais on doit abandonner l'espoir de la trouver.

Voir aussi le complément suivant, [221].

[221] Logique et inférence


Selon [209] pages 102-103 (j'ai surligné des passages et inséré des commentaires
entre crochets) :
"Une des conséquences les plus importantes de la théorie de la vérité de Tarski,
c'est de permettre de définir l'inférence logique en termes de vérité, et donc de
donner une « théorie réaliste de la logique ». Les thèses poppériennes
concernant la logique peuvent être résumées ainsi :
1) La logique n'est ni la description des lois naturelles de la pensée [comme le
croyait Kant], ni celle des lois conventionnelles d'un langage symbolique vide de
sens [comme le prétendent les conventionnalistes]. Elle est la théorie de
l'inférence valide. Et cette inférence valide se définit en termes de vérité et de
fausseté, dans un langage qui cherche à décrire les faits : elle est celle qui
transmet la vérité des prémisses aux conclusions.
2) S'il n'y a pas de critère général de la validité d'une inférence [220], on peut
dans de nombreux cas prouver la validité d'une inférence en recourant à la
méthode critique, en montrant qu'il n'y a pas de contre-exemple, pas de cas où
de prémisses vraies on parvienne à une conclusion fausse.

Les règles d'inférence ont deux usages : en mathématiques, elles servent à


démontrer ; dans les sciences de la nature elles sont un instrument de critique.
Aussi les exigences de ces deux types de disciplines doivent-elles être
inversées : en mathématiques, on a besoin d'une logique réduite, éliminant les
risques d'incohérence et de paradoxe - c'est pourquoi l'intuitionnisme a, par
exemple, tenté de supprimer la règle du tiers exclu [99] ; mais, dans les sciences
empiriques on a besoin d'une logique forte pour ne pas se contenter de critiquer
des impossibilités, et il faut condamner toute tentative pour atténuer la rigidité
des règles logiques, comme témoignant d'un affaiblissement de l'exigence
critique.
3) Il faut distinguer d'une part, les règles d'inférence [d'une axiomatique, par
exemple], qui sont inconditionnelles et portent sur des énoncés -, et d'autre part,
les calculs logico-mathématiques, conditionnels et portant sur des individus et
des relations.

Certains demandent pourquoi les calculs logiques sont applicables à la réalité.


La réponse est, en premier lieu, que ces calculs sont faits pour décrire certains
faits particuliers, et qu'il est donc normal qu'ils atteignent ce but, mais qu'ils ne le

517
sont pas pour tous les faits. Des instruments arithmétiques différents permettent
de décrire des réalités différentes - il en est ainsi, par exemple, pour les nombres
réels et les nombres naturels -. En deuxième lieu, en tant que les calculs sont
appliqués à la réalité, ils deviennent des théories descriptives empiriquement
réfutables : deux plus deux peuvent empiriquement ne pas toujours donner
quatre - dans la Relativité Restreinte, par exemple [notamment lorsqu'il s'agit
d'additivité des vitesses] -. En tant qu'ils sont irréfutables, ils ne s'appliquent pas
à la réalité, et sont seulement des truismes logiques."

[222] Eric Blondel - "Prolégomènes à une lecture philologique de Nietzsche",


page 6 - http://www.philopsis.fr/IMG/pdf_nietzsche_blondel_proleg.pdf

[223] Théorie cosmologique de la gravitation quantique :


 Dossier "Vers une gravitation quantique" – La Recherche n° 458, décembre
2011
 Abhay Ashtekar :
 Page d'accueil de ses articles sur la gravitation quantique :
http://gravity.psu.edu/people/Ashtekar/articles.html
 Conférence "The Big Bang and the Quantum"
 "QUANTUM NATURE OF THE BIG BANG IN LOOP QUANTUM
COSMOLOGY" http://gravity.psu.edu/people/Ashtekar/articles/solvaynet.pdf

[224] "L'homme peut faire ce qu'il veut, il ne peut pas vouloir ce qu'il veut"
Voir d'abord le principe d'identité [16]. Le sens de la phrase ci-dessus est le suivant :
l'homme est libre de choisir ce qu'il veut, mais il ne peut agir sur ce qu'il veut, ce dont
il a envie, qui reflète ses valeurs et les contraintes du moment. Même sa raison ne
peut lui faire modifier ce dont il pense avoir envie, elle peut seulement l'empêcher d'y
céder lorsque ces envies conscientes sont moins fortes que d'autres valeurs qu'il a et
qui gouvernent sa raison.

[225] Spinoza - "L'Ethique" Partie I définitions, VII :


http://www.spinozaetnous.org/telechargement/ethique.rtf.
"Une chose est libre quand elle existe par la seule nécessité de sa nature et
n'est déterminée à agir que par soi-même ; une chose est nécessaire ou plutôt
contrainte quand elle est déterminée par une autre chose à exister et à agir
suivant une certaine loi déterminée."

[226] René Thom, mathématicien médaille Fields, "Halte au hasard, silence au


bruit", article publié dans [295-b].
Extrait :
"Je voudrais dire d'emblée que cette fascination de l'aléatoire témoigne d'une
attitude antiscientifique par excellence. De plus, dans une large mesure, elle
procède d'un certain confusionnisme mental, excusable chez les auteurs à
formation littéraire, mais difficilement pardonnable chez des savants en principe
rompus aux rigueurs de la rationalité scientifique.
Qu'est-ce en effet que l'aléatoire ? On ne peut en donner une définition que
purement négative : est aléatoire un processus qui ne peut être simulé par

518
aucun mécanisme, ni décrit par aucun formalisme. Affirmer que "le hasard
existe", c'est donc prendre cette position ontologique qui consiste à affirmer qu'il
y a des phénomènes naturels que nous ne pourrons jamais décrire, donc jamais
comprendre. C'est renouveler le célèbre ignorabimus de Du Bois-Reymond...
Le monde est-il astreint à un déterminisme rigoureux, ou y a-t-il un "hasard"
irréductible à toute description ? Ainsi posé, évidemment, le problème est de
nature métaphysique [371] et seule une option également métaphysique est en
mesure de le trancher. En tant que philosophe, le savant peut laisser la question
ouverte ; mais en tant que savant, c'est pour lui une obligation de principe - sous
peine de contradiction interne - d'adopter une position optimiste et de postuler
que rien, dans la nature, n'est inconnaissable a priori."

Voir :
 Ma critique de la définition du hasard donnée ci-dessus par René Thom ici.
 L'opinion de Husserl sur le déterminisme de la nature.

[227] BMC Genomics, 29/08/2007, compte-rendu de recherches "Effect of active


smoking on the human bronchial epithelium transcriptome"
http://www.biomedcentral.com/1471-2164/8/297 . Extrait traduit:
"Fumer altère de manière irréversible l'expression de certains gènes, notamment
parmi ceux qui contribuent à la réparation des chaînes ADN et ceux qui
combattent le développement du cancer du poumon. Cette altération se produit
chez certains fumeurs en quelques années. Elle est accompagnée d'altérations
réversibles et d'altérations partiellement réversibles."

[228] Compte-rendu de recherches "Genetic Variation in Political Participation" (mai


2008) -
http://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID1082665_code646904.pdf?abstra
ctid=1008036&mirid=3 .
Voir aussi [51] et:
 Scientific American de novembre 2007, article "The Genetics of Politics - A study
finds that biology strongly governs voter turnout".
 The New York Times - 8 juillet 2014, article "How Much Do Our Genes Influence
Our Political Beliefs?" - http://www.nytimes.com/2014/07/09/opinion/thomas-
edsall-how-much-do-our-genes-influence-our-political-
beliefs.html?mabReward=RI%3A5&action=click&pgtype=Homepage&region=CC
olumn&module=Recommendation&src=rechp&WT.nav=RecEngine

Des chercheurs ont montré que l'héritage génétique explique entre 40 % et 60 % de


la propension de certaines personnes à voter, et plus généralement à participer à des
activités politiques. Compte tenu du fait que les études ont comparé le comportement
de paires de vrais et de faux jumeaux, il est possible que le développement simultané
dans l'organisme d'une même mère fasse partie, avec le génome, du contexte qui
encourage ou non deux vrais jumeaux à voter et à s'impliquer politiquement. (Rappel :
deux vrais jumeaux ont la totalité de leurs ADN identiques, alors que les faux jumeaux
n'en partagent qu'environ la moitié.)

519
Mais pour couper court à toute interprétation fantaisiste de ces résultats de recherche,
aucune recherche à ce jour n'a établi une propension génétique à voter pour un parti
politique plutôt qu'un autre…

[229] The New York Times du 23/10/2007, compte-rendu de recherche


"An Active, Purposeful Machine That Comes Out at Night to Play"
http://www.nytimes.com/2007/10/23/health/23memo.html?th=&emc=th&pagewanted
=print.
Voir aussi le paragraphe "Mécanismes de l'intuition" et [284].

[230] Proceedings of The Royal Society - 22/07/2007 - Compte-rendu de


recherches "Drd4 gene polymorphisms are associated with personality variation in a
passerine bird" http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=1914334

[231] Newsweek du 04 juin 2007 - Interview de James Dewey Watson, prix Nobel
de médecine 1962 pour la découverte de la structure de l'ADN.
http://www.newsweek.com/id/34370 - Extrait :
"If personal-genome sequencing becomes widespread, he says, «it will make
people more compassionate.
We'll understand why people can't do certain things,» he continues. «Instead of
asking a child to shape up, we'll stop having unrealistic expectations. If a child's
genome shows that his awkwardness or inattention or limited intelligence has a
genetic basis, we'll want to help rather than be mad. If a child doesn't finish high
school, we treat that as a failure, as his fault. But knowing someone's full genetic
information will keep us from making him do things he'll fail at.»"

[232] Proceedings of the American Philosophical Society, vol. 148, n° 4,


December 2004 "The Endless Universe: A Brief Introduction" (Paul J. Steinhardt,
Professor of Physics, Stanford University)
http://www.amphilsoc.org/sites/default/files/480406.pdf - Extraits :
"In the last year, however, there has been a return of the Cyclic Universe in a
new twenty-first-century version based on recent ideas developed in
fundamental (superstring) physics. The new cyclic universe appears capable of
reproducing all of the successful predictions of the standard Big Bang/inflationary
model with the same exquisite precision, even though the key events that shape
the large-scale structure of the universe occur at different epochs and
temperatures and entail different physical processes."
"The new cyclic model has rapidly developed into a promising and provocative
alternative to the standard Big Bang inflationary picture. There remain open
issues, most especially a rigorous demonstration that the bounce from
contraction to expansion can occur when quantum fluctuations are included."

[233] Fond diffus cosmologique – Homogénéité et isotropie de l'Univers


Il y a environ 13.8 milliards d'années, environ 380 000 ans après le Big Bang,
l'expansion de l'Univers avait réduit sa fantastique température initiale de l'ordre de
1030°K à environ 4000°K, température correspondant à des photons de lumière visible.
Depuis, la lumière émise à ce moment-là a vu sa longueur d'onde augmenter du fait
de l'expansion de l'Univers qui s'est poursuivie jusqu'à nos jours, où elle correspond à

520
une température de 2.735°K (moins de 3°K du zéro absolu), et à des ondes de
fréquence radio. Ces ondes sont captées par les radiotélescopes terrestres et des
engins spatiaux spécialisés comme COBE (Cosmic Background Explorer), lancé en
1989.

Ce rayonnement « fossile » diffus provient de toutes les directions de l'Univers,


montrant que celui-ci était déjà, lors de son émission il y a 13.8 milliards d'années,
extrêmement homogène et isotrope si l'on fait abstraction des inévitables fluctuations
quantiques : les variations relatives de température mesurées sont de l'ordre de 10 -5
et leurs emplacements correspondent à la présence ou l'absence de matière
susceptible de se condenser ultérieurement par attraction gravitationnelle pour former
des galaxies.

[234] Journal of Experimental Biology 55, pages 371-383, compte-rendu de


recherches "The Electric Sense of Sharks and Rays" (19/03/1971)
http://jeb.biologists.org/cgi/reprint/55/2/371.pdf

"Brain, Behavior and Evolution 1993" - 41, pages 269-289, compte-rendu de


recherches "Ampullary sense organs, peripheral, central and behavioral
electroreception in chimeras" http://lib.bioinfo.pl/pmid:8391892

[235] Scientific American (August 2007) pages 78-79, article "The Gedanken
Experimenter" - Quantum Weirdness -
http://www.sciam.com/article.cfm?chanID=sa006&articleID=ABBA5449-E7F2-99DF-
3ACFAC15B16FEC60&colID=30

[236] Science Vol. 315 n° 5811, compte-rendu de recherches "The Neural Basis of
Loss Aversion in Decision-Making Under Risk" (26/01/2007)
http://www.sciencemag.org/cgi/content/abstract/315/5811/515

[237] Scientific American juillet 2007, compte-rendu de recherches "Brain Science


- The Memory Code"

[238] Psychological Science 18 (11), pages 978-983, Novembre 2007


http://www.blackwell-synergy.com/doi/abs/10.1111/j.1467-9280.2007.02012.x
Compte-rendu de recherches à l'université Yale "The Origins of Cognitive
Dissonance: Evidence From Children and Monkeys".

[239] Blaise Pascal "De l'art de persuader" (extrait des Pensées [198])
"…quoi que ce soit qu'on veuille persuader, il faut avoir égard à la personne à
qui on en veut, dont il faut connaître l'esprit et le cœur, quels principes il accorde,
quelles choses il aime ; et ensuite remarquer, dans la chose dont il s'agit, quels
rapports elle a avec les principes avoués, ou avec les objets délicieux par les
charmes qu'on lui donne. De sorte que l'art de persuader consiste autant en
celui d'agréer qu'en celui de convaincre, tant les hommes se gouvernent plus par
caprice que par raison !"

521
[240] Citations de Richard Feynman
http://www.quotationspage.com/quote/523.html:
"The first principle is that you must not fool yourself - and you are the easiest
person to fool."
"I believe that a scientist looking at nonscientific problems is just as dumb as the
next guy."
"There are 1011 stars in the galaxy. That used to be a huge number. But it's only
a hundred billion. It's less than the national deficit! We used to call them
astronomical numbers. Now we should call them economical numbers."
"A philosopher once said 'It is necessary for the very existence of science that
the same conditions always produce the same results'. Well, they do not. You set
up the circumstances, with the same conditions every time, and you cannot
predict behind which hole you will see the electron."
"Nature has a great simplicity and therefore a great beauty."

[241] Construction empirique d'une axiomatique


L'homme a de la mémoire et des facultés de rapprochement d'informations qu'il utilise
pour définir des lois de comportement. A force d'observer qu'une situation A est
toujours suivie du phénomène B, l'homme postule par induction que A est la cause de
B, et que le passage de A à B est une loi de la nature. L'existence de telles lois satisfait
les besoins de l'homme de vivre dans un environnement connu, moins menaçant qu'un
environnement imprévisible, et de prévoir ce qui arrivera chaque fois que les
circonstances font partie de son expérience acquise.

Un raisonnement par induction ne donne aucune certitude : en toute rigueur ce n'est


pas parce que depuis que l'homme existe il voit le Soleil se lever chaque matin que
celui-ci se lèvera encore demain. Mais notre démarche scientifique, le rationalisme
critique, affirme que dans la mesure où un énoncé est falsifiable [203], qu'il a été
soumis à la communauté des gens en mesure de le juger, et qu'aucune erreur ou
insuffisance n'a été détectée, on peut le considérer comme vrai même s'il ne résulte
d'aucune démonstration formelle ou vérification expérimentale. C'est pourquoi à force
de n'avoir trouvé aucun matin où le Soleil ne s'est pas levé, on peut admettre jusqu'à
preuve du contraire qu'il y a une loi de la nature qui fait qu'il se lèvera encore demain
et tous les jours suivants.

Les lois de la nature peuvent donc être construites par induction à partir d'une ou
plusieurs observations empiriques, ou en tant qu'hypothèses ou conjectures à partir
de raisonnements par analogie et de déductions diverses. Elles sont tenus pour vraies
dès qu'il y a un consensus suffisant et aucun contre-exemple. Ces lois décrivent des
faits (ou des valeurs de variables constituant par exemple des constantes de la nature)
et des règles d'enchaînement permettant de prévoir les conséquences d'une cause ;
un système de lois de ce type concernant un domaine donné constitue alors une
axiomatique. Et une axiomatique peut être complétée ultérieurement [92].

On voit donc que dans le cadre du rationalisme critique il n'y a pas de différence de
vérité entre un axiome (terme synonyme de postulat) et une loi empirique, dans la
mesure où la falsifiabilité et l'absence de contre-exemple ont été vérifiées par
suffisamment de gens compétents.

522
[242] Compléments d'informations sur le Principe anthropique :
 "Cosmic Jackpot: Why Our Universe Is Just Right for Life" par Paul Davies,
physicien et cosmologiste, publié chez Houghton Mifflin (Boston, USA) en avril
2007.
 "Mind of God: The Scientific Basis for a Rational World" par Paul Davies, publié
chez Touchstone (New York, USA) en mars 1993.
 La série télévisée "Cosmos" de Carl Sagan.
 [136] Tegmark pages 138 et suivantes.

[243] Newsweek du 17/12/2007, compte-rendu de recherches "A Changing Portrait


of DNA"

[244] NPR.org - Article "Teaching Evolution: A State-by-State Debate"


(L'enseignement de l'évolution en débat dans un ensemble d'états des Etats-Unis) -
(20/12/2005) - http://www.npr.org/templates/story/story.php?storyId=4630737
Extrait :
"Policymakers in at least 16 states are currently examining the controversy."
(Les responsables politiques d'au moins 16 états des Etats-Unis polémiquent sur
ce sujet en ce moment.)
(La liste des situations dans 14 de ces états des Etats-Unis suit).

[245] Interview de Richard Feynman diffusée par la BBC en 1981


http://www.bbc.co.uk/sn/tvradio/programmes/horizon/broadband/archive/feynman/ind
ex_textonly.shtml

[246] Livre de Lawrence E. Harrison "The Central Liberal Truth – How Politics Can
Change A Culture and Save It From Itself" (Oxford University Press, 2006)

[247] The New York Times du 13/01/2008, article "The Moral Instinct"
http://www.nytimes.com/2008/01/13/magazine/13Psychology-
t.html?_r=1&th=&oref=slogin&emc=th&pagewanted=print.

[248] J. Craig Venter Institute – "Synthetic Bacterial Genome" (Jan. 24, 2008)
http://www.jcvi.org/cms/research/projects/synthetic-bacterial-genome/press-release/

Extrait du communiqué de presse :


"A team of 17 researchers at the J. Craig Venter Institute (JCVI) has created the
largest man-made DNA structure by synthesizing and assembling the 582,970
base pair genome of a bacterium, Mycoplasma genitalium JCVI-1.0. This work,
published online today in the journal Science by Dan Gibson, Ph.D., et al, is the
second of three key steps toward the team’s goal of creating a fully synthetic
organism. In the next step, which is ongoing at the JCVI, the team will attempt to
create a living bacterial cell based entirely on the synthetically made genome."

[249] Article "nature, philosophy of." Encyclopædia Britannica. Ultimate Reference


Suite. Chicago: Encyclopædia Britannica, 2008

523
[250] NASA – "Tests of Big Bang: Expansion"
http://map.gsfc.nasa.gov/universe/bb_tests_exp.html (résultat : expansion de
69.6 km/s par mégaparsec, soit 21.6 km/s par million d'années-lumière)

[251] IEEE Xplore – Article "Cliques in Neural Ensembles as Perception Carriers"


(2006) -
http://ieeexplore.ieee.org/Xplore/login.jsp?url=/iel5/11216/36115/01716104.pdf?temp
=x

[252] Jean-Paul Sartre : "L'Etre et le néant" (1943), éditions Gallimard

[253] Affect : Sentiment subjectif, vague et inanalysable, résultant d'une émotion,


d'une peur, d'un désir, d'une aversion, etc. Ce sentiment produit automatiquement
une représentation, à laquelle l'esprit peut ou non être sensible consciemment.

[254] "Differential Modulation of Nucleus Accumbens Synapses" - The Journal of


Neurophysiology Vol. 88 No. 1 July 2002 - http://biopsychiatry.com/nucleus-
accumbens.htm

[255] Livre "Vivre – La psychologie du bonheur" (1990) par Mihaly


Csikszentmihalyi, publié chez Robert Laffont. J'en ai publié une courte description
commentée dans le texte du même nom à l'adresse
http://www.danielmartin.eu/Arg/Vivre.htm. En voici la table des matières :
1. La définition du bonheur
1.1 Ce que le bonheur n'est pas
1.2 L'expérience optimale
1.3 Comment identifier les instants de bonheur
1.4 L'insatisfaction
1.4.1 Les réactions inadéquates à l'insatisfaction
1.4.2 Donner un sens à sa vie
1.5 Expérience optimale et complexité
1.5.1 Apprendre pour le plaisir
1.5.2 Développer sa culture
2. Atteindre le bonheur
2.1 Les bonheurs sans défi
2.2 Les cultures propices au bonheur
2.3 Vainqueurs et victimes
3. Bonheur et règles morales
4. Conclusion

[256] "Behavioral Finances versus Technical and Fundamental Analysis"


http://www.doaj.org/doaj?func=abstract&id=214402 – Extrait :
"La nouvelle science économique appelée neuroéconomie étudie les profondes
et subtiles interactions apparaissant dans le cerveau lorsque l'homme fait face
aux incertitudes d'une décision économique. Les caractéristiques

524
psychologiques les plus fondamentales d'un être humain (la peur, la colère, la
cupidité et l'altruisme) influencent profondément nos décisions en rapport avec
l'argent. Toute décision humaine est influencée à la fois par l'intellect
(compréhension d'une situation), la raison (conséquences à long terme d'une
action envisagée) et l'émotion (qui juge le déroulement de l'action), ainsi que par
leurs interactions."

[257] "Reward signaling by dopamine neurons" (Neuroscientist 2001)


http://biopsychiatry.com/dopaminerev.htm

[258] The New York Times du 06/05/2008, article "Lots of Animals Learn, but
Smarter Isn’t Better"
http://www.nytimes.com/2008/05/06/science/06dumb.html?_r=1%26th=%26oref=slog
in%26emc=th%26pagewanted=print

[259] Annonces Intel :


"ISSCC 2011 Trends Report" - http://isscc.org/doc/2011/2011_Trends.pdf
"…this year marks the first commercial product exceeding 3 billion transistors on a
single die with the 32nm Intel Itanium Processor."

[260] CIA – "The World Factbook" https://www.cia.gov/library/publications/the-


world-factbook/

[261] ITER (International Thermonuclear Experimental Reactor)


http://www.iter.org/
L’accord ITER a été signé le 21 novembre 2006, par les représentants de la
Commission européenne, la Chine, la Corée du Sud, les Etats-Unis, l’Inde, le Japon
et la Russie. Le programme prévoit la construction puis l’exploitation du réacteur
thermonucléaire international ITER, à Cadarache, dans les Bouches-du-Rhône. Il
vise à mieux comprendre et maîtriser les phénomènes de la fusion thermonucléaire
contrôlée, de façon à disposer, à l’horizon 2050-2080, d’une ressource énergétique
virtuellement inépuisable et non polluante.

[262] CERN (Centre européen de recherche nucléaire) dans la banlieue de


Genève, le plus grand laboratoire de physique des particules du monde. Il abrite
notamment le grand collisionneur de hadrons (LHC), colossal accélérateur de
particules. Voir le site du CERN http://public.web.cern.ch/Public/Welcome-fr.html.

Le LHC a permis de confirmer l'existence du boson de Higgs, expliquant ainsi la masse


d'inertie de toutes les particules et confirmant l'ensemble du modèle standard de la
physique [59].

On espère qu'il confirmera, par exemple :


 L'existence de particules prévues par la théorie de la supersymétrie sous le nom
de sélectrons, squarks, sneutrinos, etc. Ces particules seraient beaucoup plus
massives que leurs homologues (électron, quark, neutrino…) et permettraient
peut-être de comprendre la matière sombre.
 La possibilité de produire des trous noirs minuscules, permettant leur étude en
laboratoire avant qu'ils ne s'évaporent.

525
[263] Conseil de l'Europe – "Convention de sauvegarde des Droits de l'Homme et
des Libertés fondamentales telle qu'amendée par le Protocole n° 11"
http://conventions.coe.int/Treaty/fr/Treaties/Html/005.htm

[264] Définition du déterminisme philosophique selon le "Vocabulaire technique et


critique de la philosophie", par André Lalande, éditions PUF :
"Doctrine philosophique suivant laquelle tous les événements de l'univers, et en
particulier les actions humaines, sont liés d'une façon telle que les choses étant
ce qu'elles sont à un moment quelconque du temps, il n'y ait pour chacun des
moments antérieurs ou ultérieurs, qu'un état et un seul qui soit compatible avec
le premier."
Le déterminisme philosophique implique l'existence d'une chaîne de causalité unique
pour toute situation : la situation présente ne peut être suivie ou précédée que d'une
seule évolution possible. Non seulement cette définition est fausse pour les
phénomènes physiques, mais son application au comportement humain est ridicule.

[265] Définition de l'épistémologie


"Partie de la philosophie qui a pour objet l'étude critique des postulats,
conclusions et méthodes d'une science particulière, considérée du point de vue
de son évolution, afin d'en déterminer l'origine logique, la valeur et la portée
scientifique et philosophique".
En résumé, c'est la philosophie de la science.

[266] The New York Times du 1er juin 2008 – article "Put a Little Science in Your
Life" par Brian Greene, professeur de physique à l'université Columbia -
http://www.nytimes.com/2008/06/01/opinion/01greene.html?_r=1&th=&oref=slogin&e
mc=th&pagewanted=print – Extrait traduit :
"Lorsque nous songeons à l'ubiquité des téléphones cellulaires, des iPods, des
ordinateurs personnels et de l'Internet, il est facile de voir à quel point la science
(et la technologie qui en résulte) font partie intégrante de notre vie quotidienne.
Lorsque nous profitons des scanners tomographiques informatisés, de l'imagerie
par résonnance magnétique, de pacemakers et d'endoprothèses artérielles,
nous pouvons apprécier à quel point la science impacte notre qualité de vie.
Lorsque nous évaluons l'état du monde, et des menaces comme le changement
climatique, les pandémies, les attentats et la diminution des ressources
naturelles, nous n'hésitons pas à nous tourner vers la science pour comprendre
les problèmes et trouver des solutions.
Lorsque nous songeons aux immenses opportunités qui se présentent – la
recherche sur les cellules souches, le séquençage de génomes, la médecine
individualisée, les recherches sur la longévité, les nanosciences, l'interface
cerveau-machine, les ordinateurs quantiques, la technologie spatiale – nous
comprenons l'importance d'une culture permettant au grand public de
comprendre les problèmes scientifiques ; il n'y a tout simplement pas d'autre
manière pour que notre société se prépare à prendre des décisions en toute
connaissance de cause dans de nombreux domaines qui façonneront notre
avenir.

526
Ce sont là les raisons, classiques mais prégnantes, que beaucoup de gens citent
pour expliquer pourquoi la science est importante.
Mais il y a plus ; les raisons de l'importance de la science sont encore plus
profondes. La science est un mode de vie. C'est une perspective. C'est le
processus qui nous fait passer de l'ignorance à la compréhension précise,
prévisible et fiable ; c'est là une évolution, pour ceux qui ont la chance d'en
profiter, qui donne un sentiment de puissance et de joie. Etre capable de
réfléchir à des explications et à les comprendre, qu'il s'agisse de savoir pourquoi
le ciel est bleu ou comment la vie est apparue sur Terre, constitue une des
expériences humaines les plus enthousiasmantes ; la raison est qu'elles ne nous
parviennent pas sous forme de dogmes révélés, mais sous forme de lois
scientifiques confirmées par des expériences et des observations."

[267] The New York Times du 3 juin 2008 – article "Dark, Perhaps Forever"
http://www.nytimes.com/2008/06/03/science/03dark.html?_r=1&th&emc=th&oref=slo
gin
Schéma de l'expansion de l'Univers montrant l'influence de l'énergie sombre :
http://www.nytimes.com/imagepages/2008/06/03/science/20080603_DARK_GRAPHI
C.html

[268] The New York Times du 10 juin 2008 – article "Brainpower May Lie in
Complexity of Synapses"
http://www.nytimes.com/2008/06/10/health/research/10brai.html?_r=1&th=&adxnnl=1
&oref=slogin&emc=th&adxnnlx=1213369907-
XEmAfDZIBRtgQuonXdqKeQ&pagewanted=print
Extraits traduits:
"Dans le cas des vers et des mouches, les synapses permettent d'apprendre des
choses simples, mais chez les animaux ce sont des structures de protéines
beaucoup plus élaborées qui permettent d'apprendre des choses complexes et
d'effectuer des reconnaissances de structures."
"Si on représente le fonctionnement des synapses par des circuits intégrés
d'ordinateur, la puissance de raisonnement provient de la complexité de chaque
circuit autant que du nombre de circuits."
"La capacité de raisonnement du cerveau humain réside peut-être plus dans la
complexité des calculs effectués par ses synapses que dans son réseau de
neurones, dit le docteur Grant. Les synapses des vertébrés ont environ 1000
protéines différentes, assemblées en 13 mécanismes moléculaires, dont l'un est
composé de 183 protéines différentes.
D'après les recherches du groupe du docteur Grant, les synapses d'un cerveau
ne sont pas identiques ; chaque région utilise des combinaisons différentes
spécialisées du millier de protéines pour ses propres synapses.
On a tout lieu de penser que chaque synapse peut effectuer des calculs
complexes sur les messages reçus des autres neurones. Le cerveau humain a
environ 100 milliards de neurones interconnectés par 100 000 milliards de
synapses".

527
[269] "The future of the universe", par Sean M. Caroll (26/01/2006) -
http://cosmicvariance.com/2006/01/26/the-future-of-the-universe/

Extrait traduit :
"…l'hypothèse que le seul composant important de l'Univers est la matière ou le
rayonnement est trop restrictive. Puisque nous pensons aujourd'hui qu'il existe
de l'énergie sombre, la relation simple entre la courbure de l'espace et l'évolution
de l'Univers est complètement erronée. Il est possible que des Univers à
courbure positive soient en expansion perpétuelle, que des Univers à courbure
négative se contractent après la phase actuelle d'expansion, etc."

Commentaire
Voir [313].
L'hypothèse qu'il existe un Univers extérieur à notre Univers observable [111] est
raisonnable mais infalsifiable. L'expansion est même telle que les galaxies lointaines
visibles aujourd'hui disparaîtront de notre vue, leur lumière ne nous parvenant plus. A
terme, il ne restera plus dans notre ciel que les galaxies de notre amas local, que la
gravitation fera fusionner puis finir leur vie sous forme de trou noir…

[270] Interactions fondamentales et particules élémentaires


http://www.cea.fr/content/download/4289/22043/file/EncadreB_54fr.pdf

[271] Religiosité aux Etats-Unis et en France en 2008


 Pew report: "U.S. Religious Landscape Survey" (February 2008) (Statistiques
2008 sur la religiosité aux Etats-Unis) http://religions.pewforum.org/pdf/report-
religious-landscape-study-full.pdf
 INED Population et Sociétés N° 447, juillet/août 2008 - "La pratique religieuse
influence-t-elle les comportements familiaux ?" -
http://www.ined.fr/fichier/t_publication/1366/publi_pdf1_447.pdf

[272] "Voyage extraordinaire au centre du cerveau" (publié chez Odile Jacob en


octobre 2007) par Jean-Didier Vincent, membre de l'Académie des sciences, ancien
directeur de l'institut de neurobiologie Alfred-Fessard du CNRS, professeur à la faculté
de médecine de Paris-Sud.

[273] New Scientist magazine, 04 July 2007, pages 36-39


"Does Consciousness Really Play a Role in Human Behavior?"
http://www.superwisdom.com/public/499.cfm

[274] Encyclopédie Universalis 2007, article "Cerveau humain"

[275] Richard Feynman – "Space-Time Approach to Non-Relativistic Quantum


Mechanics" (1948)

En fait, la démonstration de Feynman est plus générale, puisqu'elle s'applique à la


transition entre deux événements A et B de l'espace-temps non relativiste. La ligne
d'univers représentant l'évolution de A à B est une combinaison linéaire de l'infinité
des lignes d'univers possibles entre ces deux événements.

528
[276] Scientific American, juillet 2008, article "The Self-Organizing Quantum
Universe" http://www.signallake.com/innovation/SelfOrganizingQuantumJul08.pdf

[277] "Predictably Irrational: The Hidden Forces That Shape Our Decisions" par
Dan Ariely, professeur au MIT, publié par Harper en février. 2008.

[278] Application linéaire, opérateur linéaire, valeur propre, vecteur propre


Les définitions ci-après ne prétendent pas à une rigueur mathématique absolue, mais
simplement à éclairer suffisamment des termes utilisés dans cet ouvrage. Elles sont
basées sur la notion et les propriétés des espaces vectoriels [127].

Application linéaire
On appelle application linéaire L dans l'espace vectoriel A une transformation qui à
tout couple de vecteurs x et y de A et tout couple de scalaires [126] a et b associe un
vecteur de A noté L(ax + by) tel que L(ax + by) = aL(x) + bL(y).

Opérateur linéaire
On appelle opérateur linéaire L dans un espace vectoriel E un être mathématique qui
transforme un vecteur v de E en un autre, noté L(v), en respectant l'addition vectorielle
et la multiplication par un scalaire, c'est-à-dire tel que, si x et y sont des vecteurs
quelconques de E et  est un scalaire, on ait toujours :
L(x + y) = L(x) + L(y) et L(x) = L(x).

On simplifie souvent la notation des opérateurs en supprimant les parenthèses lorsqu'il


n'y a pas d'ambiguïté sur la quantité sur laquelle porte l'opération :
au lieu de L(x) on écrit Lx.

Exemple : l'opérateur de dérivation par rapport à une variable scalaire u, noté D u,


transforme un vecteur v(u) dont les composantes sont des fonctions de u en un vecteur
Duv(u) dont chaque composante est la dérivée par rapport à u de la composante
correspondante de v(u). Cet opérateur est bien linéaire, car la dérivée d'une somme
est la somme des dérivées et la dérivée du produit par un scalaire est le produit de la
dérivée par ce scalaire.

Les observables associées en Mécanique quantique à des grandeurs physiques


mesurables sont des opérateurs linéaires particuliers appelés opérateurs auto-
adjoints.

Valeurs propres et vecteurs propres


Etant donné un opérateur linéaire L, on appelle vecteur propre v de L un vecteur tel
que Lv = v, où  est un scalaire appelé valeur propre associée au vecteur propre v.
En somme, pour un vecteur propre, l'opérateur ne fait que le multiplier par sa valeur
propre associée.

L'ensemble des valeurs propres d'un opérateur linéaire est appelé spectre de cet
opérateur.

[279] Article "In First, Software Emulates Lifespan of Entire Organism" - The New
York Times, 20 juillet 2012. http://www.nytimes.com/2012/07/21/science/in-a-first-an-

529
entire-organism-is-simulated-by-
software.html?_r=1&nl=todaysheadlines&emc=edit_th_20120721&pagewanted=print

Cet article rend compte de la simulation de toutes les fonctions d'un microorganisme
dont le génome comprend 525 gènes, sur 128 ordinateurs calculant en parallèle.
A partir de la connaissance des mécanismes individuels de niveau moléculaire, y
compris ceux de l'ADN, de l'ARN, des protéines et des métabolites, on a simulé ainsi
tous les événements et processus de la vie de ce microorganisme, un microbe
pathogène autonome. Les conséquences de cette possibilité de modélisation sont
considérables :
 On peut ainsi désormais remplacer des tests biologiques de laboratoire par des
simulations informatiques, processus plus rapide et moins coûteux ;
la compréhension des comportements du vivant et la mise au point de
médicaments efficaces en sera considérablement facilitée.
 On a une preuve matérielle de la possibilité, avec une grande puissance de
calcul et une architecture logicielle à processus parallèles, de simuler tous les
processus du vivant, des fonctions cellulaires de bas niveau à celles des
neurones de la pensée, en décomposant chacune en niveaux hiérarchiques dont
le plus bas est celui de la biologie moléculaire, complètement déterministe.
Avec le temps et la croissance de la puissance informatique disponible, on
pourra constituer une bibliothèque de fonctions et comportements de base du
vivant, sur laquelle on basera la compréhension de comportements de plus en
plus complexes.

Des modèles si fiables qu'on peut leur confier la vie humaine


On sait faire des modèles informatiques complexes si fiables qu'on peut leur confier la
vie humaine ; c'est le cas, par exemple, des commandes électroniques de vol des
avions modernes et de leurs systèmes automatiques de pilotage et d'atterrissage sans
visibilité. Le danger, alors, vient d'un défaut de spécification où l'homme aurait oublié
de prévoir certains événements ou situations, et n'aurait pas introduit dans le modèle
la logique nécessaire pour y répondre. On résout au maximum ce problème en faisant
de nombreux tests - certains avec des valeurs aléatoires de variables initiales (comme
dans la méthode de Monte-Carlo avec algorithme Metropolis), d'autres en accumulant
de l'expérience ; par souci de sécurité on permet toujours à un homme de reprendre
le contrôle en cas d'urgence.

La modélisation informatique permet, par exemple, de reconstituer des phénomènes


astronomiques ayant duré des millions d'années, comme la formation d'une galaxie ou
d'un système planétaire à partir de gaz et poussières interstellaires. Elle le permet
parce que les lois de la dynamique sont connues, ainsi que les paramètres à fournir
au départ de la simulation.

Mais la modélisation informatique ne permet pas de simuler les processus psychiques


qui paraissent transcendants, comme ceux de l'inconscient. Il n'y a pas de modèle
informatique de l'intelligence et de l'affectivité de l'homme !

[280] Daniel Tammet "Je suis né un jour bleu – A l'intérieur du cerveau d'un savant
autiste" publié chez Arènes en 2007.

530
[281] Encyclopédie Universalis version 12, article "Forme – Les modèles
morphodynamiques" – Citation :
"Un système dynamique concrètement déterministe est donc un système
dynamique […] dont les trajectoires sont stables. Cela n'a aucune raison d'être le
cas. Il existe même des systèmes dynamiques (par exemple les systèmes
géodésiques sur les variétés riemanniennes de courbure négative) qui
présentent la propriété que toutes leurs trajectoires sont instables, et qui la
présentent de façon structurellement stable. Ainsi que l'a noté Arnold,
« l'éventualité de systèmes structurellement stables à mouvements compliqués
dont chacun est exponentiellement instable en soi est à mettre au rang des plus
importantes découvertes faites ces dernières années en théorie des équations
différentielles. […] dans l'espace fonctionnel des champs de vecteurs, il existe
des domaines composés de champs où les courbes de phase (les trajectoires)
sont plus complexes. Les conclusions qui en découlent couvrent un grand
nombre de phénomènes dans lesquels les objets déterministes ont un
comportement “stochastique” »"

[282] "The Race Between Education and Technology" (La course entre
l'enseignement et la technologie) par Claudia Goldin & Lawrence F. Katz (2008)
publié par The Belknap Press of Harvard University Press.

[283] Science Express du 5 juin 2008, article "Serotonin Modulates Behavioral


Reactions to Unfairness" (La quantité de sérotonine affecte les réactions
comportementales à l'injustice).

[284] Articles sur le rôle du sommeil dans la compréhension et l'intuition :


 "Sleep inspires insight"
http://www.ncbi.nlm.nih.gov/pubmed/14737168?dopt=Abstract . Citation:
"Nous concluons que le sommeil, en restructurant de nouvelles représentations
en mémoire, facilite l'extraction de connaissances explicites et de réflexions
perspicaces."
 "Human relational memory requires time and sleep"
http://www.pnas.org/content/104/18/7723.abstract
 "Cognitive benefits of sleep and their loss due to sleep deprivation"
http://www.neurology.org/cgi/content/full/64/7/E25

[285] Mécanismes des explosions des supernovas - Travaux récents :


 Astrophysics, Vol. 431 N°2, pages 635-645 (Feb. 2005) "Full-star Type Ia
supernova explosion models" - http://arxiv.org/pdf/astro-ph/0409286v1.pdf
 Nature Physics, Vol. 1 N°3, pages 147-154 (Dec. 2005) "The Physics of Core-
Collapse Supernovae" - http://arxiv.org/pdf/astro-ph/0601261v1.pdf

[286] The New York Times du 28/10/2008, article "Your Brain’s Secret Ballot"
http://www.nytimes.com/2008/10/28/opinion/28wang.html?th=&emc=th&pagewanted
=print

531
[287] "The Magical Number Seven, Plus or Minus Two: Some Limits on Our
Capacity for Processing Information" http://www.musanim.com/miller1956/

[288] Complexité et variété des flocons de neige :


 Site de vulgarisation sur les flocons de neige SnowCrystals.com :
 http://www.its.caltech.edu/~atomic/snowcrystals/
 http://www.its.caltech.edu/~atomic/snowcrystals/primer/primer.htm
 http://www.its.caltech.edu/~atomic/snowcrystals/primer/morphologydiagram.j
pg
 Classification des cristaux de neige naturelle de Magono et Lee :
 1re partie : 39 types
http://www.dri.edu/Projects/replica/magono/classes1.html
 2e partie : 41 types
http://www.dri.edu/Projects/replica/magono/classes2.html

[289] Article "Thermodynamics "beyond" local equilibrium" (Feb. 1, 2008)


http://arxiv.org/abs/cond-mat/0110614

[290] Article "From Slowdown to Speedup" (02/2004)


http://www.stsci.edu/~ariess/documents/Scientific%20American%20Article.pdf

[291] Courbe d'évolution de l'équation de Van der Pol dans l'espace des phases
selon http://www.sciences.univ-
nantes.fr/physique/perso/gtulloue/Meca/Oscillateurs/vdp_phase.html

[292] Livre "L'ordre dans le chaos – Vers une approche déterministe de la


turbulence" (1998) par Pierre Bergé, Yves Pommeau et Christian Vial, éditions
Herman

[293] Nombres de Reynolds, de Prandtl et de Rayleigh


 Le nombre sans dimension de Reynolds caractérise les similarités
hydrodynamiques de fluides. Il est proportionnel à la vitesse d'écoulement d'un
fluide et à la longueur d'un obstacle, et inversement proportionnel à sa viscosité
cinématique. Plus ce nombre est grand, plus l'énergie perdue par frottement
dans l'écoulement est grande.
 Le nombre sans dimension de Prandtl caractérise un fluide. C'est le rapport de
sa viscosité cinématique à sa diffusivité thermique.
 Le nombre de Rayleigh mesure un écart de température entre le haut et le bas
du système fluide considéré.

[294] Livre "The Essence of Chaos" par Edward N. Lorenz (1993) (University of
Washington Press). Lorenz a découvert le mécanisme sous-jacent au chaos
déterministe.

532
[295] Livre "La querelle du déterminisme" (1990), éditions Gallimard
Cet ouvrage collectif réunit les textes suivants :

(Introduction historique)
 [295-a] "Le déterminisme : histoire d'une problématique", par Krzysztof Pomian ;

Le débat
 [295-b] "Halte au hasard, silence au bruit", par René Thom ;
 [295-c] "Au-delà du déterminisme : le dialogue de l'ordre et du désordre", par
Edgar Morin ;
 [295-d] "Loi, histoire… et désertion", par Ilya Prigogine ;
 [295-e] "Postulats métaphysiques et méthodes de recherche", par Henri Atlan ;
 [295-f] "La permanence et le changement", par Antoine Danchin ;
 [295-g] "En guise de conclusion", par René Thom.

Prolongements
 [295-h] "Hasard et déterminisme. Le problème de la prédictibilité", par David
Ruelle ;
 [295-i] "Le roi Olaf lançant les dés", par Ivar Ekeland ;
 [295-j] "Causes, causalité, déterminisme", par Jean Largeault ;
 [295-k] "Note sur la querelle du déterminisme", par Jean Petitot ;
 [295-l] "Halte aux espoirs, silence aux accusations", par Stefan
Amsterdamsky ;
 [295-m] "La querelle du déterminisme, six ans après", par Ilya Prigogine et
Isabelle Stengers ;
 [295-n] "Postface au débat sur le déterminisme", par René Thom.

[296] Certains scientifiques ont cru à tort qu'une petite variation d'un paramètre,
qu'ils attribuaient à tort au hasard parce que son évolution était chaotique, pouvait être
amplifiée de manière imprévisible et déclencher ainsi une évolution considérable.

Une évolution chaotique n'est imprévisible que dans trois cas :


 La loi d'évolution est trop sensible aux conditions initiales pour qu'une prédiction
puisse être faite à l'horizon désiré : c'est le cas dans toute évolution chaotique,
par définition d'une telle évolution.
 La loi d'évolution change, passant à une autre loi sous l'effet du franchissement
d'un seuil critique qui est un point de bifurcation, franchissement si sensible aux
conditions initiales qu'on ne peut le prévoir en pratique ; on ne peut alors prédire
quelle loi s'appliquera et il peut y avoir amplification de l'écart initial. Ce cas
diffère un peu du précédent, du fait de l'existence de la bifurcation.
 Le nombre de paramètres dont l'évolution chaotique dépend est trop grand pour
permettre la prédictibilité.

533
La sensibilité aux conditions initiales qui produit l'amplification n'altère pas le caractère
déterministe, calculable et dénué de hasard de l'évolution. Celle-ci n'est imprévisible
après un certain temps que parce que les conditions initiales ne sont connues qu'avec
une précision insuffisante. C'est là un déterminisme sans hasard, mais à évolution
imprévisible.

[297] Article "Paradoxes of Randomness" (G. J. Chaitin, Complexity, Vol. 7, No. 5,


May/June 2002, pp. 14-21) http://www.umcs.maine.edu/~chaitin/summer.html

[298] Article "Randomness and Gödel's Theorem" (G. J. Chaitin, Mondes en


Développement, No. 54-55 (1986), pp. 125-128)
http://www.umcs.maine.edu/~chaitin/belgium.pdf

[299] Caractère déterministe d'un lancer de dé


Si un dé était parfait (parce que son cube serait parfait, que son centre de gravité serait
exactement au centre du cube, que sa matière serait assez homogène pour que tous
les rebonds soient identiques, etc.) le résultat d'un lancer serait reproductible : deux
lancers identiques produiraient le même résultat. Mais la perfection de fabrication du
dé étant aussi illusoire que la reproductibilité de son lancer, tous deux affectés
d'imprécisions inévitables, on peut arguer que le lancer de dé est un phénomène
déterministe (au sens traditionnel) sensible aux conditions initiales : c'est donc d'abord
par ignorance délibérée de cette sensibilité aux conditions initiales que l'on considère
comme aléatoire le résultat d'un lancer de dé.

Cette ignorance délibérée vient aussi de la complexité des calculs nécessaires pour
prévoir le résultat d'un lancer de dé, complexité qui s'ajoute à une difficulté de mesure
de la position (3 coordonnées), de l'inclinaison (3 axes), du vecteur vitesse du centre
(3 composantes) et du moment cinétique de rotation (3 composantes) au départ. Le
caractère imprévisible du résultat d'un lancer a donc plusieurs causes dont nous avons
signalé l'effet sur la prédictibilité dès l'introduction.

On pourrait raisonner de la même façon pour les boules « choisies » par une machine
de tirage de loto à panier tournant et de nombreux autres phénomènes.

Conclusion : il y a de nombreux phénomènes déterministes (au sens traditionnel) dont


nous considérons le résultat comme aléatoire parce que nous sommes incapables de
le prévoir, pas parce qu'ils échappent aux lois de la physique ou que certaines de ces
lois impliquent des évolutions au hasard.

[300] Animations montrant de la turbulence :


 Site efluids media galleries
http://media.efluids.com/galleries/turbulence?filter_by=image
 CENTER FOR TURBULENCE RESEARCH http://ctr.stanford.edu/gallery.html .

[301] "Economie : rationalité des décisions et validité des théories traditionnelles"


(Daniel MARTIN, 2009) http://www.danielmartin.eu/Economie/RatDecEco.htm
 [301-a] "Incapacité des modèles mathématiques à prendre en compte
l'irrationnel" http://www.danielmartin.eu/Economie/RatDecEco.htm#Irrationnel

534
 [301-b] "Analyse des erreurs des économistes selon Von Hayek"
http://www.danielmartin.eu/Economie/RatDecEco.htm#Hayek
 [301-c] "Loi de l'offre et de la demande dans une économie de marché"
http://www.danielmartin.eu/Economie/RatDecEco.htm#LoiOffreDemande

[302] La loi des gaz parfaits, pv=nRT, relie, dans une enceinte, la pression p, le
volume v, le nombre de moles n et la température absolue T. R est la constante des
gaz parfaits 8.314 joules par mole et par degré K.

[303] The New York Times du 16/11/2006, article "New DNA Test Is Yielding
Clues to Neanderthals"
http://www.nytimes.com/2006/11/16/science/16neanderthal.html?th&emc=th

[304] Principe holographique de la quantité d'information


Conjecture: l'espace n'est pas continu aux très petites échelles. Une surface est
décomposée en carrés de côté égal à la distance de Planck contenant chacun un bit
d'information. La quantité d'information d'un système est définie comme son nombre
de degrés de liberté.

Principe de conservation de l'information : l'information d'un système ne disparaît


jamais ; une transformation peut la rendre illisible, mais pas en supprimer. Quand de
la matière est absorbée dans un trou noir, son information est stockée sur sa surface
d'horizon, puis rayonnée par rayonnement de Hawking ; la quantité d'information d'un
certain volume est proportionnelle à l'aire de cette surface. (Détails)
Voir l'article "The Holographic Principle for General Backgrounds" (Raphael
Bousso, 1999) - http://arxiv.org/abs/hep-th/9911002

[305] Livre "Meta MATH! – The Quest for Omega" (Gregory Chaitin, 2005 –
Vintage Books)

[306] "Les quatre niveaux de lois de l'action"


http://www.danielmartin.eu/Philo/QuatreNiveaux.htm .

[307] Complexité des connexions par neurones et des mécanismes des synapses :
articles du New York Times "In Map of Brain Junction, Avenues to Answers" (20-12-
2010)
http://www.nytimes.com/2010/12/21/science/21brain.html?_r=1&nl=todaysheadlines
&emc=a210&pagewanted=print

Voir aussi : [268]

[308] The New York Times du 05/10/2011 – "Israeli Wins Chemistry Nobel for
Quasicrystals" - http://www.nytimes.com/aponline/2011/10/05/science/AP-EU-SCI-
Nobel-Chemistry.html?_r=1&emc=na&pagewanted=print

[309] Livre "Crise financière, crise économique : causes et relances" - Un cours


sur la banque, la bourse et la régulation du capitalisme" (Daniel MARTIN 2009) -
http://www.danielmartin.eu/Cours/Crise.pdf

535
[310] La méthode P.E.R.T. (Program Evaluation and Review Technique) permet de
modéliser l'ordre d'enchaînement d'un ensemble complexe d'opérations (parfois des
milliers) et la chaîne qui représente un « chemin critique » pour le délai global. Une
variante, le PERT COST, permet de tenir compte des coûts.
Il y a plusieurs autres méthodes de représentation d'enchaînements de tâches et
de décisions, parfois assorties de probabilités : DELPHI, PATTERN, etc.

[311] Méthode du double aveugle


Dans certains cas on ne peut mesurer objectivement l'effet thérapeutique d'un
médicament, parce que c'est difficile ou parce que le médecin prescripteur peut avoir
un a priori. On utilise alors la méthode du double aveugle, où à la fois le médecin et
les malades ignorent si le produit administré est le médicament testé ou un placebo.
La population de malades, tirée au sort, a été divisée en deux groupes, dont l'un reçoit
le médicament et l'autre le placebo (ou un médicament témoin).

[312] Edmund Husserl (1859-1938), mathématicien et philosophe de la science,


fondateur de la phénoménologie (méthode pour décrire et analyser sans
présuppositions les phénomènes présents à la conscience ; cette méthode fait de la
philosophie de la logique une science rigoureuse).
"Recherches logiques - Tome 1 : Prolégomènes à la logique pure", publié aux PUF.

[313] Daniel MARTIN : "Inflation, Big Bang et Multivers - L'Univers selon nos
connaissances début 2014" - http://www.danielmartin.eu/Physique/Inflation.pdf

[314] Edward (Ned) Wright, professeur d'astronomie à UCLA (Californie) -


"Cosmology calculator" - http://www.astro.ucla.edu/~wright/DlttCalc.html

[315] Daniel MARTIN (2014) -"Politiques de l'offre et de la demande, création


d'emplois" - http://www.danielmartin.eu/Politique/Tromperie.pdf

[316] Daniel Kahneman - Prix Nobel d'économie - "Thinking, Fast and Slow"
(2011)

[317] National Institutes of Health - "The Brain Initiative"


http://www.nih.gov/science/brain/2025/BRAIN2025.pdf - Extrait :
« Over recent years, neuroscience has advanced to the level that we can envision
a comprehensive understanding of the brain in action, spanning molecules, cells,
circuits, systems, and behavior. This vision, in turn, inspired the BRAIN Initiative.
On April 2, 2013, President Obama launched the BRAIN Initiative to “accelerate
the development and application of new technologies that will enable researchers
to produce dynamic pictures of the brain that show how individual brain cells and
complex neural circuits interact at the speed of thought.” »

[318] Noumène : chez Kant c'est une réalité intelligible qu'on ne peut connaître par
l'expérience (c'est-à-dire empiriquement). Kant en a repris la définition chez Platon,
qui l'employait à propos de l'Idée. Un noumène est donc une réalité absolue, une chose
en soi parfaite, par opposition à une réalité sensible dont nous ne voyons qu'une
apparence et qui est sujette aux illusions.

[319] Exemple de site acceptant les publications de scientifiques professionnels :

536
http://arxiv.org/ (Cornell University)

[320] John Coates - "The Biology of Risk" - The New York Times - 7 juin 2014
http://www.nytimes.com/2014/06/08/opinion/sunday/the-biology-of-
risk.html?action=click&contentCollection=Europe&module=MostEmailed&version=Fu
ll&region=Marginalia&src=me&pgtype=article

[321] Platon - "Philèbe ou Du Plaisir" :


« Protarque : Parles-tu, Socrate, du précepte "Connais-toi toi-même" ? »

[322] "When Beliefs and Facts Collide" - The New York Times du 05/07/2014
http://www.nytimes.com/2014/07/06/upshot/when-beliefs-and-facts-collide.html
Cet article rend compte d'études qui suggèrent que les gens croient et acceptent ce
qui est conforme à leurs valeurs, leur culture et leur opinion politique ou religieuse, pas
à ce qu'ils savent être objectivement vrai. Même les gens instruits sont affectés par ce
biais, ce refus de réalité.
On ne peut donc espérer leur faire adopter une opinion conforme à des faits en
conflit avec leurs valeurs qu'en les persuadant qu'ils peuvent adopter une conclusion
rationnelle sans renoncer à ces valeurs. Exemple : on peut adopter l'évolutionnisme
darwinien sans renoncer à sa foi chrétienne, comme l'a fait le pape Benoît XVI.
Lorsque Descartes pensait que la Raison est assez puissante pour nous orienter
vers les "bons choix", lorsque Socrate pensait qu'un homme instruit ne peut faire le
mal car il en imagine les conséquences, ils se trompaient par excès d'optimisme.

[323] "The Many-Worlds Interpretation of Quantum Mechanics" par Hugh Everett


http://www.pbs.org/wgbh/nova/manyworlds/pdf/dissertation.pdf (Thèse de doctorat,
1957)

[324] "Apparent wave function collapse caused by scattering" par Max Tegmark
(1993) - http://arxiv.org/abs/gr-qc/9310032v2 . Voir aussi [1].

[325] "100 Years of QUANTUM MYSTERIES" par Max Tegmark et John Archibald
Wheeler - http://space.mit.edu/home/tegmark/PDF/quantum.pdf
Ce texte est un résumé didactique en 8 pages de l'histoire de la physique quantique.

[326] "Hilbert Spaces with Applications" par Lokenath Debnath et Piotr Mikusiński
(Second edition, 1999) - Academic Press

[327] "The Hidden Reality - Parallel Universes and the Deep Laws of the Cosmos"
par Brian Greene (Vintage Books - Random House - 2011)

[328] Relativité Restreinte et Relativité Générale


 Albert Einstein - "La relativité"
Editons Gauthier-Villars (1956) et Petite Bibliothèque Payot (2001)
 Maurice-Edouard BERTHON - "Comprendre la relativité" (5e édition, 1999)
Editeur : Publication Universitaire

Einstein a publié sa théorie de la Relativité Restreinte en 1905. Il a mis 10 ans, ensuite,


pour mettre au point la Relativité Générale.

537
On y trouve une théorie des champs gravitationnels, dont les équations décrivent
la déformation de l'espace-temps due à la présence d'une certaine masse-énergie de
matière : l'espace à trois dimensions peut subir une extension ou un rétrécissement,
une courbure ou une torsion.
On y apprend aussi comment la courbure de l'espace-temps affecte les
déplacements des corps, et pourquoi un accroissement de la pression (comme dans
l'effondrement d'une étoile en fin de vie) augmente l'attraction gravitationnelle,
accélérant la chute des couches externes de l'étoile.
Enfin, la théorie explique les évolutions possibles de l'Univers en fonction de
diverses densités et la variation de vitesse de passage du temps en fonction du
potentiel de gravitation…

[329] "Brane Theory of Multiple Dimensions" (NASA 2005)


http://svs.gsfc.nasa.gov/goto?10137

[330] "Orbital momentum of light" - University of Glasgow


 http://www.physics.gla.ac.uk/Optics/play/photonOAM/

 http://www.gla.ac.uk/schools/physics/research/groups/optics/research/orbitalangularmomentum/

[331] Article "Computer Eyesight Gets a Lot More Accurate" (18-08-2014)


The New York Times - http://bits.blogs.nytimes.com/2014/08/18/computer-eyesight-
gets-a-lot-more-accurate/?module=BlogPost-Title&version=Blog
Main&contentCollection=Robotics&action=Click&pgtype=Blogs&region=Body

[332] Michael Graziano - "Are we really conscious?" The New York Times du
10/10/2014 - http://www.nytimes.com/2014/10/12/opinion/sunday/are-we-really-
conscious.html?rref=opinion

[333] Livre "Psychologie - Commencez avec les meilleurs professeurs" (Eyrolles


2007)

[334] Transcendant - Adjectif (philosophie) :


Qui se situe au-delà de toute expérience physique, qui est externe à l'Univers.
Exemples : sont transcendants Dieu créateur du monde et l'âme humaine. Une chose
transcendante, Dieu par exemple, n'existe pas physiquement et ne peut intervenir
dans l'Univers physique, car les lois de la nature s'y opposent ; en particulier, un Dieu
extérieur à l'Univers n'a pu le créer : nous avons vu cela dans la 1ère partie de cet
ouvrage.

Certains philosophes croient que l'esprit de l'homme a une origine transcendante,


parce qu'en tant qu'ensemble d'abstractions ses éléments (les pensées) ne peuvent
provenir de causes matérielles (aucune cause physique ne produit d'abstraction).

Cette opinion est erronée : toute pensée est quelque chose qu'un individu perçoit
lorsque ses neurones interprètent des représentations issues de sa conscience ou des
impressions issues de son inconscient. Une pensée résulte d'une transmission
d'excitations entre neurones interconnectés : un cerveau vivant a un réseau de
neurones qui génère continuellement des pensées interprétant son propre état. Ce
que perçoit notre psychisme [347] à un instant donné est un état du cerveau [339].

538
Une pensée humaine est abstraite comme toute interprétation, exactement comme les
résultats produits par un ordinateur dont un programme interprète les données de sa
mémoire, dont certaines appartiennent au programme lui-même.

Quant à la notion d'esprit humain, c'est aussi une abstraction, synthèse de propriétés
construite par l'homme à partir d'autres abstractions, et sans rapport avec une
propriété physique. Ce n'est pas parce que l'homme peut imaginer des objets ou des
causes externes à l'Univers (transcendantes) qu'elles existent dans l'Univers ou y
exercent une influence : pour des raisons de transmission d'énergie, aucune action
physique dans l'Univers ne peut résulter d'une cause extérieure à l'Univers ou avoir un
effet extérieur à l'Univers. Seule la pensée humaine peut franchir les frontières de
l'Univers, parce qu'elle ne manipule pas d'énergie.

[335] Transcendantal - Adjectif (philosophie) :


Qui est purement rationnel, fondé sur des données a priori, non empirique (c'est-à-dire
indépendant de toute expérience). Exemple : concept de point géométrique. Toute
connaissance possible est construite dans l'esprit à partir concepts a priori,
irréductibles (impossibles à définir à partir de concepts plus simples).
Cette notion assez abstraite est expliquée en détail dans "Qu'entend Kant par
transcendantal ?" http://www.danielmartin.eu/Philo/Transcendantal.pdf .

[336] Daniel MARTIN : "La laïcité française et ses conséquences"


http://www.danielmartin.eu/Religion/Laicite.pdf

[337] Entendement
 Faculté de comprendre, de saisir intellectuellement ou par le cœur la nature, la
portée, la signification d'un être ou d'une chose.
 Ensemble des facultés de raisonnement, notamment logique.
 Fonction mentale qui ordonne les intuitions présentes à l'esprit du sujet selon
des catégories générales (par exemple celles définies par Kant [338]) pour qu'il
puisse les interpréter et raisonner sur elles.

L'entendement est le sous-ensemble des facultés de l'intelligence orientées vers la


compréhension.

Qu'est-ce qu'avoir compris une chose ?


C'est pouvoir intuitivement (donc instantanément) rendre présentes à l'esprit les
relations de la chose avec des choses que l'on connaît déjà :
 Sur le plan (statique) du contenu, ses relations peuvent être des catégories (au
sens de Kant), des représentations, des concepts, des structures, le gestalt… :
avoir compris, c'est pouvoir analyser.
 Sur le plan (dynamique) de la création, la liste des étapes ou l'algorithme qui
expliquent son existence à partir d'états connus ou de transformations précises :
avoir compris, c'est proposer des historiques de (re)constitution possibles.

539
Comment comprendre une chose ?
 Sur le plan statique, il s'agit de décomposer la chose à comprendre en
composantes comprises en décrivant les relations qui apparaissent. On peut
chercher ces relations en passant en revue des propriétés qu'elle a et en
cherchant, pour chacune, des composantes comprises qui l'ont aussi. On peut
aussi, connaissant certaines des composantes, chercher des relations avec
d'autres choses "candidates"…
 Sur le plan dynamique, il s'agit de reconstituer les étapes (l'historique,
l'algorithme) de sa création. On peut chercher, pour chaque propriété ou
composante précédente, des causes d'évolution vers la chose à comprendre.

Un ordinateur peut-il « comprendre » ?


Au sens de la décomposition analytique précédente, connaissant les propriétés et
relations d'un ensemble de choses un ordinateur peut chercher de manière heuristique
des décompositions possibles : un esprit humain n'est pas indispensable. Même
lorsque l'on ignore certaines propriétés ou relations, qu'il faut alors imaginer et avec
lesquelles il faut tenter une décomposition, c'est encore possible.

L'homme commence à devenir indispensable lorsqu'il faut utiliser des analogies plus
ou moins vagues ou surprenantes, parce qu'il est difficile d'avoir prévu alors toutes les
règles de rapprochement ou d'invraisemblance à donner à un ordinateur.

Au sens de l'historique, et connaissant des situations passées et les lois d'évolution


applicables, on peut en principe proposer des explications de situations constatées.
Cela se fait, par exemple, avec des logiciels d'aide aux enquêtes criminelles, et des
applications de recherche de risques terroristes à partir d'écoutes téléphoniques et de
messages interceptés…

[338] Catégories de Kant


Définition : Une catégorie est une classe d'attributs définie par l'un des sens de « est ».
Exemple : le basset est un chien.

Table des catégories de l'entendement de Kant, prédicats les plus généraux qui
peuvent être affirmés (« est ») à propos des entités nommables :
 Quantité : Unité, Pluralité, Totalité ;
 Qualité : Réalité, Négation, Limitation ;
 Relation : Inhérence (substance et accident), Cause et effet, Action réciproque
ou communauté ;
 Modalité : Possibilité ou impossibilité, Existence ou non-existence, Nécessité ou
contingence.

Catégorisation
Repérage de ce qui est identique malgré les différences.

[339] Daniel MARTIN : "Conscience et conscience de soi"


http://www.danielmartin.eu/Psychologie/Conscience.pdf - J'ai repris une grande partie
de ce texte dans la partie déterminisme humain de celui-ci.

540
[340] Mécanique rationnelle et Mécanique analytique
La Mécanique rationnelle est un ensemble d'outils mathématiques de description et
calcul des mouvements des corps dérivée de la Mécanique de Newton, décrite dans
son ouvrage Principia [103] et qui a produit les équations fondamentales [110].

La Mécanique analytique est une présentation de la Mécanique rationnelle basée sur


le Principe de moindre action de Maupertuis [62].

[341] Loi de Coulomb


Enoncé : deux charges électriques séparées par une distance d (en mètres), Q 1 et Q2
(mesurées en coulombs, chacune positive ou négative) s'attirent (si elles sont de
signes opposés) ou se repoussent (si elles sont de même signe) avec une force F :

1 𝑄1 𝑄2
𝐹=
4𝜋𝜀0 𝑑 2

où 0 est la permittivité du vide 8.854 10-12 coulombs/mètre et 1/(40) = 8.988 109.

Exemple : un électron (charge électrique e = -1.602 10-19 coulomb) est attiré par un
proton (noyau d'atome d'hydrogène, même charge e, mais positive) situé à la distance
théorique dite "rayon de l'atome de Bohr" de 0.529 10-10 m avec une force
F = 8.988 109 x (1.602 10-19)2 / (0.529 10-10)2 = 8.24 10-8 newton.

[342] Programme Java de calcul des n premiers nombres premiers


Pour avoir un aperçu du calcul des nombres premiers, j'ai écrit le petit programme
Java http://www.danielmartin.eu/Philo/Nombres_Premiers.txt dans l'environnement
gratuit NetBeans IDE de Oracle sous Windows 7.

[343] Daniel MARTIN : "Nietzsche en langage clair" (Cours de philosophie) -


http://www.danielmartin.eu/Philo/volontepuissance.pdf

[344] Stanislas Dehaene - "Le code de la conscience" - Odile Jacob, octobre 2014
(427 pages) - Le professeur Dehaene est normalien (mathématiques), docteur en
sciences cognitives et titulaire de la chaire de Psychologie cognitive expérimentale
au Collège de France.

[345] Steven Pinker - "How the Mind Works" (Penguin books 2015, 660 pages)
L'auteur est professeur de psychologie à Harvard et chercheur en psychologie
cognitive. Il a enseigné au MIT et à Stanford.

[346] Sigmund Freud - "L'interprétation du rêve" - PUF, 2013 (751 pages) et "Sur
le rêve" - Gallimard, 2014 (147 pages)

[347] Psychisme : c'est l'ensemble, conscient ou inconscient, considéré dans sa


totalité ou partiellement, des phénomènes et processus relevant de l'esprit, de
l'intelligence et de l'affectivité, et constituant la vie psychique. Cet ensemble
comprend les phénomènes conscients, relevant de l'état d'éveil, et les phénomènes
non conscients présents que le sujet soit éveillé ou non.

541
[348] Michael Graziano - "Consciousness and the Social Brain" - Oxford University
Press, 2013 (268 pages)
Compte-rendu de recherches récentes en matière de conscience, cet ouvrage
présente une théorie nouvelle sur sa nature et son fonctionnement, ainsi que sur le
fonctionnement de la « conscience de l'autre » et de la « conscience de soi ».
̘Directeur d'un laboratoire de psychologie à Princeton University
( http://www.princeton.edu/~graziano/ ), le professeur Graziano nous offre là un texte
de neuroscience cognitive extrêmement clair. Je recommande vivement cet ouvrage,
car dans ce texte-ci je n'ai fait que résumer en français sa théorie de la conscience.

[349] Michel Bitbol - "La conscience a-t-elle une origine ? : Des neurosciences à la
pleine conscience : une nouvelle approche de l'esprit", Flammarion 10/02/2014
(748 pages)

[350] Processus
Mécanisme mental mis en œuvre par un sujet, enchaînement d'opérations mentales :
 Elaboration de concepts ;
 Jugements d'une affirmation (jugements vrai/faux et jugements de valeur) ;
 Raisonnements (déduire une affirmation d'autres, tenues pour vraies) ;
 Organisation par l'entendement de connaissances présentes à l'esprit :
 Classification : affirmer qu'un objet fait partie d'un ensemble (exemple : le
fromage est un aliment, le chocolat aussi), ou qu'un objet a une certaine
propriété.
 Comparaison : comparaison d'éléments (plus petit, plus grand, égal,
différent) et proportionnalité.
 Sériation : ordonner des éléments selon une dimension croissante ou
décroissante.
 Dénombrement : compter des objets quel que soit leur ordre.
 Opérations formelles : raisonner sur des abstractions, des propositions
logiques et des hypothèses, et faire des déductions.

[351] Seuil de conscience (Selon les expériences de [344] pages 185 et 196-197)
La conscience de possède un seuil, un point de non-retour : un stimulus bref va rester
subliminal, tandis qu'un autre à peine plus long sera pleinement visible. La prise de
conscience a un fonctionnement tout-ou-rien : avant il n'y a pas de conscience de,
après il y a conscience de. L'état de la conscience change, preuve supplémentaire que
la conscience de est un état, pas une action ; c'est la transmission du stimulus qui est
une action. Une prise de conscience excite des neurones dans l'ensemble du cerveau,
pas dans une petite partie comme le fait un stimulus resté subliminal.

[352] Subliminal - [En parlant d'un stimulus] Qui n'atteint pas un seuil suffisant pour
provoquer une excitation sensorielle. Ainsi, une même image est subliminale (invisible)
lorsqu'elle apparaît moins de 40 ms (millisecondes) et supraliminale (visible)
lorsqu'elle apparaît plus de 60 ms.

[353] Inconscient

542
 Substantif : ensemble des phénomènes physiologiques et neuropsychiques
inaccessibles à la conscience du sujet, qu'il soit éveillé ou non. L’inconscient a
aussi une activité permanente de réorganisation de ses contenus. Enfin, il
coopère avec le conscient dans des processus de compensation.
Freud a montré que l'inconscient humain ignore systématiquement les principes
de logique, les contraintes de temps et le déterminisme. Il peut par exemple, sans
intervention de la conscience, transformer une image (représentation) en une
autre grâce à des associations d'idées basées sur les critères les plus inattendus
(existence au même endroit, noms commençant par une lettre commune, etc.)
Voir aussi :
 L'imprévisibilité de certains raisonnements
 Différences entre l'inconscient et la conscience
 En psychanalyse : ensemble de représentations refoulées dans le Ça ;
subissent :
 Un refoulement primaire, parce qu'elles n'ont jamais eu accès à la
conscience ;
 Ou un refoulement secondaire, parce qu'elles ont eu accès à la conscience
(étant alors préconscientes) et ont été refoulées par la suite.
 Adjectif : sont inconscientes :
 certaines activités du Moi (exemple : les mécanismes de défense)
 certaines activités du Surmoi (exemple : jugement, prescriptions)
 des représentations, sensations et affects qui n'ont pas atteint la valeur,
l'intensité qui leur permettraient de franchir le seuil de conscience.
Exemple : perceptions sensorielles subliminales.

L'inconscient est le complément psychique [347] de la conscience dans le Soi.

[354]
 Métacognition : Pensée sur sa propre pensée, permettant de l'analyser, de la
comprendre et de la contrôler.
 Métaconscience : Conscience d'avoir conscience de quelque chose.

[355] Le mécanisme du « moi » : Selon [344] page 230 : « Il n'existe aucun


« moi » qui contemple le théâtre de la conscience : c'est le théâtre lui-même qui
constitue le mécanisme du « moi ».

[356] Subconscient (nom et adjectif)


Souvent synonyme d'inconscient. Le subconscient est une conscience dont les
phénomènes psychiques sont perçus avec moins d'intensité, plus faiblement que ceux
de la conscience proprement dite ; l'adjectif subconscient s'applique donc à tous les
actes psychiques. Une pensée ou représentation subconsciente n'a donc pas de seuil
à franchir pour devenir consciente : la conscience y a toujours accès. Au contraire,
l’inconscient est inaccessible à la conscience immédiate.
L'expression « inconscient cognitif » est synonyme de subconscient ; c'est le siège
des opérations subliminales.

543
[357] Théorie de l'esprit
Définition selon http://homeweb4.unifr.ch/scarpatt/pub/Théorie-esprit-2-définition.pdf :
« Un individu à une théorie de l’esprit quand il est capable de se faire une opinion
à propos de ses états mentaux et de ceux d’autrui. Cette capacité intuitive favorise
les relations sociales, affectives et communicatives : elle nous permet d’interpréter
et prédire les comportements d’autrui, et d'en tirer des conclusions. En des termes
plus simples, la théorie de l’esprit est la capacité de prendre en compte le point de
vue d’autrui, qui peut être différent du nôtre. »

Un esprit humain et un ordinateur ont en commun de traiter de l'information : l'esprit


humain pour réaliser les buts provenant de ses valeurs, l'ordinateur pour exécuter un
logiciel. Mais il ne faut pas croire que l'esprit humain fonctionne exactement comme
un ordinateur, il y a seulement des analogies lors des raisonnements déductifs et des
calculs ; en particulier, l'inconscient humain est imprévisible, alors qu'un ordinateur
n'exécute que des programmes déterministes.

[358] Perception
Opération par laquelle l'esprit, en organisant les données sensorielles, se forme une
représentation des objets extérieurs et prend connaissance du réel. Cette opération
met en œuvre les mécanismes psychiques d'intuition, d'intelligence et d'entendement.
La représentation ainsi construite est appelée perception.

[359] Article "80% des médicaments consommés en France sont produits en Inde
et en Chine : y-a t-il un risque de rupture de stock ?"
http://www.docbuzz.fr/2011/06/12/123-80-des-medicaments-consommes-en-france-
sont-produits-en-inde-et-en-chine-y-a-t-il-un-risque-de-rupture-de-stock/

[360] The New York Times - "Perils in Trade Deals When Factories Close and
Towns Struggle" (17/05/2015) http://www.nytimes.com/2015/05/18/business/a-
decade-later-loss-of-maytag-factory-still-resonates.html?_r=0

[361] Sigmund Freud - "Psychopathologie de la vie quotidienne" - Gallimard 2008


(474 pages)

[362] Gestalt
C'est un ensemble structuré ou une structure formant un tout qui influence les
perceptions plus que ses éléments constitutifs. Exemple : une mélodie est identifiable
quelle que soit la clé si les rapports de hauteur entre notes sont respectés.

[363] Intelligence
 Fonction mentale d'organisation du réel en pensées, notamment en passant de
perceptions intuitives à des représentations.
 L'intelligence permet à l'homme d'acquérir des connaissances, de créer des
abstractions et des modèles. Cela lui permet de s'adapter à son milieu, d'adapter
sa conduite aux circonstances et de poursuivre des buts conformes à ses
valeurs (en l'absence de tels critères de jugement, l'intelligence n'a pas de sens).

La partie de l'intelligence orientée vers la compréhension est l'entendement.

544
Par l'adaptabilité qu'elle confère l'intelligence s'oppose à l'instinct, qui ne propose que
des conduites héritées génétiquement, adaptées à des situations précises.

[364] Association d'idées ou de représentations


Les idées ou représentations s'associent automatiquement, dans la conscience ou
l'inconscient, selon des règles formulées par le philosophe Hume, par Freud et
d'autres. Une association d'objets est favorisée :
 Soit par la proximité d'une ou plusieurs propriétés de leurs objets (présence de
mots, couleurs, sens psychologiques, etc. qui se ressemblent) ;
 Soit par une proximité temporelle, les objets ayant été pris en compte dans un
même intervalle de temps considéré comme un tout (minute, jour, saison, match
sportif, etc.)

L'association d'objets suit alors une règle de contiguïté. Il existe d'autres critères
d'association, dont celui d'intérêt : parmi toutes les associations d'objets possibles à
un moment donné, l'esprit choisit celle qui présente le plus d'intérêt, en étant la plus
proche possible du sujet d'attention du moment.

[365] Scientific American, juin 2011 - Article "Living in a Quantum World -


Quantum mechanics is not just about teeny particles. It applies to things of all sizes:
birds, plants, maybe even people"

[366] Article "On the Decrease in Entropy in a Thermodynamic System by the


Intervention of Intelligent Beings" - par Leo Szilard (1929)
http://www.weizmann.ac.il/complex/tlusty/courses/InfoInBio/Papers/Szilard1929.pdf
Dans ce célèbre article, Leo Szilard (un ami d'Einstein) montre que le "Démon de
Maxwell" qui arrivait à diminuer l'entropie d'un système (à organiser le gaz d'une
boîte à deux compartiments en y séparant les molécules "chaudes" des molécules
"froides") augmente nécessairement l'entropie globale {système + démon} en
dépensant de l'énergie lors des mesures de celles des molécules. Le paradoxe
proposé par Maxwell selon lequel son démon peut diminuer une entropie sans
dépenser d'énergie ne tient donc pas, et les variations d'entropie d'un système sont
nécessairement accompagnées d'échanges d'information. Voir ci-dessous [367].

[367] Principe de Rolf Landauer


« Les calculs d'un ordinateur peuvent en principe se faire de manière
thermodynamiquement réversible, donc sans dépense d'énergie. Une telle
dépense n'est inévitable que lorsqu'on efface l'information d'une mémoire, rendant
ainsi des calculs irréversibles. »

Charles Bennett, collègue de Landauer chez IBM, montra qu'on peut contourner la
difficulté et faire des calculs réversibles, sans dépense d'énergie, en refaisant à
l'envers tout calcul terminé jusqu'à reconstituer l'état initial de la mémoire.
http://www.nytimes.com/1999/04/30/nyregion/rolf-landauer-pioneer-in-computer-
theory-dies-at-72.html

[368] Article Quantum Teleportation - IBM Research. Voir :

545
 http://researcher.watson.ibm.com/researcher/view_group.php?id=2862
 http://researcher.watson.ibm.com/researcher/files/us-bennetc/BBCJPW.pdf
 http://adsabs.harvard.edu/abs/1982Natur.299..802W
La linéarité de la Mécanique quantique rend impossible, par amplification ou
autrement, de reproduire l'état quantique d'un système. Il est donc impossible de
cloner des photons, donc de communiquer plus vite que la lumière en reproduisant la
polarisation d'un photon isolé.

En outre, lorsque l'état quantique d'un système est une superposition, on ne peut
mesurer séparément un des états de cette superposition en vue d'en transmettre
l'information ; on ne peut, par exemple, mesurer séparément l'état d'un des photons
d'un système de deux photons superposés, qu'ils soient proches ou éloignés, pour le
transmettre à un observateur de l'autre photon.

[369] Margaret Mitchell - "Complexity - A Guided Tour" (Oxford University Press,


2009) - Ouvrage très instructif, décrivant de nombreuses découvertes récentes sur des
problèmes de complexité et des méthodes pour les résoudre.

[370] A SPECTROSCOPIC REDSHIFT MEASUREMENT FOR A LUMINOUS


LYMAN BREAK GALAXY AT Z = 7:730 USING KECK/MOSFIRE - 3 mai 2015 -
http://arxiv.org/pdf/1502.05399v2 - Annonce de la découverte d'une galaxie
extrêmement lointaine, la plus lointaine connue à ce jour : elle est à 30 milliards
d'années-lumière et sa lumière a mis environ 13 milliards d'années à nous parvenir
compte tenu de l'expansion de l'Univers.

[371] Métaphysique

Adjectif
 Qui dépasse le domaine des phénomènes, pour atteindre la chose en soi.
 Qui dépasse les bornes de l'entendement et de la raison.

Substantif
La métaphysique est la partie fondamentale de la philosophie qui cherche les causes
et les principes. Elle cherche notamment à aller au-delà de la science, de manière
spéculative. Ainsi, Kant écrit dans la Critique de la raison pure [M3] :
 Page 79 : "la métaphysique a pour objectif le plus essentiel d'aller au-delà des
limites de l'expérience possible", c'est-à-dire de penser au-delà des lois de la
physique.
 Page 108 : La métaphysique, qui n'est pas une science, correspond à une
disposition naturelle de l'homme, parce qu'il se pose des questions sur tout ce
qu'il ignore. Mais comme les réflexions sur ses sujets ont toujours abouti à
d'inévitables contradictions, Kant a voulu savoir jusqu'où la raison pure de
l'homme pouvait développer ses connaissances avec assurance : il a voulu lui
poser des bornes déterminées et sûres. Il a décrit cette question sous la forme :
"Comment la métaphysique est-elle possible comme science ?"

546
[372] Daniel MARTIN - Dictionnaire des idées de Kant - Vocabulaire de la Critique
de la raison pure (2016, en cours)

3.13 Annexe : l'espace-temps de Minkowski


Résumé de la terminologie de l'espace-temps de Minkowski utilisée en théorie
de la Relativité Restreinte et conséquences sur la causalité

3.13.1 La Relativité Restreinte


En 1905, Albert Einstein a proposé sa théorie de la Relativité. Cette théorie a été
qualifiée de Restreinte ultérieurement, pour la distinguer de la Relativité Générale
publiée en 1915. La Relativité Restreinte part du principe que la vitesse de la lumière
"c" est une constante : c = 299 792 458 m/s exactement. Avec cette théorie, l'espace
et le temps ont des grandeurs différentes pour deux observateurs en mouvement
uniforme l'un par rapport à l'autre ; en quelque sorte, ils paraissent « élastiques ».

Vues à un instant t d'un repère rapporté aux axes Ox, Oy et Oz, les distances x', y' et
z' et le temps t', mesurés dans un second repère en mouvement à la vitesse v par
rapport au premier parallèlement à Ox depuis l'instant t = 0, se calculent par les
formules de changement de repère appelées "transformation de Lorentz" que nous
avons déjà vues plus haut.

3.13.2 L'espace-temps
D'habitude la réalité physique concerne un espace à 3 dimensions, les changements
étant repérés par rapport au temps. En 1908, le mathématicien allemand Hermann
Minkowski a proposé une formulation mathématique élégante de la Relativité
Restreinte de 1905, l'espace-temps. On considère un espace qui a une quatrième
dimension en plus des trois dimensions habituelles. Cette quatrième dimension est
une longueur, comme les trois autres : la longueur parcourue par la lumière en un
temps t, c'est-à-dire le produit ct où c est la vitesse de la lumière : cette quatrième
dimension sert donc à repérer le temps et à mesurer les durées.
Si par exemple on mesure le temps en années et les longueurs en années-lumière
(AL), un point d'espace-temps de coordonnées (x=1 ; y=0 ; z=0 ; t=1) est un point
à l'abscisse 1 AL et à la date 1 an. Il représente donc un événement qui s'est
produit à la position d'espace (1 ; 0 ; 0) à l'instant 1.

Dans l'espace-temps à 4 dimensions un objet n'a jamais été créé et ne sera pas détruit,
même s'il peut se transformer du fait de lois d'évolution ; il se déplace alors selon la
dimension temps. Le passé ne disparaît pas, le futur est déjà là à sa place dans
l'espace-temps, tous deux sont constamment réels. Mais ce modèle
quadridimensionnel de l'Univers n'est pas accepté par tous les scientifiques : selon
certains, le temps n'est pas une dimension comme les autres et les évolutions
physiques sont une réalité qui remplace constamment le présent par le futur.

3.13.3 Diagramme d'espace-temps


On prend l'habitude de ne représenter qu'une seule dimension d'espace, x, en la
repérant par rapport à un axe horizontal, et la dimension de temps ct, en la repérant
par rapport à un axe vertical. Le point de rencontre de ces deux axes est l'événement

547
A, « le présent », dont la position définit l'origine des espaces et des temps. Le futur
est vers le haut, le passé vers le bas et les distances spatiales par rapport à A à gauche
et à droite. L'abscisse et l'ordonnée d'un point quelconque de ce diagramme
définissent donc un événement par sa position et sa date par rapport à celles de
l'événement A.

Futur
ct

x
A

Passé

En mesurant les longueurs en AL et les temps en années, la propagation de


l'information "A est survenu" et d'éventuelles conséquences de A à la vitesse de la
lumière vers la gauche et la droite est représentée par les points successifs de deux
demi-droites partant de A inclinées à 45° par rapport à l'axe des x, appelées « demi-
droites de lumière de A », que l'on voit sur le diagramme ci-dessous :

548
Futur
Evénement A ct Evénement A

x
M

x
A x

Passé

Un point M de l'une des demi-droites de lumière de A, situé à une distance spatiale de


x de l'événement A, représente l'événement A tel qu'il est vu de cette distance x, à qui
il apparaît au temps x/c (en années). Les points successifs de l'une des demi-droites
partant de A à 45° de l'axe x sont donc les points atteints par la lumière partie de A à
l'instant présent, celui de l'événement A ; chacun de ces points a une abscisse x
mesurant la « distance spatiale » à A et une ordonnée ct=x représentant la « distance
temporelle » à A.

Les deux demi-droites de lumière de A délimitent un cône d'axe ct et de sommet A


appelé « cône de lumière » de A, ou plus précisément « cône de lumière futur » de A.

Les deux demi-droites prolongeant les précédentes du côté Passé de l'axe x


représentent des événements du passé dont la lumière a atteint A à l'instant présent.
Elles délimitent le « cône de lumière passé » de A.

En trois dimensions (deux pour l'espace, x et y, et une pour le temps, ct) le cône de
lumière d'un point O ressemble à ceci :

549
La demi-droite OP, interne au cône, représente l'évolution dans le temps d'un
événement O dont le déplacement est à vitesse constante inférieure à celle de la
lumière.

A l'instant présent, un observateur en A connaît tous les événements du passé


représentés par un point du cône de lumière passé comme C, car leur lumière a eu le
temps de parvenir en A.

550
Futur
Evénement A ct Evénement A

A'

x
A B

Passé

Dans le diagramme ci-dessus :


 Un événement B représenté par un point de l'axe Ax serait simultané avec A ;
 Un événement A' représenté par un point au-dessus de l'axe Ax se produit après
A;
 Un événement C représenté par un point sous l'axe Ax précéderait A…
…pour un observateur immobile par rapport à A.

Pour un observateur en mouvement par rapport à A, la Relativité Restreinte nous


apprend que la simultanéité n'est plus respectée et que, par exemple, B pourrait être
postérieur à A.

3.13.4 Intervalle d'espace-temps


Considérons deux événements d'un diagramme d'espace-temps, A(x1; y1; z1; t1) et
B(x2; y2; z2; t2) tels que t2 > t1 (B est postérieur à A), et soit Δ la quantité telle que

Δ = c²(t2-t1)² - (x2-x1)² - (y2-y1)² - (z2-z1)²

Δ est donc la différence entre le carré de la distance D L parcourue par la lumière entre
les instants t1 et t2, et le carré de la distance spatiale DAB entre les événements A et B.
Il se trouve que Δ est invariant par la transformation de Lorentz, c'est-à-dire qu'il a
même valeur pour deux observateurs (x; t) et (x'; t') en mouvement uniforme l'un par
rapport à l'autre :

c²t²-x² = c²t'²-x'²

551
La racine carrée  de la valeur absolue de Δ est appelée « intervalle d'espace-
temps entre les deux événements A et B ». Notons que Δ ne dépend pas du choix de
l'origine des axes, qui peut être située en A, en B ou n'importe où.

Pour un événement A'(x ; y ; z ; t) situé à l'intérieur du cône de lumière de A, la quantité


positive s telle que

x2 y2 z2
s t  2  2  2
2 2

c c c

représente « l'intervalle de temps entre les événements A et A' » dans un système


d'unités de distance et de temps quelconques : pour un observateur qui se serait
déplacé de A à A' à une vitesse uniforme x/t par rapport à A, il se serait écoulé un
temps s, alors que pour A il se serait écoulé un temps t. Si A' se trouve sur une des
demi-droites de lumière de A, s² est nul, A et A' sont à la même heure. Si A' se trouve
sur l'axe vertical des temps passant par A, A' se produit au même endroit que A à
l'instant t.

3.13.5 Condition de causalité entre deux événements


La relativité nous apprend qu'aucun effet, aucun signal, ne peut se propager plus vite
que la lumière. Donc un événement A(x1; y1; z1; t1) peut être la cause de l'événement
B(x2; y2; z2; t2) si la lumière partant de A à l'instant t1 arrive en B avant l'instant t2 ; si
elle arrive après t2, B est nécessairement indépendant de A, il ne peut être causé par
A ; et si elle arrive à l'instant t2, A et B sont simultanés pour un observateur placé en
B, donc B ne peut pas résulter de A.

Sur le diagramme d'espace-temps d'origine A, pour que B soit conséquence de A il


doit donc être à l'intérieur du cône de lumière de A. Si B est sur l'une des demi-droites
du cône de lumière de A, un observateur en B voit apparaître A en même temps qu'il
apparaît lui-même, et ne peut donc résulter de A. Et si B est à l'extérieur du cône de
lumière de A, du côté droit ou du côté gauche de l'axe ct, il est nécessairement
indépendant de A.

552
Futur
Evénement A ct Evénement A

B dans le futur de A

B indépendant de A
B indépendant de A

x
A

B indépendant de A B indépendant de A

B dans le passé de A

Passé

Le diagramme ci-dessus montre les zones d'espace-temps dont les événements B :


 Peuvent être conséquence de A : ils sont dans le cône de lumière futur de A (et
ont un Δ > 0) ;
 Peuvent avoir causé A : ils sont dans le cône de lumière passé de A (et ont un
Δ > 0) ;
 Sont indépendants de A, ils sont hors du cône de lumière de A, côté passé
comme côté futur (et ont un Δ < 0).

On dit que les événements qui par rapport à A ont un Δ > 0 ont avec A un « intervalle
d'espace-temps du genre temps » ; ils sont à l'intérieur du cône de lumière de A. Les
points tels que Δ = 0 ont avec A un « intervalle d'espace-temps du genre lumière » ;
ils sont sur l'une des demi-droites de lumière de A.

3.13.6 Indépendance entre deux événements et relation de causalité


La condition d'indépendance entre les deux événements A et B s'écrit Δ < 0 (en
langage de Minkowski on dit que « l'intervalle d'espace-temps entre ces deux
événements est du genre espace »). Selon la position M ou P d'un observateur fixe
par rapport à A et B, l'événement B sera antérieur ou postérieur à l'événement A
(surprenant, non ?). Aucun des événements A et B ne pourra être cause de l'autre car
ils sont trop éloignés pour qu'une interaction propagée à la vitesse maximum c ait pu
aller de l'un à l'autre.

553
Futur
ct

x
A M P

Passé

On voit ci-dessus les demi-droites des cônes de lumière futurs de A et B.


 Un observateur situé à la distance AM de A voit l'événement A d'abord, puis
l'événement B, à des instants définis par l'intersection de la verticale partant de
M avec les demi-droites de lumière de A et de B.
 Un observateur situé à la distance de P de A voit l'événement B d'abord, puis
l'événement A, à des instants définis par l'intersection de la verticale partant de
P avec les demi-droites de lumière de A et de B.

Pour un observateur en M, l'événement A précède B, mais il ne peut être sa cause car


il est à l'extérieur du cône de lumière de B. Pour un observateur en P, l'événement A
est postérieur à B, mais B ne peut avoir causé A. Pour les deux observateurs,
l'intervalle d'espace-temps AB est du genre espace, ce qui interdit toute relation de
causalité entre A et B.

Lorsque l'observateur en M aura connaissance de l'événement A il ne saura pas


encore que B aura lieu, alors que lorsque l'observateur en P saura que B a eu lieu il
ne saura pas encore que A aura lieu !

Dans l'exemple précédent, B est extérieur au cône de lumière de A.


 Si B était intérieur à ce cône de lumière, tout observateur M verrait B après A,
quelle que soit sa position, car les demi-droites de lumière de B sont au-dessus
de celles de A. B pourrait être conséquence de A et l'intervalle d'espace-temps
AB est du genre temps.

554
Futur
ct

x
M A

Passé

 Enfin, si B était sur une des demi-droites de lumière de A :


 un observateur en M verrait B se produire après A ;
 un observateur en P verrait B se produire en même temps que A.
Quelle que soit sa position, un observateur saurait qu'il n'y a pas de relation de
causalité entre A et B s'il est capable de constater que l'intervalle d'espace-temps
entre A et B est du genre lumière.

555
Futur
ct

x
A M P

Passé

3.13.7 Conclusions sur la causalité


 On voit que selon leur position relative dans l'espace-temps, une éventuelle
relation de causalité entre deux événements A et B est possible ou non. Si elle
l'est, elle est toujours dans le sens A  B si B est dans le cône de lumière de A,
et dans le sens B  A si A est dans le cône de lumière de B. Dans les autres
cas, elle est impossible.
 Si deux événements situés en des endroits distincts A et B sont simultanés, l'un
ne peut être cause de l'autre ; mais vus d'un troisième point, C, distinct de A et
B, ils ne sont plus simultanés. Si l'observateur en C ne connaît pas
l'emplacement spatial de A et B et ne sait pas qu'ils sont simultanés, il peut
croire que l'un est cause de l'autre.
 Ces raisonnements s'appliquent à toutes les échelles de distance et de temps,
depuis l'échelle astronomique jusqu'à l'échelle atomique. Ce n'est pas l'échelle
qui compte, c'est l'intervalle d'espace-temps.

3.13.8 Remarque sur la simultanéité


Le concept de simultanéité n'a pas de signification précise en relativité dès qu'un
observateur est en mouvement par rapport à un autre. Or le concept de simultanéité
est indispensable pour définir un mouvement : on dit qu'un train arrive en gare de
Valence à 7h15 lorsqu'à cet instant précis une montre marque 7h15. Mais attention,
cette montre doit être fixe par rapport à la gare de Valence ; si elle est en mouvement,
l'heure qu'elle indiquera en gare de Valence devra être calculée avec la transformation
de Lorentz.

556
3.13.9 Ligne d'univers
Dans le diagramme d'espace-temps, la trajectoire d'un mobile est représentée par une
ligne appelée « ligne d'univers », dont les points représentent les événements
(position, date) successifs du mobile considéré. Cette ligne (en pointillés dans le
diagramme ci-dessous) est évidemment contenue dans le cône de lumière du point
représentant l'événement « ici et maintenant » :

Futur
ct

x
A

Passé

3.13.10 Relativité Générale. Mouvement accéléré. Inclinaison du cône de


lumière
Un mouvement à vitesse uniforme a une ligne d'univers droite, mais un mouvement
accéléré de A à B est représenté par une ligne d'univers courbe. Le cône de lumière
en chaque point de cette ligne d'univers a un axe incliné, et le vecteur vitesse
instantanée en ce point, porté par la tangente à la ligne d'univers, est intérieur au cône
si le mobile se déplace moins vite que la lumière (graphique ci-dessous).

557
Futur
ct

B
D

O H A x

Passé

Dans le cas d'un trou noir situé en O, lorsque de la matière s'effondre de A vers O
sous l'influence gravitationnelle, le cône de lumière le long de la ligne d'univers AB de
cette matière s'incline progressivement vers l'axe vertical ct. Lorsque le point D est
atteint, à la distance OH de O, la droite de lumière supérieure du cône est devenue
verticale : ni la matière, ni la lumière ne peuvent plus désormais s'écarter de O d'une
distance supérieure à OH, qu'on appelle de ce fait horizon du trou noir.

3.13.11 Paradoxe du voyageur de Langevin


On cite souvent le « paradoxe des jumeaux », appelé aussi « paradoxe du voyageur
de Langevin ». Considérons deux jumeaux, Pierre et Paul. Pierre reste sur Terre
pendant que Paul part et voyage à une vitesse inférieure à celle de la lumière. Paul
décrit une certaine trajectoire, ligne d'univers ABC dans l'espace-temps de Minkowski,
où le trajet BC est le retour. Cette trajectoire finit par ramener Paul au point de départ
C sur Terre, où Pierre l'attend. Les deux jumeaux constatent alors que Paul, le
voyageur, a vieilli moins que Pierre : le temps s'écoulait plus lentement pour Paul que
pour Pierre !

558
Futur t

H B

x
A

Passé

Ce paradoxe s'explique en considérant les intervalles de temps des deux jumeaux.


 Pendant le voyage aller de Paul, le carré de la durée du voyage de Paul de A à
B est s²Paul = AH² - BH²/c², tandis que le carré du temps qui s'est écoulé pour
Pierre est s²Pierre = AH², donc Paul vieillit moins que Pierre ;
 Pendant le voyage retour de Paul, le carré de la durée du voyage de Paul de B à
C est s²Paul = HC² - BH²/c², tandis que le carré du temps qui s'est écoulé pour
Pierre est s²Pierre = HC², donc Paul vieillit de nouveau moins que Pierre.

En fait, pendant que Pierre restait immobile, Paul subissait des accélérations :
 En A, pour atteindre instantanément sa vitesse de croisière en direction de B ;
 En B, pour atteindre instantanément sa vitesse de croisière en direction de C.

C'est la présence des accélérations qui explique les différences de vitesse


d'écoulement du temps. Même si les lignes d'univers AB et BC n'étaient pas été des
droites, comme sur le dessin, les conclusions seraient les mêmes : le voyageur vieillit
moins que son jumeau resté à Terre.

3.13.12 Quadrivecteur énergie-impulsion


Dans l'espace-temps de Minkowski on définit un vecteur à quatre dimensions V
associé à une particule de masse m et d'impulsion P appelé quadrivecteur énergie-
impulsion.

559
La figure ci-dessous montre les composantes du quadrivecteur V(E ; Pxc ; Pyc ; Pzc)
où :
 E est l'énergie de la particule (ou sa masse m multipliée par c²), mesurée par la
longueur de la projection OE du quadrivecteur V sur l'axe vertical, axe des
énergies ;
 Px ; Py ; Pz sont les composantes de l'impulsion P sur les 3 axes d'espace, que
l'on projette multipliées par la vitesse c de la lumière pour rester homogène avec
l'énergie.

Energie

E V

x
O P

Le quadrivecteur énergie-impulsion V contient la totalité des informations qui décrivent


la particule : sa masse, son énergie et son impulsion. La direction de V est tangente à
la ligne d'univers de la particule à l'instant O.

La longueur OV du quadrivecteur d'une particule est invariante dans l'espace-temps


de Minkowski lors d'un changement de repère : elle représente la masse au repos m0
de la particule lorsque celle-ci n'est pas un photon, et cette masse au repos ne varie
évidemment pas lors d'un changement de repère. La masse au repos est donnée par
la formule :

m0  E 2  ( pc ) 2

où (pc)2 = (Pxc)2 + (Pyc)2 + (Pzc)2 (c'est le carré scalaire du vecteur impulsion P


multiplié par c).

560
Le quadrivecteur V dans son ensemble correspond à l'invariant masse + énergie de
l'espace newtonien. Pour représenter la quantité totale de matière, l'addition de deux
masses-énergies de l'espace newtonien est remplacée dans l'espace-temps de
Minkowski par l'addition de deux quadrivecteurs.

3.14 Scientifiques et philosophes cités


Pour les prix Nobel (physique, chimie, médecine, littérature, paix et économie)
voir http://nobelprize.org/ et la liste des lauréats
http://nobelprize.org/nobel_prizes/lists/all/

Adler, Alfred : 1870-1937, médecin et psychanalyste


Aristote : env. 385 avant J.-C. à env. 322 avant J.-C., philosophe
Augustin : 354-430, Saint, un des plus influents penseurs de la foi chrétienne
Avicenne, Ibn Sina : 980-1037, philosophe
Bekenstein, Jacob : 1947- , physicien
Bennett, Charles : 1943- , physicien-informaticien
Bentham, Jeremy : 1748-1832, philosophe et économiste
Bernoulli, Daniel : 1700-1782, mathématicien et physicien
Bohr, Niels : 1885-1962 - Prix Nobel de physique 1922
Boltzmann, Ludwig : 1844-1906, physicien
Bondi, Sir Hermann : 1919-2005 : cosmologiste
Borel, Emile : 1871-1956, mathématicien et philosophe
Born, Max : 1882-1970, physicien
Bose, Satyendranath : 1894-1974, physicien
Brahe, Tycho : 1546-1601, astronome
Brouwer, Luitzen : 1881-1966, mathématicien
Cantor, Georg : 1845-1918, mathématicien
Carnot, Sadi : 1796-1832, ingénieur
Chandrasekhar, Subrahmanyan : 1910-1985 - Prix Nobel de physique 1983
Chomsky, Noam : né en 1928, linguiste
Church, Alonzo : 1903-1995, mathématicien
Clausius, Rudolf : 1822-1888, physicien
Cohen-Tannoudji, Claude : né en 1933- prix Nobel de physique 1997
Compton, Arthur : 1892-1962, physicien, Prix Nobel de physique 1927
Comte, Auguste : 1798-1857, philosophe
Comte-Sponville, André : né en 1952, philosophe,
http://atheisme.free.fr/Biographies/Comte-Sponville.htm
Darwin, Charles : 1809-1882, naturaliste

561
De Broglie, Louis : 1892-1987 - Prix Nobel de physique 1929
Descartes, René : 1596-1650, mathématicien, physicien et philosophe
Dicke, Robert : 1916-1997, astrophysicien
Dirac, Paul : 1902-1984 - Prix Nobel de physique 1933
Duhem, Pierre : 1861-1916, physicien et épistémologue [265]
Ehrenfest, Paul : 1880-1933, physicien
Einstein, Albert : 1879-1955 - Prix Nobel de physique 1921
Euclide : IVe au IIIe siècle avant J.-C., mathématicien
Everett, Hugh : 1930-1982, physicien
Faraday, Michael : 1791-1867, physicien
Fermat, Pierre de : 1601-1665, mathématicien
Fermi, Enrico : 1901-1954, Prix Nobel de physique 1938
Ferry, Luc : né en 1951, philosophe
Feynman, Richard : 1918-1988 - Prix Nobel de physique 1965
Freud, Sigmund : 1856-1939, médecin et psychologue
Galilée (Galileo Galilei) : 1564-1642, physicien
Gell-Mann, Murray : né en 1929 - Prix Nobel de physique 1969
Gödel, Kurt : 1906-1978, mathématicien
Hamilton, Sir William Rowan : 1805-1865, mathématicien
Hawking, Stephen : né en 1942, physicien et cosmologiste
Hegel, Friedrich : 1770-1831, philosophe
Heisenberg, Werner : 1901-1976 - Prix Nobel de physique 1932
Hilbert, David : 1862-1943, mathématicien
Hobbes, Thomas : 1588-1679, philosophe
Hoyle, Fred : 1915-2001, astronome cosmologiste
Hubble, Edwin : 1889-1953, astronome cosmologiste
Hume, David : 1711-1776, philosophe
Husserl, Edmund : 1859-1938 : philosophe, fondateur de la phénoménologie
Jordan, Pascual : 1902-1980, physicien
Kahneman, Daniel : né en 1934, Prix Nobel d'économie 2002
Kant, Emmanuel : 1724-1804, philosophe
Kepler, Johannes : 1571-1630, astronome
Keynes, John Maynard : 1883-1946, économiste
Kochen, Simon : né en 1934, mathématicien
Koestler, Arthur : 1905-1983, écrivain

562
Lamb, Willis : 1913-2008, Prix Nobel de physique 1955
Landauer, Rolf : 1927-1999 : physicien
Langevin, Paul : 1872-1946, physicien
Laplace, Pierre-Simon de : 1749-1827, mathématicien
Liouville, Joseph : 1809-1882, mathématicien
Lobatchevski, Nikolaï Ivanovitch : 1792-1856, mathématicien
Locke, John : 1632-1704, philosophe
Lorentz, Hendrik : 1853-1928 - Prix Nobel de physique 1902
Lorenz, Edward : 1917-2008, météorologue et mathématicien
Machin, John : 1680-1752, mathématicien
Maimonide, Moïse : 1135-1204, savant, philosophe et théologien
Malus, Etienne-Louis : 1775-1812, physicien
Maupertuis, Pierre Louis Moreau de : 1698-175, mathématicien
Marx, Karl : 1818-1883, philosophe et économiste
Maxwell, James Clerk : 1831-1879, physicien
Mendel, Gregor Johann : 1822-1884, botaniste
Mill, John Stuart : 1806-1873, philosophe et économiste
Minkowski, Hermann : 1864-1909, mathématicien
Monod, Jacques : 1910-1976, Prix Nobel de médecine 1965
Newton, Isaac (Sir) : 1642-1727, mathématicien et physicien
Nietzsche, Friedrich : 1844-1900, philosophe
Noether, Emmy : 1882-1935, mathématicienne
Pascal, Blaise : 1623-1662, philosophe et théologien
Pavlov, Ivan Petrovitch : 1849-1936, - Prix Nobel de médecine 1904
Pélage, environ 360-environ 422, théologien
Penrose, Roger (Sir) : né en 1931, mathématicien
Piaget, Jean : 1896-1980, psychologue
Planck, Max : 1858-1947 - Prix Nobel de physique 1918
Platon : environ 428 - environ 347 avant J.-C., philosophe
Poincaré, Henri : 1854-1912, mathématicien
Poisson, Siméon Denis : 1781-1840, mathématicien
Popper, Karl (Sir) : 1902-1994, philosophe et épistémologue [265]
Prigogine, Ilya : 1917-2003, - Prix Nobel de chimie 1977
Ptolémée, Claude : deuxième siècle après J.-C., mathématicien et astronome
Quine, Willard Van Orman : 1908-2000, mathématicien et philosophe

563
Ricardo, David : 1772-1823, économiste
Riemann, Bernhard : 1826-1866, mathématicien
Rousseau, Jean-Jacques : 1712-1778, philosophe
Russell, Bertrand : 1872-1970, philosophe et logicien
Sachs, Jeffrey : né en 1954, économiste
Sartre, Jean-Paul : 1905-1980, philosophe, refusa le prix Nobel de littérature en 1964
Schechtman, Daniel : 1941-, prix Nobel de chimie 2011
Schopenhauer, Arthur : 1788-1860, philosophe
Schrödinger, Erwin : 1887-1961 - Prix Nobel de physique 1933
Schwarzschild, Karl : 1873-1916, astronome
Smith, Adam : 1723-1790, fondateur de l'économie politique
Socrate : né vers 470 avant J.-C., mort en 399, philosophe
Specker, Ernst : 1920-2011, mathématicien
Spinoza, Baruch : 1632-1677, philosophe
Szilard, Leo : 1898-1964, physicien
Tarski, Alfred : 1902-1983, logicien
Teilhard de Chardin, Pierre : 1881-1955, prêtre jésuite, philosophe, paléontologue
Thom, René : 1923-2002, mathématicien - médaille Fields 1958
Thomas d'Aquin (saint) : 1224 ou 1225-1274, théologien
Turing, Alan : 1912-1954, mathématicien et informaticien
Von Neumann, John : 1903-1957, mathématicien
Watson, James Dewey : né en 1928 - Prix Nobel de médecine 1962
Weinberg, Steven : né en 1933 - Prix Nobel de physique 1979
Wheeler, John Archibald : 1911-2008, physicien
Wigner, Eugène Paul : 1902-1994 - Prix Nobel de physique 1963
Wiles, Andrew John : né en 1953, mathématicien
Young, Thomas : 1773-1829, physicien
Zénon d'Elée : Ve siècle avant J.-C., philosophe.

564
3.15 Résumé des cas d'imprédictibilité
Type Détermination ou évolution Probabilité de choix
d'imprédictibilité impactée ou imprécision
Probabilité selon le 4ème principe de la
Choix d'un élément dans un Mécanique quantique :
Hasard (déterminisme
statistique, Mécanique
ensemble de valeurs propres  Spectre discret :
par décohérence, solution
quantique seulement), gn
P(an )  | u in |  | ²
stationnaire, etc. lors d'une
éliminé par l'interprétation
mesure (interaction entre
à univers multiples de i 1
échelles atomique et
Hugh Everett
macroscopique)  Spectre continu non dégénéré :
dP() = |<v |>|² d
 Imprécision = demi-largeur d'un
 Etat d'un corpuscule dans paquet d'ondes d'équation :
son paquet d'ondes :
1 
 ( x, t )   f (k )e i ( kx t ) dk
Corpuscule en mouvement
ou stationnaire,
orbitale électronique
2 

Imprécision à l'échelle d'où aspect flou, étalement dans le


atomique (Mécanique temps du paquet d'ondes de
quantique seulement) position

 Extension spatiale de la
fonction d'onde associée  Erreur possible sur la position ou la
au corpuscule dimension de l'ordre de la longueur
d'onde de Compton :
h
c 
mc
 Détermination de Δx . Δpx  ½ä
Indétermination variable(s) lorsque des
ΔE . Δt  ½ä,
("incertitude") à l'échelle observables ne commutent
pas (Heisenberg, Kochen- Δ . ΔL  ½ä,
atomique
et contextualisme Specker) etc.
(en Mécanique quantique  Instabilité énergétique : Violation temporaire de la
seulement) noyaux atomiques, conservation d'énergie ; rayonnement
fluctuation quantique… de Hawking des trous noirs

Sensibilité aux conditions Amplification mathématique


L'erreur possible croît avec
initiales (à l'échelle d'une erreur physique
l'éloignement du début de l'évolution
macroscopique) (chaos déterministe)
Connaissance des Prédiction de variables statistiques si
Erreur physique (à
constantes ou paramètres, on a un modèle et un nombre de
l'échelle macroscopique)
erreurs de mesure déterminations suffisant
 Complexité (nombre de
processus ou d'interactions
entre eux)
 Algorithme non convergent ou
trop lent
Calcul ou raisonnement  Proposition prouvée
algorithmique impossible indécidable
-
 Problème ou nombre prouvé
non calculable
 Phénomène extérieur à
l'Univers

565

Vous aimerez peut-être aussi