Vous êtes sur la page 1sur 142

COLLECTION

THÉÔRIA

DIRIGÉE PAR PIERRE-MARIE SIGAUD


AVEC LA COLLABORATION DE BRUNO BÉRARD

OUVRAGE PARU :

Jean BORELLA, Problèmes de gnove, 2007.

À PARAÎTRE :

Françoise BONARDEL, Bouddbisrne et philosophie: essais de philosophie comparée.


Philip SHERRARD, Le Christianifme intérieur: Approches d’une tradition sacrée, préface de Mgr
Kallistos Ware, trad. de Jean-Claude Perret et Pierre-Marie Sigaud.
Martin LINGS, Symbole et archétype, trad. de Jean-Claude Perret.
Robert BOLTON, Les Rythmes du temps: L’histoire du monde et la doctrine des cycles, trad. de Jean-
Claude Perret.
Jean BlÈS, Monde moderne et spiritualité.
Bruno BÉRARD, Introduction à la pensée de Jean Borel/a.
Bruno BÉRARD, Les Perspectives eschatologiques dans les différentes religions.
Sagesse de la cosmologie ancienne

La science contemporaine à la lumière des cosmologies traditionnelles


Wolfgang Smith
Sommaire

COLLECTION THÉÔRIA

Page de titre
DU MÊME AUTEUR
NOTE DE L’ÉDITEUR
Page de Copyright
PRÉFACE
INTRODUCTION
CHAPITRE I - SOPHIA PERENNIS ET SCIENCE MODERNE
CHAPITRE II - DU CHAT DE SCHRÖDINGER À L’ONTOLOGIE THOMISTE
CHAPITRE III - EDDINGTON ET LA PRIMAUTÉ DU CORPOREL
CHAPITRE IV - LE THÉORÈME DE BELL ET L’ONTOLOGIE PÉRENNE
CHAPITRE V - LA CORPORÉITÉ CÉLESTE
CHAPITRE VI - L’UNIVERS EXTRAPOLÉ
CHAPITRE VII - L’ÉCUEIL DE LA COSMOLOGIE ASTROPHYSIQUE
CHAPITRE VIII - LA SITUATION DU GÉOCENTRISME
CHAPITRE IX - ÉSOTÉRISME ET COSMOLOGIE : DE PTOLÉMÉE À DANTE ET NICOLAS DE CUES
CHAPITRE X - « DESSEIN INTELLIGENT » ET CAUSALITÉ VERTICALE
CHAPITRE XI - LA COÏNCIDENCE ANTHROPIQUE ET SES INTERPRÉTATIONS
CHAPITRE XII - LA SCIENCE ET LA RESTAURATION DE LA CULTURE
ANNEXE I - LA SCIENCE MODERNE ET LA CRITIQUE GUÉNONIENNE
ANNEXE II - RÉPONSE À WOLFGANG SMITH
REMERCIEMENTS
INDEX
DU MÊME AUTEUR

Cosmos and Transcendence, Sherwood Sugden & Company, Peru, Illinois, 1984; rééd. Sophia Perennis,
San Rafael, California, 2008 (à paraître).

Teilhardism and the New Religion, TAN Books, Rockford, Illinois, 1988.

The Quantum Enigma, Finding the Hidden Key, Sophia Perennis, Hillsdale, New York, 2005.

Illustration de couverture :

Le Démiurge (Dieu comme Architecte), miniature de la Bible moralisée, vers 1250 (Bibliothèque
Nationale d’Autriche, Archive d’images, codex 2554, fol. Iv)
À Peter Schmitz-Hille, philanthrope et homme de Dieu,
avec mon amitié et ma haute estime.
NOTE DE L’ÉDITEUR

L’éditeur tient à remercier vivement M. Michel Bénot et les Professeurs Jean Bore/la et Kostas Mavrakis
qui ont bien voulu assurer la relecture scientifique de la traduction de cet ouvrage. Le Professeur
.Mavrakis a également rédigé les notes infrapaginales – précédées d’un astérisque, suivies de la mention
(KM), et destinées aux lecteurs non-spécialistes – qui expliquent la signification d’un certain nombre de
termes ou expressions scientifiques particulièrement difficiles. Sans leur aide précieuse et amicale, leur
disponibilité et leur dévouement, l’édition française de ce livre n’aurait pas été possible.
Sa gratitude va également à la Foundation for Traditional Studies, présidée par le Professeur Seyyed
Hossein Nasr, qui lui a gracieusement accordé la permission de publier la traduction française de The
Wisdom of Ancient Cosmology.
Édition originale anglo-américaine :
The Wisdom of Ancient Co.rmology: Contemporary Science in Light of Tradition, Foundation for
Traditional Studies, Oakton VA, U.S.A., 2003.

@ L’Harmattan, 2008
5-7, rue de l’Ecole polytechnique, 75005 Paris

http://www.librairieharmattan.com
diffusion.harmattan@wanadoo fr
harmattan1@wanadoo.fr
9782296049888
EAN : 978229G04-9888
PRÉFACE

Qu’il existe encore aujourd’hui, dans notre civilisation, des religions et des hommes qui adhèrent à leurs
croyances, c’est, au regard du monde moderne, une sorte d ânomalie : les croyances religieuses
appartiennent à un âge définitivement révolu. La situation du croyant, à quelque religion qu’il
appartienne, n’est donc pas aisée. Mais ce qui est vrai pour toutes les formes sacrées l’est
particulièrement pour le christianisme parce que c’est lui qui affronte directement, depuis trois siècles,
les négations de la modernité. Le jour où l’hindouisme, le bouddhisme ou l islam auront vraiment pris acte
de l omniprésence de cette modernité, nul doute qu’ils ne connaissent à leur tour des crises gravissimes.
Les atteintes que le monde moderne porte à l’âme religieuse des peuples concernent d’abord le plan de
l’existence immédiate et quotidienne. Ici, nul besoin de combats idéologiques ; c’est par la seule force de
sa présence et de son extraordinaire réussite matérielle, que ce monde réfute le religieux, le réduit au
silence et ruine son pouvoir. C’est que la religion parle d’un monde invisible, alors que la civilisation
contemporaine rend le monde sensible de plus en plus présent, et le monde invisible de plus en plus
absent.
Ce n’est pourtant là que l’aspect le plus apparent des choses. L’omniprésence d’un monde de plus en
plus « mondain » n’est que l’effet, dans l’ordre pratique, d’une cause de nature théorique plus décisive, à
savoir la révolution de la science galiléenne dont le progrès technique n’est que la conséquence
confirmative. L’importance, pour l’âme religieuse, de la révolution scientifique tient au fait qu’elle atteint
cette âme dans son intériorité même. Si puissante soit-elle, la société ne représente pour l’être humain
qu’un environnement dont il peut, en principe, se préserver. Tandis que la révolution scientifique, en tant
qu’elle se donne pour la vérité, s’impose irrésistiblement et de l’intérieur à l’intelligence qu’elle investit.
C’est une révolution culturelle, et donc « spirituelle», dans la mesure où elle s’adresse à notre esprit.
Lorsque cet esprit est celui d’un croyant, c’est en lui qu’est subvertie la vision du monde et de la réalité
qu’impliquait sa foi. Il ne lui reste alors qu’à renoncer à sa foi, ou bien – solution presque désespérée – à
la désolidariser presque complètement de la cosmologie qu’elle véhiculait.
Globalement, la pensée chrétienne s’est engagée dans la seconde voie : garder la foi (mais une foi
«purifiée » !) et abandonner toutes les représentations cosmologiques par lesquelles elle s’est exprimée.
Solution désespérée, cependant, parce que ces représentations cosmologiques sont d’abord des
présentations scripturaires, c’est-à-dire les formes mêmes par lesquelles Dieu nous parle de lui-même. Si
l’on fait abstraction de ces formes, que reste-t-il de la foi ? L’Écriture nous apprend que les apôtres ont vu
le Christ s’élever de terre et disparaître derrière une nuée ; la science galiléenne objecte que l’espace est
infini, qu’il n’a ni haut ni bas; et que cette ascension, à supposer même qu’elle soit possible – ce qu’elle
n’est pas —, n’aurait aucune signification. Il reste donc à y voir une fiction symbolique par laquelle la
communauté primitive tente de dire sa foi en Jésus-Christ disparu : s’il n’est plus visible, c’est qu’il est «
remonté au ciel». À la suite de Rudolf Bultmann, la majorité des exégètes et des théologiens, protestants
ou catholiques, a adopté cette « solution ».
Alors s’est engagé un immense processus de démythologisation de la révélation scripturaire. Est
mythologique, selon Bultmann, la croyance à la réalité objective de la présentation cosmologique de la
révélation : « descente », « résurrection », « ascension », etc. Démythologiser, c’est comprendre que cette
présentation cosmologique n’est, en réalité, qu’un langage symbolique, c’est-à-dire une fiction. Passer du
mythe au symbole, voilà l’herméneutique qui permet d’éviter la schizophrénie culturelle d’un croyant
moderne, vivant en même temps dans deux univers incompatibles ; celui de la Bible et celui de la science
galiléenne.
Mais à quel prix ? Au prix d’une déréalisation de tous les enseignements bibliques sur lesquels repose la
foi et dont elle est solidaire. Rejeter cette présentation cosmologique, dont par exemple les apôtres
affirment avoir été les témoins, n’est-ce pas du même coup rejeter la foi qui s’y attache ? Qui fera le
départ entre la foi et son revêtement cosmologique, entre le kérygme et le mythe ? Ne serait-ce pas, au
fond, séparer le Verbe divin de son enveloppe charnelle, et finalement nier l’incarnation ?
Or, il est une autre voie dont on s’étonne qu’elle ne soit jamais venue à l’esprit de Bultmann, et qui, si
elle était prise en considération, pourrait changer beaucoup de choses dans le cours de l’histoire
religieuse de l’Occident. C’est cette voie que le grand mathématicien et physicien Wolfgang Smith s’est
proposé d’explorer et dont il nous offre présentement quelques aperçus. L’on conçoit qu’il soit difficile
d’exagérer l’importance d’un tel ouvrage. Dans la crise où se débat la pensée chrétienne, partagée entre
un fidéisme impossible ou son confinement dans les problèmes moraux, le livre de Wolfgang Smith ouvre
une perspective libératrice qui, au nom même de la science, restaure la foi dans son entière vérité. Et
cette vérité, l’Auteur nous en administre la preuve avec l’autorité que lui confère sa compétence reconnue
en mathématiques et en physique.
De quoi s’agit-il ? D’un fait assez simple à énoncer: l’apparition de la théorie de la Relativité et celle de
la physique quantique entraînent l’abandon du modèle galiléen de l’univers, abandon définitif: au mieux,
le modèle galiléen demeure valable en première approximation et donne une description commode —
quoique très inexacte — de l’univers. Simple à énoncer, ce fait est riche de bouleversements multiples
d’une extrême complexité et que la science est toujours impuissante à embrasser dans une théorie
générale et unifiée. Disons seulement, pour nous en tenir à quelques points saillants, que la conception
que l’on doit se faire du cosmos est radicalement transformée aussi bien pour ce qui est de sa structure
spatio-temporelle (c’est la Relativité) que pour ce qui est de la constitution de la matière (c’est la théorie
des quanta), si tant est qu’il soit encore possible de s’en faire une représentation quelconque. C’est en
tout cas aujourd’hui le matérialisme du XIXème siècle qui apparaît comme une pure superstition scientiste.
Ces deux événements ne sont pas récents : ils se sont produits au début du XXème siècle. Voilà donc près
d’une centaine d’années que s’est modifié en profondeur le paysage cosmologique et épistémologique de
notre culture. Cependant, tant s’en faut que philosophes, théologiens ou exégètes s’en soient aperçus.
Ainsi de Bultmann. La vision scientifique du monde qu’il oppose à la vision mythologique de la foi est celle
d’une science largement dépassée au moment où, en 1941, il expose son programme de démythisation
(Entmythologisierung). Ou, s’il évoque la nouveauté de la théorie de la Relativité, c’est en passant et pour
nier que les données du problème soient changées : visiblement, il continue de penser dans le cadre
spatio-temporel de la physique matérialiste du XIXème siècle. Et cela n’a pas changé. Aujourd’hui encore
on se moque d’une Église catholique condamnant Galilée au nom d’une conception rétrograde du monde,
alors qu’on est soi-même prisonnier d’une cosmologie obsolète. On s’en moque, ou on le déplore quand on
appartient à cette Église et qu’on rougit d’un passé jugé peu glorieux au regard de ce qu’on croit être les
exigences de la science.
Il serait temps, au contraire, que l’on prenne vraiment conscience de la révolution cosmologique qui
s’est opérée. Nous ne pensons pas qu’il y ait, pour ce faire, un ouvrage plus utile et plus efficace que celui
que nous avons le plaisir de préfacer, et qui prolonge et éclaire celui que Wolfgang Smith avait publié en
1995, The Quantum Enigma. Finding the Hidden Key. Sur les points les plus essentiels, les questions les
plus brûlantes concernant l’héliocentrisme, la cosmologie biblique, la nature de la matière et de l’espace,
la conception d’une véritable causalité, etc., il montre combien les conclusions de la science la plus
récente cessent d’être incompatibles avec les affirmations de la cosmologie traditionnelle.
Pour autant, il ne s’agit pas d’un nouveau concordisme, c’est-à-dire de cet effort plus ou moins
maladroit, mené au XIXème siècle (et encore au début du XXème) pour faire concorder les données
bibliques et celles de la science. L’erreur de ce concordisme n’était pas tant de chercher à retrouver les
thèses de la physique dans les enseignements de l’Écriture (le besoin d’unité est naturel à la raison), mais
de partager avec la science officielle la conviction que le monde est une réalité entièrement matérielle et
entièrement définie par ses coordonnées d’espace et de temps. Au fond, s’agissant de la création, les uns
et les autres étaient également matérialistes, comme Descartes l’était en physique.
Cette conception n’est plus soutenable aujourd’hui, la notion de matière s’étant singulièrement
évanouie dans la physique contemporaine. Mais, pour le comprendre et en fournir une véritable
interprétation, il faut recourir aux clefs spéculatives que nous offre la cosmologie traditionnelle. Wolfgang
Smith le prouve d’une manière singulièrement précise, révélant par là l’ampleur d’une culture capable,
par exemple, de se référer aux enseignements de la philosophie hermétique et de la théosophie
germanique (Jakob Boehme, Franz von Baader, etc.) pour nous montrer quelle lumière le concept
baadérien d’extension intensive jette sur le dogme de la corporéité spirituelle des ressuscités. On pourrait
d’ailleurs, pensons-nous, rapprocher ce concept de celui d’extension interne (extensio interna), utilisé en
théologie (en particulier par Suarez) pour rendre compte de la présence réelle du corps du Christ dans
l’eucharistie : il s’y trouve en effet avec la distinction de ses diverses parties et les relations qui les
ordonnent entre elles, mais selon un mode essentiel, et sans rapport au lieu extérieur qui les circonscrit
dans son mode charnel d’existence.
C’est ici que l’œuvre de Wolfgang Smith manifeste son originalité et son importance. Il ne s’agit pas de
concordisme, nous l’avons dit; mais il ne s’agit pas non plus de rejeter purement et simplement la
Relativité et les quanta comme n’ayant, par définition, aucune valeur devant les affirmations
transcendantes de la foi. Cette attitude négative était celle de René Guénon. Certes, mieux que beaucoup
d’autres penseurs, il a su restaurer la cosmologie sacrée dans sa vérité, et c’est à juste titre que Wolfgang
Smith se nourrit de sa doctrine. Mais, à l’égard de la physique récente, son attitude est bien décevante :
ce n’est pour lui qu’une production parmi d’autres d’un monde moderne qu’il condamne en bloc. Au
demeurant, il n’a, semble-t-il, aucune connaissance de la théorie des quanta ; quant à la Relativité, il n’y
fait que de brèves allusions et n’y voit que du nominalisme mathématique. C’est d’autant plus regrettable
qu’à l’égard du calcul infinitésimal, invention pourtant très moderne, Guénon a su en montrer l’intérêt et
le faire servir (sous sa forme leibnizienne) à la solution de quelques questions de haute métaphysique.
Wolfgang Smith en use différemment. Sans viser à réhabiliter dans son ensemble la science moderne
qui, bien souvent, n’est — comme dit Guénon — qu’« un savoir ignorant», il constate cependant que cette
science, en rompant avec le matérialisme étroit de la physique classique, rend inopérantes les objections
que le mécanicisme galiléen élevait contre les données de la foi, mais en même temps qu’elle exige
impérieusement d’être complétée et rectifiée par l’interprétation métaphysique que nous fournit la
philosophia perennis.
Nous disons cette exigence impérieuse, parce que les données fournies par la physique quantique sont
si paradoxales qu’on ne peut les intégrer dans une théorie réaliste et intelligible, construite à l’aide des
seules ressources de la conceptualité moderne. Ce n’était pas le cas de la physique galiléenne qui
paraissait avoir réussi, en réduisant le monde à de la matière étendue, à identifier réalité physique et
rationalité mathématique, éliminant ainsi tout besoin de recourir à la métaphysique. À une question de
Napoléon, Laplace répondait: «Dieu, je n’ai pas besoin de cette hypothèse ! » Ce n’est plus le cas de la
physique actuelle, et beaucoup de savants parmi les plus grands, tels Niels Bohr ou Werner Heisenberg,
en ont eu une vive conscience : contrairement à ce que soutient Heidegger, ils ont prouvé que la science
aussi s’efforçait de penser. Mais encore faut-il disposer des instruments conceptuels pour le faire. C’est ici
que l’auteur contribue à une avancée décisive : reprenant un terme du mathématicien-philosophe A.N.
Whitehead, auteur, avec B. Russel, des Principia Mathematica (1910-1913) et de nombreux autres
ouvrages, le Professeur Smith dénonce la « bifurcation » que Descartes a imposée à la connaissance en
instituant une hétérogénéité radicale entre la réalité pensante et la réalité étendue. Ce « bifurcationnisme
» conduit aussi bien à l’impasse de l’idéalisme, qui réduit l’étendue à la pensée, qu’à celle du
matérialisme, qui fait l’inverse. Il faut donc opter résolument pour une démarche « non-bifurcationniste ».
Resterait à se demander si Descartes se serait reconnu dans toutes les conséquences qui ont découlé de
ses principes.
Nous ne saurions évoquer la multitude des questions abordées par Wolfgang Smith. Nous citerons
seulement les admirables analyses développées dans le chapitre VII, « L’écueil de la cosmologie
astrophysique ». Il expose d’abord les critiques que certains savants ont adressées à ce dogme majeur de
la nouvelle cosmologie, la théorie du Big Bang : ces critiques en révèlent la fragilité, voire l’impossibilité,
si bien que la théorie ne saurait rendre à la théologie les services qu’elle s’imagine pouvoir en attendre. Il
établit ensuite que la théorie des quanta ne peut avoir, appliquée aux corps célestes, une valeur
opérationnelle . elle a donc, et nécessairement, une signification ontologique. Mais cette signification
ontologique, elle n’est pas en mesure de l’assumer. Si en effet les corps sidéraux ne sont constitués,
comme l’exige la théorie des quanta, que d’une poussière de particules quasi inexistantes, ces corps
s’évanouissent eux-mêmes en tant que réalités identifiables dans l’espace. Car un corps, c’est aussi un
corps : un être qui n’est pas un être n’est pas non plus un être, disait Leibniz. Or, sur l’existence de ce
principe d’unité nécessaire pour rendre compte de la réalité d’un corps, la théorie quantique ne dit
strictement rien : elle est donc vraiment incapable de rendre compte de la réalité d’aucun être physique,
stellaire ou terrestre (c’est pourquoi quelques physiciens ont versé dans un idéalisme par ailleurs
insoutenable). Il est donc de nécessité absolue, comme le rappelle Wolfgang Smith, de recourir à ce que la
philosophie traditionnelle nomme une « forme substantielle », principe d’unité qui donne sa réalité propre
à la matière corporelle. Il ne s’agit pas là d’un luxe spéculatif dont on pourrait se passer, mais d’une
exigence rigoureusement scientifique, puisque c’est l’incontestable vérité de la physique quantique qui, à
défaut de cette forme substantielle, rend à tout jamais inexplicable et plus encore impossible la réalité des
corps.
On saura gré au Professeur Wolfgang Smith d’avoir rappelé ces vérités premières, avec son autorité de
savant reconnu et toutes les ressources de sa grande culture philosophique et religieuse. Saluons aussi
son courage, car il en faut pour oser affronter, avec tant de fermeté, l’idéologie dominante de la culture
moderne, ce qui ne va pas sans risque, comme le prouve l’exemple de l’astrophysicien Halton Arp (cf., ici
même, chap. VII, n. 5, p. 184). Cette idéologie a érigé la science (une certaine science !) en mythologie
majeure de notre temps. Au fond, Wolfgang Smith nous montre avec simplicité, et beaucoup d’humour
parfois, que Bultmann s’est trompé d’objet : ce n’est pas la religion qu’il faut démythiser, c’est le discours
officiel de la physique contemporaine, à laquelle seule la doctrine de la philosophia perennis est en
mesure de restituer sa pleine vérité.

Nancy, France, 3-10 juin 2002

Jean BORELLA
INTRODUCTION

Son titre le dit, ce livre traite de cosmologie ancienne. Au sens strict, cependant, son premier sujet de
réflexion est la cosmologie traditionnelle, ce qui n’est pas la même chose. Il n’en reste pas moins que les
anciennes cosmologies tendaient à être traditionnelles à divers degrés, ce qui signifie qu’il est malgré tout
question dans ce livre de cosmologie ancienne.
Il est néanmoins nécessaire de distinguer ces deux conceptions. Parler d’une doctrine « ancienne »,
c’est parler en termes d’histoire; ce qui, par contre, rend une doctrine « traditionnelle », c’est
précisément le fait qu’elle est plus qu’historique, plus qu’une simple contingence historique, ce qui
revient à dire qu’elle renferme un élément de révélation. De plus, ce que cela signifie exactement, seule la
doctrine traditionnelle elle-même peut nous l’apprendre. Il suffit d’observer qu’une doctrine est
traditionnelle en vertu même du fait qu’elle participe dans une certaine mesure de l’éternité. Elle a le
pouvoir, par conséquent, d’inspirer celui qui veut comprendre, d’éveiller en lui ce que le poète appelle les
« pressentiments de l’immortalité ». La cosmologie traditionnelle vise au-delà du cosmos ; selon les
termes de S. Paul, elle mène « des choses qui sont créées» aux « choses invisibles de Dieu ». Une telle
cosmologie rétablit le lien entre ceux qui s’en réclament et le monde spirituel ; elle est donc
intrinsèquement religieuse, au sens originel exact de re-ligare, « rétablir un lien ».
La source de cette divergence entre les cosmologies ancienne et traditionnelle peut maintenant se
comprendre : elle dérive de toute évidence de la propension collective à oublier les choses spirituelles, à
ne pas comprendre les significations les plus élevées, cachées pour ainsi dire dans toute doctrine de type
traditionnel. Conformément à ce que S. Paul appelle « l’obscurcissement du cœur », le contenu spirituel
d’une doctrine sacrée s’obscurcit progressivement. Cela s’avère particulièrement vrai dans le cas des
enseignements cosmologiques, dont le sens spirituel est presque totalement oublié du monde moderne.
Ce processus collectif d’obscuration remonte d’ailleurs à la plus haute Antiquité, et il était déjà bien
avancé alors même que les doctrines en question étaient encore considérées comme des normes dans leur
sens le plus extérieur. On le sait, cependant, « la lettre tue », et le sens extérieur d’une doctrine sacrée ne
peut survivre très longtemps à la mort de sa dimension intérieure. Peut-être est-il surprenant alors que
l’ancienne cosmologie ait survécu si longtemps en Europe, au moins dans certaines de ses formes
extérieures : pratiquement jusqu’au siècle des Lumières, où elle fut remplacée par des paradigmes d’une
tout autre sorte.
On le voit à la lumière de ces premières remarques, on ne peut pas présenter la cosmologie
traditionnelle comme on le ferait, disons, pour la botanique ou l’histoire de la Grèce. Il y a pourtant des
principes auxquels toute cosmologie traditionnelle se conforme, et eux peuvent être décrits et servir dès
l’abord de poteaux indicateurs sur le chemin de la découverte. Je me propose d’énoncer dès maintenant
quatre de ces principes selon un ordre ascendant. Le premier est très simple : il affirme que la cosmologie
traditionnelle concerne en tout premier lieu l’aspect qualitatif de la réalité cosmique, donc l’élément
même que la cosmologie moderne exclut. Comme nous aurons l’occasion de le voir, cette première
observation, si simple qu’elle soit, a déjà d’immenses implications.
Le second principe se rapporte à la notion métaphysique de verticalité et affirme un ordre hiérarchique,
dont le domaine corporel, au sens habituel, ne constitue que le niveau inférieur. La transition de la
cosmologie traditionnelle à la cosmologie contemporaine entraîne ainsi une déperdition radicale, un
rétrécissement ontologique aux proportions incalculables, ce qui tient évidemment non au cosmos comme
tel, mais à l’ampleur de notre vision du monde. Comme pour compenser cette réduction, la cosmologie
contemporaine attribue à l’univers des dimensions spatio-temporelles qui stupéfient l’imagination par leur
immensité quantitative. Il reste cependant que la totalité de l’univers spatio-temporel ne constitue que la
coquille extérieure, pour ainsi dire, du cosmos intégral tel que le conçoit la cosmologie traditionnelle.
Le troisième principe présuppose les deux précédents et affirme que l’homme constitue un microcosme,
un « univers en miniature qui récapitule d’une certaine manière l’ordre du cosmos intégral. On pourrait
d’ailleurs fort bien retenir un tel postulat comme le trait caractéristique qui permet de définir la vision
traditionnelle du monde, laquelle peut être véritablement qualifiée d’anthropomorphique. Je dis
«véritablement» parce que ce qui importe, c’est que le terme d’anthropomorphisme ne soit pas employé
dans un sens uniquement poétique ou imaginaire, mais factuel. La tradition affirme que l’homme et le
cosmos sont des exemples, pour ainsi dire, du même schéma ou projet directeur. Ce qui signifie tout
d’abord que, de même que l’homme est trichotomique, constitué d’un corpus, d’une anima et d’un
spiritus, de même le cosmos est tripartite, constitué de ce que la tradition védique appelle le tribhuvana,
les « trois mondes ». Selon ce point de vue, l’homme n’est en aucune façon un étranger dans un univers
hostile ou indifférent, mais il constitue le cœur même, le centre du cosmos intégral. Je voudrais dès
maintenant attirer l’attention sur le fait que la possibilité même de la connaissance humaine se fonde sur
cette affirmation ; comme l’a si bien observé Goethe : si l’œil n’était pas apparenté au Soleil (« wäre das
Auge nicht sonnenhaft »), il ne pourrait supporter sa lumière. En fin de compte, l’homme est capable de
connaître le cosmos précisément parce qu’il est un microcosme.
Il va sans dire que tout ceci s’oppose diamétralement à la perspective moderne. Selon la vision actuelle
du monde, l’homme est en effet un étranger dans l’univers, le produit accidentel et éphémère de forces
aveugles. Loin de constituer un microcosme, il est une anomalie des plus imprévisibles, une formation
moléculaire précaire d’une improbabilité astronomique. Excepté pour les lois de la physique et de la
chimie, qui opèrent peut-être dans les cellules de son corps de la même façon que dans les étoiles et les
plasmas, il ne jouit d’aucune espèce de parenté avec l’univers, qui se présente à ses aspirations humaines
comme indifférent et, en dernière analyse, hostile. Et encore une fois, notons d’emblée que cette nouvelle
cosmologie, ostensiblement scientifique, est en principe incapable de rendre compte du fait que l’homme
a la capacité de connaître, si limitée que soit cette connaissance. Il en ressort, comme nous aurons
l’occasion de le voir, que la science contemporaine est incapable de rendre compte même de l’acte le plus
rudimentaire de perception sensorielle cognitive, pour ne rien dire des modes supérieurs de la
connaissance sensorielle et intellectuelle. Le fait est que nous pouvons connaître le cosmos parce que,
dans un sens profond que seule la tradition authentique peut mettre en lumière, le cosmos préexiste en
nous. Par conséquent seule une cosmologie qui admet la conception traditionnelle de l’homme comme
microcosme est en mesure de rendre compte de ce qu’on peut légitimement appeler le miracle de la
connaissance humaine.
Le quatrième et dernier principe de la cosmologie traditionnelle sur lequel j’aimerais attirer l’attention
concerne son intime relation avec l’ascension spirituelle de l’homme, telle que la conçoivent les diverses
écoles sapientielles. Il affirme que les strates supérieures du cosmos intégral peuvent être connues ou
qu’on peut en faire l’expérience à travers la réalisation des états correspondants de l’homme lui-même,
dans ce qu’on peut appeler un itinerarium mentis in Deum, un itinéraire de l’esprit vers Dieu, selon la
formule expressive de S. Bonaventure. La clef de la connaissance se trouve donc dans l’injonction
delphique « Connais-toi toi-même » : en fin de compte, il n’y a pas d’autre voie, pas d’autre moyen de
connaître. Nous somme capables, en ce moment, de connaître le monde corporel parce que nous avons
actualisé l’état correspondant : c’est ce qui constitue pour ainsi dire notre condition humaine. Les
occultistes et ceux qui appliquent les idées du New Age sont, semble-t-il, capables, dans certains cas, de
pénétrer de force dans les degrés inférieurs du plan intermédiaire, parfois appelé astral ; s’élever au-delà,
de ce niveau est sans aucun doute la prérogative des sages et des saints. La relation entre la cosmologie
traditionnelle et le progrès spirituel est cependant double : non seulement les niveaux supérieurs de la
manifestation cosmique ne seront susceptibles d’être connus qu’à travers l’actualisation des états
spirituels correspondants, mais, réciproquement, une certaine connaissance préliminaire de la hiérarchie
cosmique, comme la montrent, par exemple, les représentations iconographiques, peut contribuer au
progrès spirituel lui-même. De ce point de vue, la cosmologie traditionnelle devient un auxiliaire de la
religion, un moyen d’atteindre la réalisation spirituelle.
Il nous faut évidemment nous demander maintenant si cette cosmologie est compatible avec les
découvertes de la science contemporaine. Étant donné ce que nous connaissons aujourd’hui de l’univers
— son origine, sa configuration et ses lois —, est-il logiquement justifié de maintenir les principes et la
doctrine de cette cosmologie traditionnelle ? On le sait, la plupart de nos contemporains, scientifiques,
philosophes, théologiens, répondraient sans hésitation par la négative. Ils prennent pour une évidence
que la science moderne a une fois pour toutes disqualifié les « conjectures primitives » de la cosmologie
pré-moderne. Ce point de vue s’accorde d’ailleurs avec la perspective évolutionniste dominante, qui
perçoit toute chose comme s’élevant « d’en bas », et, par conséquent, il est tout disposé à accorder le plus
grand crédit à chacun des derniers virages pris par la trajectoire évolutionniste. On peut naturellement se
demander ce que le prochain virage serait susceptible d’apporter, et s’il ne serait pas possible qu’une
humanité encore plus hautement évoluée perçoive les choses différemment ; mais ce sont des questions
que les évolutionnistes ne sont de toute façon pas enclins à se poser. D’autres, catégorie moins
nombreuse, professent un grand respect pour l’ancienne doctrine tout en en niant implicitement la vérité.
Je pense particulièrement à ceux qui semblent disposés à « psychologiser » toute croyance cosmologique
ancienne, comme si la cosmologie ne concernait que les fantasmes humains. Qu’il suffise de dire que rien
ne pourrait s’opposer plus radicalement aux enseignements traditionnels, lesquels maintiennent
invariablement la distinction fondamentale entre les domaines humain et cosmique, en insistant sur le fait
que la cosmologie ne se rapporte qu’au deuxième ; et on pourrait ajouter que la conception traditionnelle
de l’homme comme microcosme ne change rien à ce fait, mais présuppose en réalité la distinction entre
chacun des deux domaines. Ceci nous amène à un troisième groupe, qui semble prendre les doctrines
anciennes au pied de la lettre, tout en acceptant aussi le point de vue de la science contemporaine,
comme s’il n’y avait pas le moindre conflit, la moindre apparence d’incompatibilité entre ces deux corps
de doctrines. Je pense par exemple à ces gens qui tirent joyeusement des horoscopes et les interprètent
en termes plus ou moins traditionnels, sans s’apercevoir que cela n’a guère de sens dans un univers
einsteinien.
Si diverses que puissent être ces mentalités, elles révèlent une déficience commune. Ce qui me paraît
manquer le plus visiblement dans tous les cas, c’est le plus élémentaire discernement critique, le moindre
signe qu’une critique rigoureuse de la Weltanschauung dominante ait déjà été effectuée ; pourtant une
critique qui pénètre jusqu’aux fondements mêmes de cette vision du monde est aujourd’hui la condition
sine qua non d’une saine approche de la cosmologie. Quoi qu’on puisse penser du passé, nous vivons dans
un présent intellectuellement dominé par la science contemporaine ; et cette science a besoin d’être
examinée en profondeur et, en un sens, transcendée afin d’accéder à tous les trésors de sagesse que le
passé peut recéler. Comme Theodore Roszak l’a remarqué avec sagacité : « La science est notre religion
parce que la plupart d’entre nous ne sont pas capables de porter leur regard au-delà avec la même
intense conviction ». Il importe peu que nous portions aux nues la sagesse du passé ou que nous tirions
des horoscopes : aussi longtemps que nous ne « ne portons pas notre regard au-delà » de la science — ou
que nous ne « brisons pas la barrière de la foi scientifique », comme le dit le sous-titre de mon premier
livre — nous demeurons intellectuellement modernes, profanes et, en fait, anti-traditionnels. Ce qui peut
être la raison, je présume, pour laquelle il y a aujourd’hui si peu de « saints intellectuels », si même il y en
a : les équivalents de S. Augustin, par exemple, ou de S. Thomas d’Aquin ; échapper à l’Université semble
presque, de nos jours, une condition préalable à la sainteté, ce qui est de mauvais augure pour l’état de la
théologie. Quoi qu’il en soit, mon point de vue est que « la barrière de la foi scientifique » peut réellement
être battue en brèche, c’est-à-dire qu’il est possible de surmonter intellectuellement les idées préconçues
aussi bien de la modernité que de la postmodernité, et ainsi de rejoindre la famille humaine pré-moderne.
Cela ne confère naturellement pas l’illumination immédiate ; ce que pourtant nous gagnons sans le
moindre doute à une telle avancée, c’est tout au moins une première vision de vérités hautes et sacrées,
ce qui en soi est sans prix et irremplaçable, et ouvre de bien plus vastes horizons que n’importe quelle
sagesse imaginaire que nous ne possédons d’ailleurs pas. Par la grâce de Dieu nous arrivons réellement à
percevoir la vérité, quoique encore « dans un miroir, obscurément ». Nous avons réellement cette
chance : recevoir la sagesse n’est pas une affaire de « tout ou rien ».

Dans tout ce que j’ai dit jusqu’ici, il y a cette prémisse implicite que les principes de la cosmologie
traditionnelle n’ont pas été vraiment disqualifiés par les découvertes positives de la science
contemporaine. Pour vérifier cette affirmation, il est nécessaire de s’engager dans cette sorte de critique
à laquelle il a été fait allusion plus haut, et, par le moyen d’une analyse rigoureuse, d’arriver à une
séparation du fait scientifique et de la fiction scientiste. Et ceci n’est pourtant que la moitié du travail à
accomplir ; car il est tout aussi impératif d’interpréter ce que la science a révélé, de donner un sens à ses
découvertes positives, à défaut de quoi on retombe inévitablement dans telle ou telle sorte de fantasme
scientifique. Je soutiens cependant que, pour arriver à une interprétation authentique de la science
contemporaine, on a besoin des ressources fournies par la doctrine traditionnelle. Dans une monographie
antérieure, intitulée L’Énigme des Quanta, j’ai effectué une approche de cet ordre en ce qui concerne la
physique, avec ce résultat que son objet générique — l’univers physique, au sens propre — pouvait être
intégré comme domaine infra-corporel dans les ontologies traditionnelles. Comme on pouvait s’y attendre,
ceci éclaire nombre de questions et explique bien des choses qui jusqu’ici avaient paru incongrues ou
même paradoxales. En règle générale, on s’aperçoit que les découvertes de la physique qui nous frappent
comme les plus bizarres sont celles qui recèlent une vérité métaphysique majeure. C’est le cas, par
exemple, des faits bien connus relatifs à l’invariance de Lorentz — c’est-à-dire des phénomènes de la
dilatation du temps et de la contraction de Lorentz —, qui admettent une interprétation métaphysique,
comme nous aurons l’occasion de le voir au chapitre V. Rien de ce qui est vrai ne se perd quand on s’élève
à une perspective traditionnelle : d’une position plus élevée on voit non pas moins, mais plus. Les
enseignements des écoles traditionnelles, bien loin d’être disqualifiés par les découvertes de la science
contemporaine, sont au contraire nécessaires pour parvenir à une compréhension correcte de la science
elle-même.
Je présume qu’en voilà assez pour indiquer de quoi il est question dans ce livre. Ce que j’ai à offrir n’est
pas tant un ensemble de réponses à des questions spécifiques qu’un moyen général de faire face à ce que
je perçois comme le défi majeur de notre temps. Le livre illustre une approche méthodique basée sur les
enseignements traditionnels, ce qui, en fin de compte, ramène, Deo volente, à la sagesse pérenne de
l’humanité. Il ne s’agit pas pour autant de laisser entendre que la tâche d’interpréter la science devient
une affaire toute simple dès que l’on a fixé ses assises sur le terrain de la tradition. L’entreprise présente
son propre défi et a sa propre fascination, accrus par le fait que les possibilités, dans ce genre de
recherche, sont virtuellement illimitées. J’ai l’espoir que les quelques pas initiaux que j’ai faits dans cette
voie en encourageront d’autres à pénétrer dans ce domaine et à continuer ces investigations dans
diverses directions ; il y a un grand besoin collectif des fruits de tels travaux. On pourrait cependant
ajouter que lorsqu’on est arrivé, grâce à cette approche, à reconnaître ce qu’est réellement la science
contemporaine, on n’éprouve plus aucun besoin de mener des recherches de cette nature ; on est alors
intellectuellement préparé à s’occuper de « la seule chose nécessaire », la progression spirituelle elle-
même.
Une dernière question : d’après ce qui a été dit, il peut sembler que nous sommes pris dans un cercle
vicieux. D’une part, nous avons besoin de « briser la barrière de la foi scientifique » afin d’accéder à la
sagesse immuable de l’humanité, et de l’autre, nous avons recours aux ressources de cette sagesse afin de
« briser » cette barrière. Le Christ lui-même l’a déclaré : « À ceux qui ont il sera donné davantage ». Ce
qui nous sauve ici du paradoxe absolu, c’est le fait que la connaissance ou la compréhension de la sophia
perennis admet des degrés ; comme je l’ai dit, nous avons la chance que cette acquisition de la sagesse ne
soit pas une affaire de « tout ou rien ».

Ce livre rassemble des articles précédemment publiés, rédigés au cours de ces dernières années,
chacun pour ainsi dire sous sa propre inspiration. Je ne prévoyais pas à l’origine qu’ils formeraient un tout
comme chapitres d’un livre ; mais il se trouve qu’ils le font, ce qui est dû au fait que chacun constitue un
pas sur la voie esquissée plus haut. Il n’est pas nécessaire que ces pas soient conçus comme successifs,
c’est-à-dire que les chapitres peuvent être lus indépendamment les uns des autres. Les deux premiers ont
été écrits dans des circonstances précises. Le premier, en particulier, constitue une version légèrement
abrégée de ma contribution au volume de la « Library of Living Philosophers » en hommage à Seyyed
Hossein Nasr ; et notons que la réponse du Professeur Nasr à cet article, conformément à la conception
de cette série, a été jointe au présent volume : on la trouvera en appendice. Comme le lecteur pouvait s’y
attendre, il constitue un commentaire de valeur qui éclaire les résultats essentiels. Quant au chapitre II, il
provient d’une conférence donnée, en 1998, à deux occasions : tout d’abord comme « Conférence
Templeton sur le christianisme et les Sciences naturelles » devant un auditoire de non spécialistes à
l’Université Gonzaga, puis à un symposium sur le thomisme à l’Université Notre-Dame.
Je suis profondément reconnaissant au Professeur Nasr de m’avoir suggéré l’idée du présent recueil, et
d’avoir offert de le publier par l’intermédiaire de la Foundation for Traditional Studies. J’ai aussi le plaisir
d’exprimer mes remerciements à Katherine O’Brien, directrice générale de la Fondation, pour l’aide
généreuse et la compétence qu’elle a apportées à la réalisation de ce projet jusqu’à son achèvement. Il me
reste à formuler l’espoir que tous ceux qui cherchent la vérité tireront profit de ce livre.
CHAPITRE I

SOPHIA PERENNIS ET SCIENCE MODERNE


Les livres de Seyyed Hossein Nasr ont traité souvent, et avec profondeur, de la relation de la sophia
perennis avec les sciences de la nature au sens moderne. Les considérations de ce chapitre prendront
comme point de départ les Conférences Gifford du Professeur Nasr.
La toute première phrase expose ce qu’on pourrait légitimement appeler leur thèse centrale : « Au
commencement, la Réalité était à la fois être, connaissance et béatitude (les sat, chit et ananda de la
tradition hindoue, ou qudrah, hikmah et rahmah qui sont au nombre des Noms d’Allah en islam) et, dans
ce “maintenant” qui est l’éternel présent du “au commencement”, la connaissance continue de posséder
une profonde relation avec la Réalité, laquelle est le Sacré et la source de tout ce qui est sacré »1. Cet
énoncé introductif sous-entend et implique toute la métaphysique ; et cette métaphysique n’est autre dans
son essence que le sanâtana dharma des Hindous, ou ce que la tradition occidentale a tour à tour appelé
philosophia priscorum ou prisca theologia (Marsile Ficin), vera philosophia (Gémiste Pléthon), et
philosophia perennis (Augustinus Steuchus)2. Cependant, étant donné l’orientation anti-traditionnelle de
la philosophie moderne, pour ne rien dire de la théologie contemporaine, le terme de sophia perennis est
peut-être celui qui induit le moins en erreur. L’essentiel à se rappeler est que cette sophia ou sagesse,
quand on la perçoit de son propre point de vue, signifie « la Sophia qui a toujours été et sera toujours, et
qui se perpétue par la voie d’une transmission horizontale et, verticalement, par la voie d’un
renouvellement par contact avec la Réalité qui “était au commencement” et est ici et maintenant » (p. 67),
comme l’explique Nasr.
Un point essentiel de ses conférences est que la sophia perennis est intimement liée à la « science » au
sens général et expressément pré-moderne du terme. « La connaissance sacrée doit aussi inclure une
connaissance du cosmos », affirme Nasr ; et en fait « on peut parler d’une cosmologia perennis, [...] qui
est en un sens l’application de la sophia perennis — essentiellement rattachée à la métaphysique —, et en
un autre sens en est un complément » (pp. 159-160). On peut dire que toute science selon la conception
traditionnelle est une application de l’immuable sagesse métaphysique en vertu du fait que « toutes les
lois sont des reflets du Principe divin » (p. 165), et un complément dans la mesure où elle constitue de
jure un support de la contemplation du Principe lui-même. Les sciences traditionnelles sont ainsi fondées
sur cette prémisse que le cosmos constitue une théophanie et que, selon les termes de S. Paul, « Ce qu’Il a
d’invisible depuis la création du monde se laisse voir à l’intelligence à travers ses œuvres » (Romains I,
20). La science au sens traditionnel consiste ainsi à « lire l’icône » — ce qui est réellement très loin de la
vision de Bacon ! La science selon Bacon travaille à découvrir les chaînes causales qui lient les
phénomènes entre eux, entreprise capable d’aboutir à la prévision et au contrôle ; à l’opposé, la science
traditionnelle cherche à relier les phénomènes à la réalité ou principe dont ils sont des manifestations,
entreprise qui, elle, mène idéalement à l’illumination. En un mot, la première est, dans sa quête, «
horizontale », tandis que la seconde est « verticale ».
Nous devons cependant aussi veiller à ne pas trop accentuer cette opposition ; il faut en effet noter que,
dans ses réussites, la science contemporaine n’est pas tout à fait aussi baconienne qu’on pourrait
l’imaginer sur la base des connaissances dispensées par les manuels. Pensons par exemple aux remarques
occasionnelles d’Albert Einstein sur « le Vieux », qui laissent entendre que lui aussi peut avoir été à la
recherche de quelque chose qui pourrait être des vestigia. De toute façon, c’est sur le plan des
présupposés épistémologiques que la distinction entre les conceptions traditionnelle et moderne de la
science se manifeste avec le plus d’acuité. Nous ne savons peut-être pas ce qui se passe réellement dans
l’esprit d’un scientifique moderne, mais ce qui devrait s’y passer est néanmoins clair selon les règles en
vigueur : il est supposé raisonner sur des données ou une information fournies par la perception
sensorielle. C’est tout ce qu’il a officiellement le droit de faire, si on peut s’exprimer ainsi. A l’opposé, la
sophia perennis offre un éventail de possibilités cognitives incomparablement plus vaste, dans la mesure
où elle affirme que l’intellect humain reçoit sa « lumière » directement de l’Intellect divin : il « participe »
de l’Intellect divin, conformément à la perspective platonicienne. Toute connaissance humaine sans
exception a comme pivot cette « participation » qui admet évidemment divers modes et d’innombrables
degrés, qui vont du plus humble des actes de perception sensorielle jusqu’à des méthodes et des
possibilités de connaissance dont nous n’avons pas encore la moindre idée. Mais le fait demeure : ce qui
en dernière analyse relie le sujet humain à son objet dans l’acte même de connaître est réellement « la
Lumière véritable qui éclaire tout homme qui vient dans le monde » (Jean, I, 9).
Il y a cependant une différence fondamentale entre la connaissance de l’homme ordinaire et celle du
sage éclairé. Tous les deux peuvent reconnaître un rocher ou un arbre ; mais l’un le perçoit comme une «
chose », une entité qui existe par elle-même — ce qu’en vérité elle n’est pas ! —, tandis que l’autre le
perçoit comme une théophanie, une entité dont l’essence et l’être même dérivent de la Réalité
métacosmique. C’est la première sorte de connaissance, d’ailleurs, à laquelle s’applique le terme
védantique de maya, car le monde tel qu’il est perçu par les non-éclairés est en un sens illusoire : «
Maintenant nous voyons dans un miroir, obscurément » (I Corinthiens XIII, 12). Toute tradition
sapientielle affirme cependant que cette condition générale de nescience peut être surmontée, qu’elle soit
partielle ou totale, et que son redressement peut réellement être effectué dans cette vie-ci grâce à ce que
les Bouddhistes appellent « la doctrine droite » et « la méthode droite ».
Voilà les choses que nous devons garder présentes à l’esprit, afin de comprendre ce qu’est la
cosmologia perennis. Le fait est que toute science pré-moderne bona fide est enracinée dans une tradition
sapientielle intégrale, qui comprend une doctrine métaphysique et des moyens opératifs, et exige
d’ailleurs un milieu adéquat si elle veut éviter de se flétrir et de périr, et de donner alors naissance à ce
qu’on peut appeler à juste titre une superstition.
Une caractéristique essentielle de la cosmologia perennis, qui nous occupera particulièrement par la
suite, est qu’elle voit le cosmos intégral comme une hiérarchie de degrés ontologiques, ce que la tradition
occidentale a quelquefois appelé « la grande chaîne de l’être »3 et qui était d’habitude symbolisée à
l’époque ptolémaïque par les sphères planétaires. On sait naturellement que l’Occidental a abandonné la
notion de « mondes supérieurs » en même temps que la cosmographie ptolémaïque — le référent en
même temps que le symbole — et a opté pour une Weltanschauung qui réduirait la totalité du cosmos à ce
qui en réalité en constitue, du point de vue traditionnel, le plan le plus bas : le domaine de la matière
pondérable. Il me semble que c’est là le pas décisif qui nous fait entrer dans le monde moderne. Il faut
cependant reconnaître que l’hypothèse réductionniste ne fonctionne pas par elle-même, mais qu’elle est
rendue inévitable par ce que Nasr appelle « les limitations inhérentes aux prémisses épistémologiques de
la science moderne » (p. 176). Ces postulats philosophiques, affirme-t-il, joints à la disparition virtuelle en
Occident des traditions sapientielles, « ont rendu impossible l’intégration de cette science à des ordres de
connaissance plus élevés, et cela non sans conséquences tragiques pour le genre humain » (ibidem).
Je considère que cette observation est d’une importance capitale, et qu’elle mérite particulièrement
d’être approfondie. L’objet du présent chapitre est de dévoiler la prémisse épistémologique incriminée et
de montrer comment la physique moderne, libérée de cet obstacle et dûment réinterprétée, peut en fait
être l’objet d’une « intégration à des ordres de connaissance plus élevés », comme Nasr le suggère.

C’est René Descartes, on le sait, qui a fourni la base philosophique de la physique « classique » ou pré-
quantique en énonçant la distinction entre la res cogitans et la res extensa. On perçoit généralement cette
dichotomie cartésienne comme synonyme de la dualité corps/esprit, en oubliant que Descartes n’a pas
seulement séparé la matière de l’esprit, mais qu’il a en même temps imposé une conception très
particulière et réellement problématique de la matière. Il suppose en effet qu’une res extensa est démunie
de toute qualité sensible, ce qui implique évidemment qu’elle n’est pas perceptible. La pomme rouge que
nous percevons doit par conséquent être reléguée dans la res cogitans ; elle est devenue un fantasme
privé, une entité mentale, donc irréelle. Ce postulat, d’ailleurs, en appelle un autre : on est maintenant
forcé — sous peine de subjectivisme radical — de supposer que cette pomme rouge, irréelle, est liée par la
causalité à une pomme réelle qui n’est cependant pas perceptible. Ce qui, d’un point de vue pré-cartésien,
était un objet, en est maintenant devenu deux ; comme le dit Whitehead : « L’un est la conjecture, et
l’autre le rêve »4.
Cette hypothèse, en un mot, constitue la bifurcation fatale qui sous-tend et d’une certaine manière
détermine la Weltanschauung de la science moderne. La première chose, peut-être, qu’il faut relever, est
que cette hypothèse cartésienne ne peut ni être prouvée par un argument philosophique, ni corroborée
par une méthode scientifique. Qu’elle soit réellement « défendable » est plus difficile à dire ; mais, dans
tous les cas, la bifurcation est incompatible avec les enseignements des écoles philosophiques
traditionnelles, dont aucune n’a subjectivisé à la manière de Descartes l’objet de la perception. Selon un
consensus immuable, nous « regardons le monde » dans l’acte de la perception, comme le croit de même
tout non-philosophe ; seulement, le monde et la Réalité ne sont pas exactement la même chose, ce qui est
d’ailleurs une autre question.
Il est intéressant de noter que Whitehead attaque l’idée de la bifurcation pour la raison que « la
Connaissance est ultime »5. Ce qu’il veut dire par cette assertion est que l’acte de la connaissance ne peut
en principe s’expliquer par une réduction à quelque processus naturel. Et cette position est
traditionnelle : le « connaître » ne se réduit pas à l’« être » ; les deux pôles chit et sat sont irréductibles
(de même que le troisième, ananda, qui n’entre cependant pas dans ces considérations). Néanmoins,
comme Nasr le fait remarquer : « Au commencement la Réalité était à la fois être, connaissance et
béatitude ». En dépit de l’irréductibilité de l’être et du connaître aux divers niveaux de la manifestation
cosmique, ils sont intimement liés en vertu du fait que, in divinis, « connaître » et « être » coïncident.
Je crois que là, dans cette identité principielle, se trouve l’explication ultime de ce qu’on peut appeler le
miracle de la perception : le fait que dans cet acte quotidien un sujet et un objet se rencontrent et en un
certain sens deviennent un, comme Aristote l’a finement observé. Ce qu’il nous faut surtout comprendre,
c’est que l’union cognitive ne peut en vérité avoir lieu à l’intérieur des limites de l’univers, qui est et
demeure extérieur au sujet humain. Il y a des ondes lumineuses et des ondes sonores et il y a la fonction
du cerveau, et ces processus extérieurs ou objectifs jouent sans aucun doute un rôle nécessaire. Mais ils
ne constituent pas — ils ne le peuvent pas ! — l’acte de la perception ; affirmer qu’ils le peuvent serait,
encore une fois, réduire le connaître à l’être. L’acte lui-même, par conséquent, transcende obligatoirement
les limites de l’espace et doit de même être conçu comme instantané ou intemporel. L’acte de perception
n’est ainsi, littéralement, « pas de ce monde ». Est-il par conséquent étonnant que la philosophie
postmédiévale ait succombé au charme de la « bifurcation » ? Ayant perdu de vue l’Intellect divin et nié le
mystère de la « participation », est-il surprenant que l’homme postmédiéval ait implicitement nié aussi le
miracle de la perception ?

Je peux donc maintenant étayer ma réflexion sur l’affirmation suivante : ce qui vicie l’interprétation
habituelle de la physique et l’empêche d’être « intégrée dans les ordres supérieurs de la connaissance »
est justement le postulat de la bifurcation. C’est la prémisse cachée que l’on admet infailliblement dans
l’explication de la découverte scientifique. Il est vrai que ce postulat a été dévoilé et attaqué par certains
des philosophes de pointe du XXème siècle — d’Edmund Husserl à Alfred North Whitehead, Nicolai
Hartmann et Karl Jaspers, pour ne mentionner que ces quelques noms —, et pourtant cette doctrine
problématique n’a été soumise à ce jour à aucun examen, à aucune opposition de la part des scientifiques,
même dans l’arène très sophistiquée du débat quantique, alors qu’à peu près tout a été « mis sur le tapis
». Cependant, comme je l’ai montré ailleurs6, la prémisse peut réellement être laissée de côté, c’est-à-dire
que rien ne nous empêche d’interpréter la physique sur une base « non-bifurcationniste ».
Voyons ce que cela implique. Il est clair, tout d’abord, que nier la bifurcation revient encore une fois à
donner un statut objectif aux choses perceptibles, les pommes rouges par exemple. Appelons-les objets
corporels. Le premier pas, dans cette réinterprétation de la physique, peut donc se caractériser par la
redécouverte du monde corporel. Cette redécouverte ou réaffirmation ne constitue cependant pas un
retour au réalisme dit « naïf », mais exige une ontologie plus fine et plus discriminante. Il nous faut en
particulier retenir le principe fondamental suivant : « être » c’est être connaissable. Évidemment, c’est
aussi du réalisme ; en clair, il s’agit de la distinction entre « connaissable » et « connu », qui évite le
glissement dans l’idéalisme : la trompeuse réduction de « l’être » au « connaître ». Évidemment le
principe ontologique énoncé plus haut n’implique aucune réduction semblable. Chaque grain de sable de
l’univers est assurément perceptible ; mais combien d’entre eux ne le seront jamais ? Or, de toute
évidence, le réaliste « naïf » le croit également, et on peut se demander pourquoi il serait nécessaire
d’abandonner ou d’épurer cette position de simple bon sens. Quel est l’avantage du principe proposé ? Ce
qui s’avère décisif est le corollaire suivant : différentes manières de connaître correspondent à différentes
sortes d’être ou, disons plutôt, à différents degrés ontologiques. Par exemple, l’être corporel est de
l’espèce qui peut être connue par la perception sensorielle. Il y a cependant d’autres sortes d’être qui ne
peuvent être connues par ce moyen, et il y a là quelque chose que le réalisme « naïf » est mal outillé pour
comprendre.
En voilà assez pour ce qui concerne la première phase de la réinterprétation de la physique ; la seconde
— comme on peut maintenant le présumer — est obligatoirement la reconnaissance de tout ce qui est
physique comme d’un domaine ontologique séparé. Ces derniers siècles, l’Occidental a élaboré un mode
de connaissance sans précédent, basé sur la mesure et les moyens instrumentaux d’observation, ce qui a
mis en lumière une catégorie d’objets qu’on ne reconnaissait pas jusque-là : les objets physiques. J’ai
décrit le modus operandi général de cette entreprise cognitive dans la monographie déjà mentionnée ; on
se contentera de rappeler ici que la technique d’observation dépend d’une interaction entre l’objet
physique et un instrument corporel, qui, parce qu’il est perceptible, peut rendre compte du résultat de
l’interaction. En un sens, ce processus rend « visible » ce qui en fait ne l’est pas, et par là révèle une
strate ontologique inconnue jusque-là. Notre connaissance de cette strate a en outre progressé depuis les
approximations plus ou moins rudimentaires de la physique classique jusqu’aux conceptions
incomparablement plus fines de la théorie des quanta, qui a révélé que le monde physique n’est en réalité
rien d’autre que l’univers quantique.
Il y a ainsi deux domaines ontologiques avec lesquels il faut compter : le corporel et le physique ; mais
le physicien des quanta ne compte qu’avec un ! En vertu du postulat de la bifurcation, il nie le corporel, et
réduit par là le corporel au physique. L’interprétation dominante de la physique a ainsi été viciée dès le
départ par une confusion systématique qui résulte d’une incapacité à distinguer, en théorie, les objets
corporels des objets physiques. Je dis « en théorie », parce qu’en pratique chacun connaît évidemment la
différence par exemple entre un instrument scientifique tangible ou toute autre entité corporelle et un
nuage de particules quantiques ; là réside naturellement la raison pour laquelle la physique a survécu à
cette confusion et peut fonctionner. Mais la philosophie de la physique n’a pas un sort aussi enviable.
Comme Whitehead l’a fait remarquer il y a déjà longtemps au sujet de la distorsion bifurcationniste : « Le
résultat est une complète confusion dans la pensée scientifique, la cosmologie philosophique et
l’épistémologie », et il ajoute : « Mais toute doctrine qui ne présuppose pas au moins implicitement ce
point de vue est attaquée comme inintelligible »7. Espérons qu’après soixante-dix ans de débats sur les
quanta, il y aura maintenant une meilleure volonté de la part des scientifiques de prendre au sérieux une
définition non-bifurcationniste de la physique.

L’interprétation non-bifurcationniste a l’avantage immédiat d’éliminer d’un coup ce qu’on appelle


d’habitude le paradoxe quantique8. Plus besoin désormais de telle ou telle hypothèse ad hoc à laquelle on
adapte les choses ; plus besoin d’« univers parallèles » ou de nouvelles lois de la logique ! La seule chose
nécessaire pour éviter un paradoxe apparent est d’abandonner la bifurcation une fois pour toutes.
Ce qui nous concerne maintenant, cependant, est quelque chose d’autre, que je considère comme
encore plus important : le fait que la physique, ainsi réinterprétée, peut être « intégrée dans les ordres
supérieurs de la connaissance », selon la formule significative de Nasr. Voyons comment cette intégration
peut se faire.
La physique moderne, je l’ai dit, a mis en lumière une strate ontologique inconnue jusque-là : le
physique, qui coïncide en fait avec l’univers quantique. Évidemment, ce domaine récemment découvert
n’apparaît jamais dans les écoles traditionnelles, et la question reste ouverte de savoir s’il aurait été
possible à un maître ancien d’en deviner la présence. Mais quoique la strate physique n’apparaisse pas
dans les schémas ontologiques traditionnels, on peut ajouter que sa position dans ces schémas peut se
vérifier. Comme je l’ai montré9, le domaine physique se situe entre les deux niveaux que définit la
tradition : au-dessous du corporel, mais au-dessus ce qu’on appelle la materia secunda, qui sous-tend le
monde corporel.
Pourquoi, tout d’abord, le physique se situe-t-il « au-dessous » du corporel ? L’idée clef nous vient de
Heisenberg — dans ses Conférences Gifford, ni plus ni moins ! — lorsqu’il a fait remarquer que les
vecteurs d’état, appelés aussi fonctions d’ondes, constituent « une version quantitative du vieux concept
de “potentia” de la philosophie aristotélicienne », et qu’il s’est référé aux objets quantiques comme à «
une étrange espèce d’entité physique qui tient le milieu entre la possibilité et la réalité »10. En un mot, le
niveau quantique (et donc, dans notre perspective, le physique) est au corporel ce que la puissance est à
l’acte. Mais il arrive que le principe d’ordre dans la hiérarchie des degrés ontologiques puisse être conçu
dans ces mêmes termes aristotéliciens : c’est le vecteur de la puissance à l’acte, si on veut, qui définit la
gradation ascendante. Dire que le physique est en puissance relativement au corporel, c’est par
conséquent situer le domaine physique au-dessous du corporel.
Pour l’étape suivante, nous devons nous souvenir que toute cosmologie traditionnelle envisage un ou
plusieurs niveaux ontologiques subcorporels. Parmi les vingt-cinq tattvas du Sankhya, par exemple, c’est
avyakta, « le non-manifesté », aussi appelé mulaprakriti ou « nature de la racine », qui sous-tend tout le
reste et constitue ainsi la strate la plus basse. Il est d’ailleurs évident que le domaine physique, composé
de choses qui peuvent être discernées, est en acte par rapport à avyakta, et par conséquent situé « au-
dessus » d‘avyakta, au-dessus du zéro absolu, pour ainsi dire, de l’échelle ontologique. On peut cependant
trouver dans la tradition scolastique, qui parle d’une materia secunda qui sous-tend le monde corporel11,
un « lien inférieur » au physique, moins universel et donc plus aigu et plus éclairant. Je dis « moins
universel » parce que ce substrat matériel n’est pas sans détermination, et se distingue par conséquent de
la materia prima, l’équivalent scolastique d’avyakta. Quelle est alors la nature de cette détermination ? La
réponse à cette question, littéralement l’une des plus fondamentales qu’on ait à se poser sur le domaine
corporel, a été donnée par S. Thomas d’Aquin : la protomatière ou substrat matériel de notre monde est
signata quantitate. Voilà la clef qui définit l’objet de la physique.
Il n’existe pas de meilleure façon d’expliquer cette relation que par l’exemple de la géométrie
euclidienne. Prenons le plan euclidien et concevons-le d’une manière pré-cartésienne, c’est-à-dire non
comme un ensemble de points, mais comme un substrat ou une puissance où ni points ni lignes n’ont
encore été définis. On peut dire que les points, les lignes, et en fait toutes les figures qu’on peut
construire, subsistent potentiellement sur ce plan — c’est-à-dire jusqu’à ce qu’ils aient été actualisés dans
une construction géométrique. On voit cependant que ce plan « porte » aussi quelque chose d’autre : une
structure mathématique, que nous appellerons « euclidienne » pour la distinguer d’autres structures
possibles, telles que la projection, la géométrie non-euclidienne de Lobachevski, et d’autres. Or cette
structure se manifeste dans certaines propriétés géométriques que révèlent les figures construites, faites
de points, de lignes et de cercles12. Observons en outre que, tandis que les figures géométriques sont
légion — elles sont en nombre infini, comme disent d’habitude les mathématiciens —, les propriétés
euclidiennes sont peu nombreuses, et se combinent pour constituer une géométrie cohérente, une forme
intelligible unique ; et cette géométrie ou forme n’est naturellement rien d’autre que la structure
mathématique « portée » par le plan euclidien.
Nous sommes maintenant en position de comprendre l’exposé raisonné de la physique d’un point de vue
traditionnel. Si on remplace le plan euclidien par la materia secunda, les figures géométriques construites
par des objets physiques, et la géométrie euclidienne par la « signature quantitative » de la materia
secunda conçue, une fois encore, comme une structure mathématique, on dispose des éléments essentiels.
Il faut en particulier remarquer que les objets de la physique — ses objets réels, c’est-à-dire de l’espèce
qui peuvent affecter un instrument corporel ou laisser une trace dans une chambre à bulles 13 — sont
réellement « construits », donc définis ou spécifiés par telle intervention expérimentale. Cet aspect de la
physique est celui qui a conduit Edditigton à stipuler que toutes les lois fondamentales peuvent en
principe se déduire sur une base a priori : regardez le « filet », dit-il, et vous connaîtrez le « poisson ».
Oui, jusqu’à un certain point. Il est vrai, comme il l’a astucieusement observé, que le modus operandi du
physicien expérimental affecte la forme des lois de la physique ou des équations fondamentales
auxquelles on parvient ; mais ces lois ou ces équations ont aussi un contenu qui ne dérive pas de ce
modus operandi, de même que les propriétés euclidiennes d’une figure construite ne résultent pas du
processus de la construction géométrique. Les stratégies du géomètre affectent évidemment les
propriétés géométriques manifestées, en ce sens qu’un triangle et un cercle, par exemple, dévoilent de
diverses manières la structure euclidienne sous-jacente ; et ceci fournit l’exemple, encore une fois, de
l’aspect subjectif de l’entreprise scientifique qu’Eddington avait en vue. Mais, tandis que les propriétés
géométriques manifestées dépendent réellement des contingences de la construction géométrique, elles
expriment néanmoins une structure mathématique objective, une forme donnée, intelligible au sens
platonicien. Je peux enfin affirmer que les lois de la physique manifestent de même la structure
mathématique de la materia secunda qui sous-tend le domaine physique, et ainsi a fortiori le domaine
corporel.

À la lumière de la physique contemporaine, j’ai défini le signata quantitate comme une structure
mathématique ; mais est-ce exactement ce que S. Thomas d’Aquin avait à l’esprit ? À quoi que le Docteur
Angélique ait pu penser, il ne pouvait guère s’agir des espaces de Hilbert et des groupes de Lie
d’opérateurs hermitiens dont la physique contemporaine est familière. Nous ne devons cependant pas en
juger avec trop de hâte. Pourrait-il y avoir quelque chose de plus étrange que, par exemple, l’idée de
Platon que les « atomes » de terre, d’air, de feu et d’eau correspondent respectivement au cube, à
l’octaèdre, au tétraèdre et à l’icosaèdre ? Que pourrait-il y avoir de plus éloigné de nos notions
scientifiques contemporaines ? Et pourtant, comme Heisenberg l’a brillamment observé14, il s’avère que
Platon s’est approché de la théorie quantique des « particules élémentaires » autant qu’il était possible,
compte tenu du vocabulaire des structures mathématiques dont on disposait avant l’époque moderne. Le
fait est, tout d’abord, que les solides réguliers sont « faits » de polyèdres, et donc d’entités qui n’ont pas
d’existence corporelle. On pourrait dire que les « atomes » de Platon sont mathématiques en tant qu’ils
s’opposent à des entités corporelles ; et en tant que tels, ils ressemblent aux particules élémentaires de la
physique contemporaine15 et non aux atomes de Démocrite, et encore moins à ceux de la physique pré-
quantique. Mais qu’est-ce que les solides réguliers de la géométrie euclidienne ont de particulier ? Ce
sont des représentations d’un groupe de symétrie ; ce que sont également les particules élémentaires de
la physique contemporaine ! La seule différence est que les groupes respectifs ne sont pas les mêmes. Ce
qui ne vise évidemment pas à faire croire que Platon est arrivé à ses conclusions grâce à quelque théorie
quantique rudimentaire. Il considérait sans aucun doute les « atomes » d’un point de vue très différent ;
et pourtant, qu’il soit arrivé à des conceptions aussi remarquablement semblables aux nôtres sous
certains rapports peut difficilement avoir été un accident.
La pertinence de cet exemple par rapport à la question du signata quantitate est évidente. Encore une
fois, S. Thomas ne regarde naturellement pas le problème d’un point de vue inspiré par la physique
moderne, et il faut se garder de croire trouver des espaces de Hilbert et des groupes de Lie dans un texte
ancien, pas plus dans la Somme que dans le Timée. Mais la vraie question est de savoir si ces structures
mathématiques sont malgré tout « quantitatives » en un sens qui convienne ici ; et si c’est le cas, alors le
signata quantitate admet – par transposition, si besoin est – l’interprétation que je viens d’en donner.
Comme dans le cas des « atomes » de Platon, il est quelquefois nécessaire de regarder sous la
signification littérale d’un texte ancien pour en discerner la pertinence contemporaine.
Quelle est alors la conception nécessaire de la quantité ? La réponse a, semble-t-il, été donnée par René
Guénon quand il fait remarquer que « la quantité elle-même, à laquelle elles [les sciences profanes]
s’efforcent de tout ramener, n’est pour ainsi dire, sous le point de vue où elles l’envisagent, que le
“résidu” d’une existence vidée de tout ce qui constituait son essence »16. Nous y sommes : la quantité est
« le résidu d’une existence vidée de tout ce qui constituait son essence ».
Tout d’abord, il est évident que le nombre cardinal est de la quantité au sens stipulé ; après tout, si nous
considérons cinq pommes et que nous leur retirons leur essence, ce qui reste n’est plus « cinq ceci » ou «
cinq cela », mais uniquement « cinq », le nombre pur. Mais on remarquera que la notion de quantité
conçue de cette façon inclut beaucoup plus, et représente davantage que seulement ce qu’il faut pour
contenir l’idée contemporaine de structure mathématique. Il y a cependant quelque chose d’autre qu’il
faut également relever : le principe que la materia secunda de notre monde est vraiment « signata
quantitate » découle de la définition même de la quantité à laquelle nous sommes parvenu. Qu’on pourrait
énoncer ainsi : ce qui reste quand tout « contenu » a été évacué de l’univers doit appartenir au «
contenant » ; mais ce résidu est, par définition, la quantité.

Nous avons à nous demander ce qui différencie l’univers physique du substrat matériel ; pourrait-ce
être les « essences » ? Or cette position se révèle intenable. Nous devons nous rappeler que les objets
physiques sans exception sont en un certain sens « construits », c’est-à-dire qu’ils se définissent par un
processus délibéré complexe qui implique nécessairement une intervention empirique d’une sorte ou
d’une autre. Rien n’est un objet physique à moins d’entretenir de quelque manière, directement ou
indirectement, une action réciproque avec une entité corporelle. Les objets physiques sont ainsi, en un
sens, relationnels : ils servent d’intermédiaires entre le substrat matériel et le plan corporel. Ils ont, si on
veut, l’esse d’une puissance en attente d’actualisation dans une entité corporelle ; et ainsi, strictement
parlant, ils n’ont pas d’« essence » parce qu’ils ne sont pas vraiment des « choses ». Comme le dit
Heisenberg, ils sont « juste au milieu entre la possibilité et la réalité » ; or seul ce qui est réel possède une
essence.
On voit maintenant que la physique est fondamentale, mais inessentielle ; voilà le fait décisif. Elle est
fondamentale parce qu’elle descend jusqu’au substrat matériel, la mûlaprakriti ou matrice de notre
monde ; et elle est inessentielle exactement pour la même raison. Après tout, l’essence d’une plante lui
vient de sa graine et non du sol dans lequel la graine a été semée.
Il peut paraître paradoxal qu’une science dont l’objet ultime est la materia secunda apparaisse comme
la plus « exacte » de toutes. L’infracorporel n’a-t-il pas été conçu traditionnellement comme un chaos
primordial dont un acte déterminant a produit le cosmos, un ordre divin, un fiat lux ? La Genèse n’appelle-
t-elle pas ce royaume ténébreux tohu-wa-bohu, « vide et sans forme », et le Livre des Proverbes n’en
parle-t-il pas comme de l’abyssos sur lequel le Géomètre divin « pose Son compas » pour construire le
monde ? N’oublions cependant pas que la physique est concernée non par la materia prima, mais par la
materia secunda, qui est signata quantitate. Le fait est qu’elle dérive ses exactitudes « du point blanc sur
la surface noire » pour le dire en termes yin-yang. Nous pouvons être certains que la structure
mathématique du substrat matériel a été inscrite par le grand Géomètre Lui-même ; après tout, Dirac ne
se trompait pas quand il disait que « Dieu a utilisé de magnifiques mathématiques en créant le monde ».
On ne doit cependant pas oublier que Dieu a utilisé beaucoup d’autres « belles choses » outre les
structures mathématiques, l’essentiel étant qu’au-delà du niveau de la protomatière et des objets
physiques, il y a les « essences » qui dérivent aussi de l’Intellect divin. Et de celles-ci, la physique ne sait
assurément rien. On vient de le voir : la connaissance à laquelle elle donne accès est « fondamentale mais
inessentielle ».

Entre-temps, la surface noire autour du point blanc a aussi pénétré dans les vues scientifiques ; au
niveau fondamental de la théorie des quanta, le domaine de la physique s’est révélé comme un chaos
partiel – à la grande consternation du physicien « classique ». Le fait est que les systèmes physiques
conçus selon la mécanique quantique sont dans des états superposés correspondant aux diverses valeurs
possibles de leurs observables, de même que la sonorité d’un instrument de musique est une
superposition ou un composé de tons purs, chacun avec sa fréquence propre. Ce qui est superposé dans le
système des quanta, ce ne sont pas des ondes réelles d’une sorte ou d’une autre, mais de simples
possibilités ou potentiae, comme dit Heisenberg, dont la plupart sont d’ailleurs mutuellement
incompatibles. La description par la mécanique quantique d’un système physique dépeint un ensemble de
quasi-existences en conflit, synthétiquement unies ; on se demande s’il serait possible de concevoir une
caractérisation plus parfaite d’un semi-chaos ! Je dis « semi-chaos », parce que les objets physiques sont
évidemment déterminés jusqu’à un certain point, sous peine de n’avoir aucune existence objective ; mais
cette détermination ne supprime pas l’indétermination superpositionnelle dont il vient d’être question, qui
demeure comme un témoin, pour ainsi dire, du chaos primordial qui sous-tend notre monde. Il apparaît
que la mécanique quantique a pénétré au-dessous du niveau de la terra firma jusqu’à une profondeur
proche du niveau des « eaux » auxquelles la Genèse fait allusion, et qui demeurent telles quelles, même
après que « l’Esprit de Dieu » se fut mû au-dessus d’elles. Remarquable est le nombre de vérités majeures
qui appartiennent à la cosmologie pérenne et que la physique du XXème siècle a découvertes par mégarde,
tandis que la plupart des scientifiques continuent à considérer les enseignements traditionnels comme des
« superstitions préscientifiques ».
Pour retourner au monde des quanta, on remarquera que la mesure d’une variable dynamique se révèle
– une fois de plus à la consternation du physicien classique – comme un acte de détermination. Supposons
que nous mesurions la position d’un électron. Avant cette mesure – cette intervention empirique –,
l’électron n’avait vraisemblablement aucune position ; il était très probablement dans une superposition
d’états correspondant à un nombre infini de positions, continuellement distribuées dans une région de
l’espace relativement étendue, voire même vaste. Et il en est ainsi jusqu’à ce que des instruments mis en
place par le physicien entrent en interaction avec l’électron de façon à lui imposer certaines limites
spatiales. La particule se trouve ainsi confinée, pour une plus ou moins longue période, à une région de
l’espace assez petite pour compter comme position définie. Or ce scénario trouble, je l’ai dit, les
physiciens habitués à la perspective pré-quantique qui tient pour acquis que l’objet physique a une
position bien définie, un mouvement bien défini, et ainsi de suite, que ces attributs quantitatifs aient été
mesurés ou non. Mais ici encore, la théorie des quanta est dans le même camp que la cosmologia
perennis, qui de temps immémorial a considéré la mesure comme une détermination, un acte de création,
semblable à celui du géomètre qui construit à l’aide de ses instruments.
On ne manquera pas de remarquer que, sur le plan cosmique, n’importe quelle sorte d’activité créatrice
exige une puissance préexistante. Si le Géomètre divin avait déterminé toutes choses d’un seul coup, il
n’aurait rien laissé au géomètre humain ; en fait le monde tel qu’il est ne pourrait exister. Comme tout
théologien le sait, Dieu seul est « entièrement en acte » ; c’est-à-dire que tous les autres êtres participent
à divers degrés de la puissance. À chaque niveau, d’ailleurs, cette puissance, ou indétermination, joue un
rôle des plus nécessaire et très bénéfique. Selon S. Thomas d’Aquin, l’intellect humain lui-même n’est
capable d’accomplir sa fonction cognitive qu’en vertu de sa puissance radicale, par laquelle il devient
réceptif vis-à-vis de tout objet qui se présente à lui, de même que le vide d’un contenant le rend réceptif à
toutes sortes de choses concrètes. Il ne faut donc pas croire que l’indétermination n’existe que dans le
monde des quanta ; en fait elle existe partout, à chaque niveau ontologique du cosmos intégral, et non,
d’ailleurs, comme un élément étranger, une sorte de souillure si on veut, mais justement comme le
complément naturel de l’acte. C’est ce que le célèbre symbole du yin-yang montre si magnifiquement, et
qui est sans doute la raison pour laquelle Niels Bohr a adopté cette icône taoïste comme emblème et
blason personnel. L’idée d’un cosmos fait de yang seulement (l’élément « blanc ») se révèle infondée et
irréaliste à l’extrême, et on se demande comment cette conception fantaisiste a pu dominer à ce point
l’Occident ; de toute façon, c’est une physique insuffisante qui nous a confirmés pendant des siècles dans
cette notion erronée, et c’est une physique corrigée et approfondie qui maintenant nous découvre cette
erreur tenace. Ici encore, sur cette conclusion cosmologique fondamentale, la théorie des quanta est dans
le camp des doctrines traditionnelles.

Le pas décisif dans la restitution de la cosmologia perennis est, sans aucun doute possible, la
redécouverte des « formes » comme principe ontologique et causal. Depuis que Bacon et Descartes ont
déclaré que les formes substantielles sont une invention pure et simple de l’imagination des scolastiques,
la science occidentale s’est acharnée à expliquer le tout à partir de ses parties reconnaissables, ou, en
d’autres termes : le plus à partir du moins. Et non sans succès ! On le sait, cette recherche a conduit à la
découverte de l’univers de la physique, avec ses merveilleuses structures mathématiques et ses
applications inespérées ; elle n’a cependant pas accompli la réalisation de la visée réductionniste. Au
contraire, elle révèle que les découvertes scientifiques elles-mêmes se tournent maintenant dans la
direction opposée, ce qui est évident dès qu’on a des yeux pour voir17, En même temps, la philosophie
réductionniste a survécu à son ancienne utilité comme principe heuristique. Le savant de la fin du XXème
siècle n’a presque plus aucun motif d’étudier les structures physiques ; par contre, ce qu’il a besoin de
comprendre, s’il veut accomplir de nouveaux progrès fondamentaux, c’est qu’il existe des principes
formels d’une espèce non-mathématique qui jouent aussi un rôle causal, c’est le moins qu’on puisse dire.
Ces principes non-mathématiques ne sont assurément rien d’autre que les formes substantielles dont il a
déjà été question, qui s’avèrent d’ailleurs être « essentielles » en un sens ontologique strict. On devrait
ajouter que ces formes ou « essences » sont liées entre elles et constitutives d’un ordre hiérarchique. Ce
que j’ai appelé la redécouverte du corporel doit donc être suivi de la compréhension que ce domaine est
lui-même ontologiquement stratifié sous l’égide des formes substantielles.
La ligne de démarcation la plus évidente et la plus importante est fournie par la distinction entre
l’organique et l’inorganique, ou, mieux, entre les substances vivantes et non-vivantes. On sait aujourd’hui
que la distinction entre ces deux domaines est visible avec une clarté sans précédent au niveau
moléculaire, où la différence entre les substances devient en un certain sens quantifiée. Compte tenu de
ces découvertes, on peut maintenant dire que la « distance » entre l’inorganique et l’organique est d’un
degré tel qu’il exclut de facto les passages « accidentels » de l’inorganique vers l’organique. Au stade
actuel du progrès scientifique, ce n’est que sur la base d’une tendance réductionniste rigide qu’on peut
encore nier cette conclusion.
Quelques mots à propos du code génétique peuvent avoir leur place ici. Que cette superbe découverte
serve à nous éclairer ou à nous aveugler dépendra, je crois, des présupposés philosophiques que nous
projetons sur ce sujet. Ce que nous trouvons clairement dans l’ADN est une information codée, un
message codé d’une incroyable complexité ; ce qui soulève deux questions. Nous devons nous demander,
en tout premier lieu, ce que c’est qui a été ainsi codé, ainsi exprimé dans une sorte de langage
moléculaire ; et nous devons nous demander ensuite par quel moyen ou quel agent ce codage s’est
effectué. Le réductionniste, évidemment, affirme d’emblée qu’il n’y a ni contenu ni agent au-delà du
moléculaire ; mais tout le monde n’accepte pas, aujourd’hui, cette hypothèse. Robert Sokolowski, par
exemple, a formulé l’hypothèse que « c’est la forme de la plante ou de l’animal qui opère elle-même son
codage ADN », et que « la forme est ce que l’ADN sert à communiquer »18. Ces dernières années, on a
reconnu de plus en plus que les notions de forme substantielle et de causalité formelle doivent être de
nouveau prises au sérieux, non pas seulement par les philosophes, mais tout aussi bien dans la théorie et
la pratique scientifiques. Parmi les avantages que la science peut raisonnablement attendre d’une saine
ontologie, le moindre, semble-t-il, est la diminution des recherches futiles. Plus précisément, une telle
ontologie pourrait dissuader les scientifiques de faire des recherches du côté de choses qui n’ont aucune
possibilité d’existence, telles que, par exemple, les soi-disant « chaînons manquants » que poursuivent les
anthropologues darwiniens. De même, elle pourrait sans aucun doute inspirer les sciences de la vie du
côté de choses qui existent bel et bien, mais qui sont hors de la portée des réductionnistes : « les choses
du ciel et de la terre », c’est-à-dire celles dont ne « rêve » 19 vraiment pas leur philosophie. Le point
suivant est cependant décisif : il devrait être clair dès le départ qu’un organisme vivant ne saurait se
comprendre en profondeur sans référence au principe formel qui constitue son essence. Les explications «
à partir du bas » ont évidemment une certaine validité et une certaine utilité ; mais leur valeur explicative
est limitée par le fait qu’elles concernent non l’organisme vivant en tant que tel, mais les mécanismes
grâce auxquels il remplit ses fonctions vitales, ce qui n’est pas du tout la même chose. Encore une fois, on
examine l’ADN, mais on échoue à reconnaître la forme de la plante ou de l’animal qui « s’encode elle-
même dans l’ADN » et que l’ADN « sert à communiquer ».
J’ai fait allusion au fait que le domaine corporel est ontologiquement stratifié sous l’égide des formes
substantielles ; nous devrions cependant aussi nous rappeler que, selon la doctrine pérennialiste, le
domaine corporel dans sa totalité ne constitue que le premier échelon, et le plus bas, d’une hiérarchie
cosmique plus vaste, constituée de trois degrés fondamentaux20. Ce qui nous concerne particulièrement
est le fait que chaque niveau de cette hiérarchie comprend d’une certaine façon tout ce qui existe au-
dessous 21; comme le dit Nasr : « Chaque monde supérieur contient les principes de ce qui lui est
inférieur et ne manque de rien de ce qui constitue ce niveau inférieur de réalité » (p. 169). C’est un fait
d’une très considérable importance ; il nous faut cependant interpréter ce principe avec prudence, le
point fondamental étant que chaque niveau plus élevé contient les principes essentiels des niveaux
inférieurs et tout ce qui est essentiel à leur réalité. Ce qui cependant s’ajoute réellement au passage des
états supérieurs vers les états inférieurs, c’est certaines conditions ou limitations extérieures à l’essence
qui, dans le cas du domaine corporel, peuvent être dites sommairement quantitatives, selon nos
considérations antérieures. Pour le dire aussi succinctement que possible : ces facteurs constitutifs de
nature quantitative sont enracinés dans la materia secunda, se manifestent comme potentiae au niveau
physique et s’actualisent au niveau corporel. On découvre ainsi que les structures mathématiques
relevées dans le domaine physique s’étendent en un sens au domaine corporel22, mais pas au-delà. Ce que
le physicien a en vue joue évidemment un rôle majeur au niveau du monde perceptible, mais n’a aucune
influence sur les réalités d’un ordre supérieur ; et, même ici-bas, il laisse inévitablement de côté tout ce
qui est essentiel, car l’essence des choses corporelles, nous l’avons vu, est inexplicable en termes de
quantité. À dire vrai, aucun grain de sable perceptible ne peut se comprendre ou s’expliquer en termes de
physique seule – pour ne rien dire des organismes vivants ni du phénomène humain.
CHAPITRE II

DU CHAT DE SCHRÖDINGER À L’ONTOLOGIE THOMISTE


Alors que la vision scientiste du monde continue à étendre son emprise sur la société, un fait inattendu
est jusqu’ici passé largement inaperçu : on sait que la vision qui joue encore le rôle de dogme officiel de la
science ne cadre plus avec les faits scientifiques. Au XXème siècle ont eu lieu des découvertes sans
précédent, qui ont repoussé les limites de la science et ne semblent plus s’accorder avec la
Weltanschauung habituelle, avec pour conséquence que leurs conclusions présentent l’apparence de
paradoxes. Il semble bien qu’à son niveau le plus fondamental la physique a désavoué la vision dominante
du monde. Cette science ne peut donc plus s’interpréter sous l’angle ontologique habituel ; et ainsi,
comme l’a observé l’un des théoriciens des quanta, les physiciens ont en un sens « perdu leur emprise sur
la réalité »23. Mais ce sont principalement les physiciens qui connaissent ce fait, et qui l’ont appelé, non
sans raison, « l’un des secrets les mieux gardés de la science ». Il implique que la physique a en effet été
réduite à une discipline positiviste, ou, selon les termes de Whitehead, à « une espèce de chant mystique
dont le sujet est un univers inintelligible »24. Richard Feynman remarquait un jour: «Je crois qu’on peut
dire sans risque de se tromper que personne ne comprend la mécanique quantique ». L’incompréhension à
laquelle Feynman fait allusion se réfère assurément à un plan philosophique ; on comprend les
mathématiques de la mécanique quantique, mais pas son ontologie. Généralement parlant, les physiciens
ont réagi à cette impasse de trois façons principales. La majorité, peut-être, a retrouvé son confort dans
une perspective fondamentalement pragmatique, tandis que certains persistent, jusqu’à aujourd’hui, dans
la tentative d’accorder les résultats positifs de la mécanique quantique avec l’image pré-quantique du
monde. La troisième catégorie, qui comprend quelques-uns des plus grands noms de la physique,
convaincue que l’ontologie pré-quantique est maintenant périmée, a cherché de nouveaux postulats
philosophiques, dans l’espoir d’arriver à une conception valable de la réalité physique ; il semble qu’il y
ait actuellement à peu près une douzaine de ces visions du monde en compétition pour se faire accepter
de la communauté scientifique.
Je n’ai pas l’intention d’ajouter une autre philosophie ad hoc à dessein de résoudre le paradoxe
quantique. Mon intention est de faire le contraire : montrer qu’il n’y a absolument aucun besoin d’un
nouvel Ansatz 25 philosophique, que le problème peut être résolu tout à fait naturellement sur une base
philosophique strictement traditionnelle. Je me propose en particulier de montrer que les faits quantiques,
dépouillés de leur encroûtement scientiste, peuvent s’intégrer aisément dans une ontologie très ancienne
et vénérable : le thomisme, qui, on le sait, remonte en fait à Aristote. Rejetée par Galilée et Descartes, et
par la suite marginalisée, cette spéculation médiévale, réputée démodée, se révèle maintenant capable de
fournir les clefs philosophiques que les physiciens cherchent à l’aveuglette depuis l’apparition de la
théorie des quanta.

Formulée pour la première fois en 1925, la mécanique quantique a ébranlé les fondements de la
science. Comme si la physique, enfin, avait opéré une percée jusqu’à ses véritables fondations ; elle a
découvert ce que j’appellerai désormais l’univers physique – un monde qui semble défier certaines de nos
conceptions les plus fondamentales. Un monde (si on peut l’appeler ainsi) qui ne peut être ni perçu ni
imaginé, mais seulement décrit en termes mathématiques abstraits. La représentation la plus utile et la
plus largement acceptée est celle qu’a formalisée en 1932 le mathématicien hongrois John von Neumann.
Ce modèle représente l’état d’un système physique par un vecteur dans un espace complexe dit de
Hilbert. Ce qui signifie, en effet, qu’un état peut être multiplié par un nombre complexe, que deux états
peuvent s’additionner, et que les combinaisons linéaires d’états différents de zéro seront encore des états
du système physique. Or c’est ce fait fondamental, connu comme le principe de superposition, qui
provoque l’étrangeté quantique. Considérons par exemple un système physique qui consiste en une seule
particule, et ensuite deux états dans lesquels cette particule est située dans deux domaines disjoints A et
B, aussi séparés l’un de l’autre qu’on le voudra. Une combinaison linéaire de ces deux états avec des
coefficients différents de zéro déterminera alors un troisième état, dans lequel cette particule sera
apparemment située, ni en A ni en B, mais d’une certaine façon dans les deux espaces. Maintenant on
peut dire : les vecteurs d’état décrivent réellement, non le système physique comme tel, mais notre
connaissance de ce système. Le troisième vecteur d’état signifie alors simplement que, pour autant que
nous le sachions, cette particule peut être en A ou en B, avec une certaine probabilité liée à chacun des
deux événements possibles. Il reste cependant une grosse difficulté, car l’état du système physique
correspondant au troisième vecteur d’état peut en fait être produit expérimentalement, et quand on le
produit, on obtient des effets d’interférence qui ne pourraient pas exister si la particule était située en A
ou en B. De quelque façon, inimaginable, la particule semble ainsi être réellement et en même temps en A
et en B.
Que se passe-t-il alors, si on mesure ou observe la position de la particule dans le troisième état ? Il
s’avère que l’acte même de la mesure provoque instantanément un nouvel état du système. La particule
détectée se situe évidemment soit en A, soit en B ; c’est-à-dire que seules les particules non-observées
peuvent être dans deux espaces. Tout ceci est naturellement très étrange ; mais soulignons que, d’un
point de vue mathématique, tout va bien, et que la théorie fonctionne en fait parfaitement. Je l’ai dit, ce
qui embarrasse les physiciens, ce ne sont pas les mathématiques, c’est l’ontologie.
Jusqu’ici, on peut avoir donné l’impression que les états de superposition sont rares et quelque peu
exceptionnels. Ce qui est cependant réellement exceptionnel, ce sont les états dans lesquels une
observable donnée a vraiment une valeur précise dite « état propre » ou eigenstate ; et même dans ce cas,
il arrive que le système reste nécessairement dans une situation de superposition en ce qui concerne
d’autres observables. Le système quantique est ainsi toujours dans une situation de superposition ; ou
plus précisément, il est en même temps dans différentes situations de superposition, selon l’observable
que l’on a en vue. Au niveau quantique, la superposition n’est pas l’exception, mais bien plutôt le fait
fondamental.
Arrivé à ce point, on pourrait dire qu’il n’y a aucune raison d’être particulièrement perplexe ; la
superposition, après tout, s’applique à des microsystèmes trop minuscules pour être observables sans
l’aide d’instruments. Pourquoi s’inquiéter si des « choses mystérieuses » se passent au niveau des
particules fondamentales et des atomes ? Pourquoi s’attendre à pouvoir décrire des choses ou des
événements qui sont par nature imperceptibles ? La plupart des physiciens seraient heureux, me semble-
t-il, d’adopter cette position, s’ils n’étaient retenus par le fait que la superposition a tendance à déborder
dans le domaine macroscopique. C’est ce fait de la mécanique quantique que la célèbre expérience
imaginée par Schrödinger a établi, expérience au cours de laquelle la désintégration d’un noyau radioactif
entraîne la mort d’un chat. Selon la théorie des quanta, le noyau non observé est dans une situation de
superposition, c’est-à-dire que son vecteur d’état est une combinaison linéaire de vecteurs d’état
correspondant aux états désintégré et non-désintégré. Grâce au dispositif expérimental, cette
superposition est transmise au chat, qui se retrouve par conséquent dans une situation correspondante de
superposition. En termes clairs, le chat est à la fois mort et vivant. Et il reste dans cette étrange situation
jusqu’à ce qu’un acte d’observation supprime son vecteur d’état, comme on dit, et le réduise à l’un ou à
l’autre des deux états ordinaires.
Ce mystère n’a évidemment rien à voir avec les chats ; il a à voir avec le rôle de la mesure dans
l’économie de la mécanique quantique. Or la mesure est une procédure dans laquelle on fait interagir un
système physique donné et un instrument, et l’état qui en résulte indique alors la valeur de telle
observable associée au système. Par exemple, on provoque la collision d’une particule et d’un détecteur
(peut-être une plaque photographique) qui enregistre la position de la particule au moment de l’impact.
Avant cette interaction, la particule est en général dans un état de superposition qui entraîne de multiples
positions ; il faut la voir comme éparpillée dans une zone spatiale. En outre, son évolution ou mouvement
est gouvernée par l’équation dite de Schrôdinger, qui est linéaire, et qui donc préserve la superposition, et
de plus est strictement déterministe : un état initial unique détermine les états futurs. Au moment de
l’impact, cependant, l’évolution déterministe de Schrödinger est supplantée par une autre loi de la
mécanique quantique, une projection, qui choisit l’une des positions représentées dans l’état donné de
superposition — apparemment sans aucune bonne raison ! – et assigne instantanément à la particule
l’endroit choisi. Or ce simple scénario illustre ce qui arrive généralement dans l’acte de la mesure : un
système physique interagit avec un instrument ou un appareil de mesure, et cette interaction amène une
projection apparemment aléatoire à supplanter l’évolution du système selon Schrödinger, comme si la
trajectoire d’une particule était brusquement modifiée sans cause assignable. Pourquoi cela ? Dans la
mesure où l’instrument est lui-même un système physique, on s’attendrait à ce que le système combiné,
obtenu par l’inclusion de l’instrument, évolue lui-même selon l’équation correspondante de Schrôdinger ;
mais ce n’est pas ce qui se passe ! Qu’est-ce alors qui distingue l’espèce d’interaction qu’on appelle
mesure d’autres interactions entre des systèmes physiques, dans lesquelles l’évolution de Schrödinger
n’est pas supplantée ?
La théorie des quanta contient de nombreuses énigmes de ce genre ; le scandale de la superposition
admet plusieurs formes. Je mentionnerai encore l’une de ces énigmes, qui me frappe comme
particulièrement importante. On pourrait la voir comme une version simplifiée du paradoxe du chat. Selon
l’expression de Roger Penrose, le problème est celui-ci : « Les règles sont que n’importe quels états
doubles, sans qu’on tienne aucun compte de la différence qu’il peut y avoir entre eux, peuvent coexister
dans n’importe quelle superposition linéaire complexe. En réalité, n’importe quel objet physique, lui-
même composé de particules individuelles, devrait pouvoir exister dans de telles superpositions d’états
spatialement très éloignés les uns des autres, et donc être “à deux endroits à la fois” !... Pourquoi alors ne
voyons-nous pas de corps macroscopiques, par exemple des balles de cricket, ou même des gens, se
trouver en même temps dans deux endroits complètement différents ? C’est une question profonde, et la
théorie des quanta ne nous a pas fourni de réponse satisfaisante jusqu’à aujourd’hui ».26
On le sait, ces questions sont débattues depuis très longtemps, et diverses interprétations du
formalisme mathématique ont été proposées, dans un effort pour arriver à discerner dans la théorie un
sens philosophique. Cependant, comme Penrose le fait observer : « Ces énigmes, sous une apparence ou
une autre, persistent dans n’importe quelle interprétation de la mécanique quantique, dans l’état actuel
de la théorie »27. Après plus d’un demi-siècle de débats, il apparaît qu’aucune résolution claire du
problème n’est encore en vue. On a cependant négligé quelque chose, un point décisif, qu’il faut
maintenant examiner.

On l’a vu, Descartes pose au XVIIe siècle les fondements philosophiques de la physique moderne. Il
concevait le monde extérieur ou objectif comme constitué de res extensae, de choses étendues qui sont
dépourvues de qualités sensibles et peuvent être intégralement décrites en termes purement quantitatifs
ou mathématiques. À côté des res extensae, il pose les res cogitantes ou entités pensantes, et c’est à
celles-ci qu’il confie les qualités sensibles, de même qu’à tout ce qui, dans l’univers, pourrait être
réfractaire à une définition mathématique. On regarde en général cette division cartésienne de la réalité
en res extensae et res cogitantes comme une simple affirmation de la dichotomie corps-esprit, en oubliant
que c’est beaucoup plus que cela ; car non seulement Descartes a distingué strictement le corps et
l’esprit, mais il a en même temps imposé une conception excessivement étrange et vraiment
problématique de la nature corporelle, conception qui rend le monde extérieur invisible, impossible à
percevoir. Selon lui, la pomme rouge que nous percevons existe – non dans le monde extérieur, comme
l’humanité l’avait toujours cru –, mais dans l’esprit, dans la res cogitans ; bref, c’est un fantasme mental
que nous avons naïvement pris par erreur pour une entité extérieure. Descartes admet évidemment que
dans la perception sensorielle normale la causalité relie le fantasme à un objet extérieur, une res extensa ;
il n’en reste pas moins que ce n’est pas la res extensa, mais le fantasme qui est réellement perçu. Ce que
nous concevions antérieurement comme un objet unique – qui dans la vie quotidienne est invariablement
considéré comme tel – a maintenant été clivé en deux ; comme le dit Whitehead : « Il y aurait ainsi deux
natures, l’une étant la conjecture et faute le rêve »28. Or ce clivage de l’objet en « conjecture » et en «
rêve » est ce que Whitehead appelle « bifurcation » ; il se trouve que c’est le postulat philosophique
décisif qui sous-tend et détermine notre interprétation de la physique. À partir de ses Conférences Tarner
à l’université de Cambridge en 1919, Whitehead a à maintes reprises attiré l’attention sur ce fait et l’a
commenté. « Le résultat, déclare-t-il, est une confusion complète dans la pensée scientifique, la
cosmologie philosophique et l’épistémologie. Mais toute doctrine qui ne présuppose pas implicitement ce
point de vue est attaquée comme inintelligible »29. Aujourd’hui, après soixante-dix ans de débat à propos
des quanta, la situation demeure fondamentalement inchangée. À peu près tous les autres articles de foi
philosophique ont, semble-t-il, été « mis sur le tapis » et soumis à un examen rigoureux, tandis que la
bifurcation continue à être un présupposé implicite des physiciens, comme si elle était un dogme sacro-
saint divinement révélé. Et ainsi « le fouillis complet dans la pensée scientifique » se poursuit, et les
exigences de la théorie des quanta n’ont fait que l’exacerber.
Voilà pour les mauvaises nouvelles ; la bonne nouvelle, c’est qu’il y a un remède à cette situation. J’ai
montré dans une récente monographie que la physique peut réellement s’interpréter sur une base non-
bifurcationniste, et le résultat est que le paradoxe quantique disparaît de lui-même30. L’hypothèse des «
mondes multiples » et autres stipulations ad hoc sont dès lors inutiles ; pour résoudre l’apparence de
paradoxe, il suffit de renoncer à un postulat philosophique hérité de Galilée et de Descartes et considéré
comme certain. Le paradoxe quantique devient alors la façon dont la Nature répudie une philosophie
fallacieuse.

Il nous faut donc regarder plus attentivement la mécanique quantique, cette fois d’un point de vue non-
bifurcationniste. Or nier la bifurcation revient à affirmer la réalité objective de l’entité perçue : la pomme
rouge est alors de nouveau reconnue comme un objet extérieur. Cette entité perceptible doit d’ailleurs
être distinguée de ce qu’on peut appeler la « pomme moléculaire », chose qui, clairement, ne peut pas
être perçue, mais que seules les méthodes de la physique permettent de connaître. Ce qui conduit par
conséquent à distinguer entre deux sortes d’objets extérieurs : les objets corporels, qui se perçoivent, et
les objets physiques, qui ne peuvent être observés qu’indirectement grâce au modus operandi du
physicien expérimental. Ces deux domaines ontologiques sont évidemment étroitement liés, faute de quoi
il ne pourrait y avoir aucune science du physique. La raison fondamentale est celle-ci : chaque objet
corporel X est associé à un objet physique SX dont il dérive tous ses attributs quantitatifs. Par exemple la
pomme rouge dérive son poids de la pomme moléculaire. Le point fondamental est qu’il s’agit cependant
de deux choses différentes ; X et SX appartiennent à des niveaux ontologiques différents, on pourrait
presque dire à des mondes différents.
Le bifurcationniste ne reconnaît évidemment pas cette distinction, puisqu’il nie l’existence de l’objet
corporel X ; mais, par là, il assimile sans le savoir SX à X. Le credo de la bifurcation réduit ainsi le
corporel au physique. Et c’est dans ce réductionnisme que gît l’erreur fondamentale – l’illusion si l’on
préfère – de la Weltanschauung actuellement dominante.
Or le plus étonnant est que, tandis que la physique classique tolère apparemment cette erreur, la
mécanique quantique ne la tolère pas. Il s’ensuit que la nouvelle physique distingue X et SX ; elle insiste
même sur cette distinction – qui est précisément ce qui embarrasse le physicien. Dans sa structure même,
c’est-à-dire dans sa distinction catégorique entre le système physique et ses observables, la mécanique
quantique affirme à sa manière la distinction ontologique entre les niveaux physique et corporel. Le
système appartient ainsi au domaine physique, tandis que l’acte de la mesure aboutit clairement au
corporel, dans l’état perceptible, précisément, d’un instrument corporel. Il est vrai que l’instrument
corporel I est associé au système physique SI ; mais l’essentiel, encore une fois, est que les deux choses
ne sont en aucun cas identiques. La particularité de la mesure est qu’elle réalise une transition
ontologique entre les domaines physique et corporel. On ne s’étonnera donc pas que la théorie des quanta
connaisse deux « lois du mouvement » très différentes, car il est maintenant manifeste que l’évolution de
Schrödinger opère à l’intérieur du domaine physique, alors que la projection concerne un passage hors du
physique vers le corporel. La métaphysique dirait que le premier décrit un processus horizontal et le
second un processus vertical. On voit maintenant que la discontinuité qu’entraîne la réduction du paquet
d’ondes 31 reflète une discontinuité ontologique ; et c’est la raison pour laquelle le phénomène ne peut
s’expliquer d’un point de vue réductionniste. La réduction du paquet d’ondes est inexplicable sur une base
physique parce qu’elle résulte de l’acte d’une entité corporelle.
Ces considérations suggèrent avec force que le principe de superposition doit être corrigé pour les
systèmes subcorporels, c’est-à-dire pour le SX d’un objet corporel X ; car il est parfaitement raisonnable
de supposer que le vecteur d’état de SX ne peut admettre que des superpositions compatibles avec les
propriétés perceptibles de X. Et c’est sans aucun doute la raison pour laquelle les chats ne peuvent être à
la fois morts et vivants, ni les balles de cricket à deux endroits différents. Penrose a absolument raison : si
les chats et les balles de cricket étaient « composés de particules individuelles », ils pourraient réellement
exister dans des états qui ne connaîtraient aucune restriction de superposition ; l’ennui est qu’ils ne sont
pas constitués de cette façon. D’un point de vue non-bifurcationniste, les objets corporels, on l’a vu, ne
sont pas de simples agrégats de particules, mais quelque chose de plus. Il nous faut donc chercher ce qui
différencie X et SX ; et c’est dans ce but que nous nous tournons vers l’ontologie thomiste.

Il faut partir de là où S. Thomas lui-même est parti : des conceptions fondamentales d’Aristote. Dans
l’analyse de l’être, la première étape est de distinguer entre substances et attributs : entre les choses qui
existent en elles-mêmes, ou primaires, et celles qui existent dans une autre chose, ou secondaires.
Ensuite, dans l’analyse de la chose primaire, il s’agit de réduire la substance à ses composantes, ou
d’opérer une scission de l’atome de la substance ; ce qui requiert évidemment de concevoir des choses
plus primitives que les substances, les choses « d’où » proviennent les substances. Aristote a résolu ce
problème grâce à l’un des grands coups de maître de l’histoire de la philosophie : la distinction de la
puissance et de l’acte. La définition habituelle de ces deux termes est simple et banale : ce qui est capable
d’être une certaine chose, mais n’est pas cette chose, est cette chose en puissance ; tandis que ce qu’une
chose est déjà, elle l’est en acte. Une semence est un arbre en puissance, et un arbre est un arbre en acte.
Aristote continue par la définition de la matière, ou, pour être exact, de la matière première, comme ce
qui est en puissance une substance, un être substantiel. La matière première en tant que telle n’a donc
pas d’être, mais elle a néanmoins une capacité ou une aptitude à être. Or ce qui actualise cette capacité
est évidemment un acte, et cet acte s’appelle forme ou, plus précisément, forme substantielle. La
substance a donc été divisée en ses deux composantes, la matière et la forme. La forme donne à la
substance son contenu essentiel, sa quiddité, ou son « ça », ce que les Allemands nomment de façon si
expressive Sosein. Mais cette forme n’est pas elle-même la substance, n’est pas la chose qui existe : la
forme sans matière n’existe pas.
C’est à ce point de l’analyse que le génie de S. Thomas d’Aquin devient évident. Et on a ici un second
coup de maître de l’histoire de la philosophie : S. Thomas a reconnu que la forme substantielle est elle-
même en puissance par rapport à quelque chose d’autre : à un acte, qui n’est pas une forme, mais l‘acte-
d’être. Selon ses propres termes : « L’acte-d’être est l’élément le plus intime de toute chose, et le plus
profond, parce qu’il est semblable à une forme au regard de tout ce qu’il y a dans la chose »32. Or cet
élément intime constitue le point de contact, pour ainsi dire, entre la chose créée et sa Source incréée,
Dieu. Cet acte-d’être appartient ainsi en premier lieu à Dieu, qui crée et maintient l’univers ; mais il
appartient aussi à la substance créée en tant qu’il est sa réalité la plus profonde. On peut le voir comme
rayonnant au-dehors, à travers la forme substantielle, vers les accidents par lesquels l’être se
communique à nous.
Chaque être est doué d’une certaine efficacité, d’un certain pouvoir d’agir à l’extérieur de lui-même, qui
dérive de la même manière de son acte-d’être, et par là de Dieu Lui-même. Et pourtant cette efficacité, ce
pouvoir, lui appartient expressément. Comme Etienne Gilson l’a magnifiquement expliqué : « L’univers, tel
que S. Thomas se le représente, n’est donc pas une masse de corps inertes, passivement agités par une
force qui les traverse, mais un ensemble d’êtres actifs dont chacun jouit de l’efficace que Dieu lui a
déléguée en même temps que l’exister. À l’origine première d’un tel monde, nous devons donc placer
beaucoup moins une force qui s’exerce qu’une infinie bonté qui se communique ; l’Amour est la source
profonde de toute causalité »33.
Nous commençons peut-être à entrevoir ce qu’est l’ontologie thomiste. Non seulement l’amour de Dieu
est l’insondable source de toute causalité, mais toute cause, on le sait, imite cet amour.
Gilson dit encore : « Au fond de chaque forme naturelle, un désir se cache d’imiter, en agissant, la
fécondité créatrice et l’actualité pure de Dieu. Désir inconscient de soi-même dans le domaine des corps
où nous sommes provisoirement arrêtés, mais qui n’en est pas moins déjà cet effort vers Dieu qui
s’épanouira dans la morale humaine avec l’intelligence et la volonté. Si donc il existe une physique des
corps, c’est qu’il existe d’abord une mystique de la vie divine ; les lois naturelles de la communication des
mouvements imitent l’effusion créatrice primitive et l’efficace des causes secondes n’est que l’analogue de
sa fécondité »34.
Maître Eckhart a exprimé la même vision de la Nature dans un passage d’une rare beauté : « Vous
devez comprendre que, par nature, toutes les créatures s’efforcent de ressembler à Dieu. Les cieux ne
tourneraient pas s’ils ne suivaient pas la voie que Dieu a tracée, voie qui est à sa ressemblance. Si Dieu
n’était pas en toutes choses, la nature s’arrêterait net, sans mouvement ni désir ; car, que tu l’aimes ou
non, que tu le saches ou non, la nature cherche essentiellement Dieu, quoique obscurément, et tend vers
Lui. Personne, même assoiffé au dernier degré, n’accepterait la boisson offerte dans laquelle Dieu ne
serait pas. La quête de la nature n’est ni le manger ni le boire, ni le vêtement ni le confort, ni aucune de
ces choses dans lesquelles il n’y a rien de Dieu, mais en secret elle cherche et avec toujours plus de
passion elle poursuit en elles la trace de Dieu »35.
Nous y voilà : une vision de la Nature qui pénètre jusqu’au cœur même des choses, à cet « élément le
plus profond » que S. Thomas a identifié comme son acte-d’être. Et ceci n’est assurément plus une
Weltanschauung aristotélicienne, mais authentiquement chrétienne. Nous allons voir comment les
découvertes de la théorie des quanta s’accordent à cette vision chrétienne du monde.

Il faut tout d’abord souligner que la philosophie thomiste, non moins que celle d’Aristote, est sans
équivoque non-bifurcationniste. Dans aucune des deux il n’y a la moindre trace du doute cartésien. Ce que
nous connaissons par le moyen de la perception sensorielle, ce sont les objets extérieurs, un point c’est
tout ; et ce sont ces objets qui concernent principalement l’ontologie thomiste. Il s’ensuit que les
découvertes de la physique, au sens où nous l’entendons, peuvent être rattachées à la vision thomiste du
monde, à la seule condition qu’on les interprète en termes non-bifurcationnistes.
Le problème fondamental est évidemment de situer le domaine physique par rapport au domaine
corporel. Or nous savons que les transitions du physique au corporel s’effectuent par des actes de mesure
dans lesquels s’actualise une certaine possibilité inhérente à un système physique donné ; et ceci
constitue, en termes thomistes, un passage de la puissance à l’acte. Par rapport au domaine corporel,
chaque système physique doit donc être conçu comme une puissance. Heisenberg a souligné ce point avec
vigueur en référence aux systèmes microphysiques qu’il a appelés « une étrange espèce d’entité physique
qui tient exactement le milieu entre la possibilité et la réalité »36 ; et il fait observer que, sous certains
aspects, ils font penser à ce qu’il appelle « les potentiae aristotéliciennes ». Toutefois, quand il en vient au
domaine macroscopique, il identifie l’objet corporel X avec l’objet physique SX qui lui est associé, et il se
soumet ainsi (comme virtuellement tout le monde le fait !) à une vue réductionniste de nature corporelle –
comme si la simple formation d’un agrégat d’atomes pouvait effectuer une transition de la puissance à
l’acte. La non-bifurcation implique, nous l’avons vu, une distinction ontologique entre X et SX, ce qui
revient à dire que SX, tout autant que les particules quantiques dont il est composé, constitue « une
étrange espèce d’entité physique qui tient exactement le milieu entre la possibilité et la réalité ». Plus
précisément, les particules fondamentales et leurs agrégats – si macroscopiques soient-ils ! – occupent
une position moyenne, ontologiquement parlant, entre la matière primaire et le domaine corporel. La
physique contemporaine, on le voit, a découvert un niveau intermédiaire d’existence au-dessous du
corporel auquel on ne pouvait même pas songer avant les temps modernes. C’est ce domaine
intermédiaire que j’appelle l’univers physique.
Qu’est-ce qui alors distingue les deux niveaux ontologiques ? D’un point de vue aristotélicien ou
thomiste, la réponse est claire : ce qui distingue un objet corporel X de SX est justement sa forme
substantielle. C’est cette forme qui confère à X sa nature corporelle et son essence spécifique, sa «
quiddité » ou Sosein, comme on l’a vu. Il importe d’insister sur le fait que cette forme substantielle n’est
pas une structure mathématique ; si elle l’était, X et SX coïncideraient inévitablement. Une science
exclusivement quantitative ne peut rien connaître aux formes substantielles, ce que Descartes lui-même a
clairement reconnu. « Nous pouvons aisément concevoir, écrit-il, de quelle façon le mouvement d’un corps
peut être causé par celui d’un autre, et diversifié par la taille, la figure et la situation de ses parties, mais
nous sommes entièrement incapables de concevoir de quelle façon ces mêmes corps peuvent produire
d’autres corps, d’une nature entièrement différente de la leur, comme par exemple ces formes
substantielles et qualités réelles que de nombreux philosophes supposent être dans les corps »37. Mais
n’est-ce pas là la raison pour laquelle Galilée et Descartes – inventeurs de la théorie mécaniste universelle
– ont rejeté les formes substantielles et banni les qualités sensibles du monde extérieur ? Cependant, par
là même, ils ont rejeté l’essence même de l’être corporel, et nous ont légué un univers privé de son
essence, un univers vidé de sa réalité.
Nous avons aujourd’hui besoin de nous libérer de la poigne de fer de ce dogme scientiste
déshumanisant. Nous avons besoin de redécouvrir la plénitude du monde corporel, saturé de formes
substantielles et de qualités réelles, et qui recèle au fond de lui le mystère de ce que S. Thomas appelle «
l’élément le plus profond de toute chose ». Nous ressentons le besoin de cette redécouverte dans tous les
domaines de la vie, y compris le domaine scientifique, mais avant tout dans le domaine spirituel. La
plénitude de la vie chrétienne demande en particulier une capacité sacramentelle de la part de la matière,
qui serait totalement inconcevable en termes d’ontologie réductionniste. Il n’y a aucune place pour les
mystères christiques dans un univers uniquement composé de particules fondamentales. C’est pourquoi
les vérités les plus profondes de la religion nous sont devenues impensables. En fin de compte, nous ne
connaissons ni l’homme ni l’univers, parce qu’aucun des deux ne peut être compris s’il est séparé de
Dieu : Je suis la vérité, dit le Christ. Postuler, comme on le fait, un univers qui existe par lui-même et
engendre l’homme, c’est créer une illusion. Comme les prisonniers de la caverne de Platon, nous sommes
dès lors enfermés dans un monde illusoire, contraint de ne voir qu’un monde d’ombres. Or je pars du
principe que, de toutes les vraies philosophies — et je crois qu’il n’y en a pas qu’une —, la philosophie
thomiste est pour nous le moyen le plus sûr et le plus efficace par lequel effectuer le redressement
intellectuel libérateur. Quiconque a senti que « l’amour est l’insondable source de toute causalité » a déjà
brisé ses chaînes ; et quiconque a saisi, ne serait-ce que faiblement, ce que S. Thomas appelle l’acte-
d’être, est déjà sur la bonne voie.
CHAPITRE III

EDDINGTON ET LA PRIMAUTÉ DU CORPOREL


Dans ses Conférences Tamer de 1938, publiées sous le titre The Philosophy of Physical Science, Sir
Arthur Eddington a exposé des réflexions sur la nature de la physique qui défient jusqu’à aujourd’hui
notre compréhension de l’univers physique. On le sait, Eddington s’est fait le champion d’une
interprétation subjectiviste de la physique, qu’il appelait « subjectivisme sélectif ». En comparant le
physicien à un pêcheur au filet, il soutenait que les lois physiques peuvent se déduire simplement de la
structure du « filet ». Même les « constantes universelles » numériques fondamentales, comme on les
appelle ordinairement, ne peuvent être obtenues, selon lui, que par des considérations épistémologiques.
Dans un traité technique intitulé Relativity Theory of Protons and Electrons, il déclare avoir accompli de
telles prouesses de dérivation mathématique. On doit évidemment se demander si ces brillantes
prétentions sont justifiées : ne pourrait-il pas y avoir quelque faille ou erreur cachée dans ces prétendues
déductions ? Qu’il suffise de dire que l’importance et la pertinence durable de la philosophie d’Eddington
ne dépendent pas de cette question. Il est sans doute vrai que sa perspective, bien que largement
admirée, a rarement emporté une adhésion sans restriction : pourrait-il en être autrement lorsqu’un
auteur, quelle que soit sa célébrité, prétend déduire - sans recourir à une seule expérience — qu’il y a
exactement 136 x 2256 électrons dans l’univers !38 J’ajouterai cependant que plus on lit attentivement The
Philosophy of Physical Science, moins ces prétentions paraissent fantaisistes.
Entre-temps l’interprétation subjectiviste de la physique a de toute façon gagné du terrain comme une
tendance majeure liée à l’évolution de cette science elle-même. À la lumière de la théorie des quanta, on
en est venu à reconnaître que l’acte de la mesure affecte tel système examiné dans des proportions qui ne
peuvent être ni prévues ni contrôlées. L’objectivité supposée de la physique s’est ainsi vue compromise, et
aujourd’hui on sait à peine où est la limite : quelle quantité de ce que le physicien « découvre » peut
réellement être le résultat de sa propre intervention ? Même la définition de la physique a changé.
Comme le dit Heisenberg : « La science (ici la physique) ne se tient plus devant la Nature comme un
spectateur, mais se reconnaît comme partie prenante dans l’interaction entre l’Homme et la Nature »39.
Cette « interaction » est évidemment affectée par l’acte de la mesure : c’est là que le physicien agit sur la
Nature, et c’est là que la Nature répond. Se pourrait-il alors qu’Eddington ait raison ? Que le « filet » de
mesurage détermine les lois — et peut-être même les constantes universelles — de la physique ? Compte
tenu des récentes découvertes d’un physicien américain nommé Roy Frieden, il semble vraiment que ce
soit le cas. Dans une monographie intitulée Physics from Fisher Information, publiée aux Presses
Universitaires de Cambridge en 1998, il fait essentiellement ce qu’Eddington déclarait faisable : d’une
analyse du processus de mesure, Frieden, déduit les lois correspondantes de la physique. Cette analyse
est fondée sur la théorie de l’information, et il y utilise un fonctionnel d’information peu connu, découvert
en 1925 par un statisticien nommé Ronald Fisher. Selon Frieden, ce qui se passe à l’entrée d’un
instrument de mesure, est un transfert de l’information de Fisher, à partir d’un contenu d’information J, «
lié » au phénomène, jusqu’au au contenu d’information acquise I, dont les données sont échantillonnées.
La grande découverte de Frieden est que la différence d’information I moins J, dite information physique
K, satisfait à un principe de variation : en gros, la Nature s’arrange pour minimiser K40. Il s’ensuit que
l’information physique K constitue un lagrangien universel, dont on peut faire dériver les lois de la
physique. L’approche qui en résulte — appelée méthode de l’information physique extrême, (en bref, EPI
pour Extreme Physical Information)41 — a été appliquée avec succès aux domaines les plus importants, et
il est actuellement impossible de prévoir jusqu’où s’étendra son rayon d’action. En fait, la plupart des
physiciens semblent intéressés par l’EPI, non tant d’ailleurs pour ses immenses implications
philosophiques que parce qu’ils le voient comme un puissant outil de recherche. Par exemple, l’EPI est
actuellement appliquée aux problèmes quantiques de gravité et de turbulence qui ont résisté à toute autre
méthode d’approche.
Ce qui nous intéresse, c’est le fait que les résultats spectaculaires de Frieden contribuent largement à
justifier la philosophie d’Eddington. Il apparaît en effet que c’est l’interaction entre l’instrument de
mesure et le système mesuré — le « filet » et le « poisson » — qui rend compte des lois de la physique,
comme le savant anglais l’avait prédit il y a longtemps.42
Un survol de la philosophie d’Eddington s’avèrera utile dans ce contexte, de même qu’une réflexion
critique conforme aux traditions aristotélicienne et thomiste. Je soutiendrai que la logique même de
l’approche d’Eddington exige la distinction entre ce que j’ai appelé les domaines physique et corporel, et
implique bel et bien la primauté ontologique du corporel.
Eddington amorce sa recherche sur la nature de la physique par une définition appropriée de l’univers
physique : « La connaissance physique (telle qu’acceptée et formulée aujourd’hui), écrit-il, a la forme
d’une description du monde. L’univers physique se définit alors comme le monde ainsi décrit » (p. 3)43.
L’univers physique n’est donc pas simplement l’univers en tant que tel, mais l’univers « ainsi décrit » :
c’est le monde, peut-on dire, vu à travers les lunettes du physicien. Eddington soutient que ces « lunettes
» introduisent des éléments subjectifs dans notre connaissance du monde, donc dans l’univers physique,
l’univers « ainsi décrit ». Les descriptions auxquelles le physicien arrive ne sont évidemment pas
entièrement subjectives ; mais Eddington insiste sur le fait que les lois de la physique, qu’il distingue de
ce qu’il appelle les faits spéciaux, sont entièrement subjectives. Et c’est la raison pour laquelle ces lois
peuvent réellement être connues avec une précision mathématique : la précision tant vantée de la
physique, remarque Eddington, résulte en réalité de sa subjectivité. Comme le dit Whitehead : «
L’exactitude est une imposture ». D’autre part, les faits spéciaux sont partiellement subjectifs et
partiellement objectifs, « dépendant en partie, explique Eddington, de notre procédure pour obtenir une
connaissance par l’observation et en partie de ce qu’il y a à observer » (p. 66). Le fait par exemple que la
Lune est à tant de kilomètres du centre de la Terre présuppose évidemment une procédure d’observation
pour la mesure des distances, mais n’est pas déterminé par cette seule procédure. Eddington lui-même
n’irait pas si loin ! Cette assertion au sujet de la Lune a ainsi un contenu objectif ; mais pour cette raison
même la distance en question s’avère ne pas être connue avec précision. Nous y reviendrons en reprenant
la théorie des quanta et le rôle des probabilités.
Quand on a réussi à distinguer lois et faits spéciaux, on découvre que ceux-ci sont d’autant plus
problématiques que leur caractère est «partiellement objectif et partiellement subjectif ». Qu’en est-il
alors de la structure de l’atome telle qu’on la conçoit ordinairement ? « Lorsque feu Lord Rutherford nous
a montré le noyau atomique, se demande Eddington, l’a-t-il découvert ou l’a-t-il fabriqué ? » (p. 109). Mais
la question s’avère mal posée. Si un chasseur bat la forêt et débusque un cerf, il a évidemment trouvé ou
découvert l’objet qu’il cherchait. Mais l’expérimentateur qui fait passer à travers un prisme une lumière
blanche qui devient verte, a-t-il « découvert » la lumière verte, comme le chasseur a découvert le cerf, ou
l’a-t-il « fabriquée » ? La lumière verte préexiste-t-elle dans la lumière blanche ou a-t-elle été ajoutée par
l’intervention expérimentale ? On peut répondre des deux façons ; et donc, à strictement parler, la
question n’exige pas de réponse définie, pas de simple « oui ou non ». Il serait certainement trompeur, en
particulier, d’affirmer que le vert a été « découvert » comme le cerf dans la forêt. L’exemple de la
diffraction de la lumière comporte d’ailleurs une signification très large ; comme le fait observer
Eddington : « La question ne concerne pas seulement les ondes de la lumière puisque dans la physique
moderne la forme, et particulièrement la forme ondulatoire, est à la racine de tout » (p. 111). Pour en
revenir au noyau atomique, le cas se révèle réellement analogue à celui de la couleur verte : « Il est tout
aussi peu rigoureux de dire du noyau qu’il a été “découvert”. La découverte ne va pas au-delà des ondes
qui représentent la connaissance que nous avons du noyau » (p. 111).
Poursuivant sa recherche sur la nature du « filet » du physicien, Eddington distingue entre l’application
des instruments scientifiques et le cadre conceptuel de référence en fonction duquel les données
empiriques sont interprétées. « Quoi que nous ayons à appréhender, écrit Eddington, doit l’être de la
manière pour laquelle notre équipement intellectuel est conformé » (p. 115). Et dans un passage qui se lit
comme une page de Kant, il continue : « La méthode épistémologique d’investigation nous amène à
étudier la nature du cadre de pensée, et ainsi nous avertit de l’empreinte qu’il laissera sur la
connaissance que l’on y fera alors entrer de force. On peut ainsi prévoir a priori certaines des
caractéristiques qu’aura toute connaissance contenue dans ce cadre, simplement parce que contenue
dans ce cadre. Ces caractéristiques sont découvertes a posteriori par les physiciens qui travaillent avec ce
cadre de pensée, quand ils en viennent à examiner la connaissance qu’ils y ont justement fait entrer de
force. C’est toujours Procuste ! » (p. 116)44.
Qu’est-ce qu’Eddington a alors à dire à propos de ce « cadre de pensée » d’une importance si capitale ?
« Pour une perspective scientifique, écrit-il, je pense que la plus fondamentale de toutes les formes de
pensée est le concept d’analyse. C’est-à-dire le concept d’un tout divisible en parties, tel que la
coexistence des parties constitue l’existence du tout» » (p. 118).
Ce point exige quelques mots de commentaire. Compte tenu de la définition aristotélicienne de la
quantité comme ce qui admet des parties extérieures les unes aux autres, on voit qu’accepter le concept
d’analyse restreint en principe le champ de la physique au domaine quantitatif. Et ce fait même explique
pourquoi « le concept de substance a disparu de la physique fondamentale » (p. 110) : il a disparu parce
qu’il n’est pas une notion quantitative. La substance, comme l’enseignaient les scolastiques, dérive de
l’essence, ou forme substantielle, tandis que « Numerus stat ex parte materiae ». Par conséquent, le
concept d’analyse sert à éliminer non seulement les qualités, mais également les formes substantielles.
Quand Eddington dit que « ce à quoi nous sommes finalement acculés est la forme », il fait allusion à une
espèce très spéciale de « forme » : la forme mathématique, qui est l’équivalent de la structure
mathématique.
Mais revenons au fil de sa réflexion : il poursuit en relevant que le concept d’analyse est encore
restreint par ce qu’il appelle le concept atomique, ou le concept des unités structurelles identiques. « La
nouvelle conception n’est pas seulement que le tout est analysable en un ensemble complet de parties,
mais qu’il est analysable en parties qui se ressemblent entre elles. [...] J’irai plus loin en disant que le but
de l’analyse utilisée en physique est de réduire l’univers en unités structurelles qui sont précisément
semblables les unes aux autres » (p. 122).
Ceci aussi appelle un commentaire. Le concept d’analyse, dans sa version faible, élimine la forme
substantielle du tout, mais pas nécessairement des parties. Cependant, l’exigence supplémentaire que les
parties sont « précisément semblables » désubstantialise également les parties. Il s’ensuit que la
structure mathématique est tout ce qui reste — un but qui ne peut être entièrement réalisé, pour la
simple raison qu’en l’absence de toute substance il ne reste absolument rien. Pourtant, même ainsi, le but
est utile comme principe heuristique. Située comme elle l’est dans le cadre de pensée fondamental du
physicien, cette idée a vraisemblablement des conséquences. Entre-temps, on le sait, « les particules
fondamentales » ont bien été découvertes (ou « fabriquées » 1), et quoiqu’elles ne soient pas toutes
semblables, elles se divisent en classes dont les membres sont « exactement semblables ». Pourquoi en
est-il ainsi ? Eddington continue : « En admettant que les unités élémentaires découvertes dans notre
analyse de l’univers soient exactement semblables intrinsèquement, la question est de savoir s’il en est
ainsi parce que nous avons affaire à un univers objectif composé de telles unités, ou si c’est parce que
notre forme de pensée est telle qu’elle ne reconnaît que les systèmes d’analyse qui produiront des parties
précisément semblables les unes aux autres. Notre discussion précédente nous a mis dans l’obligation
d’envisager celle-ci comme la véritable explication. Nous avons prétendu pouvoir déterminer par un
raisonnement a priori les propriétés des particules élémentaires reconnues en physique — propriétés
confirmées par l’observation » (p. 123). On commence peut-être à voir que la prétention d’Eddington à
avoir déduit le nombre cosmique 136 x 2 256 peut, après tout, ne pas être si absurde.
On peut avancer sans risque que jusqu’ici peu de savants ont soutenu Eddington quand il s’agissait de
son interprétation subjectiviste des particules. Il faut cependant relever que les découvertes de Roy
Frieden auxquelles j’ai fait allusion offrent un soutien considérable à sa thèse. Les premières indications à
cet égard se trouvent dans la monographie de Frieden, où il montre qu’il y a réellement une relation entre
les quantités I et J de la théorie de l’information, et la physique des particules correspondantes. Par
exemple, il apparaît que « l’information intrinsèque I contenue dans l’espace à quatre dimensions d’une
particule libre est proportionnelle au carré de son énergie relativiste mc 2 », et que « l’invariabilité de la
masse m de la particule au repos et la constante h de Planck sont impliquées par l’invariabilité de J »45. Le
fait que les propositions de la théorie des particules peuvent ainsi être traduites dans le langage de la
théorie de l’information suggère vraiment qu’on peut finalement avoir affaire à des conceptions qui
relèvent de celle-ci. Depuis lors la recherche des applications de l’EPI à la théorie des particules produit
des résultats ; comme Roy Frieden l’a déclaré au cours d’une récente conversation téléphonique : «
Maintenant nous obtenons des particules ! » Mais comment pourrait-on « obtenir des particules » d’une
analyse du processus de mesure si ce n’est le processus de mesure lui-même qui donne naissance aux
particules ? Les affirmations subjectivistes d’Eddington n’ont jamais auparavant paru plus plausibles du
point de vue de la physique.
L’analyse théorique qui découpe le monde physique en parties distinctes va de pair avec les moyens
expérimentaux correspondants prévus pour effectuer la désintégration désiarée. Comme le dit
Eddington : « En examinant des phénomènes microscopiques, nous ne devons pas perdre de vue les
méthodes à la Procuste de l’expérimentateur qui tentent de parvenir à ce que le cadre de pensée exige.
Comme le sculpteur, il rend visibles les parties ou combinaisons de parties que crée notre imagination
analytique ; ou tout au moins ses opérations de tri et de fabrication produisent des effets qui se plient à
notre conviction que les parties sont là » (p. 131).
La logique de la pensée d’Eddington conduit inévitablement à cette conclusion : « Les lois
fondamentales de la physique ne sont qu’une formulation mathématique des qualités des parties entre
lesquelles notre analyse a divisé l’univers ; et nous avons soutenu qu’elles sont toutes imposées par
l’esprit humain de cette façon, et qu’elles sont donc totalement subjectives » (p. 131). J’ajouterai
seulement que le terme de « qualités » semble impropre quand il est appliqué aux parties et devrait être
remplacé par « relations ». En effet la physique est affaire de relations entre les parties que sa propre
analyse a distinguées.
Certains pensent que les structures mathématiques découvertes par le physicien sont aussi simplement
là que l’Everest est là ; mais Eddington n’est évidemment pas d’accord : « La physique théorique est
hautement mathématique. Mais d’où viennent les mathématiques je ne peux accepter le point de vue de
Jeans selon lequel les conceptions mathématiques apparaissent en physique parce que celle-ci traite d’un
univers créé par un Pur Mathématicien : en dépit du respect que j’éprouve pour eux, je n’ai pas une si
haute opinion des purs mathématiciens » (p. 137).
L’idée d’Eddington est que « les mathématiques ne sont pas là tant qu’on ne les y a pas mises ». Et on
commence à les y mettre au moment où on définit les plus fondamentales de toutes les mesures : les
mesures de distance spatiale et de durée temporelle. Selon l’analyse d’Eddington, ceci s’accomplit grâce à
la théorie mathématique des groupes, qui se pose ainsi comme la base de toute la physique. C’est grâce
aux groupes mathématiques constitués par ce qu’Eddington appelle les « ensembles terminables
d’opérations » (p. 140) que les mathématiques s’imposent sur le terrain de la réalité extérieure46. Ou
mieux : sur le terrain de la connaissance, car, comme nous l’avons relevé, c’est la thèse d’Eddington que
les mathématiques appartiennent non au monde en tant que tel, mais à notre connaissances du monde.
C’est pourquoi elles sont subjectives : c’est nous qui les avons fait exister. Et ceci signifie que l’univers
physique — l’univers « ainsi décrit » — est également subjectif et précisément dans le même sens : il est
subjectif parce qu’il est constitué de structures mathématiques que le physicien lui-même a imposées.
Voilà le point central de la pensée d’Eddington, et finalement son seul point, la conclusion à laquelle mène
toute son argumentation.
Mais poursuivons : en partant d’ensembles terminables d’opérations, on arrive au groupe mathématique
abstrait dans lequel les opérations originelles sont représentées par des symboles, tels que les x, y et z,
familiers à l’algèbre, qui maintenant fonctionnent comme éléments non définis du groupe. Ce qui compte
— et c’est le cœur de toute l’affaire —, ce ne sont pas ces symboles, mais la structure mathématique qu’ils
représentent : c’est elle, et elle seule, qui a un sens en physique. Eddington l’explique très clairement : «
La science physique consiste en une connaissance purement structurelle, de sorte que nous ne
connaissons que la structure de l’univers qu’elle décrit. Ce n’est pas une conjecture sur la nature de la
connaissance en physique, mais très précisément ce que cette connaissance affirme être, telle qu’elle est
formulée dans la théorie actuelle. Dans les recherches fondamentales, la notion de structure de groupe
apparaît tout à fait explicitement comme leur point de départ ; et dans le développement ultérieur, on
n’admet jamais de matériau non dérivé d’un groupe-structure. Le fait que la connaissance structurelle
peut être détachée de la connaissance des entités qui forment la structure élimine la difficulté qu’il
pourrait y avoir à comprendre comment il est possible de concevoir une connaissance de quoi que ce soit
qui ne fasse pas partie de l’esprit humain. Aussi longtemps que la connaissance se borne à des assertions
de structure, elle n’est liée à aucun domaine particulier de contenus » (p. 142).
Il peut sembler au premier abord que ce passage ne fait qu’énoncer la doctrine aristotélicienne et
thomiste de la connaissance : c’est par le moyen d’une forme que nous connaissons tout objet extérieur.
Mais on se souviendra que la connaissance dont parlent Aristote et S. Thomas est objective : nous
connaissons la forme même qui réside dans l’objet, qu’il s’agisse d’une forme substantielle ou
accidentelle. Pourquoi alors affirme-ton que la connaissance des formes ou structures mathématiques est
subjective ? Cela semble contredire l’argument d’Eddington selon lequel c’est précisément par le moyen
des formes mathématiques que le physicien peut « sortir de son esprit » et entrer en contact avec le
monde extérieur. Il n’y a cependant pas de contradiction. C’est bien par le moyen de la forme
mathématique que le physicien a une connaissance du monde extérieur ; cependant, selon Eddington,
comme je l’ai déjà indiqué, la forme en question a été imposée artificiellement : « Les mathématiques ne
sont pas là tant qu’on ne les y a pas mises ». Et c’est pour cette raison, et dans ce sens-là, que notre
connaissance des structures mathématiques — notre connaissance physique du monde — est appelée
subjective.

Ce qu’on appelle l’univers physique — « le monde ainsi décrit » — se révèle donc être constitué de
structures mathématiques que nous avons nous-mêmes imposées ; en un mot, il est bien fait de main
d’homme. Cette manière de le dire provoque pourtant quelque confusion ; car, dans la mesure où la
connaissance physique est partiellement objective, «le monde ainsi décrit» doit être également «
partiellement objectif ». Il nous reste une conception bizarrement équivoque, qui peut bien éclairer les
sages mais qui ne peut manquer de tromper les imprudents.
Une chose, tout au moins, est certaine : s’il existe un monde « fait de main d’homme », il doit aussi y
avoir un monde qui n’est pas fait de main d’homme. Et Eddington lui-même fait occasionnellement
allusion à cet autre monde : « je me suis aussi référé à un univers objectif, écrit-il, qu’on ne peut identifier
avec l’univers que décrit la connaissance mentionnée plus haut (la connaissance de la physique) » (p.
158). Mais qu’a-t-il exactement à nous dire de cet autre monde Quelle est la nature de cet univers qui est
« derrière l’univers physique ? La question principale est celle-ci : comment connaissons-nous cet
univers ? Et même : le connaissons-nous ? La physique sait comment ce monde interagit avec les
stratégies du physicien : elle connaît les « réponses » qu’elle donne à nos questions physiques ; mais est-
ce tout ce que nous savons ?
Il sera instructif de rappeler la conception des « deux tables » d’Eddington, dont il parle dans
l’Introduction d’un livre plus ancien47 : « Je me suis attelé à la tâche de rédiger ces conférences et j’ai
rapproché mes chaises de mes deux tables. Deux tables ! Oui, il y a des doubles de tous les objets autour
de moi — deux tables, deux chaises, deux plumes ». Et il explique que la première table est la table
perceptible, celle avec laquelle nous vivons familièrement tous les jours, tandis que la seconde est la table
moléculaire, que nous ne percevons pas. Nous avons tout d’abord l’impression qu’Eddington distingue
entre ce que j’ai appelé les domaines corporel et physique, et que son « autre univers » peut être en fait
l’univers corporel : le monde où se trouve la table perceptible. Mais ce n’est pas le cas. Cette supposition
est niée quelque deux cent soixante pages plus loin lorsqu’il écrit au sujet de la perception sensorielle : «
Quand les messages qui concernent une table voyagent dans les nerfs, la perturbation nerveuse ne
ressemble en rien ni à la table extérieure qui est à l’origine de l’impression mentale ni à la conception de
la table qui apparaît dans la conscience »48. Et il continue en faisant allusion au processus complexe par
lequel la « perturbation nerveuse» est transformée en table perçue, processus accompli « partiellement
par la construction instinctive d’images héritée de l’expérience de nos ancêtres, partiellement par
comparaison et raisonnement scientifiques ». Et il conclut que « c’est par cette inférence très indirecte et
très hypothétique que toute notre connaissance supposée et toutes nos théories d’un monde qui nous
serait extérieur ont été échafaudées ».
Nous y voici enfin : dans la vieille philosophie cartésienne ! La « première table », on le voit, a été
reléguée dans le domaine nébuleux de la conscience ; comme nous aurions dû nous en douter depuis le
début, la Weltanschauung d’Eddington est bifurcationniste. La « table extérieure » doit ainsi être déduite
de fantasmes évoqués plus ou moins en réponse aux messages nerveux auxquels elle a donné naissance.
Mais c’est le monde objectif qui nous occupe en ce moment ; mieux : notre connaissance du monde
objectif. En admettant que le saut d’inférence susmentionné puisse avoir lieu — supposition téméraire !
—, la question est de savoir s’il nous fait atterrir dans l’univers objectif ou dans l’univers physique. Et
étant donné que c’est par le moyen de la structure mathématique que nous « sortons de notre esprit », la
réponse est claire : ce à quoi nous arrivons n’est rien d’autre que « la table numéro deux » : la table
moléculaire qui appartient au monde physique. Si on conserve les postulats philosophiques d’Eddington,
on ne peut sortir de cette impasse : l’univers objectif reste inconnu et inconnaissable.
Mais alors comment Eddington sait-il qu’il y a un monde objectif, un monde « au-delà » du physique ? Il
se méfie des affirmations ontologiques : « C’est un avantage de l’approche épistémologique que la
question ne se pose pas d’attribuer une propriété mystérieuse appelée “existence” » (p. 156). Il veut dire
que, quand nous parlons de choses que nous connaissons, l’« existences » cesse d’être « une propriété
mystérieuse », et le terme n’est plus qu’une façon de dire que nous connaissons les choses en question. «
Moi-même, explique-t-il, je dis souvent que les atomes et les électrons existent. Je veux évidemment dire
qu’ils existent — ou sont — dans l’univers physique, qui est notre sujet de discussion » (p. 156). Voilà qui
est bel et bon ; il n’en reste pas moins qu’en faisant allusion à un monde objectif — un monde que, selon
ses propres prémisses, nous ne connaissons pas et ne pouvons connaître —, Eddington a évidemment
perdu ce qu’il appelle « l’avantage d’une approche épistémologique » : il a abandonné le terrain
relativement sûr de la phénoménologie et s’est aventuré sur le territoire réservé de la métaphysique. Sans
le vouloir, semble-t-il, et malgré ses intentions déclarées, il est devenu métaphysicien. Et selon moi, un
métaphysicien de la pire espèce : un métaphysicien cartésien.
Eddington n’ignorait évidemment pas le désaccord d’autres philosophes avec ses propres opinions. Il
était en particulier au courant que L. Susan Stebbing, dans un livre intitulé Philosophy and the Physicists,
avait visé la position qu’il soutenait. « Quelques purs philosophes, remarque-t-il, nient que la description
scientifique s’applique aux objets qu’on appelle en langage courant objets physiques49. Le professeur
Stebbing formule leur opinion : “ Il (le physicien) n’a jamais été concerné par les chaises, et il n’entre pas
dans ses compétences de nous faire savoir que les chaises sur lesquelles nous sommes assis sont
abstraites” » (p. 159). Eddington perçoit évidemment les très considérables implications de cette
affirmation de Stebbing, et il poursuit : « Si les chaises ne concernent pas le physicien, les étoiles ne
concernent pas l’astrophysicien. Dingle, professeur d’astrophysique, n’a pas craint de reconnaître la
logique de cette conclusion ». Que répond-il ? « Dingle, comme Stebbing, a abandonné la perspective qui
détermine l’emploi habituel des mots, et s’est égaré dans un monde où les hommes regardent les choses
comme les philosophes voudraient qu’ils les regardent, et où le langage est détourné dans le but de
décrire ces choses que les philosophes considèrent comme les plus dignes d’attention » (p. 160). Mais ici,
il est tout à fait clair qu’Eddington a compris de travers : c’est le bifurcationniste — celui qui prend un
objet aussi familier qu’une chaise pour un fantasme de notre cerveau ou de notre conscience — qui a «
abandonné la perspective qui détermine l’emploi habituel des mots » ; c’est lui qui « s’est égaré dans un
monde où les hommes regardent les choses comme les philosophes voudraient que nous les regardions » :
plus précisément, comme les philosophes cartésiens voudraient que nous les regardions. Demandons à
quiconque n’est pas un intellectuel moderne ! Il n’y a pas lieu de s’attarder sur cette question : elle est
trop évidente. Ce qui est vraiment étrange et vraiment problématique est qu’Eddington lui-même n’ait pas
compris que dans le langage ordinaire la chaise est précisément un objet familier de perception et non un
agrégat de particules quantiques ou une fonction d’onde de Schrödinger dans l’espace de Hilbert. Je
trouve surprenant qu’il ne semble pas percevoir l’incongruité de s’asseoir sur un agrégat de particules
quantiques, surtout après avoir affirmé que ces agrégats sont « partiellement subjectifs » : comment peut-
on s’asseoir sur une chaise « partiellement subjective » ? Et, d’ailleurs, comment peut-on s’asseoir sur une
« structure mathématique » ? Mes collègues mathématiciens auraient quelque peine à le comprendre.
Évidemment, ce qui manque dans les structures mathématiques, c’est la substance : la chose même que le
physicien a « éliminée ». Conclusion : on ne peut s’asseoir sur une chaise sans substance.
Il est évident que, pour répondre à ses critiques philosophiques, Eddington est entré dans un domaine
très éloigné de son champ de compétence. Il a perdu la lucidité et la précision quasi-mathématique de son
discours antérieur, celui de ses conférences sur la nature de l’univers physique où il suivait ce qu’il
appelait la méthode de l’analyse épistémologique. C’est dans ce dernier domaine qu’il est parvenu à ces
intuitions majeures dont les physiciens commencent seulement aujourd’hui à confirmer la validité. Aussi
longtemps qu’Eddington reste fidèle à son approche épistémologique, ou à ce que les philosophes
appellent la voie de la phénoménologie, tout va bien ; mais sa doctrine devient confuse dès que la
bifurcation entre en jeu. Ce qui est compréhensible : phénoménologie et bifurcation ne vont pas
ensemble. C’est après tout Husserl, le père de la phénoménologie, qui le premier a ouvert le feu contre la
bifurcation, et qui a réveillé par là le monde philosophique de son long sommeil cartésien. Mais la
communauté scientifique, elle, ne lui a jusqu’ici accordé que peu d’attention. À quelques rares exceptions
près, les scientifiques restent, au niveau le plus fondamental de leur pensée, engagés dans la philosophie
cartésienne, qu’ils ont avalée à l’âge le plus tendre ; par la suite ils ont été trop occupés pour la mettre en
question ou l’interroger.
Selon moi, la bifurcation constitue un élément étranger dans la philosophie d’Eddington. Ce postulat est
sans aucun rapport avec ses intuitions centrales, et n’y est qu’une source de confusion et d’inconsistance.
J’irais jusqu’à dire que la bifurcation s’oppose à son instinct philosophique et à sa remarquable
clairvoyance, et ne peut se soutenir dans sa pensée que parce qu’il n’a jamais été détecté comme le
postulat illégitime qu’il est. Si Eddington avait été capable d’appliquer son approche épistémologique au
problème de la perception humaine, ses conclusions sur la « première table » auraient été totalement
différentes. Il aurait alors sans aucun doute découvert qu’ici aussi le « concept d’analyse » est entré en
jeu, avec ce résultat qu’on a remplacé subrepticement l’organisme vivant par un modèle artificiel, un
simple agrégat de parties, dépourvu de vie et de conscience. Mais il était évidemment parvenu à ses idées
sur ce sujet par d’autres moyens, et quand il parle d’impulsions nerveuses, de formation d’images, etc., il
se contente de répéter ce que dit la sagesse conventionnelle. C’est James J. Gibson qui, lui, a appliqué la «
méthode épistémologique » au problème de la perception humaine et qui, par là, a porté en terre ladite
sagesse50. J’imagine qu’Eddington en aurait été très heureux, s’il avait vécu jusque-là. Je crois qu’il aurait
reconnu une parenté d’esprit entre lui et l’Américain : un autre scientifique à la tête froide et avec une
patience limitée à l’égard des charlatans. Mais ne l’oublions pas : il a fallu à Gibson des décennies de
recherche assidue — expérimentale pour une bonne part — pour arriver à ces conclusions qui font date ;
et Eddington était à l’évidence occupé ailleurs.

À strictement parler, Eddington n’a pas de vision du monde : ses postulats excluent que le monde puisse
du tout être vu. Le problème se situe dans son refus d’admettre la perception sensorielle humaine comme
un moyen d’arriver à une connaissance plus-que-physique du monde extérieur. Rien ne serait plus naturel,
et réellement plus en accord avec la logique de sa pensée, que de supposer que le monde objectif contient
des choses aussi familières que les chaises de Stebbing ; mais c’est justement à ce moment-là
qu’Eddington devient cartésien.
Ce n’était pourtant pas inéluctable. Le but général des axiomes cartésiens était de remplacer le
domaine perceptible par le domaine physique : ce monde mécanique imaginaire composé de res extensae.
C’est pour cela que les objets familiers devaient être bannis jusque dans les limbes de la conscience. Mais,
on le sait aujourd’hui, le postulat de ce monde mécanique s’est révélé chimérique : les physiciens ne
croient plus en un univers semblable à un mouvement d’horloge. L’idée s’est imposée que l’univers
physique — le monde du physicien mathématicien — est réellement « partiellement subjectif » ; et c’est
Eddington lui-même, peut-être mieux que quiconque, qui a affiné et systématisé ce progrès. Où est alors
la nécessité, pour ne rien dire de la justification, des postulats cartésiens ? C’est la croyance en un univers
mécanique qui a détrôné le monde perceptible il y a quelque trois siècles ; mais le tableau est aujourd’hui
différent. Avec la mort des res extensae cartésiennes, la porte a été ouverte à la restitution du domaine de
la perception. S’étant enfin réveillé de son sommeil galiléen, le scientifique est de nouveau libre
d’accepter ce que l’humanité a toujours cru : que nous pouvons voir le monde extérieur.
Mais il y a davantage à dire sur ce sujet : je soutiens que la logique même de l’approche d’Eddington
appelle cette réappropriation du domaine de la perception. C’est par la perception sensorielle, après tout,
que nous connaissons les instruments scientifiques qui constituent les pièces concrètes ou non-mentales
de son « filet ». Et c’est par le moyen de ce « filet », rappelons-le, que nous définissons et imposons les
structures mathématiques qui constituent le domaine physique. Est-il alors sensé de maintenir que les
instruments concrets de l’expérimentateur sont physiques ? Non, ce serait mettre la charrue devant les
bœufs. Le physique appartient, après tout, non au monde objectif, mais au « monde ainsi décrit », qui est,
Eddington le dit, «partiellement subjectif». On a cependant besoin d’instruments objectifs ! En d’autres
termes, on a besoin d’instruments, non d’« instruments ainsi décrits ». J’affirme qu’on ne peut pas plus
mesurer avec des instruments physiques qu’on ne peut s’asseoir sur une fonction d’onde.
Ce qui sauve la physique, naturellement, c’est le fait que l’expérimentateur n’accepte pas la philosophie
cartésienne ; c’est-à-dire qu’il traite son appareil non comme une structure mathématique, mais comme
un objet perceptible. De même qu’on dit qu’il n’y a pas d’athées dans les tranchées, on peut affirmer qu’il
n’y a pas de bifurcationnistes dans un laboratoire. Toute connaissance du monde extérieur commence
dans le domaine du perceptible : qu’on nie l’objet perceptible, et il ne reste rien d’extérieur. Qu’on nie en
particulier l’appareil scientifique que tout le monde peut percevoir et on nie le « ciseau » et le « filet »
d’Eddington, c’est-à-dire le centre même de sa doctrine.
Nous avons vu que la perception sensorielle est le premier moyen de connaître le monde extérieur, et il
nous incombe maintenant d’y réfléchir. Comment « sortons-nous de notre esprit » pour percevoir un objet
extérieur ? Pour Eddington le physicien sort de son esprit grâce aux formes mathématiques : « Le fait que
la connaissance structurelle peut être détachée de la connaissance des entités qui forment cette structure
élimine la difficulté qu’il pourrait y avoir à comprendre comment il est possible de concevoir une
connaissance de quoi que ce soit qui ne fasse pas partie de notre esprit ». On peut dire quelque chose
d’analogue de la perception sensorielle : nous percevons aussi l’objet extérieur grâce aux formes ; la seule
différence est que ces formes ne sont pas mathématiques. Si elles l’étaient, nous percevrions non des
tables et des chaises, mais des structures mathématiques. D’ailleurs personne n’a jamais perçu une
structure mathématique : on le sait depuis longtemps, on arrive aux structures mathématiques non par la
perception directe, mais par un processus d’abstraction.
Comment les formes, grâce auxquelles nous percevons, sont transmises de l’objet perçu à celui qui
perçoit, est une question dont nous n’avons pas à nous occuper ; ce qui nous importe est que ces formes
sont transmises, et qu’elles constituent le lien entre le connu et le connaissant. Nous connaissons les
formes mêmes qui existent dans l’objet, les formes mêmes, en fait, qui constituent l’objet. Nous ne devons
cependant pas interpréter cette doctrine de manière trop simpliste ; elle ne signifie pas que nous
connaissions l’objet « sans résidu ». Au contraire, dans l’acte même de la connaissance, nous savons que
l’objet est plus que ce qui est donné, plus que ce que nous pouvons posséder de manière cognitive. En un
mot, nous percevons l’objet comme une entité transcendante. L’objet est transcendant non seulement
parce qu’il a une existence propre, mais parce qu’il cache en lui-même une immensité, une profondeur
insondable. C’est évidemment chez le poète, le mystique et le philosophe authentique que ces
identifications apparaissent le plus clairement ; et pourtant il semble qu’au moins quelque vague idée de
cette transcendance, de cette immensité cachée, est implicite comme composante essentielle de toute
perception humaines — à condition que cette perception soit humaine.
De même, en définissant le domaine corporel comme étant le perceptible, il faut encore comprendre
que le corporel est en un sens plus que le perceptible. L’œil humain, par exemple, ne voit pas la lumière
au-dessus ou au-dessous d’un certain taux de fréquence, et il ne perçoit pas les objets excessivement
grands ou petits, et de toute façon il n’en voit que la surface. Et c’est pourtant par la perception
sensorielle, si limitée soit-elle, que nous connaissons le monde corporel, dans la mesure où nous le
connaissons. On peut dire que l’univers corporel est le monde auquel la perception sensorielle humaine
donne accès. Et ceci est réellement notre monde : le monde dans lequel nous nous trouvons. L’univers
corporel, d’ailleurs, est le seul monde objectif que nos facultés humaines — sensorielles et mentales —
nous permettent de connaître. Il est vrai que nous avons aussi une connaissance de l’univers physique, qui
est strictement impossible à percevoir et donc non corporel ; mais, comme le montre Eddington, cet
univers physique n’est pas objectif. L’univers corporel constitue réellement le seul et unique monde
objectif que nous connaissions, et la perception sensorielle constitue évidemment notre seul et unique
moyen de connaître ce monde objectif.
Il faut relever que c’est l’intellect qui révèle la transcendance de l’objet perçu, et que c’est précisément
en vertu de cette transcendance que l’entité donnée est connue comme objective. La transcendance
constitue la marque ou le critère de l‘objectivité51. Et à l’inverse, remarquons que dans le cas de l’objet
physique, rigoureusement conçu, on ne discerne aucune transcendance. Un tel objet est simplement la
structure mathématique qu’il doit être ; comme Eddington l’explique : « C’est devenu la pratique
courante, quand on introduit de nouvelles quantités physiques, de les considérer comme déterminées par
la série d’observations et de calculs de mesure dont elles sont le résultat » (p. 71). Il n’y a pas place ici
pour la transcendance, ce « plus » qui est le sceau de la réalité. La chose a été finement définie, taillée à
la dimension voulue, de telle sorte qu’elle puisse être manipulée avec une précision mathématique. À ceux
qui la croient « une entité qui folâtre dans quelque domaine métaphysique de l’existence », Eddington
conseille « de le faire à leurs propres risques ; la physique ne peut accepter aucune responsabilité pour
cet embellissement ». Il arrive évidemment que des physiciens tentent ainsi d’« embellir » leurs objets,
mais ceci est une autre question. Ce qui nous occupe présentement n’est pas l’univers scientiste — le
monde tel que le dépeint notre imaginaire scientifique contemporain —, mais l’univers physique, conçu
selon les canons de la physique. Et dans cet univers, un objet est ce qu’il est déterminé à être, et rien de
plus. Encore une fois, il n’y a pas place ici pour la transcendance ; la nature même du processus
scientifique le garantit, et c’est le prix qu’on a à payer pour l’acquisition de l’exactitude mathématique.
On a longtemps discuté pour savoir si les entités mathématiques existent dans quelque monde
platonicien qui leur soit propre ; il est cependant tout à fait évident qu’elles n’existent pas sur terre, c’est-
à-dire dans l’univers objectif. Il en va de même, on s’en aperçoit, pour les objets physiques : eux non plus
n’existent pas objectivement, comme Eddington l’a démontré tout au long de ses réflexions
épistémologiques. Cette conclusion était prévisible : l’absence manifeste de transcendance des objets
physiques constitue bien un signe de subjectivité. Rien de ce qui est « fermé », de ce qui est strictement
fini ou rigoureusement circonscrit, ne peut exister objectivement. Je l’ai dit, la transcendance est le
véritable sceau de la réalité. Ici aussi, « l’exactitude est une imposture ».
Si les choses physiques, se demandera-t-on alors, n’existent pas objectivement, en quel sens existent-
elles ? Devons-nous supposer qu’elles n’existent que « dans l’esprit du physicien » ? Se pourrait-il que ce
soit la seconde table d’Eddington, la table physique, qui réside dans les profondeurs de la conscience ?
Certainement pas ! En tant qu’entités « partiellement subjectives », les objets physiques doivent occuper
un espace intermédiaire, que l’économie de la mesure doit spécifier. Lord Kelvin avait raison : la physique
est la science de la mesure. Il faut seulement comprendre que la mesure n’est pas en vérité la découverte
de quelque chose qui existe déjà — comme on l’imaginait à son époque –, mais constitue un acte de
création : mesurer, c’est déterminer, imposer des limites. Il faut d’ailleurs remarquer que cet acte de la
mesure s’accomplit toujours au moyen d’un instrument corporel, et que la conséquence ou le résultat est
toujours enregistré par l’instrument de mesure comme quelque chose de perceptible, par exemple par la
position d’une aiguille sur un cadran.
Qu’est-ce alors que le physique ? Posée de cette façon, la question trouve sa réponse immédiatement : le
physique est justement le mesurable. Que pourrait-il être d’autre, si on voit que ce n’est ni l’instrument de
mesure ni le résultat de la mesure ! Mais qu’est-ce que le mesurable ? Par exemple une particule ? Il ne
pourrait certainement pas être une particule « classique », parce qu’une telle particule est entièrement
déterminée et donc non mesurable : il ne faut pas oublier que la mesure impose des limites. Le mesurable
doit donc être indéterminé, et cependant capable de recevoir une détermination. Non pas « complètement
indéterminé », évidemment : cette notion serait aussi chimérique que celle d’une particule classique, qui
est son contraire logique. Le mesurable doit donc se situer entre ces deux extrêmes. Quoique sous
certains rapports il nous rappelle les potentiae d’Aristote, il est plus que cela ; car le mesurable au sens
de la physique comporte une certaine tendance, qui peut se concevoir en termes mathématiques : très
exactement ce qu’on appelle une probabilité. C’est cela, le mesurable : une probabilité. C’est grâce aux
probabilités que la Nature se révèle plus intelligente que notre logique dualiste de « l’être » et du « néant
» : car une probabilité n’est réellement ni l’un ni l’autre, mais occupe un espace intermédiaire.
La notion est philosophiquement difficile, et même Eddington semble hésiter sur la définition de ces
probabilités. Il écrit par exemple : « L’introduction de la probabilité dans les théories physiques insiste sur
le fait qu’il s’agit de la connaissance. Car la probabilité est un attribut de notre connaissance d’un
événement; elle n’appartient pas à l’événement lui-même, qui doit immanquablement avoir lieu ou non »
(p. 50). Pourtant, si la probabilité est bien un attribut de notre connaissance, elle devrait nous dire
quelque chose sur l’objet ou le système qu’elle nous fait connaître. Selon la théorie des quanta, les
probabilités sont tout ce que nous connaissons du monde physique52. Comme le fait remarquer
Eddington : « La mécanique ondulatoire étudie la manière dont la probabilité se redistribue elle-même
dans l’écoulement du temps ; elle l’analyse en ondes et détermine leurs lois de propagation » (p. 51). On
commence à croire que ces ondes sont réelles ! Mais Eddington ajoute presque immédiatement qu’« un
accroissement soudain de connaissance – notre prise de conscience d’une nouvelle observation – est une
discontinuité dans le “monde” ondulatoire de la probabilité », suggérant de nouveau que ces ondes de
probabilité n’appartiennent qu’à notre connaissance – comme si elles n’appartenaient pas aussi, et par là
même, au monde physique. Il faut d’ailleurs comprendre que cette discontinuité ne provient pas
simplement d’un « accroissement de connaissance – notre prise de conscience d’une nouvelle observation
» –, mais de cette nouvelle observation elle-même, que nous en soyons conscient ou non. Ce qui importe
est l’interaction de l’instrument de mesure avec le système physique qu’il mesure : c’est cela qui cause la
réduction de la fonction d’onde. Quelque quarante pages plus loin, cependant, Eddington adopte enfin au
sujet des probabilités une interprétation d’un réalisme sans équivoque : « Je dois encore persévérer dans
la question “Qu’est-ce que nous observons réellement ?” écrit-il. La théorie de la relativité n’a fourni
qu’une seule réponse – nous n’observons que des relations,. La théorie des quanta fournit une autre
réponse – nous n’observons que des probabilités » (p. 80). Nous y sommes : ce que nous « observons
réellement » ce sont des probabilités. Le fait que la théorie de la relativité donne une réponse différente
n’y change rien : Eddington accepte clairement la théorie des quanta comme la plus exacte des deux et
comme la plus fondamentale. Nous conservons donc cette conclusion : les probabilités sont « ce que nous
observons réellement ».
Mais s’il existe vraiment des probabilités, il doit aussi y avoir des choses qui ne sont pas des
probabilités ; une probabilité est après tout la probabilité de quelque chose qui n’en est pas une. Outre les
probabilités, il y a donc aussi des événements « qui doivent immanquablement avoir lieu ou non » pour
reprendre les termes d’Eddington. Une distinction doit alors être établie entre deux sortes de faits ;
comme il l’explique : « On considère habituellement la probabilité comme l’antithèse du fait ; on dit “Ce
n’est qu’une probabilité, il ne faut pas la prendre pour un fait”. Ce qu’on entend par là, c’est que le
résultat d’une observation, quoiqu’il soit sans aucun doute un fait lui-même, n’est scientifiquement valable
que parce qu’il nous fournit une information sur la probabilité de quelque autre fait. Ces faits secondaires,
qui ne nous sont connus que par les probabilités, forment le matériau même des généralisations de la
physique » (p. 89).
On ne manquera pas d’observer que, dans ce passage quelque peu obscur, la distinction entre les
domaines corporel et physique reste cachée. Eddington fait allusion à deux espèces de faits : le résultat
d’une observation, et les « faits secondaires, qui ne nous sont connus que par les probabilités » qui «
forment le matériau même des généralisations de la physique ». Or le résultat d’une mesure, on l’a vu, est
obtenu grâce au fait qu’un instrument corporel est perceptible : il est un fait « corporel », de l’espèce que
ne sont pas les probabilités. D’autre part, les « faits secondaires » se rapportent évidemment au domaine
physique, le domaine dans lequel les faits sont des probabilités, ou « ne nous sont connus que par les
probabilités », ce qui revient au même.
La découverte que « nous n’observons que des probabilités » se révèle fondamentale ; et j’aimerais faire
remarquer que l’approche EPI de Frieden la conforte considérablement. Le vecteur de l’information de
Fisher n’est après tout rien d’autre qu’une distribution de probabilités. Il y a une distribution de
probabilités intrantes53 qui correspond à l’information « liée » J, et une distribution de probabilités
acquises, qui correspond à I, grâce à quoi la valeur mesurée est échantillonnée ; c’est ici que la
probabilité se réduit, pour ainsi dire, au fait (fait de la première espèce dans l’énumération d’Eddington).
Jusqu’à ce point final – qui est d’ailleurs impénétrable à l’analyse mathématique –, le processus de mesure
travaille avec les probabilités : « Les éléments de base de la théorie EPI, écrit Frieden, sont des
amplitudes de probabilités »54. Ce qui se passe dans la mesure est une transmission de probabilités, qui
provoque une transmission correspondante d’information Fisher de J à I; et c’est la découverte capitale de
Frieden que ce processus même détermine la physique du phénomène mesuré sous la forme d’une loi de
production. Comme il l’explique : « EPI considère toute équation de ce genre comme décrivant une sorte
de “mécanique quantique” pour le phénomène particulier »55. Ceci est vrai même quand on dérive des
résultats apparemment « non-quantiques » par l’intermédiaire d’EPI : le quadri-potentiel
électromagnétique classique, par exemple, peut maintenant être considéré comme une amplitude de
probabilités pour les photons ; ou encore : le tenseur métrique de gravitation dans la théorie générale
d’Einstein devient une amplitude de probabilités pour ce qu’on appelle les gravitons. Selon EPI, toute la
physique est une théorie quantique ; comment pourrait-il en être autrement si « nous n’observons que des
probabilités » ?
Nous ne devons pas négliger ici une question capitale : si les probabilités sont ce que nous observons
réellement, elles doivent être au moins « partiellement objectives » ; mais alors, s’il est vrai que la
transcendance est le sceau de l’objectivité, ne doivent-elles pas révéler cette objectivité partielle avec
quelque empreinte de la transcendance ? Mais comment cela peut-il être, étant donné qu’elles sont
rigoureusement spécifiées ? Comment une chose définie mathématiquement peut-elle révéler une telle
empreinte ? Ici encore la Nature trouve le moyen d’être plus intelligente que notre petite logique : les
probabilités de la physique manifestent la transcendance précisément quand elles se réduisent à un fait
objectif ; c’est à ce moment que, tout à fait à l’improviste, elles révèlent pour ainsi dire leur aspect
objectif en violant l’équation ondulatoire de Schrödinger à laquelle elles s’étaient jusque-là strictement
soumises56. Dans un « clin d’oeil de transcendance », si l’on peut dire, elles annoncent leur objectivité
partielle – et pourtant, en même temps, aussi leur subjectivité partielle : car la formulation elle-même
s’énonce non au niveau physique des probabilités, mais au niveau du fait corporel, dans un état
perceptible d’un instrument corporel. Tout le mystère du physique se révèle d’une certaine façon dans le
phénomène de la réduction de la fonction d’onde : on ne s’étonnera pas que ce phénomène ait été pesé et
débattu depuis plus de soixante-dix ans ! Ni qu’il continue à déconcerter le physicien, car il arrive que les
probabilités annoncent leur objectivité précisément en violant les équations mathématiques. Dans l’éclat
momentané d’un refus d’obéissance, pourrait-on dire, elles se sont avérées être plus qu’une abstraction
mathématique, plus qu’un ens rationis, plus qu’une simple empreinte du « filet ». Par leur rupture
momentanée de l’« exactitude », les probabilités de la physique attestent qu’elles ne sont pas des
impostures.
Il nous faut une dernière fois retourner aux « deux tables » d’Eddington pour voir enfin où se situe le
problème. Nous avons adopté la position pré-cartésienne et, en fait, « normale », qui affirme que la table
perçue se situe, non « dans la conscience », mais dans le monde extérieur : nous soutenons que c’est la
table réelle, la seule et unique table qui existe objectivement. Mais quelle est alors la place de la table
physique, celle qui est composée d’atomes ou de particules ? Nous avons rejeté l’idée que ces deux tables
aient simplement interchangé leurs places, de sorte que c’est maintenant la table moléculaire au lieu de la
table perçue qui est reléguée dans le domaine de la conscience. Mais après le rejet de cette alternative, il
apparaît maintenant que les deux tables se situent dans le monde extérieur : comment cela est-il
possible ? Peut-on par exemple penser que la deuxième est une sorte de double fantomatique qui pénètre
imperceptiblement dans le corporel ? Ce serait un « embellissement qui équivaudrait à matérialiser le
physique. Peu importe à quel point nous nous représentons le « fantôme » diaphane ou éthéré, il demeure
obligatoirement une chose corporelle ; mais les « choses physiques » ne sont ni corporelles, ni, à
strictement parler, des « choses » : le fait qu’on les décrive en termes de probabilités devrait suffire à le
démontrer avec évidence. L’idée du « double fantomatique » doit donc être rejetée.
Ce qui existe objectivement, on l’a dit, c’est la table corporelle X. La table physique SX appartient, elle,
à notre connaissance de X : plus exactement à notre connaissance physique. Telle quelle, SX est
partiellement objective, parce qu’elle se rapporte à X, et partiellement subjective parce que SX n’est pas X
– autrement dit n’est pas la table objectivement existante, celle sur laquelle on peut réellement écrire. Le
physicien observe X à travers des « lunettes » qui d’une part empêchent sa forme substantielle et ses
qualités accidentelles de passer, tandis que, d’autre part, elle met au premier plan quelque chose qui est
caché dans la nature de X, quelque chose qui appartient à cette « immensité cachée » à la quelle j’ai fait
allusion plus haut. Quel est ce quelque chose ? Une propriété de X ? On pourrait le dire, à condition de ne
pas oublier que cette propriété se réfère à la manière dont X répond à l’interrogation physique. On peut
ainsi concevoir la table physique SX comme un modèle qui nous permet de prédire le résultat statistique
des mesures faites sur X. On pourrait par exemple bombarder X avec un courant de particules et observer
sa réponse : elle aura la forme d’une émission de radiations ; c’est SX qui nous dit ce à quoi on peut
s’attendre. Il doit évidemment y avoir quelque chose dans la nature de X qui justifie SX en tant que
modèle réalisable, à défaut de quoi SX manquerait d’objectivité, manquerait de vérité ; mais le fait
demeure que ce qui existe objectivement n’est pas SX, mais X. Il se peut bien que le modèle moléculaire
exprime tout ce qui est « physiquement pertinent » dans X ; il n’est pourtant qu’un modèle, une
représentation abstraite et hautement sélective. Contrairement à ce qu’enseignent les écoles et les
universités, les tables réelles ne sont pas « faites de molécules ».
Il nous reste la question de savoir où placer les probabilités physiques. Elles ne peuvent être assignées
à un modèle ou à une représentation, puisqu’elles sont « ce que nous observons réellement ». Mais elles
ne peuvent pas non plus être assignées, nous l’avons vu, à l’univers objectif, qui n’est autre que le
corporel. Comme Eddington le fait remarquer, les probabilités de la physique sont réellement des faits :
mais des faits « de la seconde espèce ». Qui, eux, sont partiellement subjectifs dans la mesure où on ne
peut les séparer de l’économie de mesure : ce sont des faits de « l’univers participatif », pour reprendre
l’heureuse expression de John Wheeler57. On s’aperçoit alors que toute l’entreprise de la physique a fait
apparaître un domaine intermédiaire, une nouvelle strate, ou, si l’on préfère, un nouveau substrat de la
réalité. Le physicien n’est plus un simple observateur, mais un créateur de réalités secondes : on pourrait
presque dire qu’il observe en créant. Il ne crée cependant pas ex nihilo, et sa création n’existe pas par
elle-même. On peut la voir comme la réponse du monde corporel aux questions que pose le physicien
expérimental. Le monde corporel répond – on peut presque dire qu’il nous parle –, mais il nous
communique sa réponse dans le langage des probabilités. Les « mots » prononcés par les natures
corporelles en réponse à l’intervention du physicien sont les probabilités. Elles se situent ainsi à mi-
chemin entre l’être et le néant, tant il est vrai que même la Nature ne peut créer.

Contrairement à la croyance populaire, l’univers physique ne tient pas par lui-même, mais constitue une
réalité seconde et participative, comme certains des grands physiciens sont arrivés à le comprendre. Ce
qu’en règle générale ils échouent à reconnaître, c’est que la réalité première est littéralement là, sous nos
yeux : que tout homme, femme ou enfant normalement conformé a accès à cette réalité première grâce
aux instruments de perception que Dieu lui a donnés. Il faut reconnaître que nous faisons habituellement
un pauvre usage de ces instruments, et que nos perceptions ont tendance à être superficielles et bâclées.
Mais il n’en reste pas moins que même ainsi nous percevons le réel : les choses premières elles-mêmes.58
CHAPITRE IV

LE THÉORÈME DE BELL ET L’ONTOLOGIE PÉRENNE


Je me propose d’examiner ici la notion de mécanique quantique de non-localité à la lumière de
l’ontologie pérenne. Ce chapitre se base sur une conférence, faite en 1988, où, peut-être pour la première
fois, était traité un aspect du problème de la réalité quantique d’un point de vue métaphysique
traditionnel.
Je rappellerai d’abord certains faits quantiques bien connus qui sont apparus dans la perspective
scientifique vers le tournant du siècle, exactement au moment où la physique victorieuse semblait cerner
de plus en plus les atomes, dont on supposait depuis longtemps l’existence, et les particules
fondamentales dont ils ont révélé qu’ils étaient composés. Ce qui s’est passé à ce moment décisif est, si
l’on peut dire, que le gibier nous a mystérieusement échappé. Car en fait, à la lumière d’un examen
expérimental rigoureux, ces soi-disant particules fondamentales ont présenté un aspect ondulatoire dont
on ne s’était pas douté jusque-là, ce qui impliquait tout d’abord qu’elles n’étaient pas, à strictement
parler, des particules. La réalité sous-jacente se trouva par conséquent être une inconnue, un X, qui peut
simplement, dans des conditions appropriées, présenter des caractéristiques à la fois de particules et
d’ondes, et qui ne peut donc être conçu selon aucun des deux termes. Ce qu’est à proprement parler cet
X, personne ne le sait ; le gibier, je l’ai dit, nous a entièrement échappé.
Ce qu’on observe en réalité – ce qui s’enregistre sur nos instruments de détection sous forme de trace
de condensation, ou d’éclair de lumière sur un écran de phosphore, ou encore de tache noire sur une
plaque photographique –, c’est l’aspect de particule, ou la particule même, comme nous continuons à le
dire. L’aspect ondulatoire, par contre, se manifeste indirectement dans les lois statistiques qui gouvernent
le comportement observable des dites particules. Par exemple, si un faisceau d’électrons est dirigé à
travers une petite ouverture ronde, ce qui apparaît sur l’écran de phosphore ou la plaque photographique
est une structure de bandes concentriques (ressemblant à une cible de tir à l’arc). Or ceci n’est rien
d’autre que ce qu’on appelle le modèle Airy, ainsi nommé d’après l’astronome britannique George Biddel
Airy, qui démontra, en 1835 déjà, qu’on peut expliquer mathématiquement ces bandes concentriques en
termes de diffraction et d’interférence d’une onde qui se répercute. Ainsi, dans la distribution statistique
des rencontres d’électrons individuels avec l’écran ou la plaque, le faisceau d’électrons se comporte
comme une onde. Étrangement, d’ailleurs, on obtient exactement la même distribution Airy, que les
électrons passent par l’ouverture en grand nombre ou de façon clairsemée, disons un par un. Un seul
électron a donc l’aspect en même temps d’une onde et d’une particule. Et si l’aspect de particule suggère
que l’X en question est isolé et localisé, l’aspect ondulatoire suggère, lui, qu’il doit être continu et plus ou
moins répandu dans l’espace entier de l’expérimentation.
Tels sont, en un mot, les faits quantiques qui ont hâté la fin brutale de l’époque newtonienne. Il est
rapidement devenu évident que le formalisme classique de la physique mathématique était
fondamentalement incapable d’affronter la phénoménologie du monde des quanta qui venait de naître ; et
en 1925, après un quart de siècle de chaos théorique, une théorie fondamentale nouvelle et radicalement
différente apparut enfin. Cette « théorie des quanta », comme on en est venu à l’appeler, a été un très
grand succès. Elle a été appliquée à d’innombrables problèmes et n’a encore jamais montré de faiblesse,
ni donné de réponse incorrecte. C’est une véritable merveille, un triomphe de la science.
Cette merveilleuse théorie pose cependant un problème majeur : par sa forme même, elle ne nous
donne aucune information – pas même un soupçon – sur la nature de la réalité physique en tant que telle.
Elle nous dit avec une précision admirable ce que nos instruments de détection enregistrent quand, par
exemple, une onde d’électrons est soumise à certaines conditions ; mais elle ne nous dit rien sur l’électron
lui-même. Par exemple, nous ne savons pas si l’électron possède ses caractéristiques dynamiques (telles
que la position ou la vitesse) avant d’être observé – si c’est alors ce que le physicien appelle un « objet
ordinaire » – ou si ces caractéristiques dynamiques sont plutôt « contextuelles » (ce qui signifierait
qu’elles n’existent que dans le contexte de telle mesure). C’est au fond la vieille devinette qui consiste à
savoir si les objets extérieurs existent quand il n’y a personne pour les percevoir – mais avec une entorse
très moderne, car en fait le problème est aujourd’hui de savoir s’il est vraiment possible de concevoir une
réalité quantique nouménale de façon qu’elle ne contredise pas ce que nous savons des phénomènes.
Voilà la question qui est au cœur du problème de la réalité quantique et sur lequel les physiciens se sont
très vivement opposés. En 1927 déjà, quand les poids lourds de la physique se sont réunis à Bruxelles
pour évaluer ce qu’il restait (s’il en restait quelque chose) de la Weltanschauung newtonienne, Niels Bohr
et Albert Einstein ont adopté des positions diamétralement contraires sur cette question qui, depuis lors,
a toujours polarisé le débat. Bohr disait que, quand on en arrive aux phénomènes quantiques, on doit se
contenter de l’espèce d’information pragmatique qu’offre la théorie des quanta. C’est le mieux qu’on
puisse faire, non parce que la théorie elle-même serait imparfaite ou incomplète (ce qu’Einstein
soutenait), mais parce qu’il n’y a en fait, derrière les phénomènes, aucune « réalité quantique profonde »
qui pourrait expliquer ce qui se passe. « Il n’y a pas de monde des quanta, disait Bohr, il n’y a qu’une
description quantique abstraite ».
Einstein, par contre, argumentait de toutes ses forces, qui étaient considérables, en faveur d’une
interprétation réaliste. Il y a un « monde des quanta », disait-il, une réalité profonde qui sous-tend les
phénomènes et, en dernière analyse, les explique : elle doit y être ! Il lui était impensable qu’une «
description quantique abstraite », que nulle réalité profonde ne soutenait, puisse mener à des prévisions
correctes – sinon par magie.
Il s’est avéré que la plupart des physiciens ont fini par rejoindre l’école de pensée de Bohr, connue sous
le nom d’interprétation de Copenhague de la théorie des quanta. En 1932, cinq ans après la réunion de
Bruxelles, il semblait vraiment que leurs prétentions étaient définitivement justifiées grâce aux travaux du
mathématicien hongrois John von Neumann. Von Neumann avait tout d’abord donné à la nouvelle théorie
une base mathématique solide, et avait ensuite prouvé avec une rigueur exemplaire que l’idée d’une
réalité physique consistant en « objets ordinaires » est mathématiquement impossible (c’est-à-dire
incompatible avec les prévisions de la théorie des quanta). Il parut alors évident aux yeux de tous, à
l’exception de quelques réalistes jusqu’au-boutistes – menés par l’irréductible Einstein – que la question
était désormais réglée.
En fait elle ne l’était pas. La position réaliste ressuscita, comme le phénix, en 1952, lorsque David Bohm
– après d’importantes discussions avec Einstein – réussit à construire un modèle objectif de l’électron qui
s’accordait avec les exigences de la théorie des quanta. Dans le sillage de la célèbre « preuve de von
Neumann », Bohm avait apparemment réussi l’impossible. Il devint clair alors qu’il devait y avoir une
lacune dans l’argument de von Neumann ; et pourtant le grand mathématicien avait si bien fait son travail
qu’il fallut douze ans pour la trouver ! L’énigme ne fut résolue qu’en 1964, quand un physicien jusque-là
inconnu, John Stewart Bell, découvrit que von Neumann avait involontairement émis une hypothèse, qui
ne se voyait et ne se justifiait pas, concernant les « objets ordinaires » que la théorie des quanta était
censée exclure. Ce que von Neumann avait admis – et que tout le monde jusque-là regardait comme
évident – était que les objets en question étaient des entités « locales ». Au fond, cela signifie qu’ils ne
sauraient communiquer les uns avec les autres que grâce à des forces physiques connues : grâce à des
signaux, par conséquent, qui ne peuvent pas se propager plus rapidement que la vitesse de la lumière. Il
apparut pourtant que Bohm avait réussi à contourner l’interdit de von Neumann précisément parce que
son modèle de l’électron n’obéissait pas à la condition stipulée de localité.
Mais ce résultat, cette découverte capitale et décisive, n’était qu’un début. En se basant sur les
principes fondamentaux de la théorie des quanta, Bell réussit à prouver que la réalité – qu’elle soit
ordinaire ou contextuelle ! – doit violer la condition de localité de von Neumann. Il montra finalement que
la condition de localité n’est pas seulement injustifiée, mais réellement insoutenable. En un mot, la réalité
n’est pas locale. Voilà l’étonnante découverte connue maintenant comme le théorème de Bell. Depuis lors,
il a été vérifié expérimentalement sur la base d’une inégalité (également découverte par Bell) qui,
toutefois, ne relève pas de la théorie des quanta ; le résultat apparaît donc solide comme le roc. Mais,
quoique la plupart des physiciens acceptent aujourd’hui le théorème de Bell comme parfaitement fondé,
certains sont encore sceptiques et n’ont pas ménagé leurs efforts pour en contrecarrer la conclusion. Un
examen aussi exceptionnellement minutieux n’est d’ailleurs pas sans motif, compte tenu des implications
capitales de l’affirmation de Bell. Correctement comprise, cette affirmation de non-localité révolutionne
notre vision du monde. Et ce n’est pas sans raison que le physicien de Berkeley Henry Stapp définit ce
théorème comme « la plus profonde découverte de la science »59.
Ce qui justifie une telle définition est le fait que la conclusion du théorème vise, au-delà de l’univers
spatio-temporel, le domaine où, à strictement parler, la physique est confinée par la nature même de son
modus operandi. Le fait stupéfiant est que, sous la forme du théorème de Bell, la physique a avoué sa
propre limitation, sa propre incapacité à traiter des niveaux plus profonds de la réalité cosmique. Ayant,
pendant des siècles, prétendu atteindre l’univers objectif dans son intégralité, la physique a maintenant
été contrainte d’abandonner sa prétention totalitaire.
En réalité, le désaveu du groupe de Copenhague revient au même ; les dés, peut-on dire
rétrospectivement, en ont été jetés au moment de la découverte de la mécanique quantique. Bell a
simplement isolé et révélé une caractéristique fondamentale de la théorie des quanta qui avait, dès le
départ, requis les physiciens : l’existence, et en fait l’ubiquité, de ce qu’on appelle actuellement les
connexions non-locales. C’est ce qu’Einstein avait remarqué il y a longtemps, et considéré comme une
erreur fatale de la nouvelle physique. Cette apparente erreur apparaît cependant maintenant comme une
découverte de première importance, une vérité profonde du domaine quantique et qui lui appartient en
propre. C’est d’ailleurs grâce à l’intuition d’Einstein que l’on peut saisir les implications radicales de la
nouvelle découverte ; c’est en effet précisément à la lumière de la relativité einsteinienne que l’on peut
discerner la nature trans-spatio-temporelle de la non-localité. Il est manifeste que la mise en cause par
Einstein de la théorie des quanta était en partie fondée sur sa perception de l’espace-temps comme le lieu
intégral de la réalité cosmique.
Cette hypothèse « classique » a maintenant été annulée par le théorème de Bell ; je le répète, la
physique a par là reconnu ses propres limites, sa propre incapacité à traiter des niveaux plus profonds de
la réalité cosmique. On le voit, il manque à la physique en tant que telle à la fois les outils intellectuels et
les données exigées pour cette tâche proprement ontologique. Son domaine s’est ainsi rétréci, pour ainsi
dire, de l’univers comme tel à une simple classe de phénomènes. Comme l’a dit un physicien
exceptionnellement clairvoyant et direct : « L’un des secrets les mieux gardés de la science est que les
physiciens ont perdu leur emprise sur la réalité ».60
Ce qui est exigé si l’on veut « avoir prise sur la réalité », ce sont certaines conceptions et intuitions qui
appartiennent à la sagesse métaphysique traditionnelle de l’humanité, que j’aimerais maintenant exposer.
Je prendrai comme point de départ le verset qui ouvre la Genèse : In principio creavit Deus caelum et
terram. Il faut tout d’abord clairement comprendre que le « commencement » où Dieu est dit avoir créé le
monde ne doit pas se concevoir en termes de temps. Ce n’est définitivement pas « un moment du temps
» ; car, comme l’a fait remarquer S. Augustin, « il est hors de doute que le monde n’a pas été créé dans le
temps, mais avec le temps »61. Ce qui nous frappe ensuite est la seconde moitié du verset : ce que Dieu
crée est « le ciel et la terre » – non pas une chose mais, pour ainsi dire, deux. On peut dire que le « ciel »
et la « terre » de ce passage de la Genèse se réfèrent respectivement aux pôles spirituel et matériel de la
création, ou, plus concrètement, à un domaine spirituel et à un domaine corporel. L’essentiel, de toute
façon, n’est pas que Dieu ait créé deux mondes séparés — céleste l’un et terrestre l’autre –, mais que le
cosmos intégral comporte deux pôles ou parties. Après tout, si le « ciel » et la « terre » ont été amenés à
l’existence dans un seul et même acte créateur (comme l’affirme le verset biblique), il revient à la raison
de voir qu’en dépit de leur disjonction ontologique, ils doivent se combiner de façon à constituer une seule
création, un seul tout organique.
Parvenu à ce point, cependant, nous devons profiter d’une autre intuition fondamentale : il doit aussi y
avoir un principe ou domaine intermédiaire – une metaxu 62 au sens platonicien –, car, comme Platon a
peut-être été le premier à le voir, « avec deux éléments seuls faire une belle composition, sans un
troisième, c’est impossible »63. Et, de même, S. Thomas déclare : « On voit que l’ordre de la réalité est tel
qu’il est impossible d’en atteindre une extrémité à partir de l’autre sans passer par le milieu ». Il en
ressort donc que le cosmos dans son intégralité doit comprendre au moins trois niveaux ou degrés
ontologiques : le spirituel, le corporel, et l’intermédiaire. Il faut alors concevoir la création comme une
hiérarchie composée de trois niveaux principaux. La structure tout entière peut être figurée
symboliquement de la manière la plus précise sous la forme d’un cercle dont le centre (ou, si on veut, un
disque central) représente le monde spirituel, la circonférence l’univers corporel ou « visible », et la zone
intermédiaire la metaxu. J’ajoute que toutes les grandes civilisations connaissaient ce cercle symbolique –
la véritable icône de la cosmologia perennis. La grande exception, évidemment, est notre propre
civilisation – cette civilisation profane postmédiévale, que domine intellectuellement une science qui a
réduit le cosmos à son plan inférieur.
Ayant reconnu la division tripartite du cosmos intégral, il nous faut maintenant nous demander ce qui
différencie réellement le plan intermédiaire du plan corporel. La réponse à cette question est tout à fait
simple, au moins en principe : ce qui distingue le domaine corporel de l’intermédiaire est le fait que le
premier est soumis à certaines conditions quantitatives dont le second est exempt. Ces limites constituent
d’ailleurs les déterminations de base qui nous permettent de parler d’espace, de temps et de matière (ou
d’énergie) en un sens quantitatif précis. Imaginons une étendue d’eau illimitée, et supposons qu’un pot,
d’une certaine dimension et d’une certaine forme, y soit immergé. Il est évident que le récipient divise ce
qui auparavant était indivis, et introduit des déterminations quantitatives là où auparavant il n’y en avait
aucune. Nous avons ici un modèle simple, un paradigme si on veut, qui nous permet de comprendre, en
premier lieu, que la réalité substantielle est une et la même sur les deux plans ontologiques : l’eau, après
tout, ne cesse pas d’être de l’eau quand on la verse dans un pot. En clair, le « récipient » n’affecte pas la
substance ; il ne fait que créer certaines caractéristiques quantitatives - des accidents au sens
aristotélicien.
Or il est nécessaire de comprendre clairement que les déterminations primaires qui caractérisent le
plan corporel de l’existence ne sont, en aucune façon, subjectives, ou faites de main d’homme, mais
dérivent très exactement du Fiat de Dieu. Elles ont été imposées, en un sens figuré, par le Créateur et
Architecte de l’univers « quand Il traçait un cercle à la surface de l’abîme » comme le dit magnifiquement
le Livre des Proverbes (VIII, 27). Nous n’avons pas à nous préoccuper de la question de savoir comment,
basés sur les déterminations primaires ou divines, les modi operandi de la physique peuvent faire
apparaître des déterminations quantitatives secondaires, qui, elles, peuvent alors se décrire en termes
mathématiques. Il nous suffit de dire que les déterminations quantitatives qui constituent l’objet immédiat
de la physique moderne se rapportent en dernier ressort aux limitations cosmiques primaires qui
déterminent ou définissent le plan corporel de l’existence. De cette façon, selon les termes de notre
métaphore ontologique, on peut dire que la physique traite du contenant en tant qu’il est opposé au
contenu : de la dimension et de la forme du récipient, mais qu’elle ne peut rien nous dire sur la nature de
l’eau qui y est contenue.
Il faut se rappeler que l’espace, le temps et la matière (au sens habituel) n’existent que sur le plan
corporel ; en effet, comme nous venons de le voir, ils sont justement les catégories dans les termes
desquelles se définit l’existence corporelle en tant que telle. Ceci dit, il y a sans aucun doute un sens
auquel, également dans le domaine intermédiaire, s’appliquent les notions d’espace, de temps et de
matière ; mais l’essentiel est que ces modes supérieurs d’espace, de temps et de matière ne sont pas
soumis aux limitations ordinaires, et sont par conséquent très difficiles à concevoir. En comparaison du
domaine corporel, le monde intermédiaire est « non obstrué » d’une façon qui défie réellement nos
moyens habituels de compréhension.
Nous sommes maintenant en mesure de revenir à la problématique de la théorie des quanta. « Tout ce
que nous savons de la Nature, écrit Henry Stapp, s’accorde avec l’idée que son processus fondamental est
à l’extérieur de l’espace-temps, mais engendre des événements qui peuvent être localisés dans l’espace-
temps »64. On est alors contraint de se demander si l’on peut affirmer que « le processus fondamental de
la Nature », qui se révèle comme n’étant pas soumis aux limitations ordinaires de l’espace et du temps, se
situe sur le plan intermédiaire. Dès lors, peut-on dire que la physique, à son niveau le plus fondamental, a
d’une certaine façon redécouvert le monde intermédiaire ? On voit que oui, « d’une certaine façon », mais
non, évidemment, au sens d’une découverte ou d’un théorème qui pourraient être formulés au niveau de
la physique elle-même. Ce que la physique peut prouver, et ce qu’elle a véritablement établi, sans aucun
doute raisonnable, c’est que la réalité extérieure, et donc le cosmos comme tel, ne peut pas être confinée
dans les limites de l’espace-temps einsteinien, car, si elle pouvait l’être, elle satisferait à la condition
einsteinienne de localité, à laquelle en fait elle n’est pas soumise. Voilà tout ce que la physique en tant que
telle peut dire ; et remarquons qu’ainsi elle renonce à son ancienne prétention de comprendre la réalité,
car il est clair qu’une réalité qui n’est pas soumise aux limitations de l’espace et du temps se trouve ipso
facto au-delà de la saisie de la physique théorique. Il est donc vrai que les physiciens « ont perdu leur
emprise sur la réalité » ; il faut seulement ajouter aussitôt qu’en réalité ils n’ont jamais eu une telle «
emprise ». Ce dont s’occupe la physique, en fin de compte, ce n’est pas le « contenu », mais le « contenant
», pour l’exprimer dans les termes de notre métaphore.
Il est nécessaire, maintenant, de considérer tout cela d’un point de vue supérieur : le point de vue
ontologique traditionnel. Nous nous sommes demandé si la mécanique quantique avait « d’une certaine
manière redécouvert le monde intermédiaire » ; or la question même est réellement absurde d’un point de
vue strictement scientifique. Du point de vue ontologique, par contre, la question est non seulement
pleine de sens, mais il est parfaitement possible d’y répondre par l’affirmative : parler d’une réalité
cosmique au-delà des limites de l’espace et du temps – d’un « processus de la Nature » en dehors de
l’espace-temps –, c’est situer de la façon la plus sûre cette réalité, ce « processus de la Nature », sur le
plan intermédiaire65. Ce qui valide l’inférence est simplement le fait que les choses du monde spatio-
temporel ne sont en réalité rien d’autre que celles du plan intermédiaire soumises aux limitations spatio-
temporelles ; si on retire ces limitations, ce qui reste est une chose du plan intermédiaire. Et je mentionne
en passant que la transition du premier au second de ces deux plans est ce que signifie l’alchimique solve,
de même que la transition inverse est ce que signifie le terme complémentaire de coagula : comme la
réalité elle-même, les opérations alchimiques ne s’intègrent pas dans la strate spatio-temporelle de
l’univers. La conséquence en est alors celle-ci : quoi que le physicien quantique puisse penser, il a en fait
redécouvert le monde intermédiaire.
La question subsiste de savoir ce que le physicien pense de la non-localité. Or de toute évidence, la
plupart des physiciens n’en « pensent » rien du tout : ils acceptent tout simplement les faits quantiques et
retournent à leurs affaires. On sait très bien, d’ailleurs, ce que sont ces affaires : leur objet est de
découvrir des faits nouveaux de la même espèce générique, puis de faire entrer autant que possible toutes
ces découvertes dans une même structure mathématique. La question de « l’être », de l’ontologie - de la
Weltanschauung, pour l’appeler par son nom – ne se pose pas du tout ; seule une petite minorité de
physiciens, semble-t-il, s’est attaquée à ces questions profondes avec sérieux. Ce sont les théoriciens de la
réalité des quanta ; il faut cependant ajouter que, quoique leur nombre soit réduit, ils comprennent dans
leurs rangs la plupart des grands fondateurs, des hommes de la stature de Bohr, d’Einstein et de
Heisenberg, de Schrödinger et de Planck. J’ai déjà fait allusion au fait que Bohr et Einstein avaient adopté
des positions opposées, et que la plupart des théoriciens de la réalité des quanta s’étaient finalement
rangés du côté de Bohr. La majorité en est ainsi venue à croire que la vision pré-quantique du monde, que
la plupart des physiciens avaient tacitement adoptée, devait maintenant être abandonnée ; c’est ainsi qu’a
débuté la recherche d’une nouvelle approche philosophique (Ansatz) qui rendrait compte des découvertes
paradoxales de la théorie des quanta. Une large variété de notions philosophiques ont été remises en
service depuis lors, y compris des idées réellement bizarres, telle que la fameuse hypothèse de la «
multiplicité des mondes » ; le résultat est pourtant que ces travaux n’ont jusqu’ici réussi qu’à rendre plus
exaspérante la confusion philosophique. À peu près tous les remèdes concevables semblent avoir été
essayés, à une seule exception près : aucun de ces scientifiques-philosophes ne s’est placé sur le terrain
de la métaphysique traditionnelle.
Il est nécessaire, je l’ai soutenu à plusieurs reprises, d’avoir les clefs spéculatives que seule la sagesse
pérenne peut fournir. Et ces clefs ne sont en fait rien d’autre que les principes de la cosmologie
traditionnelle, que j’ai brièvement énumérés dans l’Introduction. Dans les trois premiers chapitres, je me
suis essentiellement occupé du premier de ces principes, qui équivaut au principe de la non-bifurcation :
c’est l’application systématique de ce principe qui nous a conduit à la distinction ontologique entre les
domaines physique et corporel, et a rendu possible la réinterprétation de la physique elle-même. Dans ce
chapitre-ci, qui traite de la découverte par la mécanique quantique de la non-localité, j’ai appliqué le
deuxième principe cosmologique, qui se rapporte à la structure hiérarchique du cosmos intégral. La clef
de la compréhension de la non-localité doit être trouvée, on le voit, dans la distinction traditionnelle entre
les niveaux corporel et intermédiaire de la manifestation cosmique, donc entre les modes « grossier » et «
subtil » de l’être, le sthûla et le sûkshma, dans les termes du Védânta. Comme nous l’avons vu, le «
processus de la Nature » qui donne lieu aux phénomènes quantiques observables est « subtil » au sens
védantique du terme, et se situe ainsi, ontologiquement parlant, « au-dessus » du plan corporel.
Curieusement, la physique quantique, interprétée d’un point de vue métaphysique, distingue trois plans
ontologiques : en ordre ascendant, ce sont les plans physique, corporel et intermédiaire. Plus
précisément, la mécanique quantique affirme que la première discontinuité – ou le premier hiatus –,
ontologique, est dans le phénomène de la réduction du paquet d’ondes, et la seconde dans le phénomène
de la non-localité. Il n’est pas étonnant que ces phénomènes constituent les grandes énigmes de la théorie
des quanta ! On comprend qu’ils aient tous les deux, et depuis le début, embarrassé les physiciens ; car en
fait aucun des deux ne peut se comprendre à partir de la perspective physique elle-même. En se tenant,
pour ainsi dire sur le plan corporel, le physicien regarde « en bas » dans la direction du plan physique :
loin du centre ontologique, pôle de « l’être » et de « l’essence », vers la périphérie la plus extérieure du
cosmos intégral, la materia secunda ou « contenant » de notre univers. Dans cette perspective, il ne peut
pas voir le plan corporel, et moins encore le plan intermédiaire, situé « au-dessus » du corporel. Pour
parvenir à une compréhension de ce que la théorie quantique elle-même a exposé, il lui faut se soumettre
à ce qui est en fait une conversion intellectuelle, une métanoïa : une révolution à cent quatre-vingts
degrés, si l’on peut dire. Cependant le fait demeure que la mécanique quantique a, « à sa manière »,
redécouvert le domaine intermédiaire. Huston Smith remarquait un jour que l’Occident moderne est la
première société à voir le monde corporel comme un système clos ; cette erreur a maintenant été corrigée
grâce à la physique elle-même.

J’aimerais, pour finir, souligner que la conclusion ontologique à laquelle nous sommes parvenu, a des
implications décisives sur le débat évolutionniste. Ce qu’ont échoué à saisir à la fois les darwiniens et la
plupart des créationnistes est que l’univers corporel dans son intégralité ne constitue rien de plus que la
coquille extérieure du cosmos intégral, et que le mystère des origines doit être résolu non à la périphérie,
mais au centre même du cercle cosmique. Aussi longtemps qu’on pense que l’origine d’une plante ou d’un
animal peut se concevoir comme un événement spatio-temporel, on a totalement manqué son but. En un
mot, tous les êtres corporels ont nécessairement une double naissance : une naissance pré-temporelle,
tout d’abord, dans l’Acte créateur divin, et une naissance temporelle qui marque leur entrée dans le
domaine corporel. Or ce que la première naissance amène à l’être est ce que les Pères latins ont appelé la
ratio séminale et les Pères grecs le logos spermatikos, qui n’est cependant pas une entité corporelle – ce
n’est pas une semence au sens biologique –, mais une semence spirituelle. Métaphoriquement, cette
graine est semée dans le centre spirituel, incubée dans le domaine intermédiaire, et amenée à la
manifestation dans le corporel. À un certain moment elle surgit pour ainsi dire dans l’espace-temps et
devient perceptible ; et cet événement constitue sa seconde naissance, sa naissance au sens ordinaire.
On remarquera que cette conception d’une double naissance est biblique. Elle est clairement impliquée
dans les versets 4 et 5 du chapitre II de la Genèse ; le passage (qui, il va sans dire, est généralement mal
interprété par les exégètes modernes) peut se traduire ainsi : « Telles sont les générations du ciel et de la
terre, quand elles furent créées le jour où le Seigneur Dieu fit les cieux et la terre, et chaque plante des
champs avant qu’elle surgisse sur la terre, et chaque herbe des prés avant qu’elle croisse ». Or la
première chose à observer est que l’auteur inspiré parle du « jour où le Seigneur Dieu fit » – non
seulement les cieux et la terre –, mais « chaque plante des champs avant qu’elle surgisse sur la terre, et
chaque herbe des prés avant qu’elle croisse » – ce qui semble contredire la doctrine des six jours de
Genèse I : c’est-à-dire l’idée que Dieu a créé tout d’abord les cieux et la terre, puis successivement
d’autres choses, en six étapes ou « jours ». C’est qu’en fait la perspective a brusquement changé : elle est
tout à coup devenue supratemporelle, c’est-à-dire métaphysique. On rencontre ce même point de vue «
ésotérique » à divers endroits aussi bien dans l’Ancien Testament que dans le Nouveau ; par exemple dans
ce verset magnifique de l’Ecclésiastique : Qui vivit in aeternum creavit omnia simul (« Celui qui vit dans
l’éternité a créé toutes choses en même temps »). Là est la clef : tout sans exception est amené à l’être
dans le seul instant de l’Acte créateur, ce à quoi notre texte de la Genèse se réfère comme « le jour où le
Seigneur Dieu créa les cieux et la terre, et chaque plante des champs avant qu’elle surgisse sur la terre ».
D’ailleurs, surgir sur la terre – faire saillie pour ainsi dire au-dessus du sol et devenir visible – se rapporte
clairement à la seconde naissance, la naissance corporelle dans l’espace et le temps.
Voilà, en quelques mots, la doctrine biblique de la biogénèse. À la différence du « créationnisme »
habituel, elle ouvre des perspectives ontologiques dont l’évolutionniste ne se doute pas, et nous permet
d’examiner le débat sur l’évolution avec l’avantage d’un point de vue plus élevé. On voit maintenant d’un
seul coup d’œil que le transformisme darwinien n’est qu’une tentative brutale pour expliquer le mystère
des origines sur le plan corporel, là justement où il ne peut pas être résolu. Nous savons aujourd’hui, à la
lumière de la théorie des quanta, que même un électron ne saurait s’accommoder de ce monde vraiment
étroit – pour ne rien dire des plantes, des animaux et, surtout, de l’homme.
CHAPITRE V

LA CORPORÉITÉ CÉLESTE
Leiblichkeit ist das Ende der Werke Gottes66

Friedrich Christoph Oetinger

À la suite de notre réflexion approfondie portant sur le plan corporel, et plus brève sur le plan
intermédiaire, il nous faut maintenant considérer le troisième domaine cosmique, le plus haut, le monde
spirituel ou céleste. Je me propose d’examiner ce domaine ontologique dans sa modalité la plus inférieure,
celle qu’on peut, par analogie, appeler corporelle, et ainsi de réfléchir à la corporéité céleste. Mais ici
aussi, dans ce domaine apparemment plus que subtil, nous découvrirons finalement une relation tout à
fait réelle avec les découvertes de la physique contemporaine.
Le christianisme, on le sait, ne croit pas seulement à l’immortalité de l’âme humaine, mais aussi à ce
qu’il appelle la résurrection des corps. Les corps des défunts seront d’une certaine manière « ressuscités
» et, par là, transformés et glorifiés. « Voici un mystère que je vous révèle, dit S. Paul : nous ne mourrons
pas tous, mais tous nous serons changés, en un instant, en un clin d’œil, au son de la dernière trompette ;
car la trompette sonnera, et les morts ressusciteront incorruptibles, et nous serons changés. Il faut en
effet que ce corps corruptible revête l’incorruptibilité, et que ce corps mortel revête l’immortalité » (I
Corinthiens XV, 51-53).
Quelle que puisse être la perspective d’autres religions sur cette question, le chrétien ne cherche pas un
état posthume désincarné. « Car nous qui sommes dans ce tabernacle de notre corps, nous gémissons
comme sous un fardeau, parce que nous souhaitons, non d’être dépouillés, mais d’être revêtus, afin que
ce qu’il y a de mortel en nous soit absorbé par la vie » (II Cor., V, 4).
Ce miracle – cet impensable prodige –, le chrétien affirme qu’il a déjà eu lieu : dans la résurrection du
Christ, « le premier-né d’entre les morts » (Colossiens, I, 18). Le dogme de la résurrection des corps est
donc de toute évidence central dans le christianisme : « S’il n’y a pas de résurrection des morts, le Christ
n’est pas ressuscité [...] et si le Christ n’est pas ressuscité, votre foi est vaine » (I Cor., XV, 13 et 17).
Cette doctrine a été considérée comme « difficile » et comme une offense aux philosophes. Il est assez
aisé d’imaginer ou de concevoir un état désincarné ; mais autre chose est la résurrection des morts. Il
n’est pas étonnant que les érudits d’Athènes, incrédules, aient secoué la tête. « Et quand ils entendirent
parler de résurrection des morts, les uns se moquèrent, et d’autres dirent : Nous t’entendrons là-dessus
une autre fois. C’est ainsi que Paul se retira du milieu d’eux » (Actes, XVII, 32-33). Et la propagation de la
foi ne diminua pas le scepticisme et le dédain des intellectuels ; on se souvient du platonicien Celse qui
critiquait avec tant d’éloquence le christianisme, qu’il appelait « une religion bonne pour les vers de terre
». Ce qui, de nos jours, est nouveau, c’est que les théologiens catholiques ont rejoint les sceptiques et se
sont sentis obligés d’effacer, d’une façon ou d’une autre, ce dogme qui les offense. Par là, cependant, ils
ont contredit l’enseignement catholique explicite et réellement de fide, et ont frappé le christianisme au
cœur. Répétons-le : « S’il n’y a pas de résurrection des morts, alors le Christ n’est pas ressuscité. [...] Et si
le Christ n’est pas ressuscité, votre foi est vaine ». Pour le chrétien, le spectacle fou du « tombeau vide »
n’est pas négociable. Il ne saurait avoir été mis sur le papier comme une invention littéraire dont
l’intention est de faire saisir l’idée de l’immortalité à l’esprit des non-philosophes. Selon la foi chrétienne,
au contraire, le « tombeau vide » est un fait historique qui témoigne du plus grand miracle qui se soit
jamais produit sur terre : la résurrection corporelle du Christ. Et les chrétiens croient qu’une résurrection
semblable aura lieu universellement « à la fin des temps », quand le Christ reviendra « sur les nuées du
ciel, avec une grande puissance et une grande gloire » (Matthieu, XXIV, 30).
Or le problème urgent pour la théologie – de même que pour la métaphysique — est l’élucidation du
dogme de la résurrection des corps, afin de le rendre pour ainsi dire intellectuellement acceptable. Je
crois que ce que le Christ et son Église ont enseigné sur la nature de Dieu, ou sur l’âme humaine, est
beaucoup moins difficile, beaucoup moins problématique pour l’intelligence humaine. Les dogmes les plus
difficiles, semble-t-il, sont ceux qui impliquent la notion de corps, l’idée « de la chair et du sang », si on
veut. Qu’on pense aux paroles du Christ quand Il enseignait dans la synagogue de Capharnaüm : « En
vérité, en vérité, je vous le dis, si vous ne mangez la chair du Fils de l’homme, et si vous ne buvez son
sang, vous n’aurez pas la vie en vous (Jean, VI, 53). Les Juifs comprenaient d’ailleurs fort bien qu’il y avait
là plus qu’une simple figure de style, une simple métaphore : « Plusieurs de ses disciples, l’ayant entendu,
dirent : Cette parole est dure ; qui peut l’écouter ? » (verset 60). L’Église catholique a cependant toujours
insisté que la « chair » et le « sang » devaient être pris littéralement — et elle voulait dire, évidemment,
que ces termes se réfèrent très précisément à la résurrection et au corps glorifié du Christ. C’est en effet
ce corps glorifié et céleste qui est offert aux fidèles comme une nourriture dans le sacrement de
l’Eucharistie. Mais n’oublions pas que, lorsqu’elle est consacrée, l’hostie ne disparaît pas ; elle n’est pas
simplement remplacée par le corps du Christ, elle est transfigurée en ce corps : elle est « transsubstantiée
». Ce qui a lieu à ce moment-là sur chaque autel catholique est de la même nature que la Résurrection :
c’est toujours le même miracle christique qui se présente sous ses deux modes.
Le mystère de la corporéité céleste et la possibilité d’y parvenir — que ce soit dans la Résurrection ou
dans la Messe — a évidemment donné lieu aux spéculations des théologiens depuis les temps
apostoliques. Or il se trouve qu’après quelque seize siècles de ce débat, un laïc chrétien — un cordonnier
et colporteur de vêtements, rien de moins — a pu y contribuer de façon décisive par des aperçus
pénétrants, auxquels on a peut-être, jusqu’à aujourd’hui, trop peu réfléchi. Je pense évidemment à Jacob
Boehme, dont les enseignements peuvent être considérés comme inaugurant une nouvelle école de
spéculation théologique. Je me propose ici de parcourir tout d’abord brièvement l’ensemble de la pensée
chrétienne qui porte sur la nature de la corporéité céleste, depuis ses débuts à l’époque apostolique
jusqu’à la fin du XVIe siècle. Ces considérations historiques s’appuient sur un article de Julius Hamberger,
paru dans le Jahrbuch für Deutsche Theologie de 186267. J’ajoute que Hamberger était un disciple de
Franz von Baader, le commentateur catholique bien connu de la pensée de Boehme, et lui-même penseur
profond, qui mérite d’être beaucoup mieux connu qu’il ne l’a été jusqu’ici. Après ce survol historique,
j’esquisserai les conceptions de Jacob Boehme qui nous intéressent ici, en suivant de près l’interprétation
de Pierre Deghaye68. J’espère pouvoir faire saisir que la doctrine de Boehme nous permet d’examiner la
question de la « himmlische Leiblichkeit » (corporéité céleste) dans un éclairage sensiblement nouveau. Il
conviendra ensuite de réfléchir plus avant sur la nature de la corporéité céleste, en essayant de la
distinguer aussi clairement que possible de la corporéité que nous connaissons ici-bas. La section finale
sera centrée sur « le temps, l’éternité et la lumière », et c’est là que deviendra manifeste une relation
avec la physique de la relativité.

Hamberger amorce son essai historique par un examen résumé de la « himmlische Leiblichkeit »
comme la concevaient diverses traditions préchrétiennes. Considérant d’ailleurs l’extrême difficulté qu’il
y a à pénétrer, à distance et de l’extérieur, des enseignements tels que ceux des Egyptiens ou des
Hindous, il sera préférable de laisser de côté ce qu’en dit le savant allemand. Il en va autrement quand on
en vient à Platon et à Aristote, non seulement parce qu’ils sont à l’origine de ce qu’on peut appeler le
mode philosophique, mais aussi parce qu’ils ont tous les deux exercé une influence profonde et réellement
décisive sur le développement de la pensée chrétienne. Il sera par conséquent approprié de commencer
par là notre récapitulation de l’essai de Hamberger.
Son assertion principale est que les doctrines de Platon et d’Aristote excluent rigoureusement —
chacune à sa manière — ce qu’il juge être la conception chrétienne authentique de la corporéité céleste. «
Platon autant qu’Aristote, écrit-il, en dépit du fait qu’ils reconnaissaient une unité suprême transcendant
toute opposition comme la source de tout être, sont néanmoins restés confinés dans un dualisme de l’idéal
et du réel, de l’esprit et de la matière ». Hamberger pense qu’une union parfaite et permanente de l’esprit
et de la matière, de l’âme et du corps, est impensable pour chacune de ces deux philosophies. On est
obligé de conclure que, dans les deux cas, l’opposition entre le réel et l’idéal, le sensible et l’intelligible,
n’est transcendée nulle part sinon dans la sphère surontologique de l’Absolu. Et élever la matière jusqu’au
plan de l’esprit est hors de question. S. Paul avait raison : la doctrine chrétienne est « folie aux yeux des
Grecs ».
Les indications les plus anciennes de la tradition juive sur la corporéité céleste se trouvent dans les
récits où apparaissent Énoch et le prophète Elie. Ce qu’on sait d’Énoch est extrêmement ténu : on lit dans
Genèse V, 24 qu’Énoch vécut trois cent soixante-cinq ans ; « il marcha avec Dieu ; puis il disparut, car
Dieu l’avait pris ». A la fin d’une vie exceptionnellement pieuse et vertueuse, « Dieu le prit », et on ne le
vit plus. Comme Hamberger le remarque : « On peut en conclure que le corps de ce patriarche fut enlevé
à l’existence terrestre en étant comme absorbé dans la vie de l’esprit, ou mieux, élevé à cette vie et, ainsi,
amené à la transfiguration ». Elie présente un événement semblable. Un jour, le prophète cheminait avec
son fils Élisée : « Comme ils continuaient à marcher en parlant, voici qu’un char de feu et des chevaux de
feu les séparèrent l’un de l’autre ; et Elie monta au ciel dans un tourbillon » (II Rois, II, 11). La nature
visuelle et explicite de ce récit suggère qu’il puisse rapporter un événement réel ; et pourtant, comme
Hamberger le souligne : « Aucun Israélite pieux n’aurait pu douter que, derrière ce que percevaient les
sens, un événement ait eu lieu qui a des prolongements jusque dans le royaume de l’invisible, c’est-à-dire
la transformation de la corporéité matérielle du prophète en supra-matérielle, même si cet Israélite ne
pouvait pas comprendre clairement la différence essentielle entre les deux. »
Sur cette question de la himmlische Leiblichkeit, les textes qui font autorité sont évidemment ceux du
Nouveau Testament sur la résurrection du Christ. C’est ici, dans cet événement unique, que la corporéité
céleste pénètre pour ainsi dire dans notre monde, pénètre sur la scène de l’histoire. Ce qui se passe ce
premier dimanche de Pâques est en un sens historique ; à ce propos, S. Paul nous assure qu’« il fut vu par
plus de cinq cents frères en même temps ». Il est cependant aisé de mésinterpréter les faits attestés
bibliquement et de passer alors à côté du point essentiel de la Résurrection. Il faut comprendre que cet
événement, visiblement historique, signifie néanmoins une rupture radicale avec la condition terrestre. «
Depuis ce moment, remarque Hamberger, le Sauveur n’appartient plus au royaume de la terre, mais à une
sphère plus élevée, d’où il ne se montre à ses disciples que dans des apparitions sporadiques, comme par
visitation ». On peut supposer que le Sauveur s’est montré à ses disciples, encore liés à la terre, sous une
forme visible et tangible, afin de les convaincre qu’il était effectivement ressuscité d’entre les morts ; et
quand il est apparu soudain, toutes portes fermées à clef, ou est monté miraculeusement au ciel, il a
également manifesté que son esprit avait atteint un empire total sur sa nature corporelle. « Ainsi sa
corporéité, écrit Hamberger, était évidemment supra-matérielle et non plus soumise aux limites du temps
et de l’espace. »
Nombreux sont tout de même ceux des fidèles qui ont imaginé la corporéité transfigurée du Christ en
termes fondamentalement matériels, adéquatement « aminci et sublimé », remarque Hamberger. Le
complément de cette tendance, largement répandue et prédominante, est la tendance opposée, celle
qu’incarne le spiritualisme rigoureux d’Origène. Comme Hamberger l’explique : « La raison de la
trajectoire spiritualiste d’Origène tient sans doute à son souci de purifier la conception de l’esprit d’une
contamination par l’incorporation de quoi que ce soit qui fût matériel, ce qui lui paraissait nécessiter
l’exclusion de toute corporéité, parce que, à la suite de Platon, il regardait la réconciliation parfaite de
l’esprit et de la nature, l’élévation complète de la nature dans l’esprit, comme impossible. Mais, dans la
mesure où ce spiritualisme s’est révélé incompatible avec le sens véritable de l’Écriture, des
contradicteurs résolus se sont levés à son encontre, qui cherchaient intensément à défendre le réalisme
biblique, mais qui ne purent pour autant rendre justice à la vérité biblique. »
Le plus éminent de ces « contradicteurs résolus » fut sans doute S. Jérôme, champion de ce qu’on
pourrait appeler aujourd’hui la position fondamentaliste. La vraie chair n’était pour lui que « ce qui est
constitué de sang, de veines, d’os, de nerfs, etc. ; de même les dents, l’estomac, les organes génitaux ne
peuvent être absents de l’état céleste ». On peut cependant être surpris que même S. Augustin, chrétien
platonicien s’il en fut, ait soutenu des vues similaires sur ce sujet, « quoique sous une forme plus délicate
», remarque Hamberger. La raison de cette apparente incongruité n’est cependant pas à chercher très
loin : « Augustin avait sans doute entièrement raison quand il refusait de voir la transfiguration du corps
comme sa suppression ou sa disparition ; il n’a cependant pas réussi à reconnaître le vrai caractère du
corps transfiguré, qui consiste dans une harmonie parfaite entre la nature et l’esprit, le réel et l’idéal. Son
adhésion fidèle à la parole de l’Écriture le protégeait de l’erreur qu’il a rejetée ; la reconnaissance de
cette parfaite harmonie peut lui avoir échappé à cause de sa prédilection pour le platonisme. »
Quoi qu’il en soit, il semble que la spéculation chrétienne sur la corporéité céleste ait tendance à
osciller quelque peu entre ces deux extrêmes : les positions fondamentaliste et spiritualiste. Mais, comme
le souligne Hamberger : « Malgré ces déviations erronées dans un sens ou dans l’autre, l’Église n’a jamais
manqué de catéchistes qui savaient comment se tenir fermement au sens biblique de la corporéité céleste,
et utiliser cette conception en faveur du développement de la théologie systématique ». Tertullien en est
un excellent exemple. Que cet auteur chrétien ait été très éloigné de la position spiritualiste d’Origène est
rendu évident par sa célèbre formule : « Qui niera que Dieu, même s’il est esprit, soit un corps ? » Mais
l’audace même de cette assertion montre clairement que Tertullien se tient également à des années-
lumière du fondamentalisme de S. Jérôme. « Rien n’était plus éloigné de l’esprit de Tertullien, lorsqu’il
attribuait la corporéité à Dieu, écrit Hamberger, que de la concevoir à la façon de notre corps terrestre ».
Et il est intéressant de remarquer que S. Augustin, qui trouvait difficile de pénétrer les tournures de la
langue de Tertullien, le considérait néanmoins comme fondamentalement orthodoxe. « Tertullien ne
désirait pas se séparer, écrit encore Hamberger, de ce que la Bible elle-même laisse entendre tout à fait
clairement au sujet de la corporéité de Dieu, et il reconnaissait de même tout à fait cette vérité que toute
la réalité doit d’une certaine manière avoir une forme, et qu’en l’absence d’une nature corporelle d’une
sorte ou d’une autre, l’esprit ne saurait fonctionner en tant que tel ». Pour Tertullien, l’esprit et le corps
sont corrélatifs : l’un exige l’autre. « Dieu est le but de toutes les choses invisibles, écrit-il, puisque c’est
par leur corps et leur forme qu’elles se rendent visibles à Ses yeux ». Hamberger : « On voit bien que
Tertullien était pénétré de la pensée de la corporéité supra-matérielle ». Il est cependant tout aussi
évident que la grande majorité des théologiens n’ont jamais partagé cette prédilection.
On découvre pourtant que les enseignements christologiques énoncés deux siècles plus tard au concile
de Chalcédoine s’accordent avec l’idée de Tertullien d’une incorporation supra-matérielle (supra-material
embodiment). « Quand, à Chalcédoine, écrit Hamberger, il est devenu certain qu’on ne pouvait pas, d’une
part regarder la nature humaine du Christ comme ayant été absorbée dans la nature divine, et d’autre
part la regarder comme opposée au divin même, ou même encore qu’elles demeurent pour ainsi dire côte
à côte, mais qu’il fallait au contraire assumer que la nature humaine est entièrement pénétrée par le divin
et reçue en elle, on en a conclu que quelque chose de semblable devait s’appliquer d’une façon générale à
la corporéité céleste en relation avec la vie de l’esprit. En conséquence de cette décision conciliaire, on
n’est pas autorisé à penser que, dans cet état supérieur, la chair a disparu, comme absorbée par l’esprit ;
mais on ne peut pas non plus concevoir la chair transfigurée en termes matériels ». Il semble cependant
que l’on considérait en général la doctrine de Chalcédoine exclusivement dans son cadre christologique,
et que ses implications quant à la corporéité céleste sont largement demeurées méconnues. S. Jean
Damascène — pour ne citer que cet exemple — n’hésite pas à parler de « déification » de la chair glorifiée
du Christ, mais continue malgré cela à concevoir les corps célestes des anges et des saints comme des
entités matérielles.
Certains théologiens ont tout de même perçu les vastes implications de la position de Chalcédoine.
Surtout Jean Scot Érigène, chez qui la question de la corporéité céleste occupe une place de première
importance. Hamberger note à ce propos : « Non seulement cette conception elle-même apparaît dans sa
plus grande pureté, mais aussi d’une manière si universelle qu’elle pénètre tout le système doctrinal de ce
grand penseur et rend possible une compréhension scientifique de la vérité chrétienne dans ses éléments
principaux ». Jean Scot explique avec insistance et avec la plus grande clarté la supra-matérialité de la
première création : « Dieu est immortel, et ce que Lui, et Lui seul, crée, est de même immortel ». En
accord avec cette idée, il conçoit l’état originel de l’homme en termes expressément célestes. Il n’hésite
pas à appliquer les formulations dogmatiques de Chalcédoine à l’état de perfection de l’humanité, et
même de l’univers tout entier. Comme sa doctrine s’applique à l’univers parfait, elle constitue une réelle
cosmologie chalcédonienne. Il réussit à concevoir une transfiguration universelle parce qu’il envisage la
matière de notre monde, non comme quelque chose d’absolument primordial, mais comme dérivée d’un
principe immatériel. « Il n’y a rien dans la nature humaine, affirme-t-il, qui ne soit spirituel et intelligible ;
même la substance corporelle est intelligible ». La matérialité n’apparaît que là où l’esprit ou la volonté
s’oppose à l’idée archétypale, c’est-à-dire là seulement où est entré le « péché ». « Il est impensable, dit-il,
que le corps ait été périssable et matériel avant que la cause de la mort et de la matérialité, donc le
péché, soit apparue ». Cette position a des implications eschatologiques, comme le remarque Hamberger :
« La réélévation à la supra-matérialité devient ainsi possible grâce à la victoire sur le péché, et par là la
voie est ouverte à un retour du monde en Dieu, dans le but que Dieu puisse devenir tout en tous ».
Jean Scot voit l’état supra-matériel comme supra-spatial et supra-temporel. Aussi sûrement que Dieu est
au-delà du temps et de l’espace, affirme-t-il, il est certain qu’avec l’assomption du monde, actuellement
matériel, « le temps, en tant que mesure du mouvement, disparaîtra, et de même l’espace, en tant qu’il
sépare les choses, ne sera plus ». L’espace et le temps sont des aberrations, chacun étant à sa manière un
« séparateur ». Ils sont aberrants tous les deux précisément parce que, dans l’ordre des choses célestes, il
n’y a pas de séparation de cette sorte. « Il n’y a rien d’incroyable ni d’irrationnel, écrit-il, dans la
supposition que des êtres intelligibles s’unissent, de façon à devenir un, tout en gardant leurs
caractéristiques propres, mais de telle manière que le supérieur englobe l’inférieur ». Il donne à titre
d’exemple l’air, que pénètre la lumière du soleil, et qui conserve pourtant sa substance propre. « De
même, je crois, continue-t-il, que la substance corporelle passera dans l’âme, non pour être abolie, mais,
puisqu’elle aura été élevée à une condition des plus excellentes, pour être conservée. On doit de même
supposer que l’âme, reçue dans l’intellect, embellit et se fait plus semblable à Dieu. De la même façon, je
pense à l’entrée en Dieu — peut-être pas de tout, mais certainement des substances rationnelles — par
laquelle elles atteindront leur but, et dans laquelle elles deviendront toutes un. »
Nombreux, toutefois étaient ceux qui ne partageaient pas cette puissante vision de Dieu, de l’homme et
de l’univers, tout au moins en ce qui concerne la nature corporelle. Selon les termes de Hamberger : « De
même que Tertullien n’a guère réussi à obtenir une large reconnaissance de ses profondes intuitions
spirituelles, de même Jean Scot n’a guère réussi à transmettre sa sublime vision du monde à sa propre
génération et aux générations suivantes, comme leur héritage commun ». Quelles que puissent avoir été
les raisons de cette résistance ou de ce manque d’intérêt, la conception élevée de la corporéité céleste
chez Jean Scot a eu apparemment peu d’influence sur le courant dominant de la réflexion théologique.
Le cas d’Albert le Grand et de son illustre disciple mérite évidemment un intérêt particulier. Or il se
trouve qu’Albert le Grand était ouvert à l’idée de Jean Scot, quoiqu’il ne soit pas très clair s’il a été en
quelque façon influencé par le théologien irlandais. Il semble plus probable que son inspiration lui soit
venue d’Avicebron, dont il étudiait les écrits avec assiduité et dont la pensée était à certains égards
apparentée à celle de Scot Érigène, comme l’explique Hamberger : « Avicebron était très nettement
opposé à cette affirmation habituelle que la substance, composée de matière et de forme, doive toujours
et partout être pensée comme quelque chose de matériel. Le concept de matière, disait-il, s’appuie sur la
notion de quantité, alors que la substance ne comporte pas la quantité, et peut fort bien se concevoir sans
la quantité, et donc sans la matérialité, tout en étant composée de matière et de forme ». Mais, tandis que
cette position — à laquelle il ne semble pas qu’Albert le Grand se soit opposé — autorise la conception
d’une corporéité supra-matérielle, il ne semble pas qu’il se la soit lui-même appropriée. Selon Hamberger,
Albert le Grand ne parvint au véritable concept de himmlische Leiblichkeit « que dans le cas de l’homme-
Dieu, et ses affirmations sur le corps des saints ressuscités ne peuvent que difficilement se concilier avec
l’idée d’une véritable transfiguration ». Quand il arrive à S. Thomas, Hamberger pense d’ailleurs que, sur
ce sujet, il est plus ou moins revenu à la position de S. Jérôme et de S. Augustin. À l’appui de cette
affirmation, il souligne par exemple que les bienheureux « apparaîtront au moment de leur résurrection
dans l’éclat de leur jeunesse, c’est-à-dire dans cette période de la vie qui s’étend entre la croissance et le
déclin » — vision dont il faut convenir qu’elle est extrêmement éloignée de la pensée de Scot. Hamberger
affirme cependant que cette « conception insuffisante, et réellement erronée du corps ressuscité » doit
être imputée, non à une quelconque déficience de la part de S. Thomas lui-même, mais à une contrainte
extérieure : « Ce n’est pas une entrave intérieure, mais extérieure qui a empêché sa pensée de prendre
son essor ». De toute façon, le fait demeure que la ligne théologique défendue par Tertullien et Scot ne
s’est pas épanouie — pour quelque raison que ce soit — à l’intérieur de l’Église catholique romaine
officielle. Cette ligne se développera plutôt si l’on peut dire à la périphérie de l’Eglise et, après la
Réforme, principalement dans les pays protestants. On doit la chercher, non dans les rangs des
théologiens cléricaux, mais dans les cercles de mystiques, de médecins et de philosophes croyants. C’est
d’ailleurs dans les enseignements de notre humble et pieux cordonnier que ce mouvement, si on peut
l’appeler ainsi, a atteint son expression la plus complète, et peut-être sa forme achevée.

Il est cependant évident que la théosophie allemande n’est pas brusquement née avec Jacob Boehme. Le
philosophus teutonicus a eu des prédécesseurs, de véritables précurseurs, dont les plus importants sont
certainement Paracelse (1493-1541) et Valentin Weigel (1533-1588). La pensée de Boehme a néanmoins le
caractère propre et la force titanesque d’une révélation ; comme il est typique dans le cas d’un tel
héritage, sa doctrine se révèle de facto inépuisable. Après des siècles de commentaires et d’analyse par
quelques-uns des intellectuels les plus brillants de l’Occident, le mystère et la fascination de cette figure
énigmatique n’ont pas diminué. Avec l’éloignement, qui va croissant, nous pouvons aujourd’hui d’autant
mieux percevoir la force et l’originalité frappante de sa pensée. De nombreuses tendances littéraires, de
nombreuses traditions se sont rencontrées et mêlées pour former le système de Boehme ; mais dans ce
processus elles se sont transformées. Il en ressort un corpus cohérent d’idées qui portent nettement sa
signature. Avec lui, notre perception de Dieu, de l’homme et de l’univers — tout en restant
rigoureusement chrétienne et biblique — s’est profondément transformée et nettement élargie sur
certains points. Si S. Thomas d’Aquin a enrichi le christianisme en « christianisant » la sagesse d’Aristote,
on peut sans doute dire que Jacob Boehme en a fait de même pour la tradition hermétique. Ses écrits
révèlent le contour d’une philosophie « alchimique » profonde et oubliée depuis longtemps, mais dans un
contexte nouveau, et il en fournit une nouvelle clef. Comme le dit Pierre Deghaye : « En transposant la
philosophie de la nature (Naturphilosophie) au niveau d’une suprême connaissance propre à la théologie,
Boehme en a fait une théosophie »69. Et il continue : « En fait elle est aussi une théologie, c’est-à-dire une
science de Dieu. Mais elle est profondément différente de la théologie dogmatique, non seulement de
celle de Luther70, mais de celle de quelque confession que ce soit. La théosophie est une autre approche
de Dieu ».
Cette approche ne date pas de Boehme ; comme Deghaye le souligne, la Kabbale juive et le mysticisme
musulman sont également des théosophies. « Ce que ces trois types de pensée ont en commun, écrit-il, est
que leur sujet est Dieu en tant qu’Il se fait connaître ». Boehme, quant à lui, distingue clairement Dieu en
tant qu’Absolu — qu’il appelle Ungrund — et Dieu en tant qu’Il se révèle, non seulement à l’humanité,
mais, en tout premier lieu, à Lui-même. Il ne peut y avoir aucune science, aucune connaissance d’aucune
sorte, de l’Ungrund en tant que tel. Seul le Dieu qui se manifeste Lui-même peut être objet de
connaissance et d’amour. En se fondant, ce qu’on a quelque raison de croire, sur une expérience
mystique, Boehme envisage un processus d’autorévélation in divinis qui, théosophiquement parlant, «
donne naissance à Dieu ». C’est cette « naissance éternelle » qui constitue le premier thème de sa
théosophie. Si supra-temporelle qu’elle soit, Boehme conçoit cette « naissance » selon un septuple cycle,
qui constitue l’archétype du temps. Comme le fait remarquer Deghaye, il représente « la semaine de la
création transposée au niveau d’une origine absolument première ». Temporellement parlant, ce cycle
peut se décrire comme une victoire successive sur une ténèbre primordiale, un chaos primordial, que
Boehme appelle, entre autres, feu obscur. « Les théologies dogmatiques, dit Deghaye, mentionnent tout
d’abord la lumière, synonyme de perfection divine. Elles ne mentionnent l’obscurité qu’à propos de l’ange
qui y est précipité. Boehme met l’obscurité au début. La première partie du septuple cycle de la
manifestation divine est l’obscurité. Afin que la lumière puisse se donner libre cours, elle doit anéantir les
ténèbres ». La naissance de Dieu est ainsi une Victoire, un Acte héroïque suprême qui préfigure la mort et
la résurrection du Christ. On peut donc dire que « le Dieu de Boehme meurt avant de naître ».
L’événement qui est au centre du christianisme peut alors se voir dans une perspective remarquablement
nouvelle : « Ce qui se passe lorsque le Christ vient parmi nous, écrit Deghaye, ne fait qu’objectiver pour
nous l’événement primordial qui se déroule dans le septuple cycle. »
Or Dieu se révèle — se rend visible — dans sa Gloire, qui est un corps rayonnant, un corps fait de
lumière céleste. On ne doit cependant pas penser au Dieu révélé comme existant simplement par lui-
même, « dans un splendide isolement ». Comme Deghaye l’explique : « Afin de se contempler lui-même,
Dieu a besoin qu’on lui tende, dans la forme qu’il a créée, un miroir qui, quoique demeurant en lui, est
distinct de lui [...] Ce miroir est le corps des anges. Le Dieu révélé apparaît au moment où les anges sont
là pour le contempler ». On voit ainsi que la naissance de Dieu s’accompagne de la genèse de sa demeure
éternelle, le ciel primordial, le royaume des cieux. La doctrine de Boehme n’est pas qu’une théogonie,
mais aussi une cosmogonie. Et même une triple cosmogonie, ce qui veut dire que Boehme envisage la
genèse de trois mondes, correspondant à ce qu’il appelle les trois principes. Le plus haut est le ciel
primordial, « un monde de lumière ». Mais le royaume des cieux est amené à l’être grâce à ce septuple
cycle qui commence par l’obscurité : une obscurité qui, si étrange que cela paraisse, préfigure déjà
l’enfer. C’est la chute de Lucifer qui objectivise cette obscurité primordiale, et donne ainsi naissance au
royaume infernal. On pourrait dire que Lucifer, en désirant être « semblable à Dieu », a renversé le
processus même qui fonde le royaume angélique. Au lieu de la lumière « qui anéantit les ténèbres », ce
sont les ténèbres qui anéantissent la lumière de sa nature angélique ; c’est ainsi qu’est apparu « un
monde d’obscurité ». Notre monde, enfin, est le troisième ; il est précédé par la création d’Adam et
résulte de la chute. Selon la théosophie, il constitue un monde temporaire, dont la raison d’être 71 est de
permettre la réconciliation d’une humanité déchue avec Dieu. Il constitue par sa nature même un
royaume intermédiaire où la Lumière et l’Obscurité - les principes céleste et infernal — se mêlent.
Boehme s’y réfère comme au troisième principe. On ajoutera que ce statut intermédiaire, que la
théosophie assigne à notre monde, est confirmé par sa phénoménologie ; car, comme nous ne le savons
que trop, notre monde est un monde de combat, de lutte incessante imposée par l’affrontement des
contraires.
Ce qui nous intéresse le plus est la relation de notre monde au monde céleste, primordial, qui est son
archétype. « La première nature, écrit Deghaye, engendre l’autre nature, la nôtre, qui l’obscurcit tout en
la manifestant suffisamment pour la refléter. Cette seconde nature sera détruite [à la fin des temps] et la
nature primordiale sera dévoilée, manifestant Dieu dans toute sa Gloire ». En dépit de la différence des
deux natures — ce qui place la première au-delà de toute atteinte de l’imagination72 — la relation entre
elles est extrêmement étroite. Comme le dit Deghaye : « Ces deux degrés apparaissent successivement,
mais les deux natures coexistent. La nature éternelle est comme enveloppée dans notre nature [...] et il ne
peut pourtant y avoir la moindre confusion entre elles ». La distinction entre le « noyau intérieur » et la «
coquille extérieure » — le fait qu’il n’y a pas la moindre confusion entre elles — ne doit cependant pas
s’interpréter comme une séparation ordinaire ; on ne doit pas oublier que « les deux natures coexistent »,
et que la seconde dépend de la première. Loin de constituer une espèce de corps étranger, le « noyau
intérieur » doit plutôt se concevoir comme le « noyau de la réalité », dont la « coquille » n’est que la
manifestation extérieure.
Il est maintenant clair que la doctrine de Boehme est intimement liée à la quête alchimique, et qu’elle
valide probablement toutes les vérités que cette tradition immémoriale conserve pieusement73. On est
d’ailleurs tenté de supposer que sa conception d’un cycle primordial et exemplaire peut contenir une
science universelle, applicable en principe à tout le domaine de la nature ; et il n’est pas sans intérêt de
noter qu’au moins un scientifique contemporain a étudié sérieusement la doctrine de Boehme, et semble
en avoir tiré une inspiration pour la poursuite de sa propre discipline, la physique des particules74. Ce que
Boehme lui-même vise n’est cependant rien d’autre que le salut de l’homme, notre seconde naissance.
C’est la seule et unique « transformation alchimique » qu’il a obstinément poursuivie ; et il le fait avec
toute sa piété et son orientation biblique chrétiennes. « Notre seconde naissance, écrit Deghaye, est
l’équivalent de la résurrection du Christ, et est anticipée dans le cycle de la nature primordiale. Ce qui a
lieu dans cette transformation exemplaire au seuil du temps, c’est déjà une mort et une résurrection. Le
cycle des origines se répète simplement chaque fois que la vie s’épanouit à la suite de la transformation.
Toute vie ne naît que pour mourir et renaître. La théosophie de Boehme est une théologie de la seconde
naissance. C’est ce qui la relie au mysticisme chrétien, dans lequel le sujet focalisateur est la naissance du
Christ en nous. »
Or toute naissance est une incarnation, une certaine union de l’esprit et de la chair. Toute chair n’est
cependant pas de la même espèce. S. Paul en parle très clairement au chapitre XV de la Première Épître
aux Corinthiens, dans le célèbre discours où il distingue entre corps corruptibles et incorruptibles,
terrestres et célestes. Notre premier corps est terrestre ; le second sera céleste (ex ouranou). Si la
doctrine de Boehme est alors vraiment une « théologie de la seconde naissance », elle est aussi une
théologie de la corporéité céleste. On peut avoir quelque raison de supposer que le concept de himmlische
Leiblichkeit entre spontanément dans la théosophie de Boehme.
Tous les corps sont des substances d’une sorte ou d’une autre. Dans le cas des corps paradisiaques,
cette substance — comme on s’y attendait — est la plus précieuse, la plus fine, la plus excellente de
toutes. « Le ciel éternel, écrit Deghaye, dont sont faits les corps des anges, est la matière précieuse qui se
développe au cours du septuple cycle décrit comme le chef-d’œuvre divin ». Le mieux est de le concevoir
comme un pur rayonnement, une lumière céleste, dont ce que nous connaissons de la lumière d’ici-bas
n’est qu’un pâle reflet. Cette lumière céleste n’est d’ailleurs rien d’autre que la gloire de Dieu, le
rayonnement même qui constitue ce que la théosophie appelle le corps de Dieu. Ainsi le corps de Dieu, les
corps des anges et ceux des saints au paradis sont composés de la même « matière précieuse », née du
sein obscur et flamboyant de la nature primordiale. Comme Deghaye le dit de la corporéité céleste : « La
lumière est sa substance, sa chair. »
Nous sommes enfin en position d’apprécier les mots de Friedrich Christoph Oetinger que j’ai placés en
tête de ce chapitre : « La corporéité est le terme de l’œuvre divine ». Le couronnement de l’œuvre de
Dieu est réellement l’incarnation : l’union de l’esprit et de la chair, où les deux deviennent semblables à
un. C’est cette soumission parfaite, cette complète « transparence » à l’esprit qui habite le corps, qui se
réalise dans la corporéité céleste. Deghaye le remarque avec profondeur : « La seule vraie perfection est
celle qui est incarnée dans un corps de lumière. »

« La première nature engendre l’autre, la nôtre, qui l’obscurcit tout en la manifestant suffisamment
pour la refléter ». L’obscuration de la première nature est cependant telle que nous ne pouvons pays —
même dans les envols les plus fous de notre imagination — nous représenter, nous rendre quelque peu
présente à nous-mêmes, la nature éternelle et rayonnante qui sous-tend la nôtre. Les deux natures — les
deux mondes — coexistent réellement en ce sens que la première pénètre la seconde, non spatialement,
ce qui est évident, mais au sens ontologique. En un mot, elle est « au-dedans » comme le Christ lui-même
en porte témoignage : « Et l’on ne dira pas : Il est ici ! ou bien : Il est là ! car voici que le royaume de Dieu
est au-dedans de vous » (Luc XVII, 21). Ce regnum ou royaume n’est d’ailleurs rien d’autre,
théosophiquement parlant, que cette première et céleste nature, qui demeure secrète ici-bas, non
seulement dans notre chair humaine, mais en toutes choses. En vérité, « La lumière brille dans les
ténèbres, et les ténèbres ne l’ont pas reçue » (Jean, I, 5). Il se peut que Boehme ait été le premier à
pénétrer le sens cosmologique de cette parole johannique, laquelle résume en tout cas sa conception de
notre univers, qu’il appelle troisième principe.
En dépit de sa proximité ontologique, la nature céleste demeure pour nous littéralement ensevelie dans
les ténèbres. Nous avons cependant une tendance presque irrépressible à imaginer les réalités célestes en
termes plus ou moins terrestres ; même d’éminents théologiens, on l’a vu, n’ont que trop souvent, à ce
qu’il semble, succombé à cette tendance. Y succomber, c’est cependant arriver à une conception qui est
non seulement fausse, mais, en un sens, inversée. Hamberger le dit fort bien : « Il serait totalement
erroné (völlig verkehrt), dans la conception de la corporéité céleste, de retenir d’une certaine manière
l’idée d’une matérialité terrestre, afin de ne pas perdre la nature de la corporéité elle-même. Qu’on
imagine cette corporéité supérieure comme une substance terrestre perfectionnée, élevée à sa forme la
plus haute et la plus noble, ou qu’on la voie comme radicalement affinée — on n’aura dans aucun des deux
cas atteint à la conception véritable. Le céleste se tient simplement au-dessus du terrestre, et toute
imperfection à laquelle le terrestre demeure soumis, même quand il est sublimé au plus haut degré, doit
être complètement exclue du céleste. Tout mélange terrestre, même le souffle le plus faible qui
proviendrait du monde inférieur, contaminerait l’idée de la nature céleste et l’annulerait sur-le-champ. »75
Dans le domaine terrestre, les entités corporelles « occupent de l’espace », c’est-à-dire qu’on leur
reconnaît une extension. La question se pose donc de savoir si la même chose s’applique au monde
céleste. Or il est clair dès l’abord que l’espace céleste — si cela peut exister — ne coïncide pas avec
l’espace que nous connaissons par la perception sensorielle. Les corps célestes ne sont pas situés, à
proprement parler, dans notre espace ; on ne peut pas dire : « Il est ici ! Il est là ». Mais on ne peut de
même pas dire d’une entité céleste qu’elle n’est pas ici, ou pas là ; car ceci aussi serait d’une certaine
façon soumettre l’être en question à nos conditions spatiales. Il est peut-être inutile de souligner que,
lorsqu’on parle du royaume des cieux comme étant « au-dedans », cela ne doit pas non plus se
comprendre au sens littéral, c’est-à-dire spatial. Mais bien que les corps paradisiaques demeurent ainsi
éloignés de quelque condition spatiale que ce soit appartenant à notre monde, on ne saurait nier qu’il doit
y avoir quelque chose dans le royaume des cieux qui correspond à l’idée de l’espace, et qui en constitue
d’ailleurs l’archétype. Sur cette question capitale, il me semble que Hamberger a quelque chose
d’extrêmement important à dire : « Il n’est pas rare, écrit-il, qu’on n’attribue qu’à contrecœur l’extension
aux formes célestes, de crainte de les abaisser au niveau de la matérialité. Il faut reconnaître qu’une
extension telle qu’elle existe dans les choses terrestres ne peut s’appliquer à elles ; cependant, ce qui
n’est étendu en aucune façon ne peut avoir aucun être, aucune réalité. L’esprit même doit avoir une
certaine extension ; on ne doit pas le cantonner dans d’étroites limites, ou, mieux, dans le néant d’un
point mathématique, pour autant qu’il existe. Quand toutefois les formes terrestres, à cause des
obstructions principales qui affectent leur vie, s’éloignent les unes des autres dans l’ampleur de l’espace
terrestre, on ne peut appliquer la même idée aux êtres entièrement vivants du royaume des cieux.
Puisqu’ils ne souffrent aucune séparation interne, leur extension doit être de l’espèce intensive, ce qui
revient à dire que leur extension ne va pas vers l’extérieur mais vers l’intérieur, non en largeur, mais en
profondeur ; et cette profondeur est autant au-dessus de la largeur que l’éternité est au-dessus du temps.
»76
La notion d’« extension intensive » est évidemment loin d’être claire. Elle est pourtant hautement
suggestive, au point même qu’on commence à sentir qu’il doit y avoir un état qui répond à une telle
conception. On se souvient de l’« espace intérieur » — l’« espace à l’intérieur du lotus du cœur » — dont
parle la Chandogya Upanishad, un espace qui contient « à la fois le ciel et la terre, l’air et le feu, le Soleil
et la Lune, la foudre et les étoiles ». En un mot, toutes choses se trouvent dans cet espace intérieur,
espace qui, de notre point de vue mondain, n’a aucune extension. On les trouve pourtant dans cet espace
intérieur, non dans leur manifestation extérieure, mais dans leur être le plus profond, qui coïncide, nous
l’avons vu, avec leur archétype céleste. L’« espace à l’intérieur du lotus du cœur » ne peut être en réalité
autre que l’espace céleste, et s’il contient toutes choses, c’est en vertu du fait qu’en leur cœur toutes
choses sont véritablement célestes.
On le voit, l’espace intérieur n’est pas semblable à l’espace extérieur. Étant donné que l’espace
extérieur est une image de l’espace céleste, la notion d’extension intensive que nous avons rencontrée
chez Hamberger montre bien que l’image est en fait inversée. Il y a entre elles non seulement une
analogie, mais aussi une opposition, qui exige alors une réorientation radicale — une profonde metanoïa
de la part de celui qui perçoit — pour qu’il puisse passer d’une sorte de perception spatiale à l’autre. Et
ceci doit certainement être la raison pour laquelle nous trouvons si difficile — non, impossible dans l’état
où nous sommes présentement — de saisir la nature des corps paradisiaques. Comme on le lit dans la
Bhagavad Gita : « Dans ce qui est la nuit pour tous les êtres, l’homme tourné vers l’intérieur est éveillé ;
et là où tous les êtres sont éveillés, là est la nuit pour le muni qui voit ». Il est inutile de chercher à nous
représenter ce que contemple « l’homme tourné vers l’intérieur » — le samyamî ; son univers est pour
nous une nuit. Le fait est que la séparation ou la distance spatiale telle que nous la connaissons n’a
aucune place dans le royaume des cieux, où l’extension est « en profondeur ». On pourrait dire que
l’espace extérieur sépare, et que l’espace intérieur unit ; le premier est centrifuge, le second est centré
sur Dieu.77
Une définition aristotélicienne nous aidera à comprendre cette différence. La quantité, dit Aristote, est
ce qui admet des parties extérieures les unes aux autres. Par exemple un segment de droite : non
seulement le segment, coupé en deux, se brise en deux morceaux extérieurs l’un à l’autre, mais ces
morceaux sont les parties d’un tout. Le point intéressant est que, dans cet exemple, le tout est vraiment la
somme de ses parties, et non quelque chose de plus, donc quelque chose qui serait intrinsèquement
indivisible. On peut appliquer la même idée aux nombres, c’est-à-dire à une quantité discontinue en tant
qu’opposée à une étendue. Même les mathématiques sophistiquées d’aujourd’hui, dans toutes leurs
nombreuses ramifications, demeurent encore sous l’égide de la quantité au sens aristotélicien exact du
terme. Et ceci n’est que ce qui doit être : les mathématiques sont vraiment la science de la quantité.
Cependant tout n’est pas quantitatif. Par exemple les couleurs : le rouge ou le vert n’admet naturellement
pas de parties extérieures les unes aux autres. Un corps rouge est évidemment divisible, mais le rouge ne
l’est pas. On ne change pas la couleur d’un objet en le brisant. La couleur perdure, sans être en rien
affectée par la division. Elle n’est par conséquent pas une quantité, mais une qualité, donc une chose qui
ne peut pas se comprendre en termes mathématiques. Il faut souligner que ce qu’on appelle la mesure
des qualités, leur quantification présumée, n’est pas vraiment la mesure d’une qualité, mais d’une
quantité concomitante. Les qualités en tant que telles ne sauraient être mesurées, elles ne peuvent en
aucune façon être quantifiées.
Il s’agit simplement de ceci que l’extension des corps paradisiaques — comme les qualités d’ici-bas —
n’admet pas de parties extérieures les unes aux autres ; elle n’est pas divisible. La sorte d’extension qui se
brise en parties séparées n’existe pas dans le monde d’en haut; dans ce royaume-là l’extension est
intensive, comme dit Hamberger : c’est une extension, non en « largeur », mais en « profondeur ». Ce qui
se perd, au passage de notre monde vers le monde céleste, est précisément l’aspect quantitatif des
choses. Les qualités d’ici-bas portent aussi sans doute une empreinte terrestre ; mais même ainsi, leur
essence a son origine dans le Royaume des Cieux. Elles sont comme un verre qui laisse passer «
obscurément », selon la métaphore de S. Paul, la lumière divine vers notre monde. La fonction de la
quantité, elle, n’est pas de transmettre l’essence, mais de séparer, donc d’extérioriser. C’est en vertu de
leur aspect quantitatif que les choses de la terre sont exclues du monde intérieur ; c’est son extension «
en largeur » qui empêche le chameau de passer par le trou de l’aiguille. Et c’est donc cet aspect
quantitatif des choses qui sera détruit à la fin des temps : « Tu les rouleras (le ciel et la terre créés)
comme un manteau et ils seront transformés » (Hébreux, I, 12).
Le facteur qui confère aux choses de ce monde la matérialité qui les distingue, leur empreinte terrestre,
n’est donc autre que la quantité. On ne s’étonnera pas qu’il soit difficile de s’affranchir de la quantité —
de nos conceptions quantitatives de l’espace, du temps et de la matière — comme il nous faut le faire si
nous voulons saisir la nature de la corporéité céleste. Toutes les choses de ce monde sont enracinées dans
la quantité. Comme une plante qui sort de terre, elles évoluent à partir d’un substrat quantitatif, une
materia quantitate signata qui sous-tend notre univers. C’est ce substrat quantitatif qu’objective le modus
operandi de la physique et qui se présente aux yeux des scientifiques comme l’univers physique, leur
monde d’atomes et de galaxies78. Il faut cependant bien comprendre que cet univers physique, l’objet
expressément visé par la physique, ne coïncide tout simplement pas avec notre monde, mais n’en
représente que l’aspect quantitatifs. La physique est aveugle sur les qualités, donc aveugle sur tout ce qui
est essence. Elle ne voit que ce qui est le plus extérieur, ce qui est le plus éloigné du centre ontologique.
Mais il va sans dire que ce n’est pas ainsi que le physicien envisage en général sa discipline. Formé et
conditionné comme il l’est à avoir des vues réductrices, à ne penser au réel qu’en termes de quantité, il a
tendance à identifier l’univers physique à l’univers tout court. Et même s’il a une vision mystique des
choses, ce qui arrive occasionnellement, son mysticisme tend le plus souvent à être réducteur. Il arrive
qu’il n’y ait aucun espace, même pour la couleur79, dans l’ontologie scientifique qui prévaut actuellement,
pour ne rien dire des réalités célestes. Le scientifique contemporain — de même que l’homme de la rue
conditionné par la science — ne sera de nouveau ouvert à l’immuable sagesse métaphysique qu’après une
réorientation radicale.
Après cette réflexion détaillée sur la nature de l’espace céleste, il nous reste à nous occuper du « temps
céleste » — c’est-à-dire de l’éternité80. Il faut tout d’abord souligner que, même si l’éternité est en un sens
la temporalité de la vie divine, elle diffère radicalement du temps, au point que la notion de durée ne s’y
applique pas81. C’est pour cette raison que l’éternité a été souvent comparée à l’instant, qui, lui aussi, n’a
aucune durée ; mais si l’instant disparaît « à l’instant », l’éternité ne passe pas du tout. C’est pourquoi elle
a été appelée nunc stans, un « maintenant qui ne passe pas ». Elle a cependant été trop souvent conçue
comme un présent statique, un présent où il ne peut y avoir aucun mouvement, donc aucune vie. Mais si
un tel état pouvait exister, il serait l’antithèse même de l’éternité, qui est, elle, la plénitude et la perfection
de la vie, « la parfaite possession d’une vie sans fin et simultanée », comme le dit magnifiquement Boèce.
Ce que les partisans du présent statique n’ont pas compris, c’est qu’aussi bien le passé que le futur sont
mystérieusement compris dans le « maintenant » de l’éternité ; ils ne sont pas annihilés, mais mis en
coïncidence, si l’on peut dire. Dans l’éternité, dit Nicolas de Cues, « toute succession temporelle coïncide
en un maintenant éternel »82. Si difficile qu’il nous soit de saisir l’essence de tels énoncés, une chose tout
au moins est dès maintenant claire : ce n’est qu’ainsi — sur la seule base d’une telle « coïncidence » —
qu’on peut concevoir « la parfaite possession d’une vie sans fin et simultanée ». Il en ressort que seule la
vie peut être éternelle — parce que l’éternité est la vie. La vie que nous connaissons — une vie brisée en
périodes successives et qui se termine dans la mort — est une réduction de la vie, une vie qui ne forme
plus un tout1. La vie est par nature éternelle, « toujours se reposant dans son mouvement et toujours
mouvante dans son repos, toujours nouvelle et toujours identique », comme dit Franz von Baader.
Nous avons vu que la substance de la nature céleste, sa « chair », est appelée lumière. On peut donc se
demander ce qui allie lumière et éternité. Il y a évidemment plusieurs espèces de lumière, de la lumière
photonique du physicien à la « lumière incréée » de la théologie orthodoxe, qui coïncide probablement
avec la lumière céleste au sens de la théosophie de Boehme. Il y a pourtant quelque chose de commun à
toutes ces modalités, en vertu de quoi chacune peut être reconnue comme un exemple de lumière.
Considérons la lumière que nous connaissons soit par la perception sensorielle, soit par le modus
operandi de la physique2. Quoiqu’elle appartienne déjà à l’ordre matériel, cette lumière est sans aucun
doute la moins matérielle de toutes les entités matérielles. Comme Hamberger le souligne : « La lumière
est à la limite de la matérialité et peut donc être l’image du supra-matériel, bien qu’elle ne soit pas elle-
même supra-matérielle. »
Il est étonnant de voir à quel point cette observation se révèle exacte quand on la regarde du point de
vue de la physique moderne. L’affirmation que la lumière est « à la limite de la matérialité » est
rigoureusement confirmée par la dynamique aussi bien que par la géométrie. Elle découle du fait que les
photons ont une masse nulle au repos, ce qui signifie que toute leur énergie est cinétique. On pourrait
dire que la lumière est un mouvement, dans lequel il n’y a rien de matériel qui se déplace — aucune
masse au sens ordinaire. La lumière constitue donc une limite ; elle est réellement « à la limite de la
matérialité ». Cette même conclusion découle du fait que la vitesse de la lumière est un maximum absolu,
qu’aucune autre sorte d’entité matérielle ne peut atteindre. L’affirmation de Hamberger se révèle donc
correcte d’un point de vue strictement mathématique.
On sait que la lumière se distingue de tous les autres modes de la matière par le fait mystérieux que sa
vitesse dans le vide est indépendante du cadre de référence par rapport à ce qui est mesuré. La vitesse de
la lumière constitue ainsi une constante universelle qui joue un rôle essentiel en physique fondamentale.
Qu’est-ce que cela indique ? Ce fait n’appuie-t-il pas réellement le point de vue de Boehme lorsqu’il définit
un mode transcendant de la lumière comme étant l’élément premier qui sous-tend la matérialité de notre
monde ? Étant donné que la lumière photonique, parmi toutes les formes de la matérialité, est la plus
proche parente de cet élément premier, ne se pourrait-il pas que l’invariance et le caractère maximal de
sa vitesse reflètent la primauté de son archétype ? Une chose est claire : si la lumière photonique
représente bien l’élément premier, ce fait ne peut se révéler sur le plan physique que par une certaine
prééminence et un statut normatif. On ne peut évidemment pas prédire, sur une base métaphysique,
quelle forme spécifique peuvent prendre cette prééminence et ce statut normatif; mais on peut
réellement, a posteriori, reconnaître l’invariance et la maximalité de la vitesse de la lumière comme des
caractéristiques de cet ordre.
Il nous sera utile de voir ce qu’on peut dire, du point de vue de la physique, sur un corps « fait de
lumière ». Pour le voir concrètement, qu’on pense à ce corps comme à une horloge, dont le mouvement
doit évidemment fonctionner à la vitesse de la lumière. Une telle horloge ne saurait être construite ; et
pourtant on peut la concevoir en termes de succession d’horloges qui existent et dont les vitesses, par
rapport à tel cadre de référence déterminé, approchent de la vitesse de la lumière. Or, si on pense à une
horloge comme indiquant le temps par une succession de tic-tacs, on peut affirmer, sur la base de
l’invariance de Lorentz, que ces tic-tacs ralentiront au fur et à mesure que la vitesse de l’horloge
approche de celle de la lumière. À la limite, d’ailleurs, quand l’horloge est vraiment « devenue lumière »,
on est forcé de conclure que le tic-tac s’est complètement arrêté : l’« horloge photonique » s’est
immobilisée. Qu’est-ce que cela signifie ? Peut-on dire que pour un corps « fait de lumière » — en
particulier pour un photon — le temps lui-même s’est arrêté ? Peut-on dire que, depuis le moment de sa
création jusqu’au moment de sa destruction, le photon en tant que tel ne fait pas l’expérience du flux du
temps ? Le physicien ne peut évidemment rien dire de tel. Il n’est concerné que par les résultats de ses
observations : des observations réelles, impliquant des instruments corporels réels. Pour lui, le fait que «
les horloges photoniques s’arrêtent » ne peut rien être de plus qu’une conséquence toute formelle de
l’invariance de Lorentz. Et pourtant, du point de vue métaphysique, qui est un point de vue supérieur, ce
fait formel prouve qu’il est suggestif à l’extrême. Le ralentissement des horloges lorsqu’elles approchent
de la vitesse de la lumière, le fait qu’à la vitesse de la lumière « le tic-tac s’arrête » : on ne peut concevoir
aucun scénario physique qui puisse refléter la métaphysique de l’éternité de façon plus indubitable. Le
tic-tac d’une horloge ne donne-t-il pas le sens du temps ? Et chaque tic-tac n’indique-t-il pas une
séparation du futur par rapport au passé, et ne représente-t-il pas le présent contracté en un seul point ?
Qu’est-ce que cela veut dire, alors, qu’une « horloge photonique » s’arrête ? Une seule chose : que pour
un « corps de lumière », il n’y a aucune séparation entre le futur et le passé, ni aucun « maintenant »
séparateur. Mais, à l’évidence, cette correspondance entre le fait formel et la métaphysique de l’éternité
est trop frappante pour pouvoir être rejetée. La physique relativiste atteste donc qu’il y a une relation
entre la lumière et la transcendance du temps.
Deux objections ont été soulevées. Selon la première, alors que le ralentissement d’horloges en
mouvement est défini en référence à une horloge Co conçue effectivement pour être au repos, nous avons
supposé qu’un ralentissement absolu des horloges se produit. Ce qui seul importe de notre point de vue,
cependant, c’est que l’allure des horloges, telle que mesurée par Co, tend vers zéro tandis que leur vitesse
relativement à Co approche de la vitesse de la lumière. Ce fait n’est plus relatif — ne dépend plus du choix
de Co —, mais constitue un théorème de physique relativiste. C’est ce théorème, ce fait non-relatif, auquel
nous nous référons lorsque nous parlons de l’immobilisation des horloges photoniques, et que nous nous
hasardons à les interpréter d’un point de vue métaphysique.
La seconde objection repose sur l’affirmation qu’il n’existe en réalité rien de tel qu’une horloge
photonique. C’est incontestable, et nous nous contenterions d’ajouter que la non-existence des horloges
photoniques découle déjà de la prétendue « immobilisation » elle-même : une « horloge qui s’arrête »
n’est pas vraiment une horloge. Toutefois, loin de contredire ma conclusion, ce fait même l’implique au
contraire : en effet, là où il ne peut y avoir d’horloge, il ne peut y avoir de temps. C’est un point sur lequel
s’accordent la science contemporaine et la philosophie traditionnelle : le temps est inséparable des choses
en mouvement. Ainsi, les durées indiquées par les mouvements périodiques d’une horloge n’ont pas
d’existence propre. Comme on l’a fait observer, pour Einstein ce sont les horloges qui font le temps. Parler
du temps dans le sens de la physique revient donc à parler d’horloges, qu’elles soient réelles ou
hypothétiques. Et cela ne fait que confirmer en soi ce que je disais : dans le cadre de ce qu’on peut
appeler un système de référence photonique — ou dans un monde « fait de lumière », comme il serait
souhaitable de dire —, la temporalité physique n’est plus concevable. La non-existence principielle des
horloges photoniques n’implique rien de moins.
Mais qu’en est-il de la transcendance de l’espace ? L’invariance de Lorentz ne devrait-elle pas avoir
également son mot à dire sur cette question ? La réponse est oui. Qu’on se rappelle le phénomène de la
contraction de Lorentz : une tige, par exemple, se contracte lorsque sa vitesse longitudinale augmente.
Cette contraction n’est pas une compression, causée par quelque force extérieure, mais concerne la
relativité de la longueur, de l’extension spatiale. À la limite, quand la vitesse longitudinale de la tige
approche de la vitesse de la lumière, la longueur de la tige tend vers zéro. Une « tige photonique » n’a,
ainsi, aucune longueur, aucune extension. Mais c’est évidemment une extension de l’espèce « séparative »
qui est en question ici. Nous découvrons ainsi qu’un « corps de lumière » montre formellement la non-
séparation spatiale caractéristique du Royaume des Cieux.
Il reste un point à examiner : au lieu de dire que le mouvement de la lumière est relatif aux corps non-
photoniques, il est peut-être plus éclairant de dire que le mouvement des corps non-photoniques est
relatif à la lumière. Comme image du supra-matériel, c’est, après tout, la lumière qui possède un statut
normatif. Si l’on dit que les corps matériels grossiers — quel que soit leur état de mouvement les uns par
rapport aux autres — se déplacent à une vitesse universelle de presque exactement trois cent mille
kilomètres à la seconde par rapport à la lumière, qu’est-ce que cela peut signifier ? Il me semble que ce
fait bizarre et extrêmement énigmatique ne peut signifier qu’une chose : que le mouvement universel de
la matière grossière par rapport à la lumière dénote précisément la distance ontologique qui sépare les
corporéités grossière et céleste. Ce mouvement fondamental et universel constitue ainsi une marque ou
une image de ce que la théologie appelle la Chute, l’expulsion du Paradis. Cette Chute, cette expulsion, se
reflète dans la structure même de notre univers. Non seulement la lumière photonique est une illustration
de la lumière éternelle, mais on voit qu’une vitesse universelle proche de trois cent mille kilomètres à la
seconde témoigne de notre expulsion de l’état céleste.
« La lumière, écrit déjà Hamberger en 1863, est à la limite de la matérialité, et peut donc être une
image du supra-matériel, quoiqu’elle ne soit pas supra-matérielle elle-même ». Un siècle plus tard, même
la physique de la lumière parle des « perfections invisibles de Dieu » (Romains I, 20). Non pas
ouvertement, évidemment — non pas comme elle parle des choses physiques —, mais en ainigmati, «
comme dans une énigme » (I Corinthiens XIII, 12). Et pourtant la physique parle des objets célestes, non
pas vaguement, mais de la manière la plus exacte qu’on puisse imaginer. Comme j’ai essayé de le montrer
— en n’utilisant rien de plus que l’invariance de Lorentz —, la lumière photonique reflète, avec la plus
extrême précision, à la fois l’éternité et l’extension intensive de la corporéité céleste. Il ne s’agit pas là, à
strictement parler, d’une précision mathématique — puisque la quantité ne s’applique pas au royaume des
cieux —, mais d’une précision de l’espèce appropriée au discours métaphysique, c’est-à-dire d’une
précision fondée sur l’analogie. La compréhension de ce point fait apparaître que la physique de la
lumière présente un argument de poids en faveur de Jacob Boehme et de son école dans le problème de la
corporéité céleste.
CHAPITRE VI

L’UNIVERS EXTRAPOLÉ
J’ai l’intention de réfléchir dans ce chapitre à la contradiction qu’il y a entre la cosmologie physique
contemporaine et l’enseignement patristique sur la création et l’histoire du monde originel, doctrine qui
respecte le sens littéral de la Genèse. Il n’est guère possible de concevoir deux visions plus divergentes de
l’univers — en réalité antithétiques —, ce qui explique évidemment pourquoi la vision patristique a fini par
être considérée à peu près universellement comme une doctrine insoutenable, ou au mieux comme une
espèce de mythe édifiant. Je tenterai de montrer que la question n’est cependant pas tout à fait aussi
simple. Le problème, on le verra, est complexe, et n’a été que rarement, sinon jamais, examiné en
profondeur.
Nous avons tout d’abord à nous demander si ces deux visions — scientifique et chrétienne — se réfèrent
vraiment au même cosmos, au même « monde » ; et chose peut-être surprenante, on découvre que tel
n’est pas le cas. La clef se trouve, une fois de plus, dans la distinction ontologique entre les domaines
physique et corporel83. Il y a d’une part les objets corporels, c’est-à-dire les choses que nous pouvons
percevoir. Pour prévenir un probable malentendu, il faut affirmer explicitement que ces choses corporelles
appartiennent bien au cosmos, au monde extérieur, ce qui signifie d’entrée le rejet des prémisses
cartésiennes — ce que Whitehead appelle « bifurcation » — et l’adoption d’une conception réaliste de la
perception sensorielle84. Ayant regagné ainsi la terra firma des écoles philosophiques traditionnelles, on
voit immédiatement que la physique ne se réfère pas vraiment au monde corporel, mais en dernier
ressort, on le sait, aux particules fondamentales et à leurs agrégats, objets indubitablement
imperceptibles, et donc non-corporels. Ils constituent ainsi un second domaine ontologique que j’ai
désigné par l’adjectif physique. Dans le cours du XXème siècle, la science a révélé une strate non-
perceptible, et jusque là inconnue, de la réalité cosmique. Peu importe le fait que cette remarquable
découverte ait été presque universellement mal interprétée en raison de cette distorsion cartésienne qui
nie le corporel : la seule chose qui concerne la présente recherche est qu’il y a deux domaines séparés —
le physique et le corporel — et que toute discussion cosmologique devra de jure les distinguer l’un de
l’autre. Peut-on alors concevoir que le monde corporel s’accorde avec les données de la Genèse, donc avec
la cosmologie patristique ? Je montrerai que tel est réellement le cas.

La possibilité même d’une physique mathématique dépend du fait que tout objet corporel X est associé à
un objet physique SX dont X dérive formellement ses attributs quantitatifs85. En outre, on s’aperçoit que X
et SX coïncident spatio-temporellement, c’est-à-dire que l’« ici et maintenant » de l’un s’applique aussi à
l’autre — principe auquel je me suis référé comme à la continuité spatio-temporelle86. Le domaine
corporel dans sa totalité spatio-temporelle correspond ainsi à un certain sous-ensemble C de l’espace-
temps du physicien, notion qui peut être précisée87. Ce sous-ensemble détermine en outre une région
complémentaire, que je nommerai l’univers extrapolé. On peut évidemment concevoir mathématiquement
que le sous-ensemble C coïncide avec l’espace-temps en général, ce qui signifierait que l’ensemble
complémentaire est vide. Mais on peut concevoir également que C ne constitue qu’un grain à l’intérieur
de l’espace-temps de la cosmologie physique, de sorte que presque tout l’univers tel que le considère la
science contemporaine est en fait extrapolé. Quelles sont alors les véritables dimensions spatio-
temporelles de C ? Jusqu’où, partant de « l’ici et du maintenant » avérés, le monde corporel peut-il
s’étendre dans les milliards d’années et d’années-lumière supposées embrasser le domaine physique ? Or
le premier point, et le plus fondamental, dont il faut s’assurer à cet égard, est que la physique en tant que
telle est en principe incapable de répondre à cette question. La raison de cette incapacité est très simple :
par nature, la portée de la physique est limitée au domaine physique. Elle ne voit, à travers ses lunettes
humaines, que les entités physiques et rien d’autre ; et c’est aussi la raison pour laquelle, au niveau
fondamental, l’acte de la mesure — qui implique nécessairement une transition du physique vers le
corporel — se présente au physicien comme une énigme, une anomalie, presque un paradoxe. La raison
pour laquelle la physique est incapable de vérifier les dimensions de C et la raison pour laquelle elle ne
peut comprendre la réduction du paquet d’ondes88 sont une seule et unique raison : la physique n’a
d’yeux que pour le domaine physique.
Que faire alors ? Si la physique ne peut pas nous éclairer sur l’étendue spatiale et temporelle du monde
corporel, comment peut-on parvenir à la connaître ? En particulier, par quels moyens peut-on vérifier
l’âge de ce monde ? C’est S. Thomas d’Aquin, rappelons-le, qui a posé la question de savoir si la seule
raison pouvait démontrer que le monde avait un commencement temporel ; il s’est aperçu que la raison en
tant que telle n’est pas à la hauteur de la tâche, et que la question ne peut être résolue qu’avec l’aide de
la Révélation. De même, à propos de l’âge du monde corporel, ne serait-ce pas également la Révélation
qui en détient la clef ? On sait que l’Écriture, prise à la lettre, répond réellement à la question. Elle nous
apprend que le monde est jeune, c’est-à-dire que son âge se mesure non en millions ou en milliards, mais
en milliers d’années. Il ne s’agit évidemment pas de déterminer le nombre exact, qui peut toujours être
mis en doute ; il existe des divergences à cet égard entre la traduction des Septante et les textes
massorétiques. Mais l’ordre de grandeur — qui est tout ce qui nous intéresse ici — n’est, lui, pas douteux.
Sur cette base, on parvient à la conclusion que la région de l’espace-temps qui correspond au monde
corporel est vraiment un simple grain à l’intérieur de l’espace-temps selon le modèle du Big Bang, avec
ses milliards d’années et ses années-lumière. À l’exception de ce « grain », l’univers de la cosmologie
contemporaine apparaît, sur la base scripturaire, comme étant en fait extrapolé. Nous réfléchirons tout à
l’heure au statut ontologique du cosmos extrapolé ; mais il nous faut d’abord regarder de plus près la
doctrine patristique. Il nous faut comprendre plus en profondeur ce que le christianisme enseigne sur la
nature et l’histoire de la création de Dieu.

Avant tout, il faut souligner que les interprétations « libres » des textes bibliques sont dépourvues de
toute autorité : elles ne sont guère plus que des opinions privées. Il est nécessaire d’interpréter l’Ecriture
à la lumière de la tradition, ou, comme disent les Orthodoxes, « dans l’esprit des Pères », qui est en fait,
au sens mystique, « l’esprit du Christ ». La Révélation ne réside donc pas simplement dans les livres, mais
dans le contexte vivant de l’Église, Corps mystique du Christ.
Le second point est celui-ci : il est vrai que la tradition ferme les yeux sur les multiples interprétations
des textes bibliques ; l’exégèse traditionnelle a cependant comme principe général le respect du sens
littéral ou direct. Ajoutons que ce principe n’est nulle part plus essentiel que dans les premiers chapitres
de la Genèse, où la tentation d’écarter le sens littéral se fait aiguë. Comme l’affirme explicitement S.
Thomas dans la Somme Théologique, I. 68. 1, en rapport à l’interprétation de la Genèse : « Dans la
discussion de questions de ce genre, deux règles doivent être observées, comme l’enseigne S. Augustin
(Gen. ad lit., I. 18). La première est de se tenir sans hésitation à la vérité de l’Écriture (veritas
Scripturae). Et la seconde est que, puisque l’Écriture sainte peut être expliquée en des sens multiples, on
ne devrait adhérer à telle explication particulière que dans la mesure où l’on est prêt à l’abandonner s’il
est prouvé avec certitude qu’elle est fausse... ». Et Etienne Gilson de commenter : « S. Thomas est ici
pleinement d’accord avec S. Augustin et affirme expressément qu’il a pris chez lui ce double principe »
qui débute par le précepte « de se tenir solidement à la vérité littérale de l’Écriture »89. Il en découle que,
même dans son mode scolastique, le christianisme donne la préférence au sens littéral ou non
métaphorique : c’est là la veritas Scripturae qu’il faut adopter « sans hésitation ». Mais on peut aussi dire
que le christianisme latin a quelquefois montré une prédilection pour les interprétations métaphoriques
des textes bibliques, non en contradiction avec le sens littéral, mais pour être « même plus vrai », si l’on
peut dire. Un exemple majeur est celui de l’interprétation des Six Jours90 : les Pères grecs — des
Cappadociens à S. Jean Chrysostome, S. Syméon le Nouveau Théologien, S. Grégoire le Sinaïte jusqu’à S.
Séraphin de Sarov et S. Jean de Kronstadt, morts au vingtième siècle — ont régulièrement insisté sur
l’interprétation directe de ces « jours » comme étant des périodes successives de courte durée, ou tout au
moins des paradigmes de nos jours, dans lesquels les actes de la création ont eu lieu. Nombre de Pères
latins de leur côté, à commencer par S. Augustin, ont opté pour une vision plus métaphysique de la
création, selon laquelle l’acte créateur est un et instantané, tandis que les Six Jours se réfèrent aux
phases de la manifestation temporelle successive des êtres créés. On peut dire que, vus sub specie
aeternitatis, les six actes créateurs de l’hexaemeron coïncident dans un seul Acte indivisible. Qu’il y ait six
actes ou un dépend ainsi du point de vue : si on prend son point d’appui dans le cosmos ou dans « le nunc
stans de l’éternité ». Et j’ajouterai qu’en ce qui concerne la cosmologie proprement dite, c’est le premier
de ces points de vue qui est essentiel. Il est intéressant de noter aussi que S. Ambroise (le Père qui a
converti S. Augustin) s’en tient solidement à la tradition orientale, non seulement par sa manière de voir
les Six Jours, mais en fait sur tous les points principaux relatifs à l’interprétation de la Genèse91. Il nous
faut maintenant examiner cette doctrine « cosmologique » de la Patristique sur la création et l’histoire
originelle. Je suivrai pour cela l’exemple du hiéromoine Seraphim Rose, dont la monographie sur ce sujet
s’est révélée œuvre inestimable de pionnier92.
Selon les Pères, répétons-le tout d’abord, les Six Jours sont réellement des jours. L’idée que ces « jours »
représentent dans la réalité de vastes périodes — position couramment connue comme la théorie du jour-
âge ou jour-ère, du créationnisme progressif, ou du créationnisme « vieille Terre » — est totalement
étrangère à l’esprit de la Patristique. Il faut cependant souligner dès maintenant qu’en dépit de leur
adhésion au sens littéral de l’Écriture, les Pères ne sont en rien des « fondamentalistes » au sens actuel.
Je soutiens que, loin d’être simplette ou naïve, leur doctrine est en fait plus subtile — plus raffinée, si on
veut — qu’aucune des positions habituellement adoptées de nos jours. On ne saurait oublier que ces Pères
étaient des mystiques d’un rang supérieur — rien de moins que des saints — et qu’en tant que tels ils
avaient sans aucun doute le don de sonder d’une certaine façon l’état du monde d’avant la Chute. Ils
pouvaient donc comprendre — beaucoup mieux que nous — la différence catégorique qu’il y a entre le
monde de l’origine et l’univers contemporain. Les plantes et les arbres, par exemple, dont ils disent qu’ils
s’épanouissaient dans le Paradis terrestre, ne sont en aucun cas les mêmes que ceux qui existent
aujourd’hui, mais cependant de vraies plantes et de vrais arbres, précurseurs de ceux d’aujourd’hui. Il
faut se souvenir qu’avec la Chute d’Adam le monde a changé. Une corruption massive a eu lieu, un
changement d’état, qu’avec nos facultés actuelles — elles aussi altérées par la Chute — nous sommes
normalement incapables de saisir. L’interprétation patristique de la Genèse, si littérale soit-elle, est donc
nécessairement aussi une interprétation mystique. Ce n’est que lorsque la vision mystique du monde
d’avant la Chute est remplacée par une compréhension profane que l’interprétation littérale devient
fondamentaliste, réellement simpliste, et mérite peut-être le ridicule dont l’accablent ceux qui ont un
tempérament scientifique. Il arrive cependant que ces hommes de science à l’esprit réfléchi se rendent
coupables de la même faute : eux aussi ont imposé les limites de leur vision du monde à un domaine qui
les dépasse de très loin.
Selon la vision des Pères, l’histoire du monde se subdivise en un certain nombre de sections majeures
qu’il faut clairement et soigneusement distinguer. La première de ces périodes, ce sont les Six Jours, les
jours où le monde a commencé. Elle n’est pas encore de l’histoire à proprement parler, mais le
commencement de l’histoire ; et le P. Seraphim le souligne : « Qu’est-ce que le commencement de toutes
choses, sinon un miracle ! »93. Grâce à des hypothèses adaptées, la science contemporaine a réussi, à sa
propre satisfaction, à concentrer ce miracle en un seul point : le soi-disant Big Bang. Mais la Genèse dit
que le miracle s’est étendu, pour ainsi dire, sur une période de Six Jours. Il est vrai que « Celui qui vit
éternellement a créé tout ensemble » (Ecclésiastique, XVIII, 1) ; et pourtant, vu du cosmos, cet Acte
unique est segmenté en six actes successifs qui composent ensemble l’hexaemeron, l’« œuvre de la
création ». Les Six Jours sont donc profondément différents de tous les jours qui les ont suivis, et
constituent ensemble une période préhistorique unique et incomparable.
Une fois encore, il convient de souligner que le fait d’admettre les « Six Jours » ne relève pas en soi d’un
point de vue fondamentaliste : tout dépend de la façon dont ces « Jours » sont conçus. Comme le fait
observer le Professeur Borella, « on sait qu’on désigne aujourd’hui par le terme de “fondamentalisme”, de
signification péjorative, ce qu’on appelait autrefois “littéralisme”, à savoir l’interprétation du texte
biblique “au pied de la lettre”. Bien qu’il y ait dans le fondamentalisme des requêtes qui pourraient
paraître éventuellement légitimes, il faut reconnaître qu’il lui arrive assez souvent de s’abandonner à des
excès peu recevables. S’agissant par exemple des jours de la création, il est vraiment difficile d’y voir des
journées de vingt-quatre heures alors que le Soleil, artisan de cette unité de temps — en cosmologie
géocentriste — n’existe pas encore. Pour notre part, comme nous l’avons exposé en d’autres occasions,
nous avons cru pouvoir trouver chez S. Augustin, en particulier dans La Genèse au sens littéral, de quoi
échapper à l’alternative : ou littéralisme ou allégorisme. La création de la lumière ne s’effectue pas au
“premier jour”, mais selon la lettre même du texte, au “jour un”. En ce “Jour Un”, qui correspond à la
création du cosmos angélique, tous les êtres sont créés dans leurs raisons séminales : “Celui qui vit
éternellement a créé tout ensemble”, dit l’Écriture (Ecclésiastique, XVIII, 1). Toutefois, les six “jours” —
les six “éclairements” — de la création sont bien réels. Ils constituent les six “aspects” de l’hexagone
cosmogonique. Il s’agit donc d’une structuration archétypale. Six est en effet le premier des nombres
parfaits, c’est-à-dire des nombres qui sont égaux à la somme de leurs diviseurs : 6 = 1 + 2 + 3 = 1 × 2 ×
3 ; de même, le rayon du cercle, qui mesure son déploiement à partir du centre, divise la circonférence,
qui limite ce déploiement, en six arcs de cercle égaux. Six est donc très réellement la marque de la
Première figure de ce monde, dont la succession des phases cosmogoniques est le déroulement logique. »
94

À la suite des Six Jours vient ce qu’on pourrait appeler l’Age du Paradis terrestre, période qui se
termine par la Chute d’Adam. Et comme nous l’avons remarqué plus haut, les Pères insistent pour que le
récit de cette période dans la Genèse soit compris en un sens à la fois littéral et mystique. Avec les Six
Jours de la création, nous ne sommes pas encore dans notre monde, l’univers observable dans lequel nous
nous trouvons. Pour être précis, la compréhension patristique du Paradis est mystique à deux égards :
tout d’abord parce qu’elle insiste sur le fait que sa nature dépasse nettement ce que l’« homme de chair »
— le psychikos anthropos de S. Paul — peut comprendre ; et ensuite parce qu’elle affirme que les choses
du Paradis peuvent réellement être « vues » quand un certain degré de contemplation est atteint. S.
Grégoire le Sinaïte, par exemple, en parle explicitement quand il explique « les huit premières visions »
qui accompagnent l’état de prière parfaite, dans lesquelles les choses jusque-là cachées « sont clairement
contemplées et connues de ceux qui ont par grâce atteint une entière pureté du mental »95. Et j’ajouterai
qu’il n’y a en fait aucun autre moyen par lequel les choses du Paradis terrestre puissent être connues : le
mental purifié constitue le seul « télescope », le seul et unique « instrument scientifique » par lequel ces
choses peuvent être mises à la portée de l’observation humaine.
La Genèse et les Pères nous apprennent qu’à l’Âge du Paradis, l’état du monde et les conditions de la vie
sur Terre étaient extrêmement différents de ce que nous connaissons aujourd’hui. Par exemple, à cette
époque-là, « tous les animaux sauvages des champs, tous les oiseaux du ciel » et « tout ce qui rampe sur
la terre et possède le souffle de la vie » (Genèse, I, 30) étaient encore « herbivores ». Quant à la nature
d’Adam, les Pères admettent sans hésitation que « Dieu a créé l’homme incorruptible » (Sagesse II, 23).
Selon l’expression de S. Jean Chrysnstome : « L’homme vivait sur la terre comme un Ange ; il était dans un
corps, mais n’avait pas de besoins corporels »96. On le voit, l’Âge du Paradis est encore miraculeux selon
nos normes contemporaines, ce n’est qu’après la Chute — et à cause de la Chute — que la silhouette de
notre monde commence à apparaître, car « En effet, la mort est venue par l’homme » (I Cor. XV, 21).
Pensons-y ! Où sont ces enchaînements généalogiques darwiniens entraînant mort sur mort pendant des
millions d’années ? Et ceci est un point d’une importance capitale : quiconque n’accepte pas l’affirmation
dogmatique « La mort est venue par l‘homme » a déjà rejeté ipso facto toute la vision chrétienne du
monde. À partir de ce point, plus rien ne correspond : l’ensemble de la doctrine chrétienne s’effiloche. Dès
que cette assertion pivot — « La mort est venue par l’homme » — a été classée comme une absurdité,
l’Incarnation, la Rédemption et la Résurrection suivent. Sur ce point Teilhard de Chardin ne s’est
nullement trompé : si l’explication évolutionniste des origines est véridique, il est nécessaire de réviser
radicalement la doctrine du christianisme : « propulsé vers un nouveau fondement », comme il le dit avec
pertinence. On n’a donc, tout au fond, que deux options : garder l’Écriture et les Pères de l’Église, ou se
rallier au paléontologiste jésuite97 et à ses successeurs ; il me semble qu’il n’existe pas de moyen terme.
Poursuivons : notre monde — plus ou moins l’univers tel que nous le connaissons ou le concevons
habituellement — est venu à l’existence après la Chute. Une transformation cataclysmique aux
proportions inimaginables a eu lieu, qui a radicalement altéré non seulement le monde extérieur, mais
l’homme lui-même, y compris tout particulièrement ses facultés cognitives. S. Macaire le Grand affirme
que l’expulsion corporelle du Paradis a eu sa contrepartie dans l’âme : « Que le Paradis ait été fermé,
écrit-il, et qu’un Chérubin ait reçu l’ordre d’empêcher, de son épée de flamme, les hommes d’y entrer,
nous le croyons, et que cela s’est passé de façon visible exactement comme il est écrit, et en même temps
nous découvrons que cela se passe aussi, mystiquement, dans chaque âme »98. C’est alors que « l’homme
de chair », le psychikos anthropos qui « n’accueille point les choses qui sont de l’Esprit de Dieu, car elles
sont pour lui une folie, et il ne peut les comprendre, parce que c’est spirituellement qu’on en juge » (I Cor.
II, 14), c’est alors que l’homme tel que nous le connaissons est advenu à l’existence. Non pas en un
instant, cependant, mais progressivement ; en effet, la Genèse dit aussi qu’Adam et Ève sont demeurés
quelque temps « près » du Paradis : assez près pour le voir de loin. On peut ajouter, d’ailleurs, que
l’humanité s’est engagée depuis les temps primordiaux dans une chute continuelle l’éloignant du Paradis :
chaque trahison, grande ou petite — tout ce que la théologie appelle « péché » —, constitue un maillon,
pour ainsi dire, dans cet enchaînement généalogique résolument non-darwinien !99
On a quelque raison de croire que même les lois de la nature telles que nous les connaissons sont
entrées en vigueur avec la Chute ; S. Syméon le Nouveau Théologien, par exemple, le laisse entendre tout
à fait nettement quand il écrit : « Les paroles et les décrets de Dieu deviennent les lois de la nature. C’est
pourquoi aussi le décret de Dieu, qu’Il a énoncé comme conséquence à la désobéissance du premier Adam
— c’est-à-dire le décret de mort et de corruption — devint la loi éternelle et immuable de la nature »100. Il
nous faut cependant comprendre ces deux derniers adjectifs dans un sens relatif ; car il est certain que S.
Syméon comprenait fort bien que ces lois « éternelles et immuables » seront suspendues « en ces jours-là
» quand « les puissances des cieux seront ébranlées » (Matthieu, XXIV, 29), et qu’il y aura « de nouveaux
cieux et une nouvelle terre ; alors on ne se souviendra plus des choses passées » (Isaïe, LXV, 17). Il
apparaît ainsi que ce que nous savons des lois naturelles — ce que vise le physicien, par exemple — ne
s’applique qu’à une phase plus ou moins éphémère du cosmos : à la période entre la Chute et la
Résurrection universelle101.
Les conséquences de cette assertion chrétienne sont évidemment incalculables. Dans la mesure où la
Terre et les corps célestes, y compris les premières formes de la vie et l’homme, sont venus à l’existence
avant la Chute, le scénario évolutionniste — du Big Bang à la formation des galaxies, des étoiles et des
planètes, et donc à la formation de molécules toujours plus complexes, culminant dans les espèces
biologiques —, ce scénario tout entier a été décapité d’un seul coup. Dans la mesure où nous avons
compris « l’esprit des Pères », nous comprenons que les Six Jours et le monde adamique d’avant la Chute
transcendent indiscutablement ce qui constitue la certitude de la « science » — et du psychikos
anthropos. Il n’est pas nécessaire d’examiner en détail les extrapolations obsolètes par lesquelles les
scientifiques ont cherché à reconstituer le lointain passé — tout droit jusqu’au Big Bang, et récemment,
même au-delà ! — parce qu’on sait, grâce à l’Écriture et à la tradition, qu’au-delà d’un certain point, et
bien avant qu’on sorte du domaine intégral de l’histoire humaine, ces extrapolations ne peuvent être que
des fictions. On sait par conséquent depuis le début que des affirmations par nature non-vérifiables
doivent avoir été introduites subrepticement dans ces extrapolations, et que les faits observables et les
lois naturelles vérifiées ne suffisent pas à induire le scénario évolutionniste. Nous y reviendrons.
Mais il est tout d’abord nécessaire de remarquer que la Genèse parle encore d’un autre tournant de
première importance dans l’histoire du monde, par lequel a passé la Terre que nous connaissons. Je pense
évidemment au Déluge, que la Genèse décrit en détail et de manière frappante. Elle dit par exemple (VII,
20) que les eaux se sont élevées à une hauteur de quinze coudées — environ vingt-deux pieds et demi —
au-dessus du sommet des montagnes : que pouvons-nous faire de ce détail ? Les théologiens répugnent
bien sûr, depuis un siècle et demi, à interpréter littéralement de tels textes, par peur d’être blâmés et
ridiculisés par les scientifiques. Les Pères, au contraire, prenant la Genèse au mot, ont vu le Déluge
comme une catastrophe aux proportions globales qui a violemment bouleversé la face de la Terre de
même que les conditions de la vie sur terre. Avec Noé et ses descendants commence une nouvelle phase
de l’histoire, à la fois de l’humanité et de la Terre. Les conditions climatiques elles-mêmes apparaissent
changées radicalement. On peut en déduire qu’avant le Déluge la répartition des eaux sur la terre était
sensiblement différente de ce qu’elle est aujourd’hui. Une grande quantité d’humidité fut diffusée à
travers l’atmosphère, causant ce qu’on appelle aujourd’hui un effet de serre. Ce sont évidemment en
partie ces « eaux qui sont au-dessus » (Genèse I, 7) qui se sont déversées au début du Déluge en
provoquant une inondation générale. On a supposé qu’avant le Déluge, la lumière directe du Soleil ne
pouvait pénétrer jusqu’à la surface de la Terre, ce qui pourrait rendre compte du fait que l’arc-en-ciel — le
signe de l’alliance primordiale — est apparu pour la première fois après le Déluge. On peut supposer que
durant le Déluge, et même dès le début de la catastrophe, se sont produits de gigantesques
bouleversements de la structure tectonique de la Terre, qui ont formé les continents dans leur
topographie actuelle. Il ne faut pas oublier que le Déluge de la Genèse — s’il a vraiment eu lieu ! — tombe
en principe dans le domaine de la science profane. Au contraire des événements apparemment miraculeux
qui précèdent la Chute, on a estimé qu’il a eu lieu sur cette Terre déchue il y a quelque cinq mille ans.
Est-ce une affirmation qui peut être raisonnablement maintenue aujourd’hui ?
Il faut remarquer tout de suite que ce n’est pas là un sujet d’un intérêt simplement académique ou
marginal ; cette affirmation est indispensable à la Weltanschauung patristique, qui subsiste ou s’écroule
en tant que doctrine absolue. Ici aussi on peut dire : en nier une partie, c’est nier le tout. Je me propose
donc d’examiner maintenant le statut de la doctrine patristique à la lumière des faits scientifiques
reconnus.

Jusque dans les premières décennies du XIXème siècle, on croyait généralement que la Terre était vieille
de quelque sept ou huit mille ans, et que les principales strates fossilifères s’y étaient déposées à l’époque
du Déluge. Vers 1900, l’âge de la Terre sur lequel on s’accordait avait grimpé à environ cent millions
d’années, et on en est aujourd’hui à cinq milliards, à prendre ou à laisser. Et c’est maintenant une
conception généralement acceptée que les strates fossilifères se sont formées pendant de vastes périodes
de l’histoire géologique par un processus plus ou moins uniforme de sédimentation. Ce renversement de
perspective a débuté en 1830 lorsque Charles Lyell exposa les principes d’une géologie uniformitariste 102
fondés sur l’hypothèse d’une « vieille Terre ». Neuf ans plus tard, John Pye Smith franchit le pas suivant :
en déclarant que le Déluge de la Genèse avait été une inondation régionale de la Mésopotamie, il éliminait
la seule alternative viable à la théorie de Lyell. Le décor était maintenant prêt pour l’entrée en scène de
Charles Darwin, dont le grand œuvre est paru en 1859.
Mais, tout d’abord, quelles preuves peut-on fournir à l’appui de l’hypothèse de la vieille Terre ? On
évalue l’âge géologique principalement au moyen de la datation radiométrique de roches ignées ou
métamorphiques. L’idée est simple : étant donné qu’un échantillon contient des traces d’un isotope
radioactif plus quelques éléments provenant de sa désintégration (famille radioactive) communément
appelés éléments parent et fils, on peut calculer le temps qu’il faut pour produire la proportion observée
des deux — pourvu qu‘on connaisse la proportion initiale, et qu’on soit également assuré qu’aucune
contamination ou infiltration n’a eu lieu durant le processus de désintégration. Il y a naturellement une
troisième hypothèse générique : que le taux de désintégration active il y a quelques millions ou milliards
d’années ait été le même qu’aujourd’hui. Il arrive cependant que chacune de ces hypothèses provoque de
sérieux doutes, spécialement la première qu’un magicien semble avoir tirée de son chapeau précisément
pour permettre la datation radiométrique. On prétend que seul l’élément parent était initialement
présent ; mais pourquoi devrait-il en être ainsi ? On sait par ailleurs qu’en général un certain nombre de
ces hypothèses génériques sont réellement invalides, pour la simple raison que des méthodes différentes
de datation radiométrique appliquées à un seul échantillon aboutissent généralement à des résultats
considérablement différents. On a en outre découvert que la datation radiométrique, appliquée à des
échantillons de lave dont l’âge est connu, peuvent les surestimer par des facteurs incroyables.
Pour compliquer encore le problème, il arrive que la roche sédimentaire qui constitue les strates
fossilifères ne puisse absolument pas être datée par la radiométrie. Le non-spécialiste peut être surpris
d’apprendre que ces strates sont normalement datées au moyen de ce qu’on appelle les fossiles index, et
cela sur des prémisses darwiniennes ! Comme Edmund M. Spieker — géologue respecté et strict
uniformitariste — l’a observé au sujet de l’échelle-temps associée à cette fameuse « colonne géologique »
exposée dans tous les musées d’histoire naturelle : « Et que peut être, essentiellement, cette échelle-
temps, et sur quels critères repose-t-elle ? Quand tout est démêlé et le grain séparé de la balle, il est
certain que le grain qui reste est principalement l’enregistrement paléontologique, et il est hautement
probable que l’évidence physique est la balle. »103
Il se trouve d’ailleurs que cette hypothétique colonne était « pratiquement gelée dans sa forme actuelle
vers 1840 », à une époque où les géologues n’avaient encore examiné que des bribes de l’Europe et la
frange Est de l’Amérique du Nord. « Les successeurs des pères fondateurs, écrit Spieker, parcoururent la
terre et, à la manière de Procuste, la firent correspondre à ce qu’ils avaient déjà découvert, même aux
endroits où l’évidence réelle le niait littéralement haut et fort. Voilà à quel point les “faits” de la géologie
sont souples et accommodants ». Même ce qu’on appelle les non-conformités — les strates plus anciennes
mises au-dessus des plus jeunes — ne semblent pas troubler ces géologues si sûrs d’eux-mêmes : comme
dans le cas du darwinisme, il semble qu’en géochronologie les problèmes peuvent être invariablement
réglés en se contentant d’ajouter une nouvelle hypothèse ad hoc.
Le fait peut-être le plus embarrassant est que le processus uniformitaire de la formation des fossiles ne
semble fonctionner nulle part. Comme Richard Milton le souligne : « Il n’y a aujourd’hui aucune roche
fossilifère connue en train de se former où que ce soit dans le monde. Il ne manque pas de restes
organiques, ni d’environnements sédimentaires marins calmes. Il est vrai que les os et les coquillages de
millions de créatures sont disponibles sur terre et au fond des mers. Mais nulle part ils ne sont lentement
enterrés dans des sédiments et pétrifiés. Ils sont tout simplement érodés par le vent, la marée, les
intempéries et les prédateurs ».104
Ce qui est évidemment nécessaire à la formation des fossiles est leur enfouissement rapide ; et Milton
poursuit : « Même les darwiniens les plus scrupuleux ne pourraient croire que le taux moyen de
sédimentation de la colonne géologique uniformitaire (0,2 millimètres par année) soit capable de fournir
un enfouissement rapide. »
Mais le pire était encore à venir : depuis 1985, la cause de la géologie uniformitariste s’est brusquement
dégradée. Un géologue français, Guy Berthault, a entamé des expériences de contrôle qui visaient à
vérifier le mécanisme réel de la sédimentation et elles semblent invalider les affirmations qui sont à la
base de la théorie de Lyell. « Ces expériences, écrit Berthault, contredisent l’idée de la lente accumulation
de strates l’une après l’autre. L’échelle de temps est ramenée de centaines de millions d’années à un ou
plusieurs cataclysmes produisant des laminae 105 presque instantanées »106. Ce n’est pas sans raison que
l’on considère que les résultats de Berthault, publiés de 1986 à 1988 par l’Académie française des
Sciences, ont sonné le « glas » de la géologie uniformitariste.
Ces quelques indications, si incomplètes qu’elles soient, suffiront peut-être à montrer que la
géochronologie n’est pas la science « dure » que l’on croit généralement, et que, quand on pense avoir
tout fait et tout dit, la théorie de la vieille Terre demeure aujourd’hui ce qu’elle a toujours été : une
hypothèse invérifiée et réellement invérifiable. Un observateur sans préjugés ne peut qu’être d’accord
avec Milton (lui-même n’étant en rien un défenseur de la jeune Terre) lorsqu’il conclut : « Étant donné que
les méthodes de datation radioactive ne sont pas scientifiquement fiables, il est impossible actuellement
d’avancer avec quelque certitude que ce soit quel est l’âge de la Terre »107. Pendant ce temps les
créationnistes — que la science officielle a longtemps méprisés et ostracisés — mènent une recherche
géologique tout à fait respectable, basée sur leurs présuppositions, inspirées par la doctrine biblique au
lieu de rêves d’évolution. L’hypothèse d’un Déluge universel, tel que la Genèse le décrit, joue évidemment
un rôle prépondérant dans ces investigations, et s’accorde aujourd’hui beaucoup mieux avec les faits
géologiques que les prémisses uniformitaristes opposées, que l’on peut maintenant en toute quiétude
passer aux profits et pertes comme autant d’hypothèses discréditées. Il n’est pas nécessaire aujourd’hui
d’être croyant pour parier sur le catastrophisme du Déluge.

Il ne fait aucun doute que la description du cosmos dans la Genèse est géocentrique. La Terre, dit le
tout premier verset, a été créée « au commencement », avant le Soleil, la Lune et les étoiles. On est
frappé par le fait que les corps célestes ont été créés le quatrième Jour, alors que la Terre avait déjà été
rendue vivable et que la vie végétale y était apparue. Et lorsque Dieu créa «les luminaires au firmament
du ciel » (verset 14), Il les créa « pour commander au jour et à la nuit » (verset 18) et « pour servir de
signes pour marquer les saisons » (verset 14). La Bible nous fait comprendre que le cosmos est centré sur
la Terre. Cette prééminence de la Terre reflète évidemment la prééminence de l’homme, la créature
théomorphique qui, comme le dit S. Syméon, « a été placée par le Dieu Créateur comme roi immortel de
toute la création »108. La situation centrale de la Terre apparaît tout d’abord comme iconique : nous ne
sommes pas encore dans le domaine des quantités mesurables ni des relations strictement géométriques.
En ce qui concerne le géocentrisme au sens ordinaire, il est intéressant de remarquer qu’avec la
progression de la civilisation moderne, l’idée de cette situation centrale a progressivement reculé jusqu’à
s’éclipser, fait historique qui ne saurait être dépourvu de signification spirituelle. On en est aujourd’hui à
affirmer que la Terre a perdu toute trace de sa prééminence originelle : ni dans notre système solaire, ni
dans notre galaxie, et bien moins encore dans le cosmos en général, sa position n’est actuellement conçue
comme particulière en un sens ou un autre. Nous devons nous rappeler, cependant, que le géocentrisme
se rapporte au monde corporel en tant que distinct du monde physique ; du point de vue de la géométrie,
il concerne le lieu de la Terre à l’intérieur de ce que nous avons défini plus haut comme le sous-ensemble
C. Et dans la mesure où la physique est en principe incapable de vérifier les dimensions ou les limites de
C, elle est ipso facto incapable de résoudre également la question de la géocentricité. Donc,
contrairement à l’opinion dominante, le géocentrisme n’a pas dit son dernier mot.
Quant au concept rival d’héliocentrisme, on peut discuter pour savoir si la théorie copernicienne
contredit la notion de géocentralité. C’est un fait que dans le cadre d’un système héliocentrique
coordonné — « sous cet arrangement ordonné », comme l’écrit Copernic — sont mis en lumière « une
magnifique symétrie de l’univers et une relation manifeste d’harmonie dans le mouvement et la grandeur
des orbes, d’une sorte qu’il est impossible d’obtenir d’aucune autre manière »109 ; mais cela prouve-t-il
que c’est la Terre qui tourne et non le Soleil ? D’un point de vue mathématique, la question n’a même
aucun sens : que tourne un corps ou un autre dépend de notre choix des coordonnées. Que nous jugions
que la découverte de Copernic compromet le géocentrisme dépend en dernier ressort, non d’un fait
scientifique, mais de notre orientation philosophique. La découverte elle-même ne fait rien de plus que
révéler une « relation d’harmonie dans le mouvement et la grandeur des orbes » que l’on n’avait pas
reconnue jusque-là — ad majorem Dei gloriam, pourrait dire le chrétien. On ne s’étonnera pas que le pape
Clément VII ait été enchanté et ait encouragé le savant polonais à publier ses découvertes. Le conflit sur
l’héliocentrisme, on le sait, n’a pas éclaté avant le siècle suivant, lorsque Galilée a répandu, non une
simple théorie mathématique, mais une vision complète du monde. Comme je l’ai souvent répété, c’est
précisément le postulat implicite de bifurcation, dans la distinction que fait Galilée entre les soi-disant
qualités premières et secondes, qui sous-tend la Weltanschauung scientifique et lui fournit son fondement.
Rétrospectivement, on voit que cette fameuse dispute ne portait pas seulement sur des faits
astronomiques, comme on aime à le croire actuellement, mais qu’était en jeu, sous la surface, un
problème plus vaste, un problème qui intéresse l’Église de manière vitale.
En ce qui concerne les cosmologies contemporaines, le point principal est qu’elles ne sont pas
simplement fondées sur des faits empiriques et des lois physiques bien connues, mais qu’elles exigent en
outre un troisième ingrédient d’une tout autre sorte : un modèle cosmologique. Mais d’où viennent ces
modèles ? Comment, en particulier, arrive-t-on au modèle qui sous-tend la cosmologie qui est la plus
célèbre aujourd’hui, la cosmologie de ce qu’on appelle le Big Bang ? Voici ce que Stephen Hawking et
George Ellis ont à dire sur la question : « Nous sommes incapables de construire des modèles
cosmologiques sans quelque mélange d’idéologie. Dans les plus anciennes cosmologies, l’homme se
plaçait dans une position dominante au centre de l’univers. Depuis l’époque de Copernic, la Terre a
continuellement rétrogradé, jusqu’à n’être plus qu’une planète de grandeur moyenne tournant autour
d’une étoile de grandeur moyenne sur la frange extérieure d’une galaxie de grandeur moyenne, qui n’est
elle-même que l’une des galaxies d’un groupe tout à fait local. Nous sommes actuellement de tels
démocrates que nous ne voudrions pas prétendre à une position spatiale qui se distingue en aucune façon.
A la suite de Bondi, nous appellerons cette prétention le principe de Copernic. Une interprétation
raisonnable de ce principe quelque peu vague doit se comprendre comme impliquant que l’univers,
lorsqu’il est vu à l’échelle convenable, est spatialement approximativement homogène »110. La vision
géocentrique du monde, on le voit, n’a pas été rejetée en vertu de faits scientifiques ni de lois physiques
reconnues, mais vraiment sur des bases idéologiques. Le problème est que le géocentrisme a un arrière-
goût de dessein intelligent (intelligent design). Il se trouve que les fondateurs de la cosmologie moderne
ont épousé une idéologie qui favorise le hasard ou l’aléatoire plutôt que l’idée d’un créateur intelligent ; la
cosmologie du Big Bang est fondamentalement du darwinisme à l’échelle cosmique.111

La question va maintenant être de savoir si on peut construire une cosmologie relativiste viable à partir
d’un modèle géocentrique. Et une seconde question sera de voir si, dans un univers géocentrique, la Terre
est vieille ou jeune. Le projet d’une cosmologie de la jeune Terre semble assurément difficile à soutenir et
ses chances sont assez minces. Les astronomes, nous dit-on, ont observé des galaxies distantes de notre
planète de douze milliards d’années-lumière : selon la chronologie biblique, cela signifierait que les
photons responsables de ces observations se sont embarqués dans leur voyage cosmique à peu près douze
milliards d’années avant le commencement du monde ! Ce scénario semble donc absurde. Il faut
cependant se rappeler que le temps n’est pas l’absolu que nous croyons ordinairement, mais peut se
dérouler, en termes de relativité, à des vitesses extrêmement différentes. Dans l’idéal, il est donc
parfaitement concevable que douze milliards d’années de temps stellaire puissent se traduire en quelques
milliers d’années telles que les mesurent les horloges terrestres. Étant donné que la chronologie biblique
se réfère au temps terrestre, il n’y aurait aucune contradiction intrinsèque entre les deux postulats d’une
création récente et de l’ancienneté des étoiles. Mais la question subsiste évidemment de savoir si cette
possibilité conceptuelle peut être intégrée dans une cosmologie relativiste viable.
J’aimerais ici en référer aux remarquables recherches de Russell Humphreys, physicien aux convictions
bibliques opposées au darwinisme, qui a proposé récemment une cosmologie relativiste qui peut se
révéler d’un intérêt majeur112. Le point de départ de son hypothèse est le postulat d’un espace sphérique
limité dont la Terre est le centre. Le modèle est classique : presque ptolémaïque. Mais il est aussi
profondément chrétien : la géométrie même d’un tel univers indique qu’il obéit à un dessein, une finalité
— alors que le modèle opposé d’un univers illimité, dont la masse se distribue d’une manière «
spatialement à peu près homogène », se réfère au hasard, à un sort aveugle. En outre la limitation elle-
même connote la transcendance, notion liée de près à celle du « dessein intelligent » (intelligent design),
et également difficile à digérer par les scientifiques du courant dominant. Néanmoins Humphreys
s’accorde avec les cosmologistes du Big Bang sur la question de l’expansion cosmique : cette théorie,
pense-t-il, repose non sur ce que j’ai appelé le principe de Copernic, mais sur des bases empiriques. Il
s’agit alors pour lui de construire un cosmos à la fois sphérique et en expansion qui satisfasse aux
équations de la relativité générale, problème qui se révèle intimement lié à la théorie des trous noirs. Un
trou noir, rappelons-le, est une région de l’espace où le champ gravitationnel est si fort qu’il y emprisonne
en permanence et la matière et les radiations : rien, même la lumière, ne peut s’en échapper — d’où le
terme de « trou noir ». Ces régions sont délimitées par une surface intangible, appelée horizon des
événements113, qui renvoie vers l’intérieur les rayons de lumière qui émanent du trou noir. L’horizon des
événements est d’ailleurs semi-perméable, ce qui veut dire que la matière et les radiations peuvent
traverser cette surface, mais dans une seule direction : dans cet exemple-ci, de l’extérieur vers l’intérieur.
On se souvient peut-être que Stephen Hawking a rapporté le compte rendu impressionnant d’un
astronaute qui se dirigeait vers l’horizon des événements d’un trou noir114 ; ce qui frappe — à part le fait
que l’astronaute est embarqué dans un voyage sans retour — est l’extrême dilatation du temps
gravitationnel115 dont il a fait l’expérience alors qu’il s’approchait de l’horizon des événements : la montre
de l’astronaute ralentit (relativement à nos montres) au point que le tic-tac s’arrête lorsque l’horizon des
événements est traversé.
Or il arrive que les équations de la relativité générale permettent un deuxième scénario, que l’on peut
brièvement définir comme un trou noir qui fonctionne en sens inverse. On a de nouveau une région de
l’espace limitée par un horizon des événements semi-perméable ; mais cette fois la matière et les
radiations ne peuvent que sortir du trou noir. Ces étranges conclusions ont été découvertes par les
mathématiciens des années soixante-dix et ont été surnommées « trous blancs », mais jusqu’à présent
elles ne se sont révélées que de peu d’intérêt aux yeux des astronomes et des cosmologistes. Il se trouve
cependant qu’un trou blanc est précisément ce dont on a besoin pour obtenir une cosmologie fondée sur
un modèle spatialement limité. Humphreys conclut qu’un univers limité doit s’être dilaté à partir d’un trou
blanc. Dans l’histoire d’un univers géocentrique, il doit donc y avoir eu un moment où l’horizon des
événements a traversé la surface de la Terre ; que pouvons-nous en conclure ? À la place d’un astronaute
qui s’approche de l’horizon des événements depuis l’extérieur, imaginons un observateur humain sur la
Terre qui émerge de l’intérieur du trou blanc. Ici c’est le temps terrestre qui est près de s’arrêter, tandis
que les horloges sur les étoiles très éloignées semblent comparativement prendre une vitesse
fantastique : assez rapide, en fait, pour compter un milliard d’années dans la courte durée telle que
l’enregistrent nos horloges. Il apparaît donc, de façon remarquable, qu’une cosmologie géocentrique est
par essence nécessaire à une cosmologie de la jeune Terre.

Il est bien sûr d’un intérêt considérable qu’une cosmologie géocentrique telle que celle qu’on vient de
voir ait été proposée. Les créationnistes espèrent que la cosmologie du trou blanc s’accordera avec les
faits observables mieux que la théorie du Big Bang, et leur attente pourrait bien s’avérer conforme à la
réalité. Les cosmologies physiques sont cependant soumises — et peu importe à quel degré elles
concordent avec les données empiriques — à une limitation générique provoquée par la différence
ontologique entre les domaines physique et corporel : c’est ce qu’il nous faut clarifier.
Tout d’abord, j’affirme une fois de plus que le corporel a la prééminence sur le physique. Qu’est-ce que
cela signifie ? À l’évidence, les entités physiques existent en tant qu’objets visés par la physique ; et en
tant que tels ils ont une existence intentionnelle. Mais les choses qu’on voit en rêve aussi, ou dans un
mirage, et même les trous du fromage d’Emmental. Je ne sous-entends évidemment pas que les entités
physiques sont des imaginations subjectives, ou des illusions, ni même qu’elles soient apparentées en quoi
que ce soit aux trous de l’emmental ! Ce que je veux dire est plutôt que les entités physiques dérivent du
corporel. L’existence primaire, je le soutiens, surgit directement de l’Acte créateur de Dieu, donc de ce
que S. Thomas appelle l’esse, l’acte-d’être soi. Comme on le lit dans le prologue de l’Évangile de S. Jean :
« Toutes choses ont été faites par Lui, et rien de ce qui a été fait n’a été fait sans Lui ». Or, du point de vue
cosmologique, « ce qui a été fait » (au niveau ontologique le plus bas), ce sont les natures corporelles, les
choses corporelles ; tout le reste — du mirage et des trous de l’emmental aux entités de la physique — en
dérive.
Cette position est évidemment à l’exact opposé de la vision réductionniste, qui regarde le corporel
comme un épiphénomène du physique, octroyant ainsi au physique la réalité première. Il vaut cependant
la peine de remarquer que la prétention de la primauté physique s’oppose aux critères de l’empirisme
scientifique, et donc à la tendance dominante de la philosophie des sciences. Car, en réalité, l’empirisme
scientifique a une orientation épistémologique et anti-métaphysique : il insiste sur la primauté de
l’observation scientifique, en fait, de l’expérience sensorielle contrôlée. La prétention de la primauté
physique contredit ainsi les fondements philosophiques sur lesquels la physique elle-même est supposée
se fonder. Au contraire, quand Niels Bohr déclarait qu’« il n’existe pas de monde des quanta », il était en
accord avec ce qui a longtemps été la philosophie officielle de la science.
Je remarque aussi en passant qu’il n’est guère possible d’affirmer la primauté physique sans réifier le
physique en le dotant d’attributs corporels. Une particule fondamentale se voit ainsi dotée d’une forme et
d’une position qui conviennent à une bille ou à une boule de billard, contrairement à ce que la théorie des
quanta nous autorise à concevoir. En un mot, en attribuant la primauté à ces particules supposées, on
commet l’erreur de les corporifier — fait qui milite indirectement en faveur de la primauté du corporel.
Comme l’a remarqué Heisenberg, les particules fondamentales ne sont pas, à strictement parler, des «
choses », mais constituent « une sorte bizarre d’entité physique à mi-chemin entre la possibilité et la
réalité »116. Penser à ces soi-disant particules comme à des « choses » et même comme à des choses
premières, pas moins — c’est, au minimum, de la naïveté.
Je soutiens ensuite que chaque réalité dérivée dépend en fait d’une loi qui concerne les choses
primaires. Un mirage, par exemple, dépend de l’une des lois de l’optique, et les trous de l’emmental
évidemment d’une loi qui touche à la structure de ce fromage. Et de même, le physique dépend d’une loi
universelle qui concerne la nature corporelle. Cette loi n’est bien sûr pas une loi physique ; mais plutôt la
loi qui fonde à la fois les choses physiques et la loi ou les lois qui s’appliquent à elles. Or il va sans dire
que Dieu est l’auteur de la nature corporelle et de sa loi ; mais de nouveau, il est nécessaire de distinguer
entre les natures corporelles d’avant et d’après la Chute. J’en dirai ceci : la loi qui fonde le domaine
physique a reçu toute sa force précisément de la Chute. Elle ne peut rien être d’autre que cette « loi de la
nature, éternelle et immuable » dont parle S. Syméon : la loi que Dieu imposa quand il décréta « la mort
et la corruption ». Il faut nous souvenir — quelque difficulté que nous ayons à le concevoir — qu’avant
cette catastrophe cosmique il n’y avait pas de mort ni de corruption. Il en ressort que la nature de la «
chair », et donc de ce nous appelons « matière », a considérablement changé. Nous en avons un aperçu
dans les récits évangéliques de la Résurrection : par exemple, dans le cas où le corps ressuscité du Christ
pouvait traverser les barrières physiques telles que les murs et les portes. Tout le domaine des miracles
authentiques témoigne du fait que les natures corporelles peuvent en principe être libérées des entraves
de la loi physique : dans les conditions appropriées, ces lois peuvent être suspendues. Et il est
évidemment extrêmement significatif que les miracles abondent dans l’ambiance des mystiques et des
saints : d’hommes et de femmes qui ont approché l’état originel, l’état adamique d’avant la Chute.
Qu’implique alors la primauté du corporel en ce qui concerne la cosmologie physique ? Force est de
conclure que le domaine physique lui-même est venu à l’existence au moment de la Chute, et cessera
d’exister quand seront créés « de nouveaux cieux et une nouvelle terre ». Comme je l’ai suggéré, aucune
cosmologie physique ne conserve sa validité lorsqu’on extrapole au-delà de l’une de ces deux limites,
divinement imposées, de l’histoire humaine et cosmique. Dilatée au-delà de ces limites, la théorie
physique ne conserve qu’un sens purement formel ; en d’autres termes, elle devient fictive. Une telle
fiction peut certes encore se révéler utile dans l’organisation ou la prévision de certains faits
d’observation : l’idée même d’extrapolation l’implique. On tombe cependant dans l’erreur dès qu’on
considère la théorie extrapolée comme l’exposé factuel d’une évolution passée ou future. En particulier,
aucune théorie physique ne demeure factuelle si on extrapole rétrospectivement jusqu’à la création du
premier homme.

Quelques mots encore au sujet de la cosmologie du trou blanc ; ils seront opportuns au point où nous en
sommes. La théorie physique a évidemment besoin d’être « étalonnée » par l’identification du moment
historique où l’horizon des événements traverse en se rétrécissant la surface de la Terre. Humphreys situe
cet événement pivot au quatrième Jour de la création, pour le faire coïncider avec la création du Soleil, de
la Lune et des étoiles. De cette façon il étend la théorie physique à une zone où, selon les considérations
qui précèdent, elle ne s’applique pas. À la place, je propose que ce moment coïncide avec la Chute, et
donc avec le point de départ du temps physique — le temps que nous connaissons. Ce moment n’a donc
aucune préhistoire physique. La terminologie métaphysique dira qu’il marque le passage de l’aéviternité
au temps117. Je trouve très frappant que la théorie physique elle même en témoigne : car en fait, à ce
moment même — compte tenu de l’étalonnage proposé —, la dilatation du temps gravitationnel sur Terre
atteint son point culminant. Pendant un instant, pour ainsi dire, les horloges terrestres s’immobilisent : le
temps terrestre s’arrête. C’est le même effet qui se produit, selon la relativité restreinte, pour une horloge
hypothétique qui se déplacerait à la vitesse de la lumière dans le vide ; et, comme je l’ai déjà montré118, le
phénomène est un authentique reflet de l’aéviternité.
Le temps physique — le domaine physique lui-même - vient à l’existence au moment où l’horizon
sphérique des événements tombe au-dessous de la surface de la Terre, moment qui coïncide avec la
naissance de l’horizon des événements lui-même. On peut voir l’image résultante de la Terre « qui perce »
cette surface comme une icône de l’Expulsion. Dans l’intervalle, le temps du firmament avance à des
vitesses incroyables relativement au temps terrestre qui vient d’apparaître, et le cosmos lui-même, centré
sur la Terre, se dilate à une vitesse fantastique. Comme si une explosion gigantesque réduisait l’univers
en morceaux. Au fur et à mesure du temps, d’ailleurs, les horloges terrestres s’accélèrent aussi, ce qui
signifie que notre « distance dru Paradis continue à croître. Je propose donc que la vitesse des horloges
devienne la mesure de cette « distance », qui est à la fois ontologique et géométrique. Mais si c’est le cas,
et si la dilatation cosmique est réellement l’icône de la Chute, on saisit immédiatement la relation, notée
plus haut, entre le géocentrisme et la cosmologie de la jeune Terre : on peut alors soutenir que la Terre,
en vertu de sa centralité et de son statut d’habitat de l’homme, se trouve « plus près dru Paradis terrestre
que les régions extérieures du cosmos, et que ce fait se reflète physiquement dans une dilatation
correspondante du temps. On le voit, Humphreys nous a dotés d’une cosmologie relativiste qui est
théologiquement sérieuse et s’accorde avec la doctrine patristique.
Pourtant, si fascinante que la cosmologie du trou blanc puisse être, elle non plus n’est pas concluante. Il
est assurément d’un grand intérêt de savoir qu’une cosmologie géocentrique de la jeune Terre est
vraiment concevable d’un point de vue scientifique ; mais la question de savoir si cette cosmologie est
vraie n’a pas été résolue. Scientifiquement parlant, ce qui compte en dernier ressort est l’évidence
empirique ; et remarquons qu’une seule découverte contraire suffit en principe à renverser une théorie.
En clair, c’est la Nature qui a le dernier mot. Il peut donc être approprié de conclure ce bref survol par le
récit peu connu d’une découverte scientifique en géochronologie qui peut en fait se révéler décisive. Il
semblerait que le Créateur, prévoyant peut-être l’arrogance de l’homme d’aujourd’hui, ait trouvé à propos
de placer dans les roches qui composent la Terre des morceaux d’évidence qui disqualifient d’un seul
coup nos théories scientifiques les plus prestigieuses.
L’anecdote débute vers la fin du XIXème siècle, lorsque des géologues se mirent à débiter en tranches
des échantillons de roches ignées et à soumettre ces spécimens à un examen au microscope. Ils
découvrirent à leur grande surprise des structures de cercles concentriques qui ressemblaient à des
cibles de tir à l’arc, qu’ils firent connaître sous le nom de halos pléochroïques 119 en raison de leurs
colorations délicates. L’origine de ces halos demeura mystérieuse jusqu’en 1907, où John Joly, du Trinity
College de Dublin, montra qu’ils étaient causés par un grain de matière radioactive fixé en leur centre. On
sait que la série de désintégration de l’uranium 238 contient un certain nombre d’isotopes radioactifs qui
émettent des particules alpha : outre l’uranium 238 lui-même, la série contient encore l’uranium 234, le
thorium, le radium, le radon et trois isotopes du polonium, qui sont tous des émetteurs alpha. Chaque
particule alpha ionise en cours de route des atomes, de l’ordre de cent mille, laissant une trace indélébile
des dislocations. La longueur de sa trajectoire dépend en outre de son énergie initiale, qui à son tour
dépend de la source. Puisque les particules alpha sont émises aléatoirement dans toutes les directions,
chaque émetteur alpha donne une coquille sphérique d’un rayon correspondant à la configuration qui en
résulte, ce qui explique la structure observée. De la séquence des rayons on peut maintenant établir la
portion correspondante de la séquence de désintégration. Un halo radio (comme on l’appelle maintenant)
est ainsi déterminé par son premier émetteur alpha. Remarquons que la genèse des halos d’uranium, en
particulier, ne pose aucun problème sérieux. Puisque l’uranium a une très longue demi-vie, de l’ordre de
4,5 milliards d’années, on peut sans peine imaginer comment un grain qui contient ce matériau peut se
loger dans un magma chauffé, qui ensuite se refroidit pendant des milliers d’années pour former un
minéral qui, comme une plaque photographique, enregistrera des émissions alpha à partir de l’uranium
restant, de même que les isotopes radioactifs qui résultent de sa décomposition. Comme on peut s’y
attendre, ces halos d’uranium gardent un centre radioactif. Le cas est cependant différent quand il s’agit
des halos de polonium, dont la demi-vie est extrêmement brève, de cent trente-huit jours pour le polonium
210 à cent soixante-quatre microsecondes pour le polonium 214. N’importe quel polonium, implanté dans
un magma, disparaîtrait donc certainement longtemps avant que le magma se soit assez refroidi pour
enregistrer les trajectoires alpha. Et le polonium ne pourrait pas avoir été implanté dans un minéral déjà
solidifié. Enfin, il n’est pas non plus concevable que les halos de polonium aient ce qu’on appelle une
origine secondaire, qu’ils dérivent d’une source proche de l’uranium, comme certains scientifiques font
proposé en désespoir de cause. Il n’y a donc pas de solution : les halos de polonium — éparpillés en
abondance dans tout le granit précambrien — ont lancé à la géologie évolutionniste un défi qui pourrait
bien lui être fatal. Ces structures semblent en fait n’exiger rien moins qu’un scénario jeune Terre.120
Où tout cela nous mène-t-il ? Que peut-on finalement conclure sur le statut de l’univers extrapolé tel que
l’imagine le courant dominant de la science contemporaine ? Si on garde à l’esprit tout ce que nous
venons de voir, la réponse s’impose d’elle-même : en un mot, cet univers putatif se révèle être à la fois
métaphysiquement impossible et scientifiquement infondé.
CHAPITRE VII

L’ÉCUEIL DE LA COSMOLOGIE ASTROPHYSIQUE


La rumeur publique veut que le Big Bang soit maintenant « un fait scientifiquement prouvé ». Quand
Arno Penzias et Robert Wilson découvrent en 1965 le fond diffus cosmologique devenu célèbre depuis, le
New York Times titre : « DES SIGNAUX IMPLIQUENT UN UNIVERS ISSU DU BIG BANG ». Qu’ils
l’impliquent ou non est évidemment une autre question, mais il n’en reste pas moins que la théorie du Big
Bang est depuis lors la cosmologie officielle. L’Université enseigne dans toutes les facultés des sciences
que l’univers est né il y a à peu près quinze milliards d’années dans une espèce d’explosion et que depuis
lors il vole en éclats. Elle soutient que c’est la raison pour laquelle on a observé que les étoiles et les
galaxies s’éloignent à une vitesse proportionnelle à leur distance, comme l’astronome américain Edwin
Hubble est supposé l’avoir démontré. Et grâce à une vaste couverture médiatique, l’image de l’expansion
d’un « univers en bulle de savon » s’est révélée, avec le temps, du goût du grand public. Or une
transformation aussi radicale de notre Weltanschauung collective n’a pu rester sans conséquences sur
notre culture, et surtout notre sensibilité religieuse — question que j’examinerai en temps utile.
Le chapitre se divise en trois parties disparates : j’examinerai d’abord le statut scientifique actuel de la
théorie du Big Bang, avant de passer à une réflexion sur la nouvelle cosmologie d’un point de vue
spécifiquement théologique et chrétien. Je soutiendrai qu’en dépit de son apparente affirmation d’une
creatio ex nihilo, cette cosmologie est en réalité profondément opposée à la foi chrétienne. Et enfin, je
réfléchirai aux prétentions de l’astrophysique contemporaine, sans me référer à aucune théorie ou à
aucun paradigme particulier.

Les théoriciens du Big Bang ont évidemment devant eux une tâche énorme ; il faut que la théorie rende
compte, tout au moins en termes convenablement approximatifs, de l’évolution physique de l’univers,
depuis ce que Georges Lemaître a appelé l’« atome primitif » jusqu’à l’immensité de son état actuel. Il
vaut la peine de relever que l’une des tentatives de recherche les plus intensives et prolongées de
l’histoire de la science n’a réussi, jusqu’ici, qu’à accroître les difficultés. L’histoire commence avec la
version « atome primitif » de la théorie de Lemaître121, présentée en 1931 à un colloque scientifique et
bientôt rejetée par l’ensemble des astrophysiciens. Lemaître avait ancré sa théorie dans l’affirmation que
les rayons cosmiques n’avaient pu être produits que sur le contrecoup immédiat du Big Bang, conjecture
qui s’est révélée fausse. Après une période d’inactivité, l’intérêt pour la théorie du Big Bang est réapparu
à la fin de la Seconde Guerre Mondiale, probablement stimulé par le spectacle de l’explosion des bombes
atomiques. De toute façon, la seconde version a été proposée en 1946 par George Gamov, un physicien au
charisme exceptionnel122. Au lieu des rayons cosmiques de Lemaître, Gamov étayait sa théorie sur les
éléments de la chimie, qu’il concevait comme des vestiges tangibles du Big Bang. Je revois comme si j’y
étais un colloque de physique où, à mon grand étonnement, Gamov décrivit en détail la constitution
nucléaire de l’univers tant de microsecondes après le Big Bang. Sa théorie a néanmoins échoué : quand
Fred Hoyle et ses collaborateurs publièrent un article, en 1957, où ils montraient que la nucléosynthèse à
l’intérieur des étoiles provoque des noyaux lourds — dans des proportions comparables aux valeurs
existantes —, la deuxième brève période de la théorie du Big Bang toucha à sa fin. Pendant un certain
temps, une cosmologie alternative, appelée théorie de l’état stable ou stationnaire123, prit le relais. En
1965, la marée reflua cependant encore une fois — au moment historique saisi par le New York Times
dans son gros titre.
Quelle est alors la relation entre le fond diffus cosmologique et le Big Bang ? Il est manifeste que, sur la
base de la physique fondamentale, le Big Bang (au cas où il aurait eu lieu) doit avoir produit une
abondante radiation, qui doit en outre perdurer encore dans l’univers (pour la simple raison qu’elle ne
peut aller nulle part ailleurs). Puisqu’elle doit se maintenir dans un état d’équilibre thermique (encore une
fois parce qu’il n’y a pas d’« extérieur » avec lequel pourraient se faire des échanges d’énergie), cette
radiation est nécessairement de nature à avoir été émise par ce qu’on appelle un corps noir, dont la
température peut se déduire de la distribution de fréquence. Enfin, le champ de radiation produit par le
Big Bang doit s’étendre de manière égale dans tout l’univers, la raison en étant que des conditions
initiales homogènes produisent des effets homogènes. Selon les premiers calculs de Gamov, ce champ de
radiation devrait maintenant s’être « décalé vers le rouge » pour correspondre à une température de
corps noir de 20 kelvins, ce qui mettrait sa masse au rang des micro-ondes. Cette estimation de
température a été plus tard révisée à 30 K par P. J. E. Peebles — et on s’est arrêté là jusqu’au jour où, en
1965, le fond diffus cosmologique a été capté par une antenne géante en forme de cornet des
Laboratoires Bell124 et déchiffré par deux jeunes scientifiques qui n’avaient jamais entendu parler du Big
Bang. En dépit du fait que la radiation s’est avérée avoir une température de corps noir de 2,7 K (dix fois
inférieure), la découverte produisit l’impression qu’une prévision stupéfiante avait maintenant été
vérifiée, et qu’en effet « les signaux impliquent un univers issu du Big Bang ».
La théorie n’était cependant pas encore tout à fait au point. Le problème le plus important pour la
nouvelle cosmologie était d’expliquer le caractère gigantesque des structures de l’univers astronomique.
Et ici le fond diffus cosmologique se révéla un obstacle infranchissable : son aspect uni lui-même et son
isotropie semblaient exclure un univers « grumeleux » 125 tel qu’on l’observe actuellement. Étant donné
que la matière du cosmos primitif était distribuée de façon aussi égale que le fond diffus cosmologique le
donne à croire, comment pouvait-il se concentrer dans des étoiles et des galaxies ? Certaines fluctuations
initiales se sont probablement amplifiées sous l’influence de forces gravitationnelles jusqu’à former
l’univers stellaire ; il se trouve cependant que les champs gravitationnels nécessaires à une telle
consolidation doivent être immensément plus forts que la quantité totale de matière que l’univers peut
contenir. Et comble de malheur, on découvre que les vitesses relatives entre les étoiles proches et les
galaxies sont relativement faibles, rendant impossible de réaliser les séparations plus grandes observées
dans les quinze ou au plus vingt milliards d’années prévues par le scénario du Big Bang. Le problème
s’est encore exacerbé du fait d’un accroissement énorme de la taille des objets stellaires de grandes
dimensions identifiés par les astronomes. Tout d’abord les étoiles isolées, puis les galaxies, puis les amas
de galaxies ; et enfin, en 1986, Brent Tully, de l’Université de Hawaii, a découvert que la plupart des
galaxies dans un rayon d’un milliard d’années-lumière sont concentrées dans des structures minces dont
la longueur est d’environ un milliard d’années-lumière. C’est ce qu’on appelle les superamas, dont
plusieurs équipes de recherche ont depuis lors vérifié l’existence. En 1990, Margaret Geller et John
Huchra, de l’observatoire Smithsonian de Harvard, ont découvert une série considérable de galaxies, de
la grandeur des superamas, que l’on appelle maintenant le Grand Mur ; et peu après une autre équipe a
repéré une série de structures semblables « derrière » le dit Grand Mur. Plus loin encore de la Terre en se
mouvant vers l’extérieur, ils ont observé une séquence de « grands murs », espacés plus ou moins
également d’environ six cent millions d’années-lumière. Ce n’est pas du tout ce à quoi les théoriciens du
Big Bang s’attendaient, ou espéraient découvrir. En fait, c’est à peu près le pire scénario, une découverte
dont le Washington Post fit cette fois le gros titre suivant : « FAILLITE DU BIG BANG ».
Pendant ce temps on dépensait d’énormes efforts pour examiner plus attentivement le fond diffus
cosmologique, dans l’espoir de découvrir des anisotropes. On comprend les cris de joie lorsque le satellite
COBE (Cosmic Background Explorer) mit au jour de petites fluctuations : c’est exactement le genre de
résultats qu’avaient impatiemment attendus les théoriciens mis dans l’impossibilité de progresser. Par
malheur, les variations (d’un cent millième) se révélèrent beaucoup trop faibles : il faut avoir des
fluctuations de l’ordre de 1% pour expliquer la formation des objets sidéraux tels que les superamas de
Tully ou le Grand Mur. L’arrière-plan de radiation est encore beaucoup trop égal et isotropique pour
permettre une évolution de l’« atome primitif » postulé jusqu’à l’univers astrophysique observé.
Typiquement, les théoriciens du Big Bang répondent aux problèmes par des hypothèses
supplémentaires. En effet, une théorie scientifique ne doit pas être immédiatement rejetée quand elle
entre en conflit avec des faits d’observation : il est normal, dans la pratique, de chercher une hypothèse
appropriée qui résolve le conflit, processus qui conduit souvent à d’autres découvertes126. Mais cela ne
suffit pas à exonérer une théorie qui ne jouit que d’un support peu ou pas du tout empirique, et qu’on ne
maintient en vie que grâce à une prolifération de suppositions ad hoc, Je ne connais que deux théories
scientifiques majeures où on tolère un manque aussi criant de vérification théorique : l’évolutionnisme
darwinien et la cosmologie du Big Bang. On pourrait objecter à ma seconde affirmation que la théorie du
Big Bang a réellement prévu le fond diffus cosmologique ; cependant, non seulement elle a prédit une
température erronée, mais il se trouve que le fond diffus cosmologique peut s’expliquer de façon
convaincante par d’autres voies127. De même que la « prédiction des rayons cosmiques de Lemaître, et la
« prédiction » des éléments chimiques de Gamov, la prédiction du fond diffus cosmologique ne contribue
guère à étayer l’hypothèse du Big Bang. Pendant ce temps, l’accumulation d’hypothèses perpétuellement
nouvelles — et perpétuellement plus fantastiques ! — pour faire cadrer la conjecture de départ avec les
faits est un mauvais signe ; comme Brent Tully l’a dit un jour : « Il est troublant de constater qu’il apparaît
une nouvelle théorie chaque fois qu’il y a une nouvelle observation ».
Pour illustrer la « logique » de la théorie du Big Bang, voyons comment on réagit quand il se révèle que
la matière totale de l’univers est environ cent fois trop petite pour permettre la formation de galaxies.
Littéralement d’un trait de plume, on remplace la masse manquante — cent fois ce qu’on estime être la
masse de l’univers ! — en postulant quelque chose appelé « matière obscure » : d’une espèce qui ne
provoque pas d’interaction avec les champs électromagnétiques et n’a jamais encore été observé. Des
physiciens des particules, pleins de bonne volonté, ont présenté depuis quelques dizaines d’années une
profusion de candidats à la matière obscure : axions, higgsinos, photinos, gravitinos, gluinos, préons,
pyrgons, maximons, newtorites, pépites de quarks, nucléarites 128, pour n’en mentionner que quelques-
uns ; le problème est qu’aucun n’existe jusqu’ici ailleurs que sur le papier. Mais supposons qu’existent
réellement, disons les higgsinos ou les pépites de quarks : cela suffirait-il à tirer la théorie du Big Bang de
ses difficultés ? Certes pas ; quantité d’autres problèmes essentiels seraient encore à résoudre. Et qui
plus est, toute nouvelle hypothèse a tendance à provoquer des problèmes qui lui sont propres, qui
nécessiteront probablement l’introduction d’autres hypothèses. Il semble improbable qu’une telle
procédure aboutisse à une conclusion réelle ; et si elle y parvient, on se demande si on a découvert une
vérité, ou si on l’a construite, comme le prétendent certains philosophes postmodernes des sciences.
Nous n’avons jusqu’ici considéré qu’une seule difficulté importante : le problème de l’explication de la
formation d’objets stellaires de grande taille. Pour conclure ce bref panorama, il convient encore de
mentionner une situation embarrassante. Notons tout d’abord que, lorsqu’il s’agit d’objets stellaires, des
étoiles aux galaxies et aux amas de galaxies, tout ce sur quoi on doit se fonder est la lumière émise par les
objets en question et captée par les télescopes, qu’ils soient terrestres ou montés sur satellites. Par
lumière, j’entends radiation électromagnétique de n’importe quelle fréquence, des ondes radio aux rayons
X et aux rayons gamma, en passant par toute la gamme de ce qui est visible. En un mot, nous avons des
particules de lumière ou photons dont chacun détermine une position sur une plaque photographique et
comporte une fréquence : c’est tout. Voilà, si on veut, quels sont les faits empiriques réels ; le reste est
théorie, matière à interprétation. La radiation captée apporte cependant une grande richesse
d’informations, dont certaines sont sans équivoque dans leurs implications. On sait, par les
expérimentations de laboratoire, que la distribution des fréquences émises par exemple par un élément
chimique est une caractéristique de cet élément. Le spectre d’émission constitue ainsi une signature qui
nous permet de détecter la présence d’hydrogène, d’hélium ou d’autres éléments dans les étoiles et les
galaxies. Il arrive cependant que les spectres captés en provenance de l’espace intersidéral soient
généralement décalés vers la gauche sur l’échelle des fréquences, phénomène connu sous le nom de «
décalage vers le rouge » ; quelle est la cause de ce « décalage vers le rouge » On a longtemps supposé
que les « décalages vers le rouge » stellaires constituaient un effet Doppler-Fizeau, ce qui revient à dire
que c’est une vélocité récessive de la source qui cause cette réduction de fréquence ; on peut supposer
que la situation est analogue à la réduction de la hauteur d’un sifflet de train au fur et à mesure que le
train prend de la vitesse en s’éloignant. Sur cette base, ces « décalages vers le rouge » ont été interprétés
comme l’évidence d’un univers en expansion : la cosmologie du Big Bang repose sur cette hypothèse.
Or il se trouve que pendant les quarante dernières années, se sont accumulé les résultats d’observations
qui contredisent cette supposition. La première mauvaise nouvelle pour les théoriciens du Big Bang a été
la découverte, en 1963, de sources d’ondes radio extragalactiques que l’on appelle maintenant quasars,
dont le spectre d’émission s’est révélé considérablement « décalé », correspondant aux vélocités
récessives qui se rapprochent de la vitesse de la lumière. On a bientôt découvert, cependant, que ces
quasars étaient typiquement associés aux galaxies dont les « décalages » sont normaux, c’est-à-dire
faibles. Les objets sidéraux, qui, selon la géométrie du Big Bang, sont supposés distants de milliards
d’années-lumière, sont ainsi devenus de proches voisins. L’interprétation Doppler des « décalages » des
quasars est donc devenue suspecte. Entre-temps des « décalages » intrinsèques (non-Doppler) ont été
supposés dans d’autres objets stellaires, jusqu’au niveau le plus inférieur, celui des étoiles ; selon un
expert, « la plupart des objets extragalactiques ont des décalages vers le rouge intrinsèques »129. Mais
ceci signifierait que l’hypothèse sur laquelle se fonde la cosmologie du Big Bang - la supposition que le «
décalage » stellaire est proportionnel à la vélocité récessive - a été disqualifiée.
Certains développements de l’aspect théorique ont encore augmenté ces appréhensions. En 1977,
Jayant Narlikar, astrophysicien, a réussi à généraliser les équations de la relativité de façon à permettre
aux masses de particules fondamentales de croître avec le temps. Cette théorie prédit des « décalages
intrinsèques provoqués par la variation de la masse des particules. L’idée est simple : plus la masse d’un
électron est petite, plus petite sera l’énergie qu’il perd dans ce qu’on appelle un saut quantique, qui n’est
pourtant que la quantité d’énergie dégagée par le photon émis. Puisque la fréquence d’un photon est
proportionnelle à son énergie, on obtient de cette façon un « décalage » intrinsèque. Au lieu de la relation
décalage-vitesse qui sous-tend la cosmologie du Big Bang, la théorie de Narlikar fournit une relation
inverse âge-décalage, qui nous permet d’interpréter les données existantes selon une nouvelle clef. La
relation Hubble, selon laquelle le décalage est proportionnel à la distance, peut maintenant se
comprendre à partir du fait que les objets stellaires éloignés s’observent plus tôt grâce à la vitesse finie
de la lumière, et tendront par conséquent à avoir de plus petites masses de particules et, de manière
correspondante, des décalages plus grands proportionnellement à leur distance. Les quasars
considérablement décalés qui, au contraire, ne satisfont pas à la relation Hubble, sont maintenant conçus
comme constitués de particules récemment créées, propulsées par une galaxie active ou galaxie Seyfert.
De cette façon, la nouvelle théorie rend justice à tous les faits d’observation qui sont pertinents : ceux qui
supportent la relation Hubble aussi bien que ceux qui ne la supportent pas. Selon la cosmologie qui en
résulte, l’univers n‘est pas en expansion, et n’a pas évolué à partir de quelque chose d’unique à l’origine :
il n’y a pas de Big Bang.130
Il n’est pas dans mon intention de promouvoir l’approche Arp-Narlikar, qui a probablement ses propres
problèmes. Je désire seulement montrer que l’une des difficultés majeures que doit affronter la
cosmologie du Big Bang est la justification de l’interprétation Doppler des décalages stellaires, difficulté
qui peut finalement se révéler insurmontable.
De nombreux astrophysiciens sont sans aucun doute troublés, mais peu d’entre eux sont prêts à
abandonner la doctrine officielle. Il est vrai qu’une poignée de scientifiques de premier plan a
ouvertement proclamé la mort de la cosmologie du Big Bang131, et que même la revue scientifique
conservatrice Nature a fait paraître un éditorial qui a donné le ton sous le titre « À bas le Big Bang ».
Mais de telles expressions dissidentes restent occasionnelles et n’ont eu jusqu’ici que peu d’effet sur
l’establishment de l’astrophysique ; trop de carrières, semble-t-il, sont en jeu.
Considérons maintenant le scénario du Big Bang dans une perspective théologique. Nous laisserons de
côté la question de savoir si cette cosmologie correspond correctement aux faits, et nous la traiterons
comme une sorte de mythe ou d’icône, un symbole à déchiffrer. Que signifie alors le Big Bang ? Ce qui
nous frappe surtout, c’est l’idée que l’univers ait eu un commencement dans le temps : qu’en un sens le
monde « n’a pas toujours existé ». Cela ne veut pas dire qu’il y ait eu un temps où le monde n’existait pas,
car le temps tel que nous le connaissons se réfère à des événements cosmiques et ne peut donc pas
précéder l’univers lui- même : « Il est hors de doute, dit S. Augustin, que le monde n’a pas été créé dans le
temps, mais avec le temps ». La théorie du Big Bang affirme simplement que l’univers a un âge défini ; la
question est de savoir si cela implique un acte de création ex nihilo. D’un point de vue strictement
logique, j’affirme que non. Mais ceci est réellement à côté de la question : nous sommes en train de « lire
l’icône », tâche qui n’est pas une simple affaire d’analyse logique. On peut soutenir que, dans sa
signification iconique, l’image du Big Bang suggère avec force ce que le christianisme a toujours
enseigné : que l’acte créateur qui a amené l’univers à l’existence remonte à un moment délimité du passé.
Comme le pape Pie XII l’a déclaré en 1951, dans une allocution à l’Académie Pontificale des Sciences : «.
Il semble en fait que la science actuelle est parvenue, d’un seul grand pas rétrospectif par-dessus des
millions de siècles, à témoigner de ce Fiat lux primordial prononcé au moment où, en même temps que la
matière, apparut, issu de rien, un océan de lumière et de rayonnement. [...] La création a donc eu lieu
dans le temps ; donc il existe un créateur ; donc Dieu existe ! »132
On pourrait en conclure que l’influence de la cosmologie du Big Bang sur le christianisme soit destinée
à lui être salutaire ; tel n’est cependant pas le cas. Il est possible d’affirmer que la nouvelle cosmologie a
exercé une influence fatale sur la pensée chrétienne et a contribué de manière significative aux déviations
et caprices qui affligent la théologie contemporaine. De quelle manière ? La réponse est simple : les
icônes peuvent être dangereuses, meurtrières même (il n’est alors pas étonnant que des mouvements
iconoclastes aient surgi de façon répétée). Le danger vient des circonstances où l’icône elle-même peut
être prise, à tort, pour la vérité : « prendre le doigt pour la Lune », comme dit le proverbe chinois. Et c’est
évidemment ce qui est arrivé dans le cas du Big Bang : nous avons affaire à un paradigme scientifique que
les autorités en place ont déclaré vrai et correspondant aux faits. Or le problème est celui-ci : dans sa
signification factuelle, en tant que celle-ci se distingue de sa signification symbolique, le scénario du Big
Bang s’oppose platement à la cosmogonie chrétienne traditionnelle basée sur la Genèse. Prenons par
exemple le fait biblique que la Terre et sa flore ont été créées avant le Soleil, la Lune et les étoiles : il est
évident que cela invalide toutes les théories contemporaines sur l’évolution des étoiles, ainsi que toutes
les prétentions darwiniennes. On le sait, la plupart des théologiens ont répondu à ce défi en «
démythifiant » les trois premiers chapitres de la Genèse ; mais je leur reprocherais d’avoir pris ainsi le
mauvais virage. En faisant confiance â une théorie d’origine humaine, qui en outre, on peut le démontrer,
évolue sur un terrain mal assuré, ils ont contredit l’enseignement inspiré des Pères et de église. On peut
affirmer que ces trois chapitres, pris dans leur sens historique littéral, ne sauraient être niés sans faire le
plus grand tort à la foi chrétienne. Cette question a déjà été effleurée implicitement dans le chapitre
précédent : en mettant en lumière le contenu de la cosmogonie biblique, nous avons en même temps
démontré son importance centrale pour la doctrine chrétienne. Quoi que puissent dire les théologiens
contemporains, dans leur empressement à devenir « scientifiquement corrects », le fait demeure que les
enseignements du christianisme présupposent la cosmogonie biblique, de même que la Rédemption
présuppose la Chute. Il est par conséquent parfaitement chimérique d’imaginer que la doctrine du Christ
ait un sens dans l’univers du Big Bang. À quoi on peut ajouter qu’en toute logique la cosmogonie biblique
a été rendue obligatoire par le magistère de l’Église préconciliaire, par exemple dans la réponse de la
Commission Biblique Pontificale aux questions concernant « le caractère historique des premiers
chapitres de la Genèse »: elle nie explicitement la validité des « systèmes d’exégèse » qui éliminent le
sens historique de ces trois premiers chapitres.133
Pour en revenir à la cosmologie du Big Bang, il faut remarquer que cette théorie est évidemment
d’autant plus séduisante pour les chrétiens que son contenu est symbolique : que pourrait-il y avoir de
plus merveilleux, après tout, qu’une cosmologie scientifique qui témoigne du Fiat lux primordial ! En
relation avec certains développements scientifiques, la nouvelle cosmologie a favorisé un mouvement très
considérable de réconciliation des communautés scientifique et religieuse. Des titres de livres tels que «
God and the New Physics » du physicien Paul Davis, ou « God and the Astronomers » de l’astronome
Robert Jastrow, abondent, et il est actuellement à peine possible de suivre la profusion de séminaires et de
colloques sur « science et religion » qui se tiennent partout dans le monde. Et partout on retrouve le
même message de « paix et d’harmonie » en provenance des anciens contestataires. La religion a
cependant à en payer le prix : où qu’un conflit surgisse — comme entre la Genèse et le Big Bang -, c’est
toujours le christianisme que les experts en charge obligent à conformer ses enseignements à la dernière
en date des théories scientifiques. On voit à présent se développer à l’échelle mondiale une certaine
fusion de la science et de la religion, qui menace de transformer le christianisme en une sorte d’«
évolutionnisme théiste » plus ou moins apparenté à la pseudo-théologie de Teilhard de Chardin.134

On pourrait objecter que la physique courante est principalement affaire de vérité opérationnelle. Je l’ai
déjà montré, elle est « la science de la mesure »135. L’interprétation ontologique y est une option : une
question privée, liée à l’orientation philosophique personnelle du physicien. En astrophysique, en
revanche, ce n’est plus vrai, pour la simple raison que l’astrophysique est virtuellement privée de
signification opérationnelle. L’astrophysicien ne fait que peu ou pas de prévisions, et quand il en fait, il
manque la cible de façon tout à fait typique d’un ou deux ordres de grandeur. L’objet de l’astrophysique
n’est pas d’abord de prévoir des phénomènes, mais d’une certaine manière de construire une cosmologie
qui ne s’oppose pas aux faits observables de façon trop flagrante. C’est une nouvelle sorte de physique,
qui diffère radicalement de celle que décrivent les manuels scientifiques. Or une science de la nature qui
n’est pas opérationnelle dans son raisonnement ne peut être qu’ontologique dans ses revendications,
c’est-à-dire que, dans le cas de l’astrophysique, l’interprétation ontologique n’est plus en option, elle est
primordiale. À cet égard, partant de la théorie des quanta où le souci opérationnel est souverain, la
physique « des grandes dimensions » diffère très clairement de celle des « petites ». Quand Niels Bohr
déclarait qu’il n’y a pas d’univers des quanta, son affirmation n’était ni inconsistante par rapport aux
principes de la théorie des quanta, ni horrible aux yeux de la communauté des physiciens ; mais
imaginons ce que serait la réaction si un scientifique déclarait qu’il n’y a pas d’univers astrophysique !
L’ontologie de l’astrophysique est bien sûr physique, c’est-à-dire qu’elle conçoit les objets stellaires
comme des agrégats de particules fondamentales. Mais pourquoi cette ontologie devrait-elle être correcte
à propos des grandes dimensions de l’espace-temps, tout en échouant (comme je l’ai montré à plusieurs
reprises) dans le domaine terrestre ? Si les objets corporels qui appartiennent au mésocosme terrestre se
révèlent être « davantage » que des agrégats atomiques, pourquoi les étoiles et les galaxies devraient-
elles être « seulement » atomiques ? En outre, si les particules quantiques d’« ici-bas » n’ont pas
d’existence indépendante - si elles appartiennent à ce que John Wheeler appelle « l’univers participatif » -,
pourquoi devrait-il en être autrement dans l’espace extérieur ? Je soutiens avant toute autre chose qu’une
ontologie strictement physique est aussi fallacieuse dans le domaine sidéral que dans la sphère terrestre
des objets perceptibles.
J’ai déjà caractérisé136 la connaissance de la physique moderne comme « fondamentale mais
inessentielle » : fondamentale parce qu’elle traite de l’aspect matériel de la réalité cosmique, et
inessentielle parce qu’elle ne saurait comprendre la forme substantielle. La physique ne peut connaître la
quiddité d’une chose ; l’essence même des choses échappe à sa saisie137. Or, si connaître une chose c’est
connaître sa forme substantielle - savoir, en d’autres termes, « ce qu’est » la chose -, il s’ensuit que la
connaissance à laquelle prétend la physique n’est pas une connaissance véritable. Aussi longtemps que la
physique demeure étroitement liée au domaine de l’observable - aussi longtemps que l’expérimentation
peut examiner ses théories ou qu’elles peuvent être vérifiées dans leurs applications technologiques -elle
comporte évidemment une certaine sorte de connaissance : une connaissance pragmatique ou, comme on
l’a vu, opérationnelle. Le problème est cependant celui-ci : l’homme a été créé pour connaître, non
pragmatiquement, mais en vérité. D’où sa tendance à peu près irrésistible à réifier les objets intentionnels
de la physique en leur attribuant une forme corporelle. On traite en fait l’objet comme si on pouvait le
voir, le toucher. Une particule fondamentale devient ainsi une petite sphère, ou une espèce d’onde que le
mathématicien exercé peut se représenter. J’ai fait remarquer que de tels processus de visualisation
jouent un rôle nécessaire et réellement légitime dans la compréhension des idées mathématiques, même
au niveau le plus abstrait et le plus sophistiqué : l’esprit humain ne peut simplement pas se passer de
support sensoriel. C’est cependant dans le domaine de la physique, en tant qu’elle s’oppose aux
mathématiques pures, que cette faculté s’égare ; tandis que le mathématicien comprend fort bien la
différence ontologique qu’il y a par exemple entre une fonction et sa représentation graphique, en
physique la même distinction est manifestement devenue floue. La raison de cette confusion tient sans
doute au fait que les objets intentionnels de la physique sont, comme on l’admet généralement, plus qu’un
ens rationis, un simple « objet mental », même s’ils sont moins qu’une entité corporelle, moins qu’une
chose perceptible. Et cette situation impose clairement des exigences au discernement ontologique du
physicien, exigences qu’il ne satisfait pas facilement, pour dire le moins. Il arrive ainsi que la routine
projette les fantasmes de la représentation sensorielle sur l’univers physique, qui devient alors un monde
tout à fait littéralement fantastique.
On ne peut connaître le monde réel que grâce à la forme substantielle, que grâce à l’essence ; mais
comment acquérir cette connaissance ? Aussi étrange que cela puisse paraître à un esprit moderne, nous
pouvons connaître et nous connaissons réellement la forme substantielle des entités corporelles
familières : très exactement par la perception cognitive sensorielle. Nous n’allons pas tenter d’expliquer
cette perception en termes de processus naturel de telle ou telle sorte ; selon l’expression de Whitehead :
« La connaissance est ultime ». « Connaître » et « être son ici-bas irréductibles l’un à l’autre ; et nous
découvrons ainsi que la perception cognitive sensorielle est un acte réellement mystérieux, qui
transcende les limitations du monde naturel. Comme l’ont remarqué les sages : l’œil par lequel nous
voyons les choses de ce monde ne se voit pas lui-même. Ce que voit la perception cognitive, c’est, je le
rappelle, les entités corporelles ; ou plus précisément : la perception cognitive sensorielle donne accès au
domaine corporel.138
Une question essentielle se présente ici d’elle-même : qu’en est-il des objets stellaires ? Pouvons-nous
aussi connaître leur forme substantielle, leur essence ? Pouvons-nous percevoir de telles choses : notre
pouvoir de perception cognitive va-t-il aussi loin ? Lorsque nous voyons un point de lumière dans le ciel
nocturne, percevons-nous réellement une étoile ou une galaxie ? Apparemment non. Nous percevons un
point de lumière, que, d’un terme générique, nous appelons une « étoile », mais une étoile, en ce sens, est
quelque chose de très éloigné, de très élevé, qui outrepasse très nettement ce que nous pouvons
atteindre. La perception cognitive réelle - de l’espèce qui existe sur terre et transcende la bifurcation -
n’intervient vraisemblablement pas dans le domaine sidéral. Quelle que puisse être l’essence d’une étoile
ou d’une galaxie, elle n’est pas connaissable par la perception humaine ; les étoiles sont « au-dessus » de
nous non seulement en un sens spatial, mais aussi en un sens ontologique. Remarquons en passant que ce
fait justice à lui seul et entraîne les prétentions du géocentrisme.139
Un tel point de vue ontologique, on va le voir, est commun à toutes les cosmologies anciennes. S.
Thomas lui-même définit la substance stellaire comme « incorruptible » et place alors les objets stellaires
dans la catégorie supérieure à celle des entités corporelles telles que nous les définissons dans le domaine
terrestre. Et il n’y a pas que de la poésie dans la distinction paulinienne des deux royaumes dans I
Corinthiens XV, 40-41 : « Il y a des corps célestes et des corps terrestres ; mais autre est l’éclat des
célestes, autre est celui des terrestres. Autre l’éclat du soleil, autre l’éclat de la lune, autre l’éclat des
étoiles ; et même une étoile diffère en éclat d’une autre étoile ». Puisque son intention est de distinguer
entre les corps humains corruptibles et incorruptibles, il est clair que S. Paul parle ici du plan
ontologique. On a là, implicitement, une proportionnalité : les corps célestes sont aux corps terrestres ce
que les corps ressuscités sont aux corps naturels. Et ontologiquement, ces deux dernières sortes de corps
sont assurément distinctes ; ceux-ci sont « semés dans la corruption », ceux-là sont « élevés dans
l’incorruptibilité »: il y a, littéralement, un monde de différence entre les deux. Je serais par conséquent
malvenu à supposer qu’il n’y a aucun hiatus ontologique qui corresponde à cette différence entre les
domaines stellaire et terrestre ; ce serait réduire le symbolisme cosmique à une question d’apparence, de
simple spectacle. Une telle « trivialisation » s’oppose de manière irréconciliable à l’ontologie
platonicienne, et finalement à la Sophia perennis sous toutes ses formes.140
Parmi les choses du monde naturel, le ciel nocturne plus que toute autre chose nous parle de mystères
profonds et sacrés. Il enveloppe le royaume de la Terre comme une sphère, il éveille en nous le sens de la
transcendance, le pressentiment d’univers supérieurs. Selon les Anciens, la lumière des étoiles que nous
voyons a sa source dans ces univers supérieurs. Les étoiles nous sont autant d’ouvertures dans la voûte
des cieux par lesquelles passe la lumière transcendante pour éclairer l’obscurité de ce bas monde. Cette
lumière céleste n’éclaire d’ailleurs pas seulement le monde extérieur, mais avant tout le cœur, l’intellect
de l’homme. Ces convictions anciennes ont un fondement biblique. Il est tout d’abord profondément
significatif que la Genèse appelle les étoiles « des lumières au firmament des cieux », suggérant que la
quiddité ou essence des étoiles n’est réellement rien d’autre que de la « lumière ». Cette lumière sidérale
n’est pourtant pas première, même à l’intérieur de l’ordre de la création, puisque la lumière originelle a
été créée le premier Jour. Mieux, c’est par cette lumière créée la première que se définit le premier Jour :
on ne saurait oublier que la première expression créatrice de Dieu est le Fiat lux. La lumière originelle ne
constitue donc pas seulement le premier élément de la création, mais vraiment le plus haut, le plus divin ;
on l’a appelée à juste titre la manifestation la plus directe de Dieu. Elle est ainsi le symbole le plus élevé
de Dieu, symbole consacré par S. Jean : « Dieu est lumière, il n’y a en Lui aucune obscurité » (I Jean I, 5).
La lumière première créée ne se montre cependant pas dans notre monde : en tant que source de toute
visibilité, elle est invisible. Platon compare implicitement cette lumière invisible à la lumière du Soleil
lorsqu’il appelle celle-ci « l’auteur non seulement de la visibilité dans toutes les choses visibles, mais de la
génération, de la nourriture et de la croissance » (République, Livre VI). Ce qui rappelle avec force le
Psaume XXXVI, 10 : « Car en toi est la fontaine de la vie : c’est par ta lumière que nous voyons la lumière
». Une métaphysique intégrale de la lumière se cache dans ces deux textes, métaphysique que les néo-
platoniciens ont cherché à dévoiler. Cette doctrine, à la fois biblique et platonicienne, a été intégrée au
christianisme principalement par S. Augustin et Denys le Pseudo-Aréopagite. Pour en revenir au domaine
stellaire, on voit maintenant qu’il constitue un monde de lumière secondaire et pourtant supra-physique,
dans laquelle la lumière originelle est mystérieusement enchâssée141. On pourrait ajouter qu’il existe une
profonde relation entre les royaumes stellaire et angélique, sujet qui nous entraînerait cependant trop
loin. Il suffira de dire ici qu’une étoile est incomparablement plus qu’un simple agrégat de particules
quantiques, qu’elle a une essence et une fonction qui transcendent de loin le domaine de l’astrophysique.
Il est cependant tout aussi important de rappeler que les étoiles ont été données à l’humanité « comme
signes ». Cette affirmation biblique a certainement un sens ésotérique ; je veux dire par là qu’il peut y
avoir eu un temps où les hommes étaient capables de lire « ce qui est écrit dans les astres ». Mais il ne
fait aucun doute qu’elle a aussi une signification pour nous, car, comme je l’ai dit plus haut, le ciel
nocturne réveille en nous le sens de la transcendance, le pressentiment des sphères célestes. Kant lui-
même, si éloigné fût-il des traditions sapientielle, sentait la grandeur de cette icône cosmique ; il y a deux
choses, dit-il, qui me remplissent d’émervreillement : « le ciel étoilé au-dessus de moi, et la loi morale au-
dedans de moi ». Étrange que ce rationaliste prosaïque, dont la philosophie s’oppose de façon
irréconciliable à la sophia perennis, ait pu sentir, même faiblement, une relation entre « le ciel étoilé » et
la « loi morale » dans les profondeurs du cœur humain.
Il va sans dire que cette relation a disparu - implicitement niée - dans la doctrine de l’astrophysique.
L’icône cosmique, établie par la Main de Dieu, a été brisée ; remplacée, plutôt, par une image faite de
main d’homme. Le panorama offert par l’astrophysique est bien un tableau, une sorte d’image, mais rien
de plus ; quelque substance, quelque vérité qu’il y ait dans l’astrophysique contemporaine, elles doivent
avoir leur racine dans une structure mathématique et son interprétation opérationnelle, ce qui est tout
différent. Ce que l’astrophysique a à offrir au grand public est très littéralement un univers de fantaisie,
une espèce de cosmos de science-fiction ; et, de fait, c’est ce qui a remplacé l’icône cosmique dans les
esprits cultivés.
On peut affirmer que cette image astrophysique est sérieusement erronée, voire fausse. Avant tout
parce qu’elle réifie l’objet physique. Comme je l’ai expliqué en détail142, c’est l’erreur qui est à l’origine
de la Weltanschauung contemporaine. Elle est la cause du « paradoxe quantique » dans le domaine de
l’infiniment petit, ou d’un réductionnisme, forcément fallacieux, dans le domaine corporel : la croyance «
sacrée » que les objets corporels sont « faits d’atomes ». En astrophysique cependant, cette erreur
générique est rendue plus complexe par le fait que les objets sidéraux ne sont pas à strictement parler
corporels, c’est-à-dire perceptibles. Alors que dans le domaine mésocosmique ou subcorporel la réification
du physique entraîne une seule erreur - le réductionnisme -, en astrophysique elle en entraîne deux : on
ne corporifie pas seulement le physique, mais aussi, et tout aussi faussement, les substances sidérales. On
détruit par là la dimension de transcendance, la verticalité d’« en haut ». On réduit le céleste au
terrestre ; on homogénéise - « démocratise », pourrait-on presque dire - le cosmos.
En distinguant ainsi catégoriquement les substances stellaire et corporelle, j’adhère à la conception qui
associe corporéité et perception cognitive sensorielle. C’est sur cette base, je le rappelle, que je distingue
les domaines physique et corporel. On peut cependant aussi parler de la corporéité en un sens plus large,
correspondant à la notion védantique de manifestation grossière (sthûla). En ce sens, la corporéité se
caractérise par les conditions d’espace et de temps, et inclut ainsi l’univers stellaire dans son extension
spatio-temporelle. On peut maintenant qualifier de corporéité terrestre la corporéité à laquelle la
perception cognitive sensorielle donne accès, l’essentiel étant qu’il y ait des modes de corporéité qui
diffèrent du terrestre non en termes de quantité seulement, ou de paramètres mesurables, mais en termes
d’essence.
On pourrait contester la thèse de l’hétérogénéité ontologique pour la raison que l’univers semble
vraiment être tout d’une pièce : ne détecte-t-on pas les spectres identiques de l’hydrogène, de l’hélium, et
d’autres éléments, dans les laboratoires et dans la lumière d’étoiles et de galaxies éloignées de millions
d’années-lumière ? Oui, mais il faut comprendre que cette homogénéité appartient justement au domaine
physique, inférieur au plan de l’être, de la substance réelle. Ce que le physicien perçoit, si l’on peut dire, à
la fin de son analyse, ce sont des agrégats de particules quantiques et rien de plus ; de cette façon, toutes
les distinctions ontologiques sont effacées. Mais que sont ces prétendues particules auxquelles tout a été
réduit ? Heisenberg le dit, elles sont « une sorte étrange d’entités physiques qui tiennent le milieu entre
la possibilité et la réalité ». L’inconvénient de cet univers homogène du physicien est qu’il n’existe pas. Au
risque d’une digression, j’aimerais souligner qu’il y a une leçon à en tirer, et qu’elle s’applique même aux
domaines politique et sociologique : qu’on efface les distinctions ontologiques qu’on efface toute
hiérarchie -, et il ne reste rien ; en un mot, l’homogénéité ontologique revient à la non-existence. Mais
retournons à l’univers physique : à la fin de l’analyse du physicien, ce qui subsiste n’est pas une substance
unique, mais pas de substance du tout. L’idée même de substance, comme l’a vu Eddington, n’a plus
aucune place en physique - pour autant, évidemment, que cette science soit conçue avec rigueur dans ses
structures mathématiques et ses définitions opérationnelles. Lorsqu’un physicien ne parvient pas à
percevoir une différence nette entre la substance d’une étoile et la substance d’une entité terrestre, c’est
parce qu’il ne perçoit aucune substance du tout. Qu’on ne demande donc pas à un astrophysicien ce
qu’est une étoile : selon ses compétences d’astrophysicien, il n’en a pas la moindre idée.
On peut ajouter que ce que j’ai dit des substances sidérales s’applique en principe aussi aux corps
planétaires, et tout d’abord à la Lune. Les hommes ont assurément marché sur sa surface et en ont
rapporté des échantillons de roches qui ont été analysés ; et pourtant on peut soutenir, à la lumière de la
tradition, que la substance lunaire diffère de la substance terrestre. Cela soulève deux questions : celle de
la vérification physique, et celle du nouveau facteur de perception sensorielle cognitive des choses très
proches. Pour la première, les remarques qui précèdent ont montré à l’évidence que rien de neuf, rien de
« non-terrestre » ne peut sortir d’une enquête de ce genre : encore une fois, on ne trouvera que des
agrégats de particules quantiques. Le fait que l’analyse chimique puisse maintenant se procurer de
véritables échantillons de roches n’y change rien : les considérations précédentes s’appliquent telles
quelles à ce scénario. La question de la perception sensorielle cognitive, d’autre part, ne peut être traitée
aussi simplement et exige des considérations d’une espèce très différente. Il faut en particulier se
rappeler ce que j’ai dit dans l’Introduction de ce livre sur la connaissance qui résulte de l’expérience des
réalités cosmiques : selon la doctrine traditionnelle, on ne peut « pénétrer » une strate de la réalité
cosmique que si on actualise la strate qui lui correspond au-dedans de soi. Jusque-là, tant qu’on se
cantonne à l’état qui correspond au domaine terrestre, la réalité terrestre est la seule qu’on puisse
percevoir. Dans la mesure où on est capable de percevoir les substances lunaires, on est obligé de les
percevoir comme si elles étaient terrestres, ce qui revient à dire qu’en fait on ne les perçoit pas. Si on
introduit un animal — ou, de même, un homme inculte -, dans un musée d’art, que verront-ils ?
Fondamentalement la même chose que ce qu’ils voient partout ailleurs, et rien de ce qui est au-dessus de
ce niveau ordinaire. De telles considérations ne prouvent évidemment pas les affirmations traditionnelles
sur les substances supraterrestres ; cependant elles suffisent à dégonfler l’argument de ceux qui
maintiennent que ces affirmations ont maintenant été réfutées.
Il est sans aucun doute vrai que de tous les corps planétaires qui nous sont connus, seule la Terre offre
des conditions physiques capables de maintenir la vie humaine. D’un point de vue scientifique, les
environnements physiques associés aux corps planétaires peuvent probablement être expliqués en termes
familiers à tout un chacun ; et pourtant, le point de vue supérieur de la tradition regarde cette question
sous un éclairage tout différent. Le premier déterminant devient ici l’essence, la quiddité ou le contenu
intérieur de ces divers corps ; les conditions physiques ne sont alors ni primaires ni accidentelles, mais
liées aux essences. On le comprend assez bien quand il s’agit d’un organisme vivant, dont les formes et les
caractéristiques physiques expriment tout naturellement son espèce ; mais même ici nous avons foi dans
la primauté de l’explication physique, raison pour laquelle nous sommes engagés dans une biologie
évolutionniste. Dans un cosmos dépouillé de toute essence, les paramètres physiques sont tout ce qu’il
nous reste. Quand les essences entrent en jeu, il devient au contraire possible de comprendre les faits
reconnaissables d’une façon tout à fait différente, grâce à ce qu’on pourrait appeler une approche
«descendante» de la réalité cosmique. Sur cette base, il devient clair, en particulier, que l’humanité se
trouve sur terre en vertu non de quelque contingence physique, mais d’une profonde parenté. Je l’ai déjà
dit, c’est en vertu de cette parenté intérieure que nous pouvons « pénétrer » la strate terrestre de la
réalité cosmique au moyen de la perception sensorielle cognitive : le miracle de la perception dépend
d’une conformité d’essence. Il n’y a cependant, en l’état actuel des choses, aucune parenté de cette sorte
avec la Lune ou Mars ; et j’ajouterai que ce n’est donc pas un accident si l’ambiance physique de ces
corps planétaires se révèle hostile à l’homme. A strictement parler, la cosmologie contemporaine est mal
nommée, puisqu’elle ne connaît en vérité rien du cosmos, c’est-à-dire d’un monde ordonné.
Pour en revenir à ce qu’on peut proprement désigner sous le nom de cosmographie globale, je remarque
que les immensités quantitatives du monde sidéral que nous présente la science contemporaine peuvent
se concevoir comme un fait, quelque hypothétiques qu’elles soient. Supposons qu’elles existent : il
resterait à résoudre le problème de leur assimilation par l’homme. C’est finalement cela qui détermine si
ces immensités se révéleront éclairantes, ou si, en fin de compte, elles nous aveugleront et anéantiront
notre humanité. J’affirme que seule une véritable métaphysique -- qui soit profondément théologique -
peut nous sauver de cette fatalité. « Les cieux proclament la gloire de Dieu, et le firmament manifeste son
oeuvre » : ce n’est que sur cette base que nous pouvons supporter l’immensité de l’univers stellaire. Il
nous faut comprendre que les cieux que nous percevons, soit directement, soit à l’aide de télescopes, ne
font que démontrer l’existence des cieux que nous ne percevons pas, et que cet abîme quantitatif de
l’univers stellaire reflète la véritable immensité, qui est celle du monde spirituel. Il n’est pas question, ici,
de symbolisme au sens anémique du « c’est seulement symbolique », mais au sens platonicien d’une «
participation » réelle. L’univers sidéral « participe » ainsi du métacosme, du monde spirituel, et c’est ce
fait ontologique qui donne aux étoiles leur dignité supérieure, leur caractère sacré, peut-on presque dire,
que l’homme a l’obligation de respecter.
Aux yeux de l’astrophysicien, une étoile n’est au contraire qu’« un gaz extrêmement chaud ». J’ai
montré qu’une telle réduction est épistémologiquement sans fondement et métaphysiquement
insoutenable ; il nous reste à examiner les effets de cette réduction sur l’humanité. Du point de vue
traditionnel, la réduction astrophysique est assurément une profanation, une sorte de sacrilège ; mais
quelle influence peut-elle avoir sur une civilisation qui est déjà profane ? Un symbolisme cosmique
conserve-t-il quelque efficacité que ce soit quand il n’est plus ni reconnu ni compris ? On peut présumer
que l’efficacité d’un symbole authentique survit à sa compréhension : les symboles ne meurent pas.
L’univers sidéral conserve une signification iconique tout aussi grande dans la période iconoclaste
actuelle ; cette signification a seulement été invertie (nous revoilà à la relation avec le diable !). Ce que
nous pensons des étoiles, comment nous nous représentons l’univers sidéral exerce toujours son influence
sur nous ; que nous le comprenions ou non, cela affecte profondément ce que nous pensons de Dieu, de
l’homme, du destin de l’humanité. Les cieux proclameront soit « la gloire de Dieu », soit la suprême
futilité de l’existence : il ne saurait y avoir ici de moyen terme, justement parce que le monde stellaire
signifie, dans sa fonction iconique, la plus haute sphère cosmique. Si celle-ci ne consiste qu’en particules
engagées dans un mouvement dépourvu de toute signification, alors toutes les aspirations humaines ne
peuvent que se révéler vaines. Si la lumière des étoiles, que les anciens pensaient être d’origine divine, et
que Platon considérait comme ce qui amène jusqu’à nous les essences intelligibles - si cette lumière
manque, le cosmos est, tout compte fait, avec tout ce qu’il contient, réduit à rien. Ce n’est à coup sûr pas
un accident si la naissance de l’astrophysique s’est accompagnée de l’avènement du nihilisme
postmoderne, dont les manifestations sont philosophiques autant que culturelles. La dérive dans le
nihilisme correspond précisément à la perte de substance qu’implique la vision du monde du physicien ;
culture et cosmologie sont, on le voit, intimement liées, et quand la cosmologie dominante s’aplatit, la
culture en fait autant.
Pour conclure : la distinction hiérarchique entre les substances sidérale et terrestre est vitale dans une
saine cosmologie. Ce que j’ai appelé la redécouverte des nécessités corporelles doit par conséquent être
suivie d’une autre reconnaissance fondamentale : la redécouverte de l’univers sidéral.
CHAPITRE VIII

LA SITUATION DU GÉOCENTRISME
Si ces derniers temps le géocentrisme a été relativement absent des débats, la raison en est claire :
presque tout le monde tient pour évident que ses prétentions appartiennent au passé et vont de pair,
disons, avec l’hypothèse de la Terre plate. Sans doute l’ancienne doctrine a-t-elle encore quelques avocats
convaincus en Europe et en Amérique, dont les arguments ne sont ni triviaux ni mal informés ; l’ennui est
qu’à peu près personne ne semble s’en préoccuper, qu’à peu près personne ne les écoute. Même le
mouvement « création-science », dont l’orientation est biblique et qui a récemment retrouvé un certain
prestige et une certaine influence, a à peu près complètement renié le géocentrisme. Il n’en reste pas
moins que la cosmologie géocentrique est une doctrine non seulement ancienne, mais réellement
traditionnelle ; ne devrait-on pas supposer qu’en tant que telle elle est la sauvegarde d’une vérité
immuable ? Soutenir que cette vérité n’a rien à dire au niveau de la cosmographie - en d’autres termes
que la doctrine est « simplement symbolique ou allégorique » -, c’est rejoindre le camp des théologiens
qui sont toujours disposés à « démythologiser » dès que la science officielle leur en donne l’ordre. Il ne
sera par conséquent pas sans intérêt de rechercher si la thèse géocentrique - comprise dans son sens
cosmographique, justement ! — a réellement été invalidée. Je tenterai de montrer que ce n’est pas le cas.
En ce qui concerne les controverses sur Galilée, je me propose d’établir que son héliocentrisme s’est
révélé scientifiquement insoutenable et que la palme de la victoire revient en réalité au saint et sage
cardinal Bellarmin. Et je puis déjà indiquer que la problématique de ce chapitre me conduira, en
conclusion, à dégager une interprétation de la physique de la relativité qui s’accorde avec la doctrine
traditionnelle.
Il n’est peut-être pas inutile, à l’issue de ces considérations, de dissiper tout malentendu à propos de ce
qui, sans trop d’invraisemblance, pourrait passer pour du « fondamentalisme ». Qu’on me permette de
souligner, tout d’abord, que les arguments présentés dans ce chapitre en vue de « défendre » le point de
vue géocentriste sont parfaitement scientifiques, et qu’en tant que tels on ne peut leur appliquer un tel
qualificatif. En ce qui concerne la théorie géocentriste elle-même, on peut aussi la comprendre dans un
sens qu’on pourrait qualifier d’« ésotérique », comme le montrera le chapitre suivant, « Ésotérisme et
cosmologie ». Ce qui distingue le géocentrisme, entendu dans ce sens, du fondamentalisme, c’est qu’un
tel point de vue n’est pas incompatible avec la cosmographie héliocentriste, mais qu’il admet la possibilité
de « représentations du monde » différentes selon le point de vue ou les outils de connaissance. Comme
cela apparaîtra clairement par la suite, le géocentrisme est la cosmographie qui correspond à la
perception cognitive sensible, laquelle possède sa propre validité et son propre sens, sans exclure, en
complément, des modes variés d’héliocentrisme correspondant à d’autres outils cognitifs. On peut même
prétendre que c’est la marque propre de l’ésotérisme que de reconnaître la nature hiérarchique de la
connaissance humaine, le fait qu’il existe nécessairement une multiplicité de darrhana-s 143, chacun
exprimant son propre mode et niveau de vérité. Quand on en vient à ce qu’on peut appeler tradition
intégrale au sens propre, il ne saurait être question de tel darshana qui invaliderait tel autre, même si,
formellement parlant, l’un peut contredire l’autre à certains points de vue. Ce qui caractérise l’ésotérisme
authentique, c’est qu’il transcende les limites inhérentes à des points de vue partiels. On peut ainsi
affirmer qu’une telle perspective se situe aux antipodes mêmes du fondamentalisme.

Rien n’est peut-être plus impénétrable à l’esprit moderne que les anciennes cosmologies. Non
seulement elles sont intrinsèquement métaphysiques, mais ce qui nous gêne probablement encore
davantage est le fait que, tout au moins en un sens qualitatif, elles décrivent le monde perceptible. Quand
elles parlent du Soleil, de la Lune et des étoiles, leur sens est sans aucun doute symbolique, mais non «
simplement symbolique », ce qui veut dire qu’elles ne sont pas dépourvues de contenu scientifique. Cette
fusion d’une « métaphysique » et d’une « physique », qui est une science de la nature, est ce qui semble
déconcerter le plus. Il faut évidemment comprendre que l’espèce de science à laquelle je fais allusion est
à des années-lumière des innovations de Bacon, aussi bien en ce qui concerne sa méthode que le but à
atteindre. En particulier, les anciens cosmologues ne se sentaient pas l’obligation d’expliquer des choses
telles que les mouvements planétaires rétrogrades ou la précession des équinoxes ; selon Thomas Kuhn, «
Ce n’est que dans notre propre civilisation que l’explication de ces détails a été considérée comme une
fonction de la cosmologie. Aucune autre civilisation, ancienne ni moderne, n’a eu de semblables exigences
»144. Quoi qu’il en soit, on peut très clairement discerner, dans la Grèce du temps de Pythagore à
Ptolémée, le passage de la cosmologie ancienne à l’astronomie au sens moderne. On a l’impression que
des notions mythiques et intrinsèquement métaphysiques, telle que celle des « sphères » célestes, se sont
progressivement transformées en conceptions physiques, et que l’avènement des temps modernes les a
vouées au mépris et à l’abandon. En même temps on inventait des techniques mathématiques d’une
complexité et d’une sophistication croissantes en vue d’atteindre une précision toujours plus grande dans
la description des phénomènes observables.
Le chapitre le plus simple de l’astronomie grecque est celui qui traite de la sphère stellaire. Les orbites
des étoiles pouvaient être décrites, et avec une précision qui semblait parfaite à cette époque, sur cette
idée de base que les étoiles sont fixées à la surface d’une immense sphère dont la Terre est le centre, et
qui, le jour, tourne autour d’un axe qu’on peut situer à moins d’un degré de la position de l’étoile Polaire,
tandis que la Terre reste immobile au centre de l’univers. S’il n’y avait pas le Soleil et quelques autres «
vagabonds », ce simple modèle « à deux sphères » de l’astronomie ancienne aurait fourni une description
apparemment parfaite des phénomènes en question. Mais les orbites des planètes se sont révélées
complexes et stimulantes à l’extrême. Finalement les astronomes grecs ont conclu que les orbites
circulaires concentriques autour de la sphère terrestre ne suffisaient pas à leur description et, à l’époque
d’Hipparque, dont on peut situer la vie active entre 160 et 127 av. J.-C., la méthode des épicycles et des
déférents était devenue courante. On concevait alors le mouvement d’une planète comme la somme de
deux mouvements circulaires : une petite rotation autour d’un centre appelé déférent, qui décrit lui-même
une rotation beaucoup plus grande autour de la Terre. Les épicycles furent alors inventés pour servir de
légères corrections aux orbites circulaires de cette ancienne astronomie « sphérique ». J’ajoute qu’outre
son travail sur les épicycles, Hipparque est connu pour avoir découvert la précession des équinoxes, qu’il
a estimée à trente-six secondes d’arc par année (sa valeur actuelle étant d’environ cinquante secondes). Il
a aussi évalué la distance de la Terre à la Lune comme étant trente-trois fois le diamètre de la Terre
(valeur actuelle : à peu près 30,2). À la suite de ces découvertes, les progrès de l’astronomie planétaire se
sont poursuivis rapidement. Il n’a pas fallu longtemps aux astronomes pour comprendre qu’ils pouvaient
progressivement corriger les orbites en ajoutant indéfiniment épicycles sur épicycles. Ils ont en outre
découvert qu’ils pouvaient introduire des corrections supplémentaires en déplaçant le centre d’un
déférent. Les cercles qui en résultaient, appelés excentriques, pouvaient être ajustés pour améliorer
encore le résultat. On a observé qu’il était possible d’atteindre un degré de précision encore plus grand si
on considérait comme uniforme la vitesse de rotation d’un déférent ou de quelque autre point du schéma
géométrique par rapport non à son véritable centre, mais à un centre déplacé appelé équant. La méthode
des excentriques et des équants a ainsi complété celle des épicycles. On peut affirmer rétrospectivement
que l’astronomie grecque fournit le premier exemple d’un modèle mathématique à grande échelle. Ce
développement culmine avec l’œuvre de Claude Ptolémée, dont le traité intitulé Almageste (vers 150 ap.
J.-C.) dominera l’astronomie occidentale au moins jusqu’en 1543, lorsque la théorie de Copernic
commencera à le supplanter.
Qu’est-ce qui a poussé Copernic à rejeter la théorie ptolémaïque en faveur d’une astronomie
héliocentrique ? Dans sa préface au De Revolutionibus, il cite l’imprécision continuelle et le manque de
cohérence comme ses critiques principales de l’astronomie de l‘époque145. Quelque quatorze cents ans
après la publication de l’Almageste, les problèmes quantitatifs n’étaient pas encore résolus avec une
précision satisfaisante. Pire, il ne semblait y avoir aucun principe gouvernant la prolifération insensée des
épicycles, des excentriques et des équants. Tous ces éléments mathématiques ne semblaient pas former
les uns avec les autres un tout cohérent. « C’est comme si un artiste empruntait à divers modèles les
mains, les pieds, la tête et d’autres membres pour ses portraits, écrit l’astronome polonais, chaque
membre excellemment dessiné, mais sans lien avec les autres pour former un corps unique, et puisqu’ils
ne s’assortissent en aucune manière, le résultat sera un monstre plutôt qu’un homme ». On a remarqué
que cette conception reflète la philosophie néoplatonicienne dont on sait qu’elle influençait Copernic.
Quoi qu’il en soit, ce qui rend le modèle élargi de Ptolémée monstrueux aux yeux de Copernic est le
caractère ad hoc de ses constructions multiples, donc le manque d’intelligibilité mathématique de
l’ensemble. Il soutient qu’à l’opposé la nouvelle astronomie héliocentrique montre « une admirable
symétrie » et « un lien évident d’harmonie dans le mouvement et la grandeur des sphères ». Voyons par
exemple le mouvement rétrograde des planètes : pourquoi une planète devrait-elle inverser son
mouvement normal et rétrograder pendant un certain temps avant de reprendre son cours vers l’Est ? Du
point de vue de l’astronomie ptolémaïque, ce phénomène se présente comme une irrégularité
inexplicable, dont on peut évidemment rendre compte grâce à l’introduction d’épicycles appropriés, mais
que l’on ne peut guère comprendre. Du point de vue héliocentrique, au contraire, le mouvement
rétrograde cesse d’être une irrégularité et devient une simple conséquence mathématique du fait que la
Terre elle-même tourne autour du Soleil. Il est facile de voir qu’il en est bien ainsi. Il suffit de dessiner
trois cercles concentriques qui représentent la sphère des étoiles, l’orbite de la Terre et l’orbite de la
planète. Dans le cas d’une planète inférieure (Mercure ou Vénus), le troisième cercle est le plus intérieur,
tandis que, pour l’une des planètes les plus éloignées, l’orbite de la Terre se trouvera entre les deux
autres. Si l’on indique maintenant les positions successives de la Terre et de la planète sur leurs cercles
respectifs146 et qu’on relie les points correspondants par une droite afin d’obtenir les positions planétaires
« observées » sur la sphère stellaire, on voit immédiatement comment le mouvement de la Terre provoque
le phénomène de la rétrogradation. On découvre en outre que la rétrogradation a lieu quand la planète
est la plus proche de la Terre, ce qui explique pourquoi les planètes qui rétrogradent brillent davantage.
L’astronomie copernicienne a donc fourni, semble-t-il, la première explication scientifique de la
rétrogradation des planètes.
La variation que l’on observe dans les périodes du mouvement planétaire orbital est une deuxième
irrégularité que la nouvelle théorie explique magnifiquement. Etant donné que la Terre tourne autour du
Soleil, le temps dont a besoin une planète pour retourner à sa position de départ telle qu’on l’observe
depuis la Terre n’est pas du tout le même que celui dont elle a besoin pour achever le tour de son orbite.
Ces variations peuvent s’expliquer, à nouveau, par le mouvement supposé de la Terre. Copernic en donne
de nombreux exemples pour appuyer le pouvoir explicatif de l’hypothèse héliocentrique. J’en
mentionnerai un : on sait que Mercure et Vénus ne peuvent être observées que dans le voisinage du
Soleil. Pour expliquer cela en termes ptolémaïques, il fallait introduire des déférents et des épicycles qui
liaient ces planètes au Soleil. L’astronomie héliocentrique, au contraire, n’exige aucune construction ad
hoc de ce genre : le phénomène en question est une conséquence immédiate du fait que les orbites de
Mercure et de Vénus sont contenues dans l’orbite de la Terre.
Ceci nous amène à une différence essentielle entre les deux astronomies ; dans le schéma
héliocentrique, l’ordre des orbites planétaires se détermine à partir de données de l’observation. Si les
planètes, y compris la Terre, ont des orbites circulaires autour du Soleil, il est possible de calculer les
rapports de leurs rayons en termes de distances angulaires entre le Soleil et les planètes telles qu’on les
mesure depuis la Terre. Ce n’est pas le cas du système géocentrique, où même l’ordre des planètes n’est
pas déterminé par les apparences. En un mot, la nouvelle astronomie est beaucoup plus cohérente que
l’ancienne. C’est à cette nouvelle cohérence que Copernic fait allusion quand il parle d’« un lien manifeste
d’harmonie dans le mouvement et la grandeur des sphères », et il est évident qu’il voit ce nouveau « lien
comme un puissant argument en faveur de la vérité de sa théorie.
En réalité, cependant, la nouvelle astronomie tombe également sous l’accusation d’incohérence. Dans la
pratique, Copernic fut obligé d’introduire des épicycles et des excentriques de son cru et, de même que
Ptolémée, il se retrouva avec plus de trente cercles, sans aucun gain appréciable dans le degré de
précision. À l’évidence, le problème de l’astronomie planétaire n’avait pas encore trouvé sa résolution.
Les décennies qui suivent la publication du De Revolutionibus ont vu peu de conversions à la cause de
Copernic. Aux yeux du grand public, la notion d’une Terre sur orbite était à la fois absurde et impie, et
même la plupart des astronomes semblent s’être méfiés de cette hypothèse. La seconde moitié du siècle
fut d’ailleurs dominée par l’imposante figure de Tycho Brahé, qui s’opposa fermement à l’héliocentrisme.
Il est connu, avant tout, pour l’incroyable précision de ses mesures astronomiques. Ses résultats sont
souvent d’une grande précision, à une minute d’arc près, réussite inégalée pour une observation à l’œil
nu. Ce qui nous concerne cependant plus particulièrement est le fait qu’il proposa une remarquable
théorie planétaire tout à fait nouvelle, qui a ses partisans jusqu’à aujourd’hui en Europe et en
Amérique147. Il accepte la notion traditionnelle d’une Terre immobile et d’une sphère stellaire engagée
dans une rotation géocentrique diurne, et il propose que Mercure, Vénus, Mars, Jupiter et Saturne
tournent autour du Soleil, tandis que le Soleil et la Lune tournent autour de la Terre. Il se trouve que cette
théorie géocentrique comprend tous les avantages que Copernic prétendait tirer de son modèle
héliocentrique. Lui aussi explique le mouvement rétrograde, la variation des périodes planétaires, et le
lien des planètes inférieures avec le Soleil, sans aucun recours aux épicycles ni à d’autres constructions
ad hoc. On peut en fait montrer que les deux théories planétaires de Tycho Brahé et de Copernic sont
mathématiquement équivalentes, ce qui veut dire qu’elles prédisent exactement les mêmes trajectoires
planétaires apparentes.148
Les deux théories ne sont cependant pas équivalentes en ce qui concerne l’astronomie sidérale, car il
est évident qu’un déplacement de la Terre provoquerait un changement parallactique correspondant dans
la position apparente d’une étoile. Brahé lui-même avait recherché un tel changement, mais n’avait rien
trouvé. Cela signifie que la parallaxe stellaire, si elle existe, doit être de l’ordre de grandeur de moins
d’une minute d’arc, ce qui nécessiterait des distances stellaires beaucoup plus grandes que celles que les
astronomes supposaient d’habitude. Copernic lui-même avait reconnu que son hypothèse exigeait un
accroissement énorme de la sphère stellaire, et il vaut la peine de noter que Brahé considérait cette
multiplication fantastique d’un espace apparemment vide comme l’une de ses raisons les plus pertinentes
du rejet de l’hypothèse copernicienne. D’un point de vue strictement scientifiques, le choix entre les deux
théories ne s’est cependant pas produit à cette époque.
Quoique le problème de l’astronomie planétaire n’eût donc pas encore été résolu, il se trouve que
Copernic aussi bien que Tycho Brahé, chacun à sa manière, avaient apporté des contributions décisives
qui devaient bientôt mener à une solution définitive. La percée se fit dans les premières années du
XVIIème siècle grâce à Johannes Kepler. Se dotant des données supérieures fournies par Brahé, il proposa
une nouvelle théorie héliocentrique, qui était destinée à l’emporter. Après des années de tentatives
inutiles, il abandonna la méthode des épicycles, malgré le prestige de son ancienneté, pour une idée
radicalement neuve : que les planètes tournent autour du Soleil selon des orbites elliptiques et des
vitesses variables. Sa Première Loi stipule que le Soleil est situé à l’un des deux foyers de l’ellipse
planétaire, et la Seconde Loi que le segment de droite entre le Soleil et la planète couvre, à l’intérieur de
l’ellipse, des surfaces égales dans des temps égaux. Qualitativement, cela signifie simplement que plus la
planète est proche du Soleil, plus son mouvement est rapide ; dans les faits, cependant, la « loi des
surfaces égales » permet de calculer la vitesse de la planète à n’importe quel moment de sa trajectoire.
Les deux lois se prêtent conjointement à une description complète du système planétaire. On en a fini
avec les épicycles, les excentriques, les équants et autres astuces : deux lois simples et
mathématiquement élégantes suffisent pour résoudre un problème millénaire. Comme le remarque
Thomas Kuhn : « Pour la première fois une unique courbe géométrique simple et une seule loi sur la
vitesse suffisent à toutes les prévisions sur la position d’une planète, et c’est aussi la première fois que les
prévisions sont aussi précises que les observations »149. Commenter les sources néoplatoniciennes des
conceptions de Kepler nous mènerait trop loin ; il suffira de dire que la première publication de ses idées
est un traité sur le mouvement de Mars, la planète qui pose le plus de défis. Il n’est pas exagéré de dire
que l’ère de l’astronomie moderne débute avec la publication de ce traité en 1609.
C’est cette même année que Galileo Galilei dirigea pour la première fois son télescope vers le ciel, avec
des résultats stupéfiants. Dans une rapide succession, il découvrit que la Voie Lactée est une mer
d’étoiles, il aperçut des montagnes et des cratères sur la Lune, dont il pouvait estimer la hauteur et la
profondeur d’après leurs ombres, il repéra les taches du Soleil, montra qu’il tourne autour de son axe, et
il observa que Jupiter a quatre lunes. Quoique ces découvertes n’aient pas de relation directe avec la
question copernicienne, elles ont eu une influence décisive sur la mentalité européenne en ce qu’elles
discréditaient la très antique distinction entre les sphères célestes d’une part, que l’humanité considérait
comme parfaites et immuables, et le monde « sublunaire » d’autre part, ce domaine de l’imperfection et
du perpétuel changement qui est notre habitat. À travers son télescope, Galilée semblait toujours
contempler le même genre d’univers, du paysage rugueux de la Lune aux taches mouvantes du Soleil. Il
nous est difficile d’imaginer la sensation que produisaient dans les salons de l’Europe les comptes rendus
de ces nouveaux horizons. Une fascination générale pour les découvertes astronomiques paraît avoir saisi
la société européenne, provoquant des réactions de toute sorte. John Donne - pour ne citer que l’exemple
peut-être le plus frappant - semble avoir senti presque immédiatement la signification profonde du «
mouvement » galiléen : « La nouvelle philosophie met tout en doute, écrivait-il déjà en 1611, tout est en
morceaux, toute cohérence a disparu ». La plupart ne firent évidemment pas preuve d’autant de
clairvoyance ; comme Kuhn le fait malicieusement observer : « Le télescope devint un jouet populaire ».
Bien davantage qu’un jouet, en réalité! Il ne peut y avoir aucun doute que les nouvelles images que
glanait le télescope aient contribué de manière significative à la mort de l’ancienne Weltanschauung.
Il faut mentionner encore une autre des découvertes de Galilée : les phases de Vénus, qui semblaient
confirmer que cette planète tourne autour du Soleil. Mais, bien que Galilée ait présenté cette découverte
comme une preuve de l’hypothèse de Copernic, il n’en reste pas moins que l’astronomie de Tycho Brahé
rend tout aussi bien compte des phases de Vénus. « Ce n’était pas une preuve, écrit Kuhn, c’était de la
propagande. »
Mais où en était cette question à l’époque de la controverse entre Galilée et Brahé ? On s’aperçoit
rétrospectivement qu’elle en était à peu près là où le cardinal Bellarmin le disait dans une lettre à
Foscarini, en 1615: « Démontrer que les apparences sont sauves quand on suppose que le Soleil est au
centre et que c’est la Terre qui est dans le ciel, n’est pas la même chose que démontrer que le Soleil est
en fait au centre, et la Terre dans le ciel. Je crois que la première démonstration est possible, mais j’ai des
doutes très sérieux quant à la seconde ». L’œuvre de Kepler confirme la première de ces deux
démonstrations ; pour ce qui est de la seconde, l’histoire des sciences a entièrement justifié les « doutes
très sérieux » du saint cardinal. Comme j’ai l’intention de le montrer maintenant, la science actuelle a en
réalité rendu cette seconde démonstration impensable.

Avec la publication des Principia de Newton en 1687, le triomphe scientifique de l’astronomie de Kepler
fut complet. La théorie pouvait maintenant dériver ses deux Lois sur la base d’une physique à la fois
nouvelle et brillante, une physique qui pouvait se tester et se vérifier de mille manières. Pour ce qui était
de la communauté scientifique, le géocentrisme était maintenant de l’histoire ancienne. Personne ne
doutait plus que la Terre tournât ; il restait seulement à imaginer des expériences qui détecteraient et
mesureraient son mouvement. Quelles furent ces expériences, et qu’ont-elles prouvé ?
L’une des voies d’approche concerne le phénomène de l’aberration. En 1676, un astronome danois,
Olaus Roemer, remarqua que la période entre deux éclipses de l’une des lunes de Jupiter variait de
plusieurs minutes selon la position relative de la Terre. Il en conclut que la lumière se propage à une
vitesse définie, qu’il estima à trois cent neuf mille kilomètres à la seconde (exactitude qui comporte moins
de 3 % d’erreur). Or, si la Terre se déplace, cette vitesse additionnelle doit causer une modification de la
position apparente de tout objet céleste. Qu’on pense à une voiture conduite sous la pluie par un jour sans
vent. Par rapport à la voiture, la pluie tombe, non pas verticalement, mais à un certain angle qui dépend
du rapport entre les deux vitesses : la vitesse horizontale de la voiture, divisée par la vitesse verticale de
la pluie. On peut par conséquent déterminer, à partir de la mesure de cet angle, qu’on appelle
d’aberration, le rapport des vitesses en question. Telle est l’idée qu’il y a derrière ce qui apparaît comme
la première expérience imaginée pour démontrer et mesurer la vitesse de la Terre sur son orbite. En
1724, James Bradley, astronome royal anglais, fixa un télescope sur une cheminée et se mit à observer
l’étoile Gamma Draconis, située à presque quatre-vingt-dix degrés au-dessus de l’horizon. Comme il s’y
attendait, il découvrit que, dans le cours d’une année, la position apparente de l’étoile décrit un petit
cercle qui correspond à un angle d’aberration proche de vingt secondes d’arc. Un simple calcul
trigonométrique montre que cet angle est égal à l’arc tangent de v/c, où v désigne la vitesse orbitale de la
Terre et c la vitesse de la lumière. Il en découle qu’une aberration de vingt secondes correspond à une
vitesse orbitale proche de trente kilomètres à la seconde, ce qui s’accorde bien à la théorie astronomique
à la Kepler et à la Newton 150. En observant et en mesurant l’aberration causée par la vitesse orbitale v,
Bradley avait apparemment observé et mesuré le mouvement supposé de la Terre. Le célèbre Eppur si
muove de Galilée avait enfin, semble-t-il, été confirmé, justifié même aux yeux du monde entier.
Toutefois, l’histoire ne s’arrête pas là. En 1871, un autre astronome anglais, George Biddel Airy, mena
une expérience basée sur une idée qui avait été suggérée plus d’un siècle auparavant par un jésuite
dalmate du nom de Boscovich. Celui-ci avait remarqué que si le télescope de l’expérience de Bradley avait
été rempli d’eau au lieu d’air, l’angle d’aberration aurait été augmenté, puisque la vitesse de la lumière
dans l’eau est moindre que dans l’air. Cependant, quand l’expérience fut enfin terminée, on découvrit que
l’angle en question n’avait pas changé du tout ! À première vue, ce résultat infirmait l’affirmation de
Bradley que la modification de vingt secondes était causée par l’aberration. À l’étonnement général,
l’argument contre le mouvement de la Terre sembla alors logiquement contraignant : étant donné que le
mouvement orbital implique l’aberration, il s’ensuit évidemment que l’absence d’aberration implique
l’absence de mouvement orbital. On le comprend, l’échec de l’expérience d’Airy entraîna des ondes de
choc dans la communauté scientifique. Mais le pire était encore à venir. En 1887, Michelson et Morley
menèrent une expérience, aujourd’hui célèbre, afin de détecter et de mesurer la vitesse de la Terre, non
au moyen de l’aberration, mais par la comparaison de la vitesse observée de la lumière dans la direction
de ce mouvement, avec sa vitesse dans la direction opposée. Une réflexion élémentaire montre que les
deux vitesses devaient différer de 2v exactement, où v est à nouveau la vitesse de la Terre. Mais une fois
de plus, à la consternation générale, il s’avéra que les deux vitesses de la lumière sont exactement
identiques, ce qui signifie que l’expérience aboutit à une vitesse de la Terre égale à zéro. Deux
expériences décisives, reposant sur des principes physiques différents, étaient arrivées à la même
conclusion : la Terre ne bouge pas.

Arrivé à ce point, on n’a plus le choix qu’entre deux options : soit on accepte la conclusion que la Terre
ne tourne pas autour du Soleil et on opte pour une astronomie de type Tycho Brahé correctement affinée,
soit on cherche une façon d’ajuster les lois de la physique de façon à rendre la vitesse orbitale de la Terre
impossible à détecter. L’histoire rapporte qu’Einstein a opté pour la deuxième solution de l’alternative et
qu’en le faisant, il a étonné le monde avec sa théorie de la relativité. En même temps, la théorie spéciale «
explique » de façon ingénieuse les résultats négatifs des expériences d’Airy et de Michelson et Morley, et
mène à une foule d’autres prévisions vérifiables qui ont été ensuite effectivement vérifiées. Il ne fait donc
aucun doute que la physique einsteinienne constitue l’une des entreprises les plus brillantes et
couronnées de succès de l’histoire de la science moderne. On ne doit cependant pas oublier qu’elle opère
par la logique du « sauvetage des apparences », ce qui n’est pas la même chose, pour paraphraser le
cardinal Bellarmin, que démontrer que ce qui est prétendu en théorie est ce qui existe en fait. Comme
Walter van der Kamp — infatigable champion de l’astronomie de Tycho Brahé — aimait à le faire
remarquer, la logique de la relativité constitue un argument ponendo ponens : à partir de la prémisse « P
implique Q », on conclut faussement que « si on a Q, alors on a P ».
Pour en revenir à l’expérience de Bradley, la question demeure : si en effet la Terre ne tourne pas, et si
par conséquent il n’y a pas d’aberration sidérale, comment peut-on expliquer le petit cercle décrit par
l’étoile Gamma Draconis ? Si on s’appuie sur les principes de Ptolémée ou de Tycho Brahé, la réponse est
claire : le phénomène observé est causé par un mouvement circulaire effectif de Gamma Draconis relatif
au Stellatum, la sphère tournante des étoiles. Une remarque similaire s’applique au phénomène de la
parallaxe stellaire, que Henderson a finalement détectée en 1832, et que Bessel et Struve ont mesurée
avec une grande précision en 1838. D’un point de vue géocentrique, il n’existe évidemment rien qui
s’appelle parallaxe stellaire, ce qui veut dire que le phénomène en question doit être causé, ici encore, par
les mouvements stellaires correspondants. Ces mouvements sont trop petits pour pouvoir être observés à
l’œil nu, et c’est pour cette raison que l’Antiquité ne les connaissait pas. On peut affirmer que la
découverte de Henderson, loin de prouver l’existence de la parallaxe stellaire, peut tout aussi bien
s’expliquer sur une base géocentrique.
Ceci n’implique cependant pas qu’il soit indifférent aux yeux de l’astronomie stellaire qu’on adopte ou
non un point de vue géocentrique : rien ne pourrait être plus éloigné de la vérité ! Le fait est que, dans
l’astronomie contemporaine, l’hypothèse de la parallaxe joue un rôle capital dans la détermination des
distances intersidérales. On le voit déjà par ce détail que l’unité habituelle de distance astronomique est
le parsec, qui se définit comme la distance à laquelle un objet stellaire sous-tend un angle d’une seconde
par rapport à une ligne de base dont la longueur est égale à la distance moyenne entre le centre de la
Terre et le centre du Soleil. En clair, le parsec est une unité parallactique de distance. Il signifie en réalité
qu’une étoile située à un parsec de la Terre aura une parallaxe de l’ordre d’une seconde. On notera que
l’hypothèse de la parallaxe impose à l’univers sidéral d’énormes dimensions : un seul parsec est d’environ
trente et un millions de millions de kilomètres. En outre, puisque la plupart des étoiles, à quelques
exceptions près, n’ont pas de parallaxe mesurable, leur distance de la Terre doit être d’au moins vingt-
cinq à cinquante parsecs ; et en fait les astronomes préfèrent employer d’habitude le mégaparsec comme
unité de distance. L’univers de Tycho Brahé nécessiterait encore des distances considérables, mais rien de
comparable aux milliards d’années-lumière qu’exige l’astronomie contemporaine. On voit qu’une
interprétation géocentrique des phénomènes astronomiques réduirait, par l’élimination de la parallaxe
stellaire, la valeur de notre image ordinaire de l’univers sidéral. L’univers de Tycho Brahé en diffèrerait
radicalement, à la fois par sa dimension et par son architecture.
Mais, tandis que l’astronomie actuelle est implacablement opposée à l’hypothèse géocentrique, il se
trouve que la physique pure ne l’est pas. Selon la relativité générale, il est tout à fait permis de considérer
la Terre comme un corps au repos : comme le dit Fred Hoyle, la théorie qui en résulte « est aussi bonne
que n’importe quelle autre, mais non meilleure ». La relativité implique que l’hypothèse d’une Terre
statique n’est pas incompatible avec les lois de la physique et ne peut pas être infirmée
expérimentalement. La physique en tant que telle ne peut assurément pas confirmer cette hypothèse ;
mais elle ne peut pas non plus en nier la validité. Déjà en 1904, Henri Poincaré avait compris que « les
lois des phénomènes physiques sont telles que nous n’avons et ne pouvons avoir aucun moyen de
découvrir si oui ou non nous sommes transportés dans un mouvement uniforme de translation »151 ; et
vers 1915, Einstein avait conclu que la même chose s’appliquait au mouvement arbitraire. En ce qui
concerne la physique, l’affirmation géocentrique reste donc viable.
Étant donné que le défi scientifique au géocentrisme dérive non de la physique, mais de l’astronomie, il
faut nous demander si elle est en mesure de justifier sa position. Notre connaissance scientifique de
l’univers stellaire se base évidemment sur des observations menées soit dans des observatoires sur terre,
soit au moyen des instruments transportés dans l’espace par satellites. Il est essentiel de noter que la
transition des données d’observation aux affirmations concernant les mondes sidéraux ne peut se faire sur
le terrain de la seule physique, mais exige des hypothèses supplémentaires d’une espèce invérifiable.
Nous avons déjà rencontré une telle hypothèse avec la supposition de la parallaxe stellaire, et le lecteur
informé se souviendra probablement de l’interprétation Doppler des décalages stellaires vers le rouge
(redshifts) 152, ainsi que du prétendu principe cosmologique, suppositions invérifiables qui sont la base de
l’astronomie contemporaine153. La logique est ici une fois de plus du genre ponendo ponens, ce qui
signifie que les hypothèses en question se jugent ou se valident selon leur succès à « expliquer » les
phénomènes observables. Mais mis à part le fait qu’un tel argument n’engage à rien — comme le cardinal
Bellarmin l’a vu il y a longtemps ! —, il se trouve que la cosmologie astrophysique officielle a jusqu’ici
négligé la vérification empirique : malgré des rapports boursouflés et des décennies d’efforts concertés,
on découvre que la théorie du Big Bang ne cadre pas avec les données empiriques154. Ici aussi on a des
raisons de supposer, dans les moments décisifs, qu’il ne s’agit effectivement pas de « preuve », mais une
fois de plus, si l’on peut dire, de « propagande ». Si les expériences d’Airy ou de Michelson et Morley
avaient abouti aux résultats qu’elles visaient, le procès scientifique du géocentrisme, bien que ne
s’imposant pas irréfutablement, aurait été tout du moins impressionnant ; cependant, dans l’état actuel
des choses, l’improbabilité de la doctrine ancienne n’a même pas été démontrée, sans parler même de sa
disqualification.

Feu Walter van der Kamp a fait une remarque intéressante : « Le choix est en vérité entre Tycho Brahé
et Einstein — Galilée et al. étant hors jeu ». Je suis d’accord avec ce qu’il dit de Galilée. Pour être précis, il
est « hors jeu » non parce qu’il a soutenu le mouvement de la Terre, mais parce qu’il a étayé son
affirmation sur des bases ostensiblement scientifiques. On sait aujourd’hui grâce à la physique que les
arguments de Galilée ne sont pas concluants, et que le mouvement supposé ne peut du tout être prouvé.
En revanche, ce qui me paraît susceptible d’induire en erreur, c’est cette idée d’un choix entre Tycho
Brahé et Einstein. Je refuse de considérer que l’astronomie de Tycho Brahé et la physique d’Einstein sont
les pôles mutuellement exclusifs de la même alternative. On peut soutenir non seulement que les deux
positions sont compatibles, mais que chacune a sa propre validité. La clef du problème est ici encore dans
le discernement de ce qu’on peut appeler les niveaux de la réalité cosmique : quoique liés entre eux, ces
niveaux demeurent distincts et doivent donc être distingués.
Pour commencer par le physique, je rappellerai que j’utilise ce terme dans son sens technique : il se
réfère au niveau ou aspect de la réalité cosmique qui répond au modus operandi de la physique. Le
physique est ainsi défini et connu grâce à des actes de mesure, ce qui implique qu’il ne comporte ni
l’essence ni la substance au sens ontologique traditionnel. Comme Heisenberg l’a observé à propos des
particules quantiques, les objets physiques constituent, nous l’avons déjà vu, une sorte étrange et
nouvelle d’entité, « qui tient exactement le milieu entre la possibilité et la réalité »155. Or je maintiens que
la relativité einsteinienne a sa place au niveau de ces étranges et nouvelles entités. Cela ne doit en rien
surprendre que des entités, définies grâce à des actes de mesure, soient conformes aux principes de la
relativité : en dernière analyse ne sont-elles pas relationnelles par définition ? Examinons la vitesse, la
puissance du mouvement : peut-elle être autre chose, physiquement parlant, qu’une vitesse relative à tel
ou tel système coordonné, à tel ou tel cadre de référence ? Il y a évidemment des invariants au niveau
physique — c’est-à-dire des quantités qui s’avèrent être les mêmes selon chaque système coordonné dans
telle ou telle classe —, mais ce ne sont pas des absolus : rien qui ne soit intrinsèquement relationnel. En
dehors de cela, on a besoin de l’essence, de ce qui répond à la question « Quoi ? » Un caillou ou un chat
n’est pas relatif, n’est pas simplement relationnel, puisqu’il est quelque chose : qu’il est davantage que «
le milieu entre la possibilité et la réalité ». Par conséquent, un caillou ou un chat n’est pas quelque chose
qui peut être quantifié, ni expliqué à partir d’actes de mesure, et qui n’appartient donc pas au domaine
physique. Comme l’a remarqué Eddington, déjà cité, « Le concept de substance a disparu de la physique
fondamentale »156. A strictement parler, la physique ne traite pas des choses. Il est vrai que la notion de
substance a été maintenue dans ce qu’on appelle maintenant la physique classique ; ce maintien était
cependant faux, c’est-à-dire inconsistant par rapport aux principes opérationnels de la physique.
Eddington le souligne encore : « La théorie de la relativité a constitué la première tentative sérieuse de
s’attacher au traitement des faits eux-mêmes. Auparavant, les scientifiques professaient un profond
respect pour les “faits solides de l’observation” ; mais il ne leur était pas venu à l’esprit de s’assurer de ce
qu’étaient ces faits »157. Einstein est vraisemblablement le premier physicien à être parvenu à une théorie
consistante basée sur des principes opérationnels. Les affirmations de la relativité ne sont pas des
stipulations ad hoc introduites pour sauvegarder l’hypothèse copernicienne, comme les géocentristes ont
l’habitude de le prétendre, mais elles répondent aux principes mêmes sur lesquels repose la physique.
Dans un monde qui se définit opérationnellement — dans ce que John Wheeler appelle l’univers
participatif —, la relativité einsteinienne exerce un pouvoir absolu.
Mais qu’en est-il au niveau du monde corporel ? Les principes de la relativité s’appliquent-ils à un
monde qu’il s’agit de connaître par des actes non de mesure, mais de perception sensorielle cognitive ?
S’appliquent-ils encore à un monde où les essences se manifestent sous forme de qualités sensibles, un
monde où on ne trouve pas seulement des relations, mais aussi des substances réelles ? Il n’y a aucune
raison de croire que tel est le cas. Rien ne nous oblige à supposer que dans le domaine corporel, qui est
manifestement « plus » que le domaine physique, il ne puisse y avoir ni repos absolu ni mouvement
absolu, ni simultanéité absolue des événements158. Si, à ce niveau supérieur, les cailloux et les chats sont
réels, pourquoi pas également le repos et le mouvement, pourquoi pas également la simultanéité des
événements ? J’ai soutenu, dans The Quantum Enigma, que c’est la perte de l’essence, de l’être
substantiel, au fur et à mesure que l’on descend vers le plan physique, qui met en jeu le principe de
superposition de la mécanique quantique ; j’aimerais maintenant formuler la proposition que cette même
perte, cette même réduction aboutit à la relativité einsteinienne sur le plan macroscopique. Là où il n’y a
aucune substance pour distinguer un cadre de référence d’un autre, il est à peine surprenant que tous
deux soient de poids égal. C’est, comme toujours, la perte de la substance, en fait la perte de toute
hiérarchie, qui conduit à la « démocratisation » de ce qui subsiste.
On sait que le plan corporel abroge le principe de superposition : on sait, par exemple, qu’un chat ne
peut pas être à la fois mort et vivant. C’est ce simple fait qui rend compte de la prétendue réduction du
paquet d’ondes qui a tant déconcerté les physiciens depuis l’avènement de la théorie des quanta en
1926159. N’est-il pas alors raisonnable de supposer que le plan corporel abroge de même les principes de
la relativité ? Or cette abrogation, que je considère comme un fait, a évidemment d’énormes implications.
Elle suggère entre autres que la physique aristotélicienne ne saurait être tout à fait aussi chimérique
qu’on le prétend habituellement. En outre, cette reconnaissance jette évidemment un éclairage nouveau
sur la controverse autour du géocentrisme. On voit en particulier que l’astronomie de Tycho Brahé peut
être plus qu’une théorie simplement « admissible », comme le déclare la relativité générale, plus donc que
simplement « aussi bonne que n’importe quelle autre, mais non meilleure ». Le problème est que la valeur
de l’astronomie géocentrique ne peut plus être assurée exclusivement par des actes de mesure. Il ne peut
être résolu sur le terrain de la physique pure, mais exige des considérations d’un ordre différent. Tout ce
que la physique en tant que telle peut dire, c’est que l’astronomie géocentrique ne peut être écartée.
En résumé : le géocentrisme est la cosmologie à laquelle on parvient par la perception sensorielle
cognitive, tandis que l’acentrisme einsteinien est conforme au mode de connaissance propre aux sciences
physiques. Il ne peut y avoir aucun conflit, aucune contradiction entre les deux : leurs visions respectives
du monde correspondent tout simplement à des perspectives différentes, à des darshana-s différents,
comme diraient les Hindous. Le géocentrisme est cependant la plus élevée des deux visions, de même que
le plan corporel est ontologiquement plus élevé que le plan physique160. Puisque la perception sensorielle
cognitive a accès à l’essence, elle peut en principe transcender le plan corporel, passer, selon les termes
de S. Paul, des « choses qui sont créées » aux « choses invisibles de Dieu » — et même au-delà, à « Sa
Puissance et Sa Divinité éternelles ». En un mot, la perception humaine s’ouvre en principe sur le monde
métacosmique (d’où elle est issue), tandis que le modus operandi de la physique nous confine dans un
domaine exclusivement relationnel et sub-corporel. Finalement, l’héliocentrisme de Galilée est une notion
bâtarde qui confond deux voies de la connaissance. On pourrait ajouter qu’il existe un héliocentrisme
traditionnel ou authentique, qui ne doit pas être confondu avec celui de Galilée ; et c’est lui qui nous
occupera principalement au chapitre suivant.
CHAPITRE IX

ÉSOTÉRISME ET COSMOLOGIE : DE PTOLÉMÉE À DANTE ET


NICOLAS DE CUES
Certains conflits doctrinaux ne peuvent se résoudre que sur un plan ésotérique. Dans ce chapitre,
j’aborderai l’un de ces conflits : l’antithèse entre les deux visions du monde, géocentrique et
héliocentrique. Or il existe plus d’un géocentrisme, de même que plusieurs formes distinctes
d’héliocentrisme. Il sera donc nécessaire de départager ces diverses conceptions, qui se situent à
différents niveaux et ne doivent pas être confondues : ce n’est qu’après cela que nous pourrons saisir le
nœud du problème.
Il est tout d’abord indispensable de distinguer une fois de plus entre deux façons très différentes de
connaître : la perception sensorielle cognitive, qui introduit au domaine corporel, et le modus operandi de
la physique, qui donne accès à ce que j’ai appelé l’univers physique. Cela dit, il est clair que le
géocentrisme primaire — ou géocentrisme naturel — s’appuie sur la première façon de connaître : en
regardant le ciel, on y voit étoiles et planètes tourner réellement autour de la Terre, tandis que la Terre
est ressentie comme centrale et immobile. Pour ce qui est de la seconde façon de connaître, on admet
généralement que la science se tient maintenant sans équivoque du côté de l’héliocentrisme. Mais comme
nous l’avons vu dans le chapitre précédent, la physique contemporaine autorise une hypothèse
géocentrique : que la Terre ne tourne pas, qu’elle n’est pas en orbite autour du Soleil ; selon la relativité
einsteinienne, aucune expérience ne saurait prouver le contraire. On conviendra qu’il ne s’agit pas
vraiment de géocentrisme ; mais, relativement au mode de connaissance scientifique, c’est la meilleure
façon de dire : appelons-le géocentrisme physique pour le distinguer du géocentrisme primaire. Il existe
aussi un héliocentrisme physique, qui affirme qu’il est également possible de considérer que c’est le Soleil
qui est immobile et la Terre qui tourne autour de lui. Sur le plan de la physique théorique, il n’y a donc
aucun conflit entre les deux positions, c’est-à-dire que toutes les deux trouvent leur appui dans les
principes de la relativité. Comme je l’ai montré au chapitre VIII, ces principes, qui semblent bien
opérationnels au plan physique, rendent compte du fait que la notion de substance n’a plus aucune place
dans la physique fondamentale : dans un monde qui n’est fait que de relations, je le répète, la relativité
einsteinienne règne sans partage.
On remarquera qu’il n’existe évidemment aucun héliocentrisme fondé sur la perception sensorielle
cognitive. Néanmoins, mis à part ce que j’ai appelé héliocentrisme physique, il existe un héliocentrisme
célèbre, celui que défendait Galilée, qui soutient, sur une base apparemment scientifique, que la terre
tourne. En prétendant avoir démontré le mouvement de la Terre, Galilée s’est cependant trompé : son
célèbre « Eppur si muove » n’a jamais été prouvé. Ce que j’appellerai l’héliocentrisme galiléen s’avère
être, je l’ai déjà dit, une notion bâtarde, un hybride erroné, si l’on peut dire, des deux façons de connaître.
Il existe cependant encore un troisième héliocentrisme, que l’on pourrait appeler traditionnel, iconique,
peut-être même ésotérique ; nous y reviendrons. Mais il nous faut tout d’abord examiner en profondeur la
signification du géocentrisme primaire.

On a osé dire que la vision géocentrique du monde était adaptée à la mentalité de l’homme dit primitif,
qui accepte sans aucun examen le témoignage de ses sens, et qu’on suppose incapable de pensée
scientifique. On soutient en outre que la perception humaine est intrinsèquement non-fiable et sujette à
d’innombrables illusions que la science a le devoir de rectifier. Quoique les scientifiques admettent que la
perception sensorielle constitue notre seule et unique voie d’accès vers le monde extérieur, ils nient
qu’elle puisse octroyer per se une connaissance authentique des choses telles qu’elles sont. Pour y
parvenir, il faut que des instruments scientifiques complètent les facultés naturelles, et qu’on adopte les
théories qui les sous-tendent. Le rôle de la perception sensorielle dans le processus cognitif est ainsi
réduit finalement à des actes élémentaires, tels que la lecture d’une aiguille sur une échelle graduée.
Si exagérément simplifiée que soit cette présentation résumée de l’épistémologie de type scientifique,
elle permet de saisir le dénigrement scientiste contemporain à l’égard de la perception sensorielle en tant
que mode de connaissance sérieux et respectable. Dans la mentalité scientifique, le modus operandi de la
science apparaît comme la seule voie légitime vers l’acquisition d’une connaissance authentique ; comme
le dit Bertrand Russel : « Ce que la science ne peut pas dire, l’humanité ne peut pas le savoir ». Ce qui est
évidemment loin d’être le cas ! Il faut comprendre dès l’abord que la perception sensorielle cognitive
permet d’accéder à des domaines de la réalité qui dépassent les possibilités de la recherche scientifique,
et que, dans la vie quotidienne, elle permet d’accéder à un monde authentique que la physique, en tant
que telle, ne peut connaître. Nous devons aussi nous rappeler que la perception cognitive n’est un acte ni
physiologique ni même psychologique, mais qu’elle a lieu dans l’intellect, la plus haute des facultés
humaines. Si élevée que, selon les platoniciens, elle transcende les catégories de l’espace et du temps.
Elle se révèle ainsi, même dans ses manifestations les plus humblement quotidiennes, comme quelque
chose de tout à fait miraculeux, qui, littéralement, « n’est pas de ce monde ». D’ailleurs, dans la mesure
où elle constitue notre faculté normale, d’origine divine, pour connaître le monde extérieur, son
dénigrement scientiste n’est pas seulement erroné, il est impie. Ce qui limite réellement la vérité et la
profondeur de la perception humaine, ce ne sont pas nos facultés en elles-mêmes, mais l’usage que nous
en faisons ; or, depuis les temps les plus reculés, cet usage subit progressivement un déclin collectif
manifeste. Il semble d’ailleurs vraisemblable que le dénigrement scientiste ait lui-même un effet débilitant
sur notre capacité de percevoir, et ait accéléré notre dégénérescence depuis l’état primordial où, selon la
tradition sacrée, l’homme avait la faculté de connaître « les choses qui sont créées » pour appréhender «
les choses invisibles de Dieu » qu’elles symbolisent. L’évolution de la perspective scientifique constitue
ainsi une phase récente de cette dégénérescence que S. Paul a définie comme un « obscurcissement du
cœur ». Ce qui sépare la vraie science de la négativité scientiste est sans aucun doute une ligne infime ;
mais c’est encore S. Paul qui affirme en termes clairs que ceux qui passent cette ligne sont « inexcusables
». En des termes qui n’ont rien perdu de leur pertinence, l’Apôtre définit la situation qui en résulte : ces
impies, « dans leur prétention à la sagesse, sont devenus fous » (Romains I, 20-22).
À propos de cette allusion au déclin dont souffre notre pouvoir de perception, on remarquera que,
même dans cet état affaibli, nous avons encore la possibilité de contempler un univers véritablement
sublime, et incomparablement plus riche — et plus réel ! – que celui que révèlent les méthodes de la
physique. Le mode de connaissance scientifique a assurément autant de validité dans le domaine
ontologique qui lui est propre que le mode de perception cognitive ; mais celui-ci est le plus éminent des
deux, car c’est par lui que nous pouvons non seulement connaître les composantes quantitatives et
matérielles de l’être, mais aussi nous élever à la connaissance des essences, et même, Deo volente,
jusqu’à une perception « des choses invisibles de Dieu ».
Pour en revenir à la question du géocentrisme, il faut remarquer que la vision du monde à laquelle on
parvient par la perception sensorielle est obligatoirement géocentrique. Or, compte tenu des réflexions
qui précèdent, ce fait, loin de constituer une sorte de stigmate, offre par lui-même une certaine légitimité
et même une certaine primauté à la Weltanschauung géocentrique. On peut affirmer qu’elle constitue la
perspective humaine normale, qui, en tant que telle, ne saurait être ni illégitime ni dépourvue de vérité.
Ce que nos sens nous apprennent est que la Terre sur laquelle nous nous tenons se tient au centre de
l’univers, et que le Soleil, la Lune, les planètes et les étoiles tournent autour d’elle. Il est vrai — on nous
l’a dit et redit — que la perspective géocentrique convient à la compréhension d’esprits simples et non-
scolarisés ; mais il est également vrai que cette vision du monde est connaturelle à l’entendement des
sages et des saints.

La doctrine géocentrique traditionnelle s’appuie sur la conception du Stellatum, la sphère des étoiles
fixes, qui tourne autour de la Terre en vingt-quatre heures ; entre la Terre et le Stellatum se trouvent les
planètes, les « vagabondes », qui diffèrent nettement des étoiles par la complexité de leurs mouvements
apparents. L’architecture sous-jacente du cosmos, faite de deux sphères, est cependant ce qui prime : la
notion d’une sphère extérieure constituée par les étoiles, qui effectuent une révolution perpétuelle autour
de la Terre, conçue comme la sphère intérieure. Il est essentiel de comprendre que la distinction entre ces
deux sphères, loin d’être uniquement cosmographique, est avant tout ontologique, c’est-à-dire que les
sphères représentent respectivement deux niveaux ontologiques distincts, deux mondes, si l’on préfère ;
et on remarquera que jusqu’à aujourd’hui on parle de « sphères » en un sens incontestablement
ontologique. Il est tout aussi essentiel de comprendre que ces deux mondes — stellaire l’un et terrestre
l’autre - définissent un ordre hiérarchique : que le monde stellaire est « plus haut » que le monde
terrestre ; et il faut insister sur le fait que les adjectifs « haut » et « bas » ont jusqu’à aujourd’hui conservé
leur connotation hiérarchique. On voit par là que la conception du cosmos en deux sphères définit une
dimension de verticalité qui est à la fois cosmographique, ontologique et axiologique. L’immensité spatiale
de la distance qui sépare la Terre de la sphère sidérale devient ainsi l’indication du stupéfiant hiatus,
ontologique et axiologique, qui sépare les deux mondes. Le monde stellaire ne doit assurément pas être
identifié au domaine spirituel, qui est métacosmique et invisible au regard mortel ; mais pourtant, en tant
que sphère cosmique la plus élevée, le monde sidéral reflète le spirituel à un degré prééminent. Selon la
croyance ancienne, il existe une relation intime entre ce monde et celui des anges, le domaine de ce qu’on
appelle les dieux. À l’autre extrême, la Terre occupe la position la plus basse dans la hiérarchie cosmique,
et ceci doit à nouveau se comprendre selon trois sens.
Ces indications quelque peu clairsemées suffiront peut-être à donner un premier aperçu sur ce qu’est la
cosmologie géocentrique. Avec son télescope et ses polémiques, Galilée attaquait bien plus qu’une simple
cosmographie. La question n’était pas de savoir si la Terre se meut ou ne se meut pas — quoi que cela
puisse signifier ! Ni si ce que prétendait Galilée contredisait certains passages de l’Écriture, par exemple
ceux où il est dit que le Soleil « se lève »ou « parcourt sa trajectoire ». L’enjeu, à l’évidence, n’était rien de
moins qu’une Weltanschauung complète. C’est en fait la notion de hiérarchie cosmique, de « verticalité »
au sens traditionnel du terme, qui était visée. Mais remarquons que cette notion est intimement liée à la
conception de l’ascension spirituelle. Sur ce point, on objectera qu’il est sûrement possible de « s’élever »
spirituellement sans avoir à voler dans le ciel ; mais le fait que le sens spirituel ou métaphysique de la
verticalité doive réellement être distingué du sens cosmographique n’empêche pas que tous deux soient
profondément liés. Ce n’est pas une simple imagination ou une poésie pieuse qui affirme que le Christ —
et avant Lui Énoch et Elie — « a été élevé au ciel, et qu’une nuée l’a dérobé à leur vue » (Actes I, 9). Il
faut cependant encore savoir si les deux sens de la verticalité peuvent être dissociés sur le plan
existentiel, et si le sens cosmographique ne peut pas jouer un rôle réellement vital dans la vie spirituelle.
On s’étonne que quelqu’un qui pense, à la Einstein, qu’« un système coordonné en vaut un autre », puisse
conserver une croyance vivante dans la possibilité d’une élévation spirituelle. Ce qui compte
spirituellement, on le sait, est ce qu’on croit avec tout son être, y compris, serait-on tenté de dire, avec
son corps même, la part corporelle de notre nature. Le premier Commandement n’exhorte-t-il pas à aimer
Dieu « de tout ton cœur, de toute ton âme, et de toute ta force » ? On ne saurait douter que le ternaire
cœur-âme-force corresponde au ternaire paulinien pneuma-pyche-soma, c’est-à-dire qu’il nous est
ordonné d’aimer Dieu non seulement avec nos facultés spirituelles et mentales, mais aussi avec notre être
corporel. D’ailleurs, dans la ligne de ce principe fondamental, l’Église a décrété que le sens littéral ou «
corporel » de l’Écriture ne devait être ni renié161 ni simplement abandonné, comme les théologiens
contemporains ont coutume de le faire. Le christianisme authentique a toujours rejeté l’angélisme sous
toutes ses formes ; si l’homme est réellement un être trichotomique, ses convictions religieuses et sa
discipline doivent en un certain sens être également trichotomiques. Pour en revenir au concept
fondamental de verticalité, on conclura qu’on n’en saurait rejeter impunément le sens cosmographique ;
et j’ajouterai que l’histoire en fait foi : il n’est à coup sûr pas accidentel qu’avec la révolution
copernicienne coïncide un déclin visible de la foi. Dans les couches les plus instruites de la société tout au
moins, la foi dans les enseignements du christianisme, pour autant qu’il en subsiste quelque chose, est
devenue étrangement creuse, manquant de façon flagrante de force de conviction existentielle. Il existe
évidemment des exceptions bien connues, mais on ne peut se tromper sur la tendance générale ; en un
sens tout à fait réel, l’Occidental a trahi sa vocation spirituelle. Par la perte de la verticalité
cosmographique, il se retrouve dans un univers horizontal où le souci d’une religion authentique n’a plus
guère de sens. Et ne disons pas que la religion ou la spiritualité n’a nul besoin de cosmologie, rien ne
pourrait être plus éloigné de la vérité. Comme l’a remarqué avec sagesse le poète Milosz : « À moins que
la conception que se fait un homme de l’univers physique ne s’accorde avec la réalité, sa vie spirituelle
sera entravée à sa racine même » ; c’est ce qui se passe sous nos yeux. Et pour en revenir aussi à Galilée
et à son célèbre procès, on ne peut que louer l’Église de s’être ralliée à la défense de la position qui est la
sienne de plein droit.

Il est essentiel de comprendre que la cosmologie géocentrique est une doctrine intrinsèquement
iconique. Elle fait partie des sciences traditionnelles en tant que distinctes des sciences modernes, qui ne
traitent que des aspects matériels, et donc non-iconiques, de la réalité cosmique. Comme l’explique
Seyyed Hossein Nasr : « Les sciences modernes connaissent aussi la nature, mais elles ont cessé de la
connaître en tant qu’icône. Elles peuvent nous dire la dimension, le poids et la forme de l’icône et même
la composition des diverses couleurs utilisées pour la peindre, mais elles ne peuvent rien nous dire sur sa
signification par rapport à une réalité qui la dépasse »162. Remarque très pertinente, et des plus
éclairantes. On aurait pu éviter en grande partie l’incompréhension et la confusion dans le débat sur le
géocentrisme si on avait saisi de part et d’autre que le géocentrisme doit se comprendre comme une
vérité iconique, une vérité qui transcende le domaine des sciences physiques modernes. En fin de compte,
le géocentrisme est une affaire de signification, de symbolisme cosmique, et il touche donc au mystère de
l’essence. Il n’est pas une vérité qui peut se définir, encore moins se démontrer, sur un plan positiviste.
Le géocentrisme une fois défini comme doctrine iconique, il s’agit de souligner que ce qui en découle
n’est pas une affaire de symbolisme en un sens plus ou moins psychologique, mais une affaire de vérité
objective. C’est une doctrine scientifique, qui appartient, je le répète, au domaine des sciences
traditionnelles. En tant que tel, il exige une certaine capacité à « voir », à entrer dans un mode supérieur
de vision, un mode qui permet de discerner la signification de l’icône en tant qu’elle est distincte des
simples « formes et couleurs ». À l’opposé, le scientifique contemporain a été formé à fixer son regard sur
les aspects les plus extérieurs de la réalité corporelle : s’étonnera-t-on alors qu’il passe à côté du sens
iconique ? Une longue scolarisation entraîne à réduire l’icône à n’être que forme et couleur : à ramener
l’univers à ses composantes matérielles et quantitatives. C’est ainsi que la véritable signification du
géocentrisme échappe généralement non seulement aux membres de la communauté scientifique qui le
critiquent, mais également à ceux qui, à notre époque, prennent sa défense163. Le débat ne fait cependant
rage que sur les questions les plus extérieures.
L’Occident moderne n’a pas seulement virtuellement perdu la réalité, mais aussi la notion même de
science au sens traditionnel. Même les théologiens, qui devraient se montrer plus avisés, n’en ont, pour la
plupart, pas la moindre idée : s’ils l’avaient, ils ne se seraient pas attelés à la tâche de « démythologiser »
les textes sacrés. Pourquoi cet aveuglement ? Ce n’est pas un problème d’érudition, ni même peut-être de
« foi » au sens religieux ; ce qui fait défaut est une ambiance traditionnelle, chose qui, en Occident, a
disparu depuis des siècles. Nasr a sans aucun doute profondément raison quand il compare les sciences
traditionnelles à « des joyaux qui brillent en présence de la lumière et deviennent opaques dès qu’elle
disparaît »164. Il faut comprendre que cette merveilleuse métaphore ne s’applique pas seulement à
d’obscures disciplines, telles que l’alchimie ou l’astrologie, mais également au géocentrisme, dont chacun
croit comprendre le sens. Étant donné que les réalités cosmiques sont reliées par leur essence à leurs
archétypes, une vision du monde où l’essence est abandonnée est une vision qui ne peut reconnaître
aucune science traditionnelle, ni géocentrisme ni autre. Les formes extérieures d’une telle science
peuvent évidemment perdurer, de même que les formes et les couleurs d’une icône restent visibles quand
elle a perdu toute signification. En particulier, la dimension cosmographique du géocentrisme peut
survivre ; cependant, réduit de cette façon à son sens extérieur, il n’est plus qu’une superstition, un
simple vestige d’une vision du monde oubliée. Selon la métaphore de Nasr, le géocentrisme est devenu «
opaque ».

Qu’on la conçoive selon le système de Ptolémée ou celui de Tycho Brahé165, la cosmologie géocentrique
affirme que les étoiles et les sept planètes classiques — Saturne, Jupiter, Mars, le Soleil, Vénus, Mercure
et la Lune — sont en révolution perpétuelle autour de la Terre, comme sur de gigantesques sphères
tournantes. En un mot, les cieux tournent tandis que la Terre demeure immobile : quelle en est la
signification ? Pour les anciens, cela signifiait que les étoiles et les planètes sont les principes du
mouvement dans la sphère terrestre. De même que le Soleil donne naissance à l’alternance du jour et de
la nuit, et à celle des saisons, et que la Lune provoque les marées océaniques et d’autres phénomènes, il
en va de même pour les étoiles et les cinq autres planètes. L’astronomie et l’astrologie étaient ainsi liées
comme les aspects complémentaires d’une seule et même science. Il ne faut pas oublier que Ptolémée n’a
pas laissé que l’Almageste — le traité d’astronomie le plus complet et le plus influent publié dans
l’Antiquité —, mais aussi le Tetrabiblos, qui traite de l’astrologie divinatoire.
Compte tenu que les sphères célestes exercent une réelle influence sur le monde terrestre, on peut se
demander comment cette influence se transmet au monde sublunaire. Cette question a reçu de la part
d’Aristote une réponse essentiellement physique : convaincu, pour des raisons philosophiques, qu’il
n’existe pas d’espace vide, et persuadé que les sphères célestes sont composées de l’élément appelé
éther, il pensait que chaque sphère exerce une sorte de force mécanique sur la suivante, en ordre
décroissant depuis le Stellatum jusqu’à la Terre. Et puisque cette dernière sphère est immobile, il doit en
résulter un mélange des éléments, et donc la production de mouvement et de changement internes : tel
est, tout au moins, le sens apparent de la doctrine aristotélicienne. Il semble cependant que les premières
conceptions de l’influence sidérale aient été beaucoup plus théologiques que physiques, si on peut le dire
ainsi ; il faut se souvenir que les civilisations anciennes avaient peuplé les cieux de dieux — d’anges, selon
notre vocabulaire — qui disposaient vraisemblablement de moyens spirituels supérieurs pour
communiquer leur influence au monde sublunaire. Quoi qu’il en soit, il est évident que les sphères
célestes étaient conçues comme « actives » par rapport à la Terre, c’est-à-dire que la vision du monde de
ces premières civilisations était intrinsèquement astrologique.
Cette caractéristique fondamentale de la cosmologie antique a évidemment été abandonnée par la
révolution copernicienne. Copernic lui-même, qui n’était ni un révolutionnaire ni un iconoclaste, a tenté
de sauver tout ce qu’il pouvait de l’ancienne cosmologie. Et pourtant, par une sorte de logique implacable,
c’est son innovation en astronomie qui a précipité le déclin de l’ancienne vision du monde : dans l’esprit et
l’imagination de ceux qui, à sa suite, ont adopté la cosmographie héliocentrique, l’astrologie est devenue
absurde. Dès lors, c’est la Terre qui tourne et qui agit vraisemblablement sur les autres planètes, comme
celles-ci agissent sur elle. La nouvelle cosmologie est visiblement « démocratique »: la hiérarchie
traditionnelle, où la Terre n’occupait que la position la plus inférieure, a été remplacée par un système
planétaire dans lequel le globe terrestre jouit d’un statut plus ou moins égal à celui des autres planètes. Il
n’y a maintenant plus de « haut » ni de « bas », plus d’« Est » ni d’« Ouest », de « Nord » ni de « Sud »,
excepté évidemment relativement à telle planète en orbite autour du Soleil. Le fondement même d’une
perspective astrologique a disparu.
Dans la nouvelle cosmologie, les étoiles et les planètes classiques n’exercent plus d’influence sur la
Terre, ou, plus précisément, n’exercent plus d’influence « supérieure ». Pour la physique contemporaine,
il y a interaction par l’intermédiaire de forces gravitationnelles et électromagnétiques ; et en ce sens-là, il
est évident que le Soleil, la Lune et les étoiles ont encore une influence sur la Terre. Inutile de préciser
que l’action de forces ou l’échange de particules tels que les admet la physique actuelle ne sont en rien
comparables à « l’influence des sphères célestes » de l’ancienne science — ce qui est justement la raison
pour laquelle l’idée même d’astrologie apparaît aujourd’hui comme une superstition primitive totalement
discréditée.

La vérité iconique concerne la relation qui va d’une réalité cosmique à une réalité métacosmique.
Cependant, puisque chaque entité cosmique est reliée de multiples façons aux domaines métacosmiques,
chacune sert de support à une multiplicité de vérités iconiques. Pour lire une icône cosmique, il faut faire
un choix ; mieux, s’engager dans une perspective ou un point de vue particulier. Ce qu’on contemple
dépend pour ainsi dire de l’angle de vision personnel, et quand on adopte un point de vue différent, la
perception qui en résulte peut contredire formellement la connaissance précédente.
Puisque j’ai défini le géocentrisme comme une doctrine iconique, il me faut préciser que, correctement
compris, l’héliocentrisme en constitue également une. Les deux points de vue, qui apparaissent comme
rivaux, sont donc tous les deux justes, c’est-à-dire que chacun comprend une vérité iconique ; seule la
perspective diffère. Plus précisément, les deux doctrines correspondent à des niveaux de vision différents.
Le point de vue héliocentrique correspond évidemment à une vision plus intellectuelle ou intérieure, dans
la mesure où elle contredit ce qu’on peut appeler le témoignage de la perception sensorielle. Sa vérité
iconique découle du fait que le Soleil, en tant que représentant de la Déité, occupe de plein droit le centre
de l’univers. En tant qu’« auteur non seulement de la visibilité de toutes les choses visibles, mais aussi de
la génération, de la nourriture et de la croissance »166, il ne saurait se concevoir selon le point de vue de
Ptolémée, comme une simple planète parmi toutes celles qui tournent autour de la Terre. Eu égard à la
perspective ouvertement théophanique, presque « liturgique », de l’héliocentrisme traditionnel, il n’est
guère surprenant qu’il ait été particulièrement associé aux traditions pythagoricienne et platonicienne en
ce qu’elles se distinguent de la tradition aristotélicienne. D’après le récit de Philolaos, les pythagoriciens
adoptèrent une cosmologie non-géocentrique où la Terre tourne autour d’un feu central, appelé Autel de
l’Univers, qui ne semble cependant pas avoir été identifié au Soleil. Cette identification sera le fait des
néoplatoniciens, dont la cosmologie devint ainsi nettement héliocentrique. Plus tard, durant la
Renaissance, dans le cadre du mouvement d’idées dont Marsile Ficin fut le champion, la doctrine refit
surface, mais sous une forme quelque peu modifiée ; on pourrait dire que ce que Marsile Ficin a inauguré
est une vraie religion, une sorte de néo-paganisme. Ce mouvement influença profondément Copernic lui-
même, comme le montrent de nombreux passages du De Revolutionibus. J’en citerai un seul exemple
(Livre Premier, chapitre dix) qui permettra de savourer l’esprit de la Renaissance : « Au centre de tout
siège le Soleil sur son trône. Dans ce temple des plus magnifiques, pourrions-nous placer cet astre dans
une meilleure position, d’où il peut illuminer d’un seul coup tout l’univers ? Il est juste qu’on l’appelle la
Lampe, l’Esprit, le Souverain de l’Univers ; Hermès Trismégiste le nomme le Dieu visible, et Électre, dans
Sophocle, Celui qui voit Tout. C’est ainsi que le Soleil, assis sur un trône royal, gouverne ses enfants, les
planètes, qui tournent autour de lui. »
Pourtant, en dépit de ce panégyrique, la lumière de la vérité iconique s’est affaiblie rapidement. Une
sorte de littéralisme terre à terre, hostile à l’esprit de la philosophie platonicienne, commençait à se
manifester, annonçant l’avènement des temps modernes. Nous ne trouvons de réveil authentique du
platonisme ni chez Marsile Ficin ni chez Copernic, et on ne saurait dire que leur héliocentrisme soit
entièrement conforme à son prototype traditionnel : « Il était plutôt comparable, écrit Titus Burckhardt, à
la dangereuse vulgarisation d’une vérité ésotérique. »167
Il nous faut soupeser cette affirmation, qui est d’une portée considérable. Pourquoi la vérité de
l’héliocentrisme devrait-elle être « ésotérique » ? Et pourquoi sa vulgarisation devrait-elle être «
dangereuse » ? Nous avons déjà défini la vérité de l’authentique héliocentrisme comme « iconique » ;
devrons-nous peut-être conclure qu’« iconique » et « ésotérique » sont des synonymes ? Dans ce cas, le
géocentrisme authentique serait également « ésotérique ». Je vais tenter de donner tout au moins une
réponse partielle à ces questions. On remarquera tout d’abord qu’il y a une opposition prima facie, une
sorte de contradiction logique, entre les théories héliocentrique et géocentrique. On remarquera en outre
que l’héliocentrisme se fonde sur une vision intellective qui remplace ou annule la vision sensorielle. Le
point essentiel est cependant que l’héliocentrisme ne nie pas la vérité sensible, mais plutôt l’adapte à une
vision, à la fois élargie et nécessairement hiérarchique, de la réalité. Vivekananda l’exprime ainsi : «
L’homme ne procède pas de l’erreur à la vérité, mais de vérité en vérité : d’une vérité inférieure à une
vérité supérieure ». Cette reconnaissance indulgente de la vérité inférieure constitue l’un des signes de
l’ésotérisme authentique. La vérité supérieure ne détruit jamais l’inférieure, bien au contraire ! Un
prétendu ésotérisme qui réduit la valeur des certitudes normales de l’humanité, en un certain sens
d’origine divine, est obligatoirement un faux ésotérisme. Le Christ Lui-même l’a dit : « Je ne suis pas venu
pour abolir, mais pour accomplir ». Et il y insiste : « En vérité je vous le dis, avant que le ciel et la terre
passent, pas un iota ne sera ôté de la loi, jusqu’à ce que tout soit accompli » (Matthieu, V, 17 et 18). Le
Christ parle assurément ici de la loi mosaïque et non de cosmologie ; on peut supposer cependant que ses
paroles s’appliquent aussi à l’ensemble des certitudes fondamentales enracinées dans la tradition de
l’Ancien Testament, laquelle inclut de toute évidence le géocentrisme. Jusqu’à ce que « le ciel et la terre
passent », toutes ces « vérités inférieures » demeureront valables et, en un certain sens, contraignantes :
que personne ne les rejette avant d’avoir réellement atteint les vérités les plus hautes — avant que « le
ciel et la terre aient passé » —, sous peine de tomber dans ce qu’une Upanishad appelle « une plus grande
obscurité ».
Pour en revenir à l’opposition prima facie entre les positions héliocentrique et géocentrique, il faut
insister sur le fait que ce conflit ne peut se résoudre sur le plan de nos idées habituelles de « bon sens »
concernant la réalité corporelle. Ni sur une base aristotélicienne, et encore moins cartésienne. On ne peut
le résoudre, à mon avis, que du point de vue d’une métaphysique platonicienne — ou védantique, si l’on
veut : aucun réalisme de moindre envergure n’y suffira. Et le moins qu’on puisse dire de ce point de vue,
c’est qu’il est réellement « ésotérique ».
Il ne fait guère de doute que ce soit aussi sur de telles prémisses que Dante a conçu sa vision grandiose
de ce qu’on pourrait appeler le cosmos intégral. Il combine les cosmologies géocentrique et
héliocentrique en une seule et unique cosmographie poétique ; et il est hautement significatif que l’on
passe de l’une à l’autre précisément sur le seuil de l’Empyrée, limite, pour ainsi dire, entre les deux «
mondes ». Car en fait, lorsqu’on franchit cette limite, les sphères de plus en plus élevées cessent d’être de
plus en plus vastes, et se font dès lors, au contraire, de plus en plus petites ; dans ce royaume céleste et
vraiment angélique, l’ordre hiérarchique des sphères successives s’inverse : « s’élever » signifie ici se
rapprocher du centre, où se trouve l’Autel de l’Univers, le Trône de Dieu. L’Empyrée — la sphère
ptolémaïque la plus extérieure — est ainsi le point d’inversion, où « le ciel et la terre passeront », et il est
aussi le point où apparaîtront « un nouveau ciel et une nouvelle terre » (Isaïe, LXV, 17, et Apoc. XII, 1).168

La question se pose de savoir si la prééminence de l’héliocentrisme authentique ne se reflète pas sur le


plan physique dans une prééminence cosmographique correspondante. Le principe même du symbolisme
cosmique n’exige-t-il pas que la gloire supérieure de la vraie vision héliocentrique se reflète de quelque
manière dans la géométrie réelle du système planétaire ? Ma thèse est que ce n’est autre que ce reflet à
quoi Copernic se réfère comme à « une symétrie magnifique de l’univers, et une relation définie
d’harmonie dans le mouvement et la grandeur des orbites, d’une espèce impossible à obtenir de n’importe
quelle autre façon ». En fait, les systèmes de Copernic et de Tycho Brahé se révèlent mathématiquement
équivalents169, ce qui revient à dire qu’ils prédisent les mêmes orbites apparentes ; pourtant, même ainsi,
les symétries et l’harmonie dont parle Copernic, avec une passion qui se justifie, demeurent invisibles
dans le schéma de Tycho Brahé, alors qu’elles sont manifestes et resplendissantes dans celui de Copernic.
On ne peut donc éprouver que des sentiments partagés au sujet de la défense contemporaine du
géocentrisme. Les chrétiens ont raison de veiller sur une doctrine qui se révèle fondamentale pour leur
foi ; mais l’esprit réductionniste de notre époque a placé de force le débat à un niveau cosmographique où
l’essentiel est déjà perdu, et où les défenseurs se retrouvent en position de faiblesse. Je l’ai déjà dit, le
principe de la relativité a offert une certaine protection aux géocentristes cernés de toute part ; mais, en
même temps, il a privé la cause géocentrique de tout espoir dans les fondements de la physique. Le fait
demeure cependant qu’un système héliocentrique coordonné offre des avantages théoriques indéniables,
justement parce qu’adapté aux symétries que Copernic a en vue : les symétries mêmes qui témoignent de
la vérité héliocentrique. Les tychoniens peuvent bien avoir raison lorsqu’ils affirment qu’eux aussi
peuvent expliquer les faits observables, mais il est étonnant de voir à quel prix : sous forme
d’interventions ad hoc170. Ces défenseurs offrent un spectacle quelque peu pathétique, eux que le camp
opposé ne juge même pas dignes d’une réplique.
Ce qui déconcerte inévitablement la mentalité exotérique est ce qu’on pourrait appeler la polyvalence
de la Révélation authentique, qu’elle soit scripturaire ou cosmique. La vérité est hiérarchique, ce qui
contraint en un certain sens l’Écriture et le cosmos à l’être également. Aucune perspective unique ni
aucun niveau de compréhension, aucun darshana unique ne peut rendre complètement justice à la vérité
intégrale : la Révélation elle-même nous le dit de diverses manières. Il est typique qu’à la fois l’Écriture et
la Révélation cosmique le suggèrent par les « fissures », c’est-à-dire par les incongruités apparentes qui
nous troublent et nous embarrassent, mais dont il faut aussi espérer qu’elles nous incitent à chercher un
niveau supérieur de vérité. Comme le Christ lui-même l’annonce à ses disciples la veille de sa passion : «
J’ai encore beaucoup de choses à vous dire, mais vous ne pourriez les supporter maintenant » (Jean XVI,
12). L’humilité au sens moral du terme ne suffit pas : nous avons aussi besoin d’une humilité intellectuelle
et même théologique. Pour nous préserver de tomber dans quelque dogmatisme aride, nous devons
toujours avancer « d’une vérité inférieure à une vérité supérieure ». Les dogmes s’adressent au viator, le
voyageur spirituel, non au théologien en chambre. Ce qui ne veut pas dire que les dogmes vraiment
sacrés ne soient que provisoires ou limités à leur sens littéral, mais bien plutôt qu’ils recèlent des vérités
insoupçonnées. Nous devons, comme je l’ai dit, continuer à avancer ; selon les mots de l’auteur de l’Épître
aux Hébreux : « La nourriture solide est pour les hommes faits » (V, 14). D’ailleurs, puisque, en dernier
ressort, la vérité vient de Dieu, cette ascension progressive constitue un vrai itinerarium mentis in Deum,
un « itinéraire de l’esprit vers Dieu ». Mais c’est à l’évidence un itinéraire au cours duquel le viator est
progressivement transformé ; selon les mots de S. Paul : « Et nous tous qui [...] contemplons comme dans
un miroir la gloire du Seigneur, nous sommes transformés, de gloire en gloire, en cette même image, par
le Seigneur, qui est Esprit » (II Cor. III, 18).
Je le répète, la vérité supérieure de l’héliocentrisme se reflète dans la beauté ou « symétrie »,
supérieure elle aussi, de la description mathématique correspondante ; mais on se souviendra que cette «
haute vérité » appartient à ce qu’on peut définir comme un point de vue ésotérique. Réduit à une théorie
scientifique au sens moderne du terme — à une simple cosmographie —, l’héliocentrisme se situe au-
dessous de son rival géocentrique ; je le répète aussi, cette dernière doctrine, si limitée soit-elle,
correspond au témoignage de la perception sensorielle, et s’ouvre par là sur des visions de la vérité qui
resteront à jamais inconnues du physicien. Le problème du géocentrisme « exotérique » – un
géocentrisme qui nie la vérité héliocentrique – est qu’en dernière analyse il lui manque de pouvoir se
défendre de façon crédible contre l’héliocentrisme scientifique : les référents et les épicycles,
métaphoriquement parlant, ne tiennent pas devant les équations de Kepler et de Newton. Même le
géocentriste le plus convaincu ne peut guère refuser de reconnaître à la théorie héliocentrique une
puissance supérieure, ni de sentir secrètement qu’il en doit découler une autre vérité, une vérité que ne
comporte pas la perspective géocentrique. Mais hélas, la mentalité exotérique voit inévitablement cette
autre vérité comme hostile, menaçant l’intégrité de la vision géocentrique du monde. Ce qui devrait nous
pousser à chercher un niveau plus élevé, plus vaste, de compréhension — et devrait normalement être
libérateur – devient ainsi un objet d’appréhension et se voit rejeté comme une grossière hérésie.
La situation est cependant encore compliquée par le fait que l’héliocentrisme a été généralement
identifié à la doctrine de Galilée, qui est une grossière hérésie. J’ai montré que l’héliocentrisme galiléen
mine le sens de la verticalité qui soutient la vie spirituelle et, en fait, la rend possible ; qu’il nous plonge
dans un cosmos aplati et dénué de toute essence, où les affirmations de la religion ont cessé d’être
crédibles. Je me propose de montrer maintenant un autre effet négatif de l’hérésie galiléenne, d’une
certaine façon complémentaire de cette perte de verticalité.
Chaque religion est inévitablement anthropocentrique par sa vision du monde. En termes chrétiens :
l’homme occupe une position centrale dans l’univers parce qu’il est fait à l’image et ressemblance de
Celui qui est le centre absolu de tout ce qui existe. L’homme est également central parce que, en tant que
microcosme, il contient d’une certaine façon en lui-même tout ce qui existe dans le monde extérieur, de
même que le centre d’un cercle contient en un sens la totalité des rayons. Ou encore, l’homme est central,
parce qu’il est la créature corporelle la plus précieuse de toutes. La Genèse enseigne que Dieu créa la
Terre pour être l’habitat de l’homme, et le Soleil, la Lune et les étoiles « pour être des signes des saisons,
des jours et des années ». C’est d’ailleurs à cause de cette centralité que la Chute d’Adam a pu affecter
l’univers entier. Or cette centralité est avant tout métaphysique, mystique si l’on veut ; il est cependant
dans la nature des choses que cette centralité « essentielle » se reflète au niveau du cosmos. La
manifestation extérieure ne reflète-t-elle pas invariablement la réalité intérieure ou essentielle ? Supposer
que l’homme puisse être métaphysiquement central tout en habitant un grain de matière qui occupe une
quelconque position dans une quelconque galaxie serait parfaitement incongru. Encore une fois, ce serait
nier le principe même du symbolisme cosmique, et donc la nature théophanique du cosmos. Il est
assurément possible, sur un plan philosophique abstrait, d’affirmer d’un même souffle la centralité
métaphysique et la non-centralité cosmographique ; je doute cependant qu’on puisse le faire au niveau
existentiel, c’est-à-dire lorsqu’il s’agit de foi réelle. Dans la mesure où nous croyons vraiment que la Terre
n’est pas centrale, nous sommes tenus d’abandonner la prétention traditionnelle d’anthropocentrisme : je
prétends que ces deux articles de foi s’excluent mutuellement. Il est évidemment loisible de les accepter
tous les deux du bout des lèvres, comme le feraient les théologiens actuels, mais une foi réelle est quelque
chose d’entièrement différent.
On pourrait objecter qu’il est réellement possible d’adopter une cosmologie acentrique sans que ce soit
au détriment des justes droits de la religion ; et, pour soutenir cette objection, on pourrait invoquer
Nicolas de Cues. Exact ! Il faut cependant comprendre que la cosmologie du Cusain est profondément
platonicienne et correspond donc à un point de vue ésotérique authentique. Son acentralité est par
conséquent aussi éloignée que possible de l’acentralité de la relativité contemporaine et pourrait avec
plus d’exactitude s’appeler « pancentralité ». Le cardinal ne nie d’ailleurs pas le géocentrisme, comme le
fait l’astronome disciple de Galilée, il le transcende, et par là, paradoxalement, il le justifie et le fonde «
en esprit et en vérité ». « Il n’est pas moins vrai, déclare Nicolas de Cues, que le centre du monde est à
l’intérieur de la Terre qu’il ne l’est à l’extérieur » ; car « le Dieu de Bénédiction est aussi le centre de la
Terre, le centre de toutes les sphères, de toutes les choses du monde »171. Dans cet énoncé aussi lucide
que bref, digne d’un esprit sanctifié, on respire l’air pur et tonique de l’ésotérisme chrétien. La voie de
l’ésotérisme authentique est toujours de « nier » à la seule fin d’affirmer une vérité plus haute, qui inclut
l’affirmation initiale, mais surtout la dépasse immensément.
La Terre est réellement le réceptacle du centre de l’univers, mais le Soleil, la Lune et les myriades
d’étoiles le sont aussi. Pourtant, c’est de toute évidence la première manière de voir qui nous importe le
plus, puisque nous habitons la Terre. Je l’ai dit, nous dépendons de cette manière de voir, de cette vérité,
pour l’orientation correcte de notre vie, aussi bien spirituelle que physique.
Or qu’arrive-t-il lorsqu’on s’élève d’une vision géocentrique du monde à une vision authentiquement
héliocentrique ? Conserve-t-on l’anthropocentrisme originel ? On peut supposer que, de même qu’on
transcende la vision géocentrique, on transcende la conception théologique inférieure de
l’anthropocentrisme, en suivant la sentence paulinienne : « Je vis, mais pourtant non plus moi, mais le
Christ qui vit en moi » (Galates, II, 20). L’anthropocentrisme supérieur qui en résulte est en réalité un
Christocentrisme, mais qui, ici non plus, ne détruit pas la notion antérieure, la vérité moindre – de même
que le Christ qui « vit en moi » ne détruit pas le « moi » qui « vit ». C’est ici aussi une question de
niveaux, de hiérarchie. La relation intrinsèque entre le géocentrisme et l’anthropocentrisme inférieur
persiste au niveau auquel chacune de ces notions s’applique, qui est tout simplement le plan
correspondant à la condition humaine. Par conséquent, il ne convient pas que quiconque renie « d’en bas
» aucune de ces notions, aucune de ces vérités : les conséquences ne peuvent en être que tragiques. La
négation de l’une ou l’autre d’entre elles affecte, « empoisonne », toutes les facettes de la culture, à
commencer par la vie religieuse, dont il sape les fondements.

Il serait difficile de surestimer l’impact de la révolution copernicienne sur la culture occidentale. Déjà
en 1611, alors que cette révolution avait à peine commencé, John Donne, je l’ai déjà dit, a deviné sa
signification profonde : « La nouvelle philosophie met tout en doute, se lamente-t-il, tout est en morceaux,
toute cohérence a disparu ». Il n’est pas étonnant que les ecclésiastiques qui avaient la charge de
préserver la foi de l’Église romaine aient également ressenti une certaine appréhension, sans peut-être
avoir pleinement conscience de l’importance de l’enjeu. Aujourd’hui, quatre siècles plus tard, ce qui
n’apparaissait pas initialement est devenu manifeste aux yeux de tout le monde ; comme le dit Arthur
Koestler, c’est « comme si une nouvelle race avait surgi sur la planète ». Réaliste comme toujours, Goethe
n’a certainement pas surestimé la chose quand il déclarait qu’« il est probable qu’aucun autre fait ait eu
une influence plus profonde sur l’esprit humain que les enseignements de Copernic ». Il faudrait
seulement ajouter que, tandis que Copernic proposait l’hypothèse héliocentrique – le nouveau modèle
mathématique, si l’on préfère –, c’est Galilée qui a fourni la nouvelle philosophie.
On le sait, Galilée a été formellement mis en procès en 1633 et contraint d’abjurer ses convictions
coperniciennes. La proposition que le Soleil est le centre immobile de l’univers fut déclarée «
formellement hérétique, parce qu’expressément contraire aux Saintes Écritures ». On en resta là jusqu’en
1822 où, sous le pontificat de Pie VII, l’Église commença à adoucir sa position sur ce qu’elle appelait «
l’opinion générale des astronomes modernes ». C’est ainsi que débuta un processus de compromis avec «
la nouvelle race », qui culmina en 1979 lorsque le pape Jean Paul II chargea l’Académie Pontificale des
Sciences de rouvrir le dossier Galilée, et, si nécessaire, de casser le verdict de 1633. Étant donné la
mentalité qui s’est imposée dans le sillage de Vatican II, l’issue de cette enquête ne pouvait faire de
doute : Galilée fut innocenté – certains diraient « canonisé » –, à la suite de quoi Jean Paul II présenta au
monde les excuses de l’Église pour les injustices qu’elle avait commises.
Quoi qu’il en soit, en adoptant une vision scientiste du monde, l’Église a maintenant rejoint l’ensemble
de la société occidentale ; sous le pontificat de Jean Paul II, et avec son accord, une nouvelle révolution
copernicienne a eu lieu en son sein même. Il faut pourtant préciser que ce n’est pas elle qui, en tant que
telle, a subi ce changement – qui a « évolué », comme on dit –, mais uniquement l’orientation de ses
représentants humains : c’est Rome qui a révoqué sa position antérieure. Humainement parlant, il se peut
que l’autorité ecclésiastique ait choisi la seule voie praticable : compte tenu de la sophistication et des
prouesses de la science contemporaine – compte tenu aussi des « signes et merveilles » qui pourraient
tromper les élus eux-mêmes –, il se peut qu’il ne soit pas possible d’endiguer la marée montante du
scientisme. Il faut néanmoins, à la lumière de l’analyse qui précède, insister sur le fait que la cosmologie
contemporaine n’est dans aucune de ses formes compatible avec la doctrine chrétienne. Dans la mesure
où Rome a embrassé une perspective scientiste, elle a compromis l’enseignement véritable de l’Église :
c’est là l’essentiel. Qu’on parle d’échec humain, de « politiquement correct », ou d’apostasie, c’est un fait
que Rome est devenue « une maison divisée contre elle-même ».
CHAPITRE X

« DESSEIN INTELLIGENT »172 ET CAUSALITÉ VERTICALE

Or rien de ce qui manque d’intelligence ne saurait parvenir au but, à moins d’être dirigé par qui est doué
de connaissance et d’intelligence, de même qu’il faut un archer pour que la flèche soit tirée sur sa cible.
S. Thomas d’Aquin
Somme Théologique, I. 2. 3

L’humanité comprend depuis toujours les événements et les objets comme le résultat soit de la
nécessité, soit du hasard, soit encore d’un dessein (design). Ces trois catégories fondamentales
d’explication sont connaturelles à l’esprit humain, et constituent comme telles ce qu’on peut appeler des
notions pré-philosophiques. Les philosophes ont consenti un effort constant pour les clarifier, et pour les
intégrer dans une explication cohérente de la causalité. L’approche la plus simple est probablement celle
des atomistes grecs, en particulier Leucippe, qui nie à la fois le hasard et la finalité (design), et suppose
alors que tout arrive par la force de la nécessité. D’autres écoles, qui niaient aussi le hasard, ont reconnu
la finalité comme un principe de causalité non réductible à la nécessité ; tel est le cas, par exemple, du
stoïcisme, qui stipule une sorte d’action providentielle, ou pronoïa, émanant du Monde-Raison appelé
Logos. D’autres écoles encore reconnaissent à la fois le hasard et la nécessité comme des principes
irréductibles, mais nient toute finalité ; et il est intéressant de remarquer qu’aujourd’hui de nombreux
scientifiques de pointe adoptent cette position.
De ces trois catégories fondamentales de causalité, la plus déconcertante est peut-être la notion de
hasard. Ce qui la rend confuse est avant tout cette idée erronée mais commune que le hasard et la
nécessité sont inconciliables : que c’est une simple question de « ou bien ou bien ». Mais dire que jouer à
pile ou face amène pile ou face « par hasard », ce n’est pas affirmer que l’issue du jeu n’a pas de cause, ou
n’est pas déterminée par sa cause. Que jouer à pile ou face ait finalement ou non un sens déterministe est
une autre affaire ; ce qui importe est que l’événement est de toute façon aléatoire ou contingent en un
sens adéquatement relatif. On découvre ainsi que même aux beaux jours de la physique classique, alors
que les opérations de la Nature étaient envisagées d’un point de vue purement déterministe, on pouvait
appliquer avec succès dans divers domaines des méthodes statistiques basées sur l’idée de hasard, par
exemple dans la théorie cinétique des gaz. La distribution aléatoire de molécules de gaz et de leurs
vitesses dans un ensemble statistique ne contredit pas l’hypothèse que la trajectoire de chaque molécule
est totalement déterminée par une loi causale. Et remarquons en passant que cela concorde avec l’idée
d’Aristote que le hasard est une coïncidence de séquences d’événements dont la cause est déterminée,
scénario que l’on retrouve dans la collision de deux particules classiques. En dehors de la physique, la
notion de hasard a également toujours joué un rôle essentiel. Les tribunaux, par exemple, distinguent
habituellement entre événements accidentels et non-accidentels, et les compagnies d’assurances
considèrent les catastrophes comme une variable aléatoire avec une distribution donnée de probabilités.
Il est donc parfaitement sensé de parler de contingence et de vraisemblance, et peu importe que la
Nature se révèle finalement être déterministe, ou que l’issue de n’importe quel processus soit à l’avance
connu de Dieu. Après tout, nous jugeons des choses sur la base de notre connaissance, et de notre point
de vue ; et si cette connaissance ou ce point de vue change, nos jugements sur la causalité changent
également.
En ce qui concerne la doctrine traditionnelle, on peut affirmer qu’aucune école orthodoxe ne s’est
opposée à la notion de hasard. J’ai soutenu, sur une base traditionnelle, qu’il ne saurait exister un univers
intégralement déterministe, et que la contingence constitue un complément nécessaire à la
détermination, qui est comme la face yin de la pièce de monnaie173. La contingence est aussi nécessaire
que la loi. Le concept d’un univers fait comme une horloge se révèle une erreur fatale ; et on peut être
surpris qu’on ne s’en soit aperçu que récemment et que ce ne soit pas grâce à des poètes ni à des
mystiques, mais à des physiciens mathématiciens, des gens voués plus que quiconque à un idéal de
rigueur et d’exactitude, et par là prédisposés à voir le côté légal des choses. Si eux sont arrivés à la
conclusion que la contingence est nécessaire à l’économie de la Nature, cette découverte ne manque pas
de poids.
On peut, de ce point de vue, combiner la nécessité et le hasard en une catégorie unique dite causalité
naturelle, laquelle contrastera avec la finalité. Contraste n’est pas opposition ; car l’une des
caractéristiques essentielles de la cosmologie traditionnelle est d’admettre les deux modes de causalité :
le mode divin, si l’on veut, et le mode naturel. Il serait donc contraire à la sagesse de la tradition de
soutenir, d’une part, que les événements et les objets du monde naturel n’ont comme cause exclusive que
l’action divine - comme le font certains extrémistes religieux -, et d’autre part que l’univers n’est gouverné
que par des causes naturelles, comme le veut la philosophie naturaliste. La cosmologie traditionnelle
reconnaît deux principes apparemment opposés : la primauté de l’action divine, et l’efficacité des causes
naturelles. Il faut peut-être préciser que, sans rejeter l’affirmation de Gilson selon laquelle
l’harmonisation de ces deux principes a trouvé son couronnement dans la philosophie thomiste, il n’est
pas possible d’admettre son affirmation que le platonisme, entre autres, nie complètement l’efficacité des
causes naturelles et soutient par là un « extrinsécisme radical »174. Les philosophies de Platon et de S.
Thomas adoptent naturellement des points de vue différents, et il se peut que l’efficacité des causes
naturelles soit plus vigoureusement affirmée chez le Docteur Angélique, mais l’accusation d’extrinsécisme
radical me paraît déplacée. L’essentiel est peut-être qu’on ne peut jamais comprendre une philosophie
traditionnelle si on ne l’approche pas avec la révérence qui lui est due. Répétons-le : toute cosmologie
traditionnelle respecte en dernière analyse et la primauté de l’action divine et l’efficacité des causes
naturelles.
Quoi qu’il en soit, il a été également reconnu qu’on ne peut attribuer un dessein manifeste à la causalité
naturelle. C’est ce que S. Thomas soutient dans sa cinquième preuve de l’existence de Dieu ; et on
remarquera que ce n’est pas une logique abstraite qui valide l’argument, mais une prémisse
métaphysique, donc une intuition intellectuelle. L’argument immémorial de la finalité a évidemment subi
les attaques des temps modernes. Tout d’abord celles du déisme, philosophie du « propriétaire absent »,
qui, réellement, exile Dieu hors de l’univers, ce qui a conduit par degrés au naturalisme total en vogue au
XIXème siècle. Comme le définit un dictionnaire de la philosophie : « Le naturalisme soutient que l’univers
n’exige aucune cause ni autorité surnaturelle, mais existe par lui-même, opère par lui-même et se régit
par lui-même ; que la transformation du monde n’est ni téléologique ni anthropocentrique, mais sans objet
et déterministe, à l’exception de possibles événements aléatoires ». Parmi les mouvements philosophiques
et théologiques opposés à ce point de vue, c’est l’école britannique de théologie naturelle qui a fondé sa
contre-attaque sur l’argumentation relative à la thèse finaliste. « Aux XVIIème et XVIIIème siècles, écrit
Vergilius Ferm, il y eut des tentatives pour établir une “religion naturelle” à laquelle il serait facile de
donner son assentiment, et qui compenserait les prétentions extravagantes des surnaturalistes et leurs
violentes attaques contre les sceptiques. La tentative la plus classique de présenter un argument en
faveur du caractère agréablement raisonnable du dessein divin à l’œuvre dans le monde est la publication
en 1802, par Paley, de sa Natural Theology. »
En dépit du fait que cette « religion naturelle » peut avoir continué à attirer des Anglais, on voit qu’elle
était malheureusement incapable de présenter une alternative crédible en raison du fait qu’elle avait
partiellement assimilé le naturalisme ambiant, qu’elle avait justement l’intention de combattre. Bref, la
théologie naturelle britannique était une solution de compromis, une doctrine éclectique condamnée
d’avance. Et personne, semble-t-il, n’a mieux su exposer et exploiter son insuffisance que Darwin lui-
même : « Je ne saurais me persuader, écrit-il, qu’un Dieu bienveillant et tout-puissant aurait à dessein
créé l’ichneumonidae (une guêpe parasite) avec l’intention expresse de lui faire trouver sa nourriture
dans le corps vivant des chenilles »175. C’est assez vrai : il n’existe pas de réponse à l’objection de Darwin,
ni à l’argument apparenté tiré du dysfonctionnement, qui implique de quelque façon la doctrine du péché
originel et de la Chute qui en est la conséquence – ce que la théologie naturelle britannique, avec son «
agréablement raisonnable », a oublié de prendre en compte. C’est ainsi qu’avec l’avènement de la théorie
de Darwin, cette « théologie naturelle », qui avait joui de l’approbation d’une certaine élite intellectuelle,
a finalement succombé aux attaques du naturalisme.
Il ne faut cependant pas perdre de vue que la conception de Paley d’un « Dieu horloger » n’est pas sans
substance ni validité. Si, en traversant un champ, selon la comparaison de Paley, nous trouvons une
montre sur le sol, nous pouvons réellement en conclure qu’elle n’est pas le résultat de causes naturelles.
Ce n’est ni une loi naturelle, ni un enchaînement aveugle d’événements accidentels, qui peut avoir
artistement façonné et assemblé les parties de la montre dans le but de montrer l’heure. Presque tout le
monde a lu The Blind Watchmaker (« L’Horloger aveugle »), où le zoologiste d’Oxford Richard Dawkins
tente de réfuter la théorie de Paley; il se trouve cependant que l’ancien argument a été récemment repris
sur un plan scientifique. Le mouvement a été déclenché par Michael Behe, un biologiste moléculaire, qui
a introduit le concept de complexité irréductible en montrant de manière convaincante qu’aucun
processus naturel ne peut donner naissance à des structures qui sont, en fait, irréductiblement
complexes. Dans Darawin’s Black Box, publié en 1996, Behe expose son point de vue au grand public et
l’explique avec clarté. Riche de comptes rendus captivants de découvertes issues de la biologie
moléculaire, son traité est maintenant largement connu et a engendré de grands débats dans les milieux
scientifiques. Ce livre n’est cependant qu’un début, la salve d’ouverture, pourrait-on dire, d’une contre-
attaque, scientifique cette fois, contre le naturalisme dominant. La découverte décisive a été le fait, deux
ans plus tard, d’un mathématicien et philosophe, William Dembski, dans un traité intitulé The Design
Inference. Dembski s’est demandé s’il est possible de reconnaître qu’il y a de la finalité grâce à quelque
signature ou critère susceptible de se définir en termes strictement mathématiques. Il s’avère que la
théorie qui en résulte ne se contente pas de généraliser le concept de complexité irréductible de Behe,
mais pose la question de la déduction d’un dessein intelligent (design inference) sur une base
mathématique – et donc rigoureuse. Ce que Dembski a découvert est que la signature ou le critère de ce
dessein peut réellement s’exprimer dans les termes d’une notion probabiliste de complexité spécifiée, ou,
dans les termes de la théorie de l’information, d’un concept d’information complexe spécifiée ou CSI
(Complex Specified Information). Le résultat essentiel est un théorème de conservation pour la CSI, qui
affirme en effet que la CSI ne peut être engendrée par aucun processus naturel, qu’il soit déterministe,
aléatoire, ou une combinaison quelconque des deux, comme dans les algorithmes dits évolutionnaires.
C’est ainsi qu’est née une science appelée design theory également connue sous le nom de théorie de
l’intelligent design ou ID. Elle s’est évidemment attiré les critiques de divers secteurs de l’establishment
scientifique, avant tout des darwiniens ; mais en fin de compte il est difficile de chercher querelle à un
théorème mathématique.
Je présenterai dans ce qui suit ce qui devrait être une introduction accessible à cette théorie du dessein
intelligent (intelligent design theory). Il convient de souligner qu’elle exige peu de connaissances
mathématiques. Le non-mathématicien pourra néanmoins négliger certains points de cette digression
quelque peu mathématicienne – dont, pour faciliter la tâche du lecteur, la partie la plus ardue est ici
présentée en retrait et en petits caractères –, ce qui veut dire que la suite se comprend d’elle-même.

Commençons par le concept de complexité irréductible : « Par irréductiblement complexe, écrit Behe,
j’entends un système unique composé de plusieurs parties bien ajustées les unes aux autres qui
contribuent à la fonction de base, de laquelle le retrait d’une quelconque de ces parties empêche tout le
système de continuer à fonctionner »176. La définition est évidemment formulée non sans l’arrière-pensée
de garantir qu’aucun processus darwinien n’ait la moindre possibilité d’engendrer une structure
irréductiblement complexe ; Darwin lui-même avait en effet observé : « Si on pouvait démontrer qu’un
organisme complexe existe qui n’ait pu en rien être construit à partir de modifications nombreuses,
successives, légères, ma théorie s’écroule totalement ». À quoi il ajoute pourtant : « Mais je ne vois aucun
cas de ce genre »177. La logique de l’argument de Behe se révèle impeccable : si une structure exige un
certain nombre de parties mutuellement ajustées avant d’être fonctionnelle, cela exclut la possibilité que
des « modifications nombreuses, successives, légères » aient pu être sélectionnées avec succès sur la
base de la fonction. La viabilité de la théorie de Darwin, par conséquent, dépend de la question de savoir
si on peut trouver « un cas de ce genre ». Or l’un des exemples de complexité irréductible les plus
impressionnants et le plus fréquemment cités est le flagelle bactérien : un mécanisme moléculaire dont la
fonction est de propulser la bactérie, à travers son environnement aquatique, vers le haut, le long d’un
gradient nutritionnel. Le mécanisme consiste en un moteur rotatif propulsé par un acide – rempli d’un
rotor, d’un stator, d’anneaux en 0, de bagues et d’un arbre de transmission -, plus le flagelle lui-même,
espèce de pagaie moléculaire rotative. À cause de l’effet de désorientation du mouvement brownien, le
flagelle doit tourner à des vitesses angulaires de l’ordre de dix mille tr/min., et repartir en sens inverse en
un centième de seconde. Pour être fonctionnel, ce mécanisme demande évidemment des structures
auxiliaires de détection et de contrôle, de même que pour la production, la conservation et la distribution
du combustible nécessaire. Le défi est ici très évidemment une prouesse de nanotechnologie qui stupéfie
l’imagination ; et inutile de le dire, personne n’a encore proposé même la plus vague esquisse d’un
scénario darwinien qui pourrait rendre compte de la production de telles structures.
Cependant, même ainsi, l’argument de Behe demeure incomplet. La conclusion qu’aucun processus
darwinien n’aurait pu produire le flagelle bactérien semble inéluctable ; et pourtant il manque à
l’argument une preuve rigoureuse. Or la stratégie habituelle en physique, pour prouver qu’un système
fermé, opérant par l’action de causes naturelles, ne peut atteindre un certain état, implique l’emploi d’un
invariant qui satisfasse à l’une des lois de conservation. Peu importe que l’invariant soit par exemple une
énergie, qui doit rester constante, ou une quantité telle qu’une entropie, qui ne peut décroître (ou
croître) ; dans tous les cas, la loi de conservation élimine les états qui tendraient à la violer. Notons que
cet argument est parfaitement rigoureux, et n’exige pas la vérification de tous les scénarios possibles qui
pourraient mener le système à l’état en question. Pour en revenir à l’argument de Behe, c’est grâce à
cette stratégie, qui utilise la CSI comme invariant, que Dembski peut réfuter le darwinisme dans le cas de
structures comme celle du flagelle bactérien.
L’idée de base de Dembski est assez simple. Supposons un archer qui tire des flèches contre un mur.
Pour conclure qu’un tir donné ne peut être attribué au hasard – en d’autres termes pour en déduire qu’il y
a bien une intention (design) -, il faut évidemment ajuster le tir sur une cible qui réduise suffisamment la
probabilité d’un tir fortuit. L’essentiel est que la cible soit déterminée sans référence au tir réel ; il ne
conviendrait pas, par exemple, que l’archer tire la flèche d’abord, et dessine ensuite une cible dont le
centre serait le point où la flèche a frappé le mur. Le problème n’a cependant rien à voir avec une
séquence temporelle d’événements : en fait, il n’importe pas que la cible soit donnée avant ou après le
tir ! Je l’ai dit, ce qui compte est que la cible soit déterminée sans référence au tir en question. Dans la
terminologie de Dembski, la cible doit être détachable en un sens approprié. Imaginons un scénario où on
frappe les touches d’un clavier d’ordinateur l’une après l’autre. Si la suite de caractères qui en résulte
écrit une série de phrases grammaticalement correctes, on en conclura que cela ne peut être attribué au
hasard. Une cible, extrêmement improbable et réellement « détachable » a reçu une flèche, et elle a
cependant été déterminée après coup. La détermination d’une cible requiert en général connaissance et
intelligence ; on peut aussi mentionner l’exemple de la cryptanalyse, où la détermination est atteinte par
la découverte d’un code. Ce qui apparaissait tout d’abord comme une suite de caractères écrits au hasard
se révèle ainsi dû à un agent intelligent. Le fait est que détecter un dessein intelligent demande de
l’intelligence.
J’aimerais insister sur le fait qu’il est impossible d’éliminer l’hypothèse du hasard sur la seule base
d’une faible probabilité. Si l’on obtient une séquence de 1 et de 0 en jouant mille fois à pile ou face, la
possibilité que la chaîne binaire qui en résulte ne contienne pas un seul 0 peut être éliminée. Pourtant, si
on y joue réellement mille fois, on produit une chaîne binaire qui a exactement la même probabilité que la
première : 1 sur 2 à la puissance mille, pour être précis. Pourquoi alors la première séquence, celle qui ne
contient aucun 0, peut-elle être éliminée, alors que la seconde correspond à une réalité ? La raison en est
que la première se conforme à un modèle ou à une règle qui peut être définie de façon indépendante ;
c’est une question, ici encore, de cible détachable avec une faible probabilité. Dans le cas de cette
première séquence, la prescription « pas de 0 » définit par elle-même une telle cible : c’est-à-dire le sous-
ensemble qui contient la chaîne binaire et aucune autre. Mais c’est précisément ce qu’on ne peut pas faire
dans le cas de la seconde chaîne binaire (celle qu’ont produite les mille pile-ou-face) : il est virtuellement
certain dans ce cas qu’aucune cible détachable de faible probabilité n’a reçu de flèche. Il est évidemment
possible de présenter une description en relevant la séquence elle-même; mais cette description ou ce
modèle (si on peut l’appeler ainsi) s’avèrera non détachable. Établir une description à partir d’un
événement est semblable à peindre le centre d’une cible autour du point où la flèche a frappé : une telle
description ne prouve évidemment rien. La découverte d’un modèle détachable de probabilité
suffisamment faible est au contraire une preuve importante : elle prouve en fait que l’événement en
question ne peut être attribué au hasard. Ce qui élimine le hasard est ainsi non pas seulement la faible
probabilité, mais la faible probabilité en conjonction avec une cible détachable : cette combinaison
gagnante est ce que Dembski appelle le critère de spécification complexe.

La structure mathématique générale dans laquelle opère la design theory est la


suivante178 : soit une classe de référence de possibilités Ω, ensemble avec une mesure de
probabilité P qui assigne à chaque sous-ensemble (mesurable) de Ω un nombre réel entre
0 et 1. Étant donné un événement élémentaire E (représenté par un point en Ω), une
spécification de E est un sous-ensemble T de Ω contenant E, qui est « détachable » en un
sens qui reste à définir. On dit alors que le couple (T, E) constitue un événement spécifié.
Il faut noter qu’un événement spécifié a deux composantes : une composante conceptuelle
T, si l’on peut dire, et une composante physique E. Il constitue donc une double entité,
quelque chose qui combine pour ainsi dire deux mondes. Et c’est là que réside la force et
même le génie de la théorie de Dembski : là où d’autres ont traité d’événements, lui traite
d’événements spécifiés, ce qui est quelque chose de radicalement différent. Supposons
maintenant qu’il est possible d’associer un invariant I à chaque événement spécifié, qui ne
peut, disons, croître par l’opération de causes naturelles ; comme nous l’avons noté plus
haut, une telle loi de conservation pourrait valider une théorie du dessein intelligent
(derign theory). Pour obtenir un invariant convenable, Dembski remplace la mesure de
probabilité P par une mesure d’information correspondante I, définie par l’équation I = -
log2 P.
Selon cette formule, l’information contenue dans une chaîne binaire de longueur n est
juste n. En général, pour un événement A en Ω, I(A) représente par définition le contenu
d’information de A tel que mesuré en bits 179. Il faut noter que P et I sont des mesures
inverses : plus P est petit, plus I sera grand ; quand P tend vers zéro, I tend vers l’infini.
En jargon mathématique, I est ainsi une mesure de complexité. Dembski définit ensuite le
contenu d’information d’un événement spécifié (T, E) comme étant I(T) : ce qui importe
est la composante conceptuelle de l’événement spécifié. Enfin, l’information contenue
dans un événement spécifié est ce que Dembski appelle information spécifiée, et c’est ce
dont il fait initialement son invariant.
On voit tout d’abord que l’information spécifiée est strictement conservée par l’action
d’un processus déterministe. Comme on s’y attendait, la preuve dépend du fait qu’un
processus déterministe peut être représenté par une fonction qui a pour domaine la
totalité des états initiaux et pour portée les états qui en résultent à un moment ultérieur t.
Supposons alors que Ω soit une classe de référence de possibilités, et (T,E) un événement
spécifié en Ω. Si E est causalement déterminé par un événement Eo, il existe alors un
espace de référence Ωo contenant Eo, et une fonction f de Ωo à Ω, telle que f(Eo) = E. Il
faut noter que les sous-ensembles de Ω « reculent sous f, c’est-à-dire que f induit une
fonction f-1 de l’ensemble de puissances de Ω à l’ensemble de puissances de Ωo. On peut
donc définir un sous-ensemble To de Ωo comme l’image inversée de T ; et comme on
pouvait s’y attendre, il s’avère que (To, Eo) constitue de nouveau un événement spécifié.
Notons en outre qu’une mesure de probabilité Po sur Ωo induit une mesure de probabilité
P = Pof-1 sur Ω telle que Po(To) = P(T). II s’ensuit que les événements spécifiés (To, Eo) et
(T, E) comportent exactement la même quantité d’information spécifiée.
Étonnamment, on aurait pu prévoir cette conclusion sans recourir à une analyse
mathématique ; comme le dit Dembski : « Les lois ne sauraient produire de la
contingence ; et sans contingence elles ne peuvent produire aucune information... »180
Léon Brillouin a vu l’essentiel quarante ans plus tôt lorsqu’il écrivait qu’« une machine ne
crée aucune nouvelle information, mais elle opère une transformation très importante de
l’information déjà connue » ; et déjà, en 1836, Edgar Poe, poète et scientifique amateur,
avait dit à peu près la même chose.181

Mais qu’en est-il des processus aléatoires ? On l’a vu, un processus aléatoire peut produire
arbitrairement de grandes quantités d’information (ce qui est dû au fait que des événements de
probabilité arbitrairement faible peuvent réellement avoir lieu), et il peut même donner de petites
quantités d’information spécifiée ; ce qu’il ne peut pas faire, selon le critère de spécification complexe,
c’est produire de grandes quantités d’information spécifiée : voilà le point essentiel. Le singe du proverbe
qui pèse sur un clavier d’ordinateur peut éventuellement produire quelques bribes de prose correcte,
mais pas le texte de Hamlet. Il doit y avoir un point limite, même si sa localisation exacte ne peut être
établie. On peut ainsi affirmer qu’il existe une limite universelle de complexité ou UCB (Univeraal
Complexité Bound), au-delà de laquelle l’information spécifiée ne peut être augmentée par un processus
aléatoire qui aurait lieu dans les limites du temps et de l’espace physiques. Dembski a de bonnes raisons
de considérer que son UCB est de cinq cents bits, ce qui est « jouer sans prendre de risques » : aucun
singe ne pourrait faire aussi bien, même en un milliard d’années ! Ce qu’aucun processus aléatoire ne
peut produire se révèle être une information spécifiée complexe ou CSI, c’est-à-dire une information
spécifiée qui dépasse l’UCB.
Nous étant ainsi débarrassé des processus aussi bien déterministes qu’aléatoires, il nous reste à
examiner leur combinaison arbitraire. Or toute combinaison de ce genre peut être effectuée par un
processus dit stochastique182. Au lieu d’une fonction f(x) à une seule variable, on a une fonction f(x, w) à
deux variables, où w représente la composante aléatoire du processus. La difficulté est de scinder le
problème en deux parties : la première permet à ω d’« avoir lieu », ce qui transforme la fonction originale
f en une fonction fω à une seule variable x, où ω sert de paramètre fixe. Cette fonction peut cependant
être manipulée comme dans le processus déterministe. On peut conclure par là que le processus total ne
peut augmenter l’information spécifiée de plus que la limite universelle de complexité (UCB).183
Quelle est la signification de cette loi de conservation ? À l’évidence, elle montre que l’information
complexe spécifiée – la CSI – ne peut être produite par aucun processus naturel. En particulier, les
grandes quantités de CSI qui existent dans l’ADN d’une cellule vivante ne pourraient avoir été produites
par le scénario darwinien des variations aléatoires soumises à l’action de la sélection naturelle. Les néo-
darwiniens comme Manfred Eigen, ayant reconnu l’origine de l’information comme le problème principal
de la biologie contemporaine, ont cherché un algorithme évolutif qui puisse le résoudre, sans comprendre
que cette possibilité peut réellement être exclue sur des bases théoriques. Tout algorithme évolutif, si
ingénieusement qu’il ait été conçu, est un processus stochastique, et en tant que tel il tombe sous
l’interdit de Dembski,. Il ne reste que deux possibilités : soit l’univers a été rempli de CSI dès le premier
instant de son existence – supposition qui s’accorde difficilement avec l’hypothèse du Big Bang –, soit il ne
peut être conçu comme un système clos qui fonctionne grâce à l’action de causes naturelles.

Il se trouve que la CSI, et plus généralement l’information au sens mathématique, a un certain statut
ontologique ; c’est, je crois, Norbert Wiener qui, le premier, a signalé que, outre la masse et l’énergie,
l’univers comporte l’« information » comme constituant fondamental. Il faut de toute façon remarquer que
le développement de la science, depuis 1900 environ, tend à le reconnaître. Cette tendance a débuté avec
la mécanique statistique de Boltzmann, qui démontrait que les notions de contingence et de probabilité
jouent un rôle vital dans l’économie de la Nature. Nous l’avons vu, la contingence et la probabilité se
résument toutefois à de l’information ; et on pourrait ajouter que la définition statistique de l’entropie,
telle que donnée par Boltzmann, s’exprime réellement dans les termes de la théorie de l’information. C’est
grâce à son approche statistique des radiations du corps noir que Max Planck en particulier a pu
découvrir ce qu’on appelle le quantum d’action, connu maintenant sous le nom de constante de Planck,
découverte qui a inauguré l’ère quantique184. Avec l’avènement de la mécanique quantique, il est en outre
devenu évident que les probabilités et l’information ne sont pas seulement des conceptions utiles, mais
sont réellement nécessaires au niveau le plus fondamental de la théorie physique. Il est vrai qu’Einstein,
par exemple, a refusé cette conclusion ; chaque argument qu’il avançait contre l’indéterminisme de la
mécanique quantique s’est, malgré tout, révélé en fin de compte inefficace. Mais ces arguments ont
fréquemment été à l’origine d’idées qui n’ont finalement servi qu’à renforcer la position de la mécanique
quantique, comme ce fut le cas de la fameuse expérience de pensée d’Einstein-Podolsky-Rosen qui,
réalisée plus tard, ne fit qu’en confirmer les prévisions. En outre, lorsque, après de longues discussions
avec Einstein, David Bohm réussit à élaborer ce qui apparaît formellement comme une théorie quantique
déterministe, il n’y arriva qu’au prix de l’introduction comme principe de base de ce qu’il appelait l’«
information active » ; mais, comme Dembski l’a vite observé, l’« information active de Bohm n’est qu’un
cas particulier de CSI. Il se trouve que Bohm n’a pu se dispenser de l’indétermination au niveau des
particules qu’en admettant la contingence sous la forme de CSI ; d’une manière ou d’une autre, semble-t-
il, la contingence – et donc l’information – ne peut que faire partie du tableau. La CSI a cependant fait une
seconde apparition comme concept fondateur de la physique, cette fois sous la forme de ce qu’on appelle
l’information Fischer, dont Roy Frieden prétend dériver toutes les lois fondamentales185. Venus d’une tout
autre direction, de récents progrès en communication et en technologie informatique ont entraîné
l’émergence d’un certain nombre de sciences mathématiques, parmi lesquelles l’information,
normalement sous la forme de CSI, joue un rôle de pointe. La théorie de l’information elle-même, en tant
que discipline mathématique, est née en 1948 grâce à Claude Shannon, ingénieur électricien occupé à des
problèmes de communication. Mais c’est incontestablement dans le domaine de la biologie moléculaire
que le recours à l’information a porté le plus de fruits, mettant en lumière ce qu’on peut appeler la
primauté de la CSI dans la biosphère. Le fait que d’immenses quantités d’information spécifiée,
enregistrées dans un alphabet de quatre lettres, se trouvent dans chaque cellule vivante, et que chaque
espèce dérive pour ainsi dire d’un texte connu comme son code génétique, laisse penser que la vie a
réellement une base informationnelle.
Étant donné le rôle capital de la CSI à la fois en physique et en biologie, il nous faut maintenant
examiner cette notion plus à fond, à commencer par le concept mathématique d’information en tant que
tel. Le danger, pour qui aborde ce concept, est d’être enclin à y voir bien plus qu’il ne signifie : le mot «
information » a évidemment été en usage longtemps avant que Shannon lui donne un sens technique. Ce
sens est en fait tout à fait simple : il se ramène à l’actualisation d’une contingence dans un espace
mathématique Ω de possibilités viables, doté d’une mesure de probabilité P. Si je joue n fois à pile ou face,
je produis de l’information : d’une valeur de n bits, pour être précis. Et en ce moment même, alors que je
frappe les touches d’un clavier d’ordinateur, je produis de l’information au sens de Shannon. Cependant,
je produis aussi de l’information sémantique, qui est quelque chose d’entièrement différent, quelque
chose qu’aucune théorie mathématique ne saurait embrasser, pour la raison évidente que l’information
sémantique n’est pas une chose quantitative. Il y a donc une divergence ontologique entre ces deux sortes
d’information, pas très différente du hiatus ontologique entre les domaines corporel et physique ; et
comme dans le cas d’un objet corporel X et de l’objet physique qui lui est associé SX, il se trouve que
chaque unité d’information sémantique est associée à une unité correspondante d’information Shannon
qui lui sert pour ainsi dire de base matérielle. Cette dernière est ce qui reste, pourrait-on dire, après que
toute signification, tout contenu non quantitatif a été rejeté ou « mis entre parenthèses ». Ceci concorde à
nouveau avec l’idée de René Guénon que « la quantité elle-même, à laquelle elles (les sciences profanes)
s’efforcent de tout ramener, n’est pour ainsi dire, sous le point de vue où elles l’envisagent, que le
“résidu” d’une existence vidée de tout ce qui constituait son essence ».186
Après avoir distingué information sémantique et celle de Shannon, j’aimerais faire remarquer que la
composante sémantique constitue un exemple de spécification, un exemple de « cible détachable »187.
L’exemple de l’information sémantique est assurément très particulier, c’est-à-dire que la spécification
peut apparaître de mille autres manières. Qu’on pense à une chaîne binaire où 1 et 0 alternent, ou dans
laquelle ils représentent une séquence de nombres premiers en notation binaire ; ou bien encore à une
chaîne binaire de longueur n et « algorithmiquement compressible », en ce sens qu’elle peut être le
produit d’un algorithme informatique de « longueur » inférieure à n (notion qu’on peut définir) : tous sont
des exemples de spécification. Cependant, en dépit de sa nature vraiment très particulière, remarquons
en passant que la spécification sémantique jouit d’une primauté symbolique dans le domaine naturel. S’il
est bien vrai que Dieu a amené le monde à l’être en « parlant », comme le déclare l’Ecriture, le dessein
que cela implique doit procéder en dernière analyse d’une idée divine ou logos, qui par analogie peut être
nommée « parole ». Et j’ajoute que nulle part dans le monde de la nature le caractère linguistique de la
spécification n’est plus clairement mis en évidence que dans le code génétique de tout organisme, qui
constitue un texte, enregistré, je l’ai déjà dit, dans un alphabet de quatre lettres. Le code génétique est
donc un texte écrit, imprimé sur ADN ; on peut pourtant en conclure, sur une base théologique, que ce
texte écrit procède réellement d’un verbe parlé, de l’espèce à laquelle le Christ fait allusion lorsqu’Il
déclare que ses paroles « sont esprit et vie » (Jean, VI, 63). Aucune autre découverte scientifique, je crois,
ne reflète aussi profondément une vérité théologique que la découverte de ce qu’on peut appeler le
fondement informationnel de la vie.

À la suite de ces considérations rapides sur le concept de CSI, j’ai l’intention d’examiner plus
profondément la nature de la causalité. Dès le début, nous avons distingué nécessité, hasard et finalité, et
combiné les deux premiers modes sous le titre de causalité naturelle. En vertu du théorème de Dembski,
on peut maintenant conclure que la CSI doit, où qu’on puisse la trouver, être attribuée à un mode
alternatif de causalité répondant à la notion de dessein. Or je soutiens que ce mode alternatif n’est rien
d’autre que ce que j’ai appelé ailleurs causalité verticale, mode caractérisé par son intemporalité188. Dans
la mesure où la causalité verticale agit « hors du temps », ou instantanément, ce qui revient au même, elle
diffère fondamentalement de la causalité naturelle, qui est intrinsèquement temporelle, et pourrait donc
se définir, métaphysiquement parlant, comme « horizontale ». On aboutit ainsi à une dichotomie qu’il est
maintenant nécessaire d’examiner et de clarifier avec soin.
L’exemple originel de causalité verticale est sans conteste l’acte créateur de Dieu ; car, selon
l’expression déjà citée de S. Augustin : « Il est hors de doute que Dieu créa le monde, non dans le temps,
mais avec le temps ». Il faut cependant comprendre que cet acte créateur s’étend en un sens jusqu’à la
providence de Dieu, dont le premier effet est ce que les théologiens appellent « conservation ». Comme le
remarque Gilson, cet effet « n’est en quelque sorte que la perpétuation de l’acte créateur ». Il n’est pas
nécessaire de chercher à classifier les actions de Dieu dans le monde ; on se contentera de rappeler qu’Il
agit toujours au-dessus du temps, donc « verticalement ». Cette causalité verticale est en outre la cause
non seulement du temps, mais aussi des actions et des processus qui se produisent dans le temps et qui
ont une efficacité propre : tel est le miracle de la création. Dieu est intimement présent, non seulement
dans la substance de tous les êtres, mais également dans toutes leurs activités ; et pourtant, comme le dit
magnifiquement Gilson : « L’intimité de l’assistance qu’Il offre laisse leur efficacité intacte ». Il s’ensuit
que la causalité verticale est complétée par une causalité qui opère dans le temps ; c’est ce que nous
avons appelé causalité horizontale : celle, de toute évidence, dont s’occupe la science. Une précaution est
cependant nécessaire ici : dire que chaque action de la causalité naturelle est horizontale n’implique pas
que chaque action de la causalité horizontale soit naturelle. On peut concevoir qu’il existe des processus
temporels qui ne soient ni déterministes, ni aléatoires, ni même stochastiques, et ceci implique que le
concept de causalité horizontale est plus vaste que celui des causes naturelles. Nous aurons l’occasion d’y
revenir.
Nous devons maintenant nous demander si cette dichotomie entre les causalités verticale et horizontale
ne revient pas tout simplement à la distinction traditionnelle entre cause première et causes secondes. La
réponse est clairement non ; car il arrive que certaines causes secondes ou causes créées agissent aussi
au-dessus du temps, donc verticalement. Il en résulte un plus haut degré de participation à la causalité
divine, participation qui reflète de façon prééminente l’action de Dieu Lui-même. Il existe deux exemples
principaux de ce mode supérieur de causalité seconde : la causalité qui émane du monde angélique et
celle qui a sa source dans l’intelligence humaine. Se pourrait-il que la causalité verticale soit alors le
sceau de l’intelligence ? C’est bien le cas : agir « au-dessus du temps » est visiblement la prérogative
d’une nature intellectuelle, d’un être doté d’un intellect et d’une volonté libre. La causalité verticale n’est
ainsi rien d’autre que de la causalité intelligente, tandis que les causes naturelles peuvent, par
comparaison, se définir comme « aveugles ».
Ceci nous amène finalement à une question qui est restée, depuis le début, tapie à l’arrière-plan : la
question de l’art humain, au sens le plus large du terme. Pour l’esprit moderne tout au moins, les
exemples les plus évidents et les plus irrécusables d’un dessein sont ceux qui résultent, non d’un acte de
Dieu, mais de l’activité d’un artisan. Même le darwinien le plus convaincu ne nierait pas la présence d’un
dessein dans le cas de l’horloge de Paley ; mais tandis qu’il accepte cette notion dans le domaine des
objets artisanaux, il considère comme « naïvement anthropomorphique » de l’étendre à la biologie. Nous
sommes en réalité entourés de toutes parts de CSI qui émane de l’action de l’intelligence humaine, et
longtemps avant Dembski, il était clair aux yeux de tout le monde que cette CSI ne résulte pas d’une
circonstance naturelle, mais a été mise là par un agent intelligent. Qui, devant un assemblage de pierres
sur le flanc d’une colline, qui écrivent le mot « Bienvenue », imaginerait qu’elles ont été disposées ainsi
par une inondation ou une avalanche ? Nous avons tous été engagés, depuis l’enfance et de mille
manières, à conclure à l’existence d’un dessein intelligent ; et que nous le sachions ou non, ces
conclusions ou déductions sont invariablement basées sur la spécification. La théorie de Dembski
s’applique ainsi avant tout au domaine de l’art humain.
Considérons la production d’objets artisanaux ou industriels, des métiers primitifs à l’industrie
moderne. N’est-il pas évident qu’un tel objet est toujours le produit d’un processus temporel ? En un sens
oui. On ne peut le nier : le processus temporel est nécessaire, mais il n’est pas suffisant. Mon argument
sera double : tout d’abord que le facteur décisif — le sine qua non de l’art humain - est un acte de
l’intelligence ; et ensuite qu’un tel acte ne se réduit pas à un processus temporel. Il n’y aura guère
d’objections à la première de ces affirmations, c’est la seconde qui embarrasse. La difficulté vient du fait
que nous tendons à voir l’acte de l’intelligence comme entièrement temporel en identifiant la
connaissance à la pensée. Nous considérons comme acquis que la connaissance a lieu dons la pensée —
dans un processus psychosomatique et temporel —, alors qu’en réalité la pensée n’est qu’un moyen, un
mouvement si l’on veut, en quête de connaissance. En termes traditionnels : la connaissance est un acte
intellectif au sens où il s’oppose à un acte psychosomatique. Comme S. Thomas le fait remarquer : «
L’activité du corps n’a rien en commun avec l’activité de l’intellect »189. Et ceci suggère fortement de soi-
même que l’activité intellectuelle n’a pas lieu « dans le temps ». Le point essentiel est cependant que
l’activité intellectuelle ne peut pas avoir lieu dans le temps, pour la simple raison que la dispersion
temporelle est incompatible avec la connaissance : on ne peut pas connaître « morceau par morceau »,
parce que connaître, c’est nécessairement connaître une chose. On ne peut obvier à cette conclusion en
citant la mémoire comme un moyen de rendre le passé présent ; le fait demeure que l’acte cognitif doit
être « instantané », et donc supra-temporel, puisque le moment ou l’instant n’est pas une fraction de
temps. Qu’on le conçoive comme un « troisième principe » ou, du point de vue thomiste, comme une
puissance de l’âme, l’intellect doit être intrinsèquement supra-temporel. Pour en revenir aux produits
artisanaux, il est maintenant manifeste que si l’intellect agent est réellement une condition sine qua non
de l’activité humaine, il est ipso facto impossible de réduire la production de l’objet artisanal à un
processus temporel. Il est vrai, évidemment, que la fabrication mécanisée est un processus temporel ;
mais il ne faut pas oublier que les mécanismes impliqués dans ce processus sont portés par un dessein
(design), qui est transmis au produit final. Comme le montre l’analyse de Dembski, un processus
déterministe, et donc une fonction, peut réellement transmettre de la CSI, mais ne peut la produire,
même sous la forme la plus infime. Un produit industriel présuppose, tout autant qu’un objet artisanal, un
acte de causation verticale.
L’activité humaine est liée à la créativité divine en vertu du fait qu’elle comporte, elle aussi, un mode
atemporel de causalité. On peut affirmer que l’artiste humain imite l’artiste divin et « participe » à divers
degrés de Dieu en tant qu’agent créateur. « L’art imite la Nature [au sens de natura naturans] dans la
façon dont il opère », dit S. Thomas ; et il précise ailleurs que l’artiste humain travaille « grâce à une
parole conçue dans son intellect » et donc à l’imitation de la Sainte Trinité190. Ce n’est donc pas une
petite chose qui s’accomplit ainsi, même dans les exemples les plus humbles de l’activité humaine : elle
est réellement à des années-lumière d’un simple processus temporel. On ne s’étonnera pas qu’on puisse
percevoir cette différence dans l’objet artisanal ou industriel au moyen d’une signature caractéristique
qui est l’indication d’un dessein.
Une clarification supplémentaire est ici nécessaire. Il ne suffit pas d’avoir défini la causalité verticale
par le fait que son mode d’opération est atemporel, il faut encore garder à l’esprit qu’elle peut néanmoins
être temporelle dans ses effets. L’intellect du violoniste agit « au-dessus du temps », et c’est pourtant un
mouvement de l’archet qui produit la musique. Ici aussi un processus temporel, donc horizontal, fait
partie du tableau ; mais ce n’est évidemment pas un processus naturel : il ne peut l’être puisqu’il découle
d’un acte intellectuel191. Il faut donc distinguer (comme je l’ai déjà suggéré) entre deux sortes de
processus temporel ou de causalité horizontale : celle qui découle de causes naturelles et celle qui est le
produit d’une activité intelligente. C’est le violoniste qui, en tant qu’agent intelligent, est le premier à
appréhender la musique — le « modèle détachable » de Dembski — au niveau de l’intellect et qui, ensuite,
par un acte de sa volonté libre, transmet ce modèle au monde des sens par l’intermédiaire d’un processus
temporel, un acte de causation horizontale192.
Quelques mots encore sur « la volonté libre ». L’exemple de l’artisan montre que l’action intelligente
n’est pas — ne peut pas être — le résultat d’un processus naturel. On ne peut donc pas en découvrir la
cause au niveau naturel, c’est-à-dire dans le monde extérieur, et il faut la définir par défaut comme «
interne ». Mais n’est-ce pas ce que nous voulons dire normalement lorsque nous parlons de « volonté libre
» ? Or, si par « liberté de la volonté » nous entendons un affranchissement de la causalité externe, les
considérations précédentes établissent cette liberté dans le contexte de l’art humain. Le fait décisif est
cependant que l’action intelligente est « libre » en vertu d’une participation intime à la liberté de Dieu. Et
cette liberté divine est infiniment plus qu’une simple exemption des contraintes extérieures ; c’est en
vertu de cette même liberté que Dieu a créé le monde, et donc « les contraintes extérieures ». La liberté a
donc en premier lieu une connotation positive : elle est liée à la créativité, à l’expression de la vérité et de
la beauté, et au « jeu », ce que la tradition hindoue appelle lîlâ.
Un dernier point : rien ne nous oblige à supposer qu’un processus temporel qui ne produit pas de
finalité (design), ou de CSI, peut être attribué ipso facto à une causalité naturelle. Le phénomène de la
réduction du paquet d’ondes dans la mécanique quantique nous fournit un exemple de cette question : en
vertu de son irréductible discontinuité, on ne peut, par exemple, rendre compte de la désintégration
radioactive de l’atome de radium en termes de causalité naturelle. L’antique dicton « Natura non facit
saltum est toujours valable ; il suffit de comprendre que la natura en question est la natura naturata,
opposée à la natura naturans: le « naturé » opposé au « naturant ». J’ai montré ailleurs que la natura
naturata agit invariablement selon un processus temporel continu, au contraire de la natura naturans, qui
agit « au-dessus du temps », donc par causation verticale193. L’action de la natura naturans est donc
intrinsèquement instantanée, et c’est cette instantanéité intrinsèque qui se reflète dans les exemples de
discontinuité irréductible. La raison pour laquelle la réduction du paquet d’ondes a déconcerté les
physiciens réside dans le fait que le phénomène ne peut être attribué à des causes naturelles. Ce qui
embarrasse les einsteiniens, on le voit, n’est pas simplement la faillite du déterminisme, mais
l’évanouissement de la causalité naturelle : non seulement Dieu « joue aux dés », mais, ce qui est pire, Il
le fait « instantanément » !
Le fait que, dans une cellule vivante, l’ADN comporte « des tonnes de CSI » implique que le théorème
de Dembski a disqualifié les prétentions du darwinisme. Il a ruiné l’espoir des néo-darwiniens de trouver «
un algorithme, une loi naturelle qui conduise à l’origine de l’information », comme le dit Manfred
Eigen194. La CSI est ce qui se trouve au cœur de tout organisme vivant, et aucune loi naturelle, aucun
algorithme, aucun processus stochastique ne peut la produire. Je laisserai de côté la question de savoir
combien il faudra de temps à la communauté scientifique tout entière pour accepter ce fait et en tirer les
conséquences ; si nous admettons ce que dit Thomas Kuhn des « révolutions scientifiques », ce n’est pas
pour demain. De toute façon, ce qui est d’une beaucoup plus grande importance que l’ascension et la
chute du paradigme darwinien, c’est le fait que la théorie de Dembski présente une menace mortelle, non
seulement pour le darwinisme, mais, si surprenant que cela puisse paraître, pour la cause de la religion
authentique. La plupart des théologiens jubilent assurément d’apprendre qu’après tout Dieu n’est pas une
superfluité ; ce qu’ils échouent pourtant à comprendre, à de rares exceptions près, c’est que le
mouvement de l’intelligent design menace de nous plonger dans une hérésie pire que le darwinisme. Le
problème est que, alors que cette théorie a réellement disqualifié le mécanisme darwinien, elle n’a en rien
discrédité le concept darwinien d’une origine commune, qui demeure ainsi un dogme scientiste
indélogeable. Mais il est clair que l’hypothèse d’une origine commune, dont il ne peut être rendu compte
en termes de mécanisme darwinien - ni d’ailleurs de causalité naturelle en tant que telle —, est
équivalente à la doctrine de l’évolution théiste. Il est par conséquent presque inévitable que la découverte
de Dembski soit généralement perçue comme une légitimation scientifique de cette théorie, qui a déjà
balayé le monde théologique et pénétré jusqu’au Vatican. Si donc l’évolutionnisme théiste était en vogue
bien avant que Dembski ait formulé ses idées scientifiques, qu’on imagine seulement quelle sera sa
situation dans le sillage de cette incroyable découverte ! Voilà vraiment une théorie susceptible d’« abuser
même les élus »195.
La difficulté avec la notion d’origine commune est qu’elle contourne la métaphysique dans un domaine
qui lui appartient en propre. Évidemment, l’origine commune, pour autant qu’elle existe, est quelque
chose qui se manifeste dans l’espace et le temps, qu’on peut se représenter, qui répond aux exigences de
notre compréhension ordinaire. Là s’exerce sa séduction, mais là aussi réside son impossibilité, car il
s’avère, comme l’ont reconnu toutes les écoles traditionnelles, que nos origines premières ne sauraient se
situer ni dans l’espace ni dans le temps. Il existe, par exemple, une doctrine patristique des origines
biologiques — la doctrine des rationes séminale élaborée par S. Augustin dans le De Genesi ad Litteram -,
mais c’est un enseignement incontournablement métaphysique dans lequel il est question d’une descente
verticale, une progression du Centre métacosmique vers la périphérie cosmique. Ce qui signifie que le
scientifique n’« intervient » que vers la fin de l’histoire : limité par le modus operandi de son approche à
une perspective exclusivement horizontale, il échoue à voir cette descente qui précède ontologiquement
toute manifestation sur le plan spatio-temporel. D’accord avec cette perspective horizontale, l’hypothèse
d’une origine commune voudrait résoudre le mystère des origines biologiques premières à l’intérieur du
domaine spatio-temporel : sur le cercle extérieur de la roue cosmique, là où les origines premières ne
peuvent se situer. Et introduire Dieu dans le tableau, comme l’ont fait les évolutionnistes théistes, ne
change rien à ce fait, à cette impossibilité principielle : cela n’a d’autre effet que de mêler de la mauvaise
science à de la mauvaise théologie.
On oublie que l’évolution authentique est en fait un déroulement, selon le sens étymologique du verbe
latin evolvere (e + volvere, « dérouler ») ; qu’elle est ainsi une espèce de mouvement d’éloignement. Là
où il y a un extérieur, il doit aussi y avoir un intérieur ; et hâtons-nous d’ajouter qu’il ne s’agit pas de
psychologiser cet « intérieur » : l’intérieur d’un organisme n’est pas affaire de « conscience », mais
constitue le fondement d’où dérivent toutes ses composantes, y compris la conscience. L’organisme
intégral — comme le cosmos intégral — doit donc se concevoir en termes de cercle symbolique, dont le
centre représente le point « le plus intérieur », la vraie ratio seminalis196, de laquelle la créature visible,
située dans l’espace et le temps, n’est que la manifestation extérieure ou le « déroulement ». Il est en
outre intéressant de noter que l’équivalent grec de la ratio seminalis est le logos spermatikos, la « parole
semence », dont on peut discerner le reflet affaibli, comme je l’ai suggéré antérieurement, dans le code
génétique. L’« origine de l’information », que les darwiniens cherchent dans un algorithme évolutif, se
trouve en réalité dans le logos spermatikos engendré à l’instant unique de la création, lorsque « Dieu créa
le ciel et la terre ». À partir de ce point originel a commencé une « descente », une évolution au vrai sens
du terme, au cours de laquelle l’essence de l’organisme, sa ratio seminalis, demeure cependant
inchangée. On touche ici au point décisif de la question : comprendre cette vérité métaphysique — ne
serait-ce que « dans un miroir, obscurément » -, c’est percevoir immédiatement l’erreur, non seulement du
darwinisme, mais également de l’évolutionnisme théiste. Mais cette dernière doctrine, je l’ai déjà dit, est
la pire des deux : car, tandis que le darwinisme en tant que tel choque par une extrapolation sans garantie
tout en demeurant fidèle par ailleurs au point de vue scientifique, l’évolutionnisme théiste trahit la
perspective théologique elle-même et provoque ainsi une corruption générale de la doctrine sacrée.
Il faut en particulier insister sur le fait que là où il n’y a aucune « descente », il ne peut y avoir non plus
aucune élévation. Une chose dont l’origine est dans l’espace et le temps se terminera aussi dans l’espace
et le temps ; elle ne peut que périr, disparaître comme un nuage. Mais tel n’est pas le cas des choses qui
ont un être, et donc une essence et un acte-d’être. Seule, donc, une cosmologie qui inclut la dimension de
verticalité peut être le support d’une perspective religieuse et permettre une doctrine de l’immortalité.
Dans les limites imposées par une cosmologie horizontale, les prétentions de la religion deviennent une
imposture, ou au mieux une fiction consolatrice.
CHAPITRE XI

LA COÏNCIDENCE ANTHROPIQUE ET SES INTERPRÉTATIONS

Qu’est donc l’homme, pour que l’électron se soucie de lui ?


Carl Becker

Dès le milieu du XXème siècle, les physiciens avaient compris que le monde familier dans lequel nous
vivons et où se trouve notre être physique constitue une organisation hautement improbable, une
contingence à peu près aussi invraisemblable que de retrouver par hasard dans le Sahara un grain de
sable marqué à l’avance. Il était clair alors qu’une poignée de constantes numériques fondamentales,
telles que les rapports des forces nucléaires, électriques et gravitationnelles, déterminent ce qui est
physiquement possible et ce qui ne l’est pas. On en vint à reconnaître que les structures atomiques et
moléculaires, dont dépend la vie, nécessitent un équilibre ou un quasi-équilibre de forces opposées,
incroyablement délicat, qui, à son tour, exige que les constantes de la Nature assument les valeurs qu’on
leur a découvertes, avec une marge de tolérance proche de zéro : à peu près comme si la distance entre le
centre de la Terre et celui de la Lune devait être ce qu’elle est avec une marge d’erreur inférieure à
l’épaisseur d’un cheveu. Au regard de ces découvertes, on ne peut s’empêcher de se demander Pourquoi
l’univers devrait être aussi minutieusement réglé. La question est assurément plus philosophique que
scientifique, étant donné que les lois et constantes de la Nature constituent les principes en fonction
desquels sont construites les explications scientifiques. À strictement parler, ce n’est pas la tâche de la
science d’expliquer ou de justifier l’existence de ces lois ou des valeurs de ces constantes ; il n’en
demeure pas moins que pendant plus d’un demi-siècle les scientifiques en ont débattu. Toute une
littérature à prétention scientifique s’est développée pour répondre à ce problème.197
Quoique l’état de l’univers ici et maintenant montre clairement avec quelle extrême minutie celui-ci est
réglé, il se trouve que le débat a présupposé, et ce depuis le début, un scénario évolutionniste. Deux
problèmes, en particulier, ont dominé la première phase de ces discussions. Le premier concerne le fait
que les très grands nombres entiers et les proportions sans dimension que font tout naturellement
apparaître la physique atomique et la nouvelle cosmologie se sont révélés proches de 1040 ou de son
carré. Par exemple, la proportion N de la force électrique et gravitationnelle entre un proton et un
électron est approximativement 2,3 x 1039. Qu’on compare cela avec cet autre nombre excessivement
grand qui intéresse les cosmologistes : l’âge actuel de l’univers en ce qu’on nomme jiffies, où une jiffie est
le temps qu’il faut à la lumière pour traverser un proton selon son diamètre. Or cette quantité, appelons-la
M, est de l’ordre de grandeur de 6 x 1039. C’est cette grande proximité entre les quantités M et N
apparemment sans relation les unes avec les autres qui incita Paul Dirac, l’un des plus grands physiciens
du XXème siècle, à proposer en 1937 ce qu’il appelait l’hypothèse des grands nombres : « N’importe
lesquels de deux très grands nombres sans dimension que l’on rencontre dans la Nature sont liés entre
eux par un rapport mathématique simple, dans lequel les coefficients sont de l’ordre de grandeur de
l’unité ». Puisque M dépend du temps, cela implique que N doit également dépendre du temps ; et cela
conduisit Dirac à proposer une seconde hypothèse : que la constante gravitationnelle G est inversement
proportionnelle à l’âge de l’univers. M et N demeurent, sur cette base, comparables, et leur grandeur
actuelle ne serait telle que parce que l’univers est vieux. Les choses en restèrent là jusqu’en 1957,
lorsqu’un physicien de l’Université de Princeton, Robert Dicke, expliqua la proximité de M et de N d’une
manière très différente.
Conformément au scénario du Big Bang, Dicke supposa que les éléments les plus lourds dont dépend la
vie sur terre, tels que le carbone et l’oxygène, étaient produits à l’intérieur d’une étoile par
nucléosynthèse et libérés dans l’espace environnant lorsque l’étoile, ayant brûlé tout son combustible,
devient une supernova et se désintègre. Or ce processus demande, de bout en bout, environ dix milliards
d’années. En y ajoutant peut-être quelques autres milliards d’années pour la formation de la planète Terre
et l’évolution de la vie, Dicke conclut qu’il faut entre dix et quinze milliards d’années pour qu’intervienne
l’entrée en scène des observateurs scientifiques. Prenant aussi en compte le temps estimatif de survie, il
inféra que « l’âge de l’univers “maintenant” n’est pas dû au hasard, mais qu’il est conditionné par des
facteurs biologiques » ; ce qui établit un lien étroit entre la durée de vie des étoiles de la séquence
principale 198 et la constante M qui représente l’âge actuel de l’univers. On ajoute actuellement un
troisième grand nombre, L, celui de la durée d’existence d’une étoile ; mais il se trouve que L est lié à N,
dans la mesure où l’évolution stellaire est déterminée par l’interaction de forces électriques et
gravitationnelles. Grâce à la constante L, Dicke put ainsi expliquer, tout au moins à la satisfaction de ses
pairs, une coïncidence dans les grands nombres qui avait embarrassé tous les astrophysiciens pendant
des décennies. Il faut souligner que son explication fait intervenir un principe nouveau, appelé « principe
anthropique » en 1974. La base de ce principe est que l’univers doit avoir certaines caractéristiques parce
que, en leur absence, l’être humain ne serait pas là pour l’observer. Dans le cas de Dicke, l’idée principale
était simplement que, selon sa propre expression, « il faut du carbone pour faire des physiciens ». Ce fait,
plutôt évident, permet aux physiciens d’adopter l’hypothèse d’un rapport étroit entre deux quantités très
grandes et apparemment sans aucun lien entre elles.
Le second problème auquel j’ai fait allusion concerne la production de carbone à l’intérieur d’une étoile.
Il faut évidemment trois noyaux d’hélium 4 pour produire un noyau de carbone 12. Cependant, puisque les
collisions à trois particules sont extrêmement rares, on doit supposer que la production se fait en deux
étapes : tout d’abord, deux noyaux d’hélium 4 entrent en collision pour produire un noyau de béryllium 8,
qui entre ensuite en collision avec un autre noyau d’hélium 4 pour produire le carbone 12. Or la faisabilité
de ces fusions dépend de résonances nucléaires favorables. Fred Hoyle, en particulier, affirma en 1954
qu’un noyau de carbone 12 doit avoir un niveau de résonance proche de 7,7 MeV si l’on veut que la
nucléosynthèse du carbone 12 ait lieu. L’année suivante, alors en année sabbatique à Caltech, il persuada
ses collègues en physique nucléaire de vérifier cette prévision ; et ils détectèrent un niveau de résonance
de 7,656 MeV. Le raisonnement tacite, on le voit, fut, une fois de plus, « rétrograde » : de l’existence du
carbone 12 à sa nucléosynthèse sidérale, et donc du présent au passé ; ce raisonnement appartient
implicitement à la catégorie « anthropique ». L’histoire de la nucléosynthèse, telle qu’on la raconte
aujourd’hui, ne se termine évidemment pas par la production de carbone, et on a découvert que nombre
d’autres « coïncidences anthropiques » entrent dans la production de noyaux « nécessaires pour faire des
physiciens ».
Toutefois, comme je l’ai déjà noté, l’état actuel de l’univers met en évidence la nécessité d’un réglage
minutieux. En voici un exemple très simple. Les charges d’un électron et d’un proton, telles qu’on les
détermine expérimentalement, se trouvent être égales et opposées ; leur rapport est donc -1. On peut se
demander ce qu’il arriverait si on le modifiait si peu que ce soit. Étant donné la constitution atomique de
la matière, il y aurait une explosion. Les charges opposées des protons et des électrons ne se
neutraliseraient plus, ce qui implique que les objets matériels se chargeraient électriquement
(positivement ou négativement, selon celle des deux charges élémentaires qui dominerait). Non seulement
les objets se repousseraient alors les uns les autres, mais chacun se repousserait lui-même de manière
interne, c’est-à-dire qu’il exploserait. Une modification du rapport -1 d’à peine 1 cent milliardième
suffirait pour faire exploser notre monde en une fraction de seconde. Or ceci n’est que l’exemple le plus
simple, tel qu’on peut le comprendre sans connaissance approfondie de la physique. D’autres «
coïncidences anthropiques » subtiles sont évidemment indispensables, d’une part pour permettre
l’existence — à ne pas confondre avec une formation hypothétique par nucléosynthèse — de noyaux,
d’atomes et de molécules, de même que de leurs agrégats organiques et inorganiques, d’autre part pour
assurer les myriades de propriétés physiques et chimiques de ces agrégats dont dépend notre vie.
Étrangement, dès que les noyaux sont en place, il suffit en principe de deux constantes fondamentales
pour contrôler cette multitude de phénomènes : ce qu’on appelle la constante de structure fine199 dont la
valeur est approximativement de 0,00729720, et le rapport du proton à la masse de l’électron, proche de
1836,12. Selon la théorie des quanta, un univers aussi finement ajusté permettra à des physiciens dont
l’organisme dépend d’une chimie à base de carbone non seulement d’exister, mais de construire la
technologie nécessaire à leur exploration de l’univers.
De toute évidence, la découverte de la coïncidence anthropique appelle à un changement de la
perspective scientifique. Les scientifiques ont compris depuis longtemps que les créatures vivantes sont
adaptées à l’environnement cosmique ; mais ils comprennent maintenant que le cosmos lui-même est
adapté aux formes vivantes. L’adaptation est donc réciproque ; pour on ne sait quelle raison, le cosmos a
été très minutieusement réglé en vue de la réception de la vie, et les particules mêmes qui constituent
l’univers se révèlent être « soucieuses de l’homme ».
La première énonciation de ce principe anthropique n’est pas parvenue, on le voit rétrospectivement, à
saisir le point décisif : «Notre localisation dans l’univers, précise Brandon Carter en 1974, est
inévitablement privilégiée, puisqu’elle doit être compatible avec notre existence en tant qu’observateurs
». On sent là un effort pour accorder le nouveau concept à l’ancienne vision du monde, le désir, si l’on
peut dire, de contourner le point litigieux du problème. Carter fait très clairement allusion à ce que tout le
monde appelle maintenant le principe de Copernic : la notion que le cosmos est en moyenne partout le
même, et que notre localisation n’est en rien particulière, encore moins « centrale ». Dans la version
originale de Carter, le principe anthropique constitue ainsi un complément ou une correction au principe
de Copernic, pour tenir compte du fait que l’observateur humain exige un environnement terrestre très
minutieusement adapté à sa constitution extrêmement fragile. Qu’on prenne un lieu cosmique au hasard,
et l’on verra, avec une certitude presque absolue, qu’il sera mortel à l’homme.
D’autres formulations du principe anthropique ont naturellement bientôt suivi, et il en existe
maintenant une quantité considérable, qui représente diverses tendances de pensée. Toutes — à
l’exception, concevable, du PAP (Participatory Anthropic Principle) dont nous reparlerons — présupposent
le scénario évolutionniste, de la formation des étoiles à l’apparition, une fois de plus, des physiciens. La
version la plus simple est celle que l’on désigne sous le nom de principe anthropique faible (WAP pour
Weak Anthropic Principle), que Barrow et Tipler formulent ainsi : «Les valeurs observées de toutes les
quantités physiques et cosmologiques n’ont pas le même degré de probabilité, mais acceptent des valeurs
restreintes pour la raison qu’il existe des lieux où peut se développer une vie à base de carbone, et pour
cette autre raison que l’univers est assez vieux pour l’avoir déjà fait »200. Le lien est indubitable avec
l’œuvre antérieure de Dicke et Hoyle. On remarquera, en laissant de côté la question de savoir ce que le
terme de « probabilité » peut bien signifier dans ce contexte, que Barrow et Tipler ont élevé l’hypothèse
de l’évolution cosmique et biologique au rang de dogme indiscutable. Immédiatement après avoir énoncé
leur WAP, ils poursuivent : « Nous insistons encore une fois sur le fait que cette affirmation n’est en
aucune façon sujette à spéculation ou à controverse. Elle exprime le simple fait que ces propriétés de
l’univers que nous sommes en mesure de percevoir sont auto-sélectionnées par le fait qu’elles doivent être
compatibles avec notre évolution et notre existence présente ». Il n’y a rien qui prête « à la spéculation ou
à la controverse », nous affirme-t-on, dans l’idée que la vie sur Terre ait évolué depuis des noyaux produits
à partir d’hydrogène et d’hélium à l’intérieur des étoiles ! Cette doctrine n’est apparemment plus une
hypothèse, une théorie en cours d’élaboration, mais un dogme qui sert de soubassement à notre pensée
scientifique.
Ce qui est essentiel dans le WAP ne dépend pourtant d’aucun scénario de cosmogénèse, mais se ramène
à cette reconnaissance logique que l’univers observé doit être compatible avec le fait qu’il est observé.
Réduit à son idée centrale, le WAP n’est alors réellement sujet ni à spéculation ni à controverse ; et
pourtant, loin de constituer une simple tautologie, il implique des conséquences d’un grand intérêt
scientifique. En tant que principe d’auto-sélection, il est en usage depuis des siècles : Copernic, par
exemple, appliquait ce même principe lorsqu’il expliquait le mouvement rétrograde des planètes comme
un effet d’auto-sélection résultant du mouvement orbital de la Terre. Le fait que c’est nous qui observons
l’univers — et non quelque esprit désincarné — a un certain poids. C’est précisément ce principe qui a
permis à Dicke de conclure que l’âge observé de l’univers est davantage qu’un « fait brut », et il est
rigoureusement exact que, dans le contexte du scénario cosmogénétique, cette reconnaissance logique
conduit à une compréhension de la coïncidence entre grands nombres201 que lui-même entreprenait
d’expliquer.
Il est pourtant évident que le WAP n’offre pas aux physiciens tout ce qu’ils désirent. C’est ainsi que,
quand Hoyle a émis sa célèbre prévision, c’était sur des prémisses que ce principe ne couvrait
manifestement pas ; la localisation d’une résonance nucléaire est déterminée par le degré de force
nucléaire, et il est difficile d’imaginer que les constantes fondamentales de la Nature puissent être
affectées par un observateur scientifique, quelqu’un qui n’est apparu que quelque quinze milliards
d’années après le début du fonctionnement de ces constantes. Le principe logique implicite dans le
raisonnement de Hoyle était quelque chose de plus que le WAP ; par la suite, il a été appelé principe
anthropique fort (SAP pour Strong Anthropic Principle ). Tel que Barrow et Tipler le formulent, il affirme
que « l’Univers doit avoir les propriétés qui permettent à la vie de s’y développer à telle ou telle étape de
son histoire ». L’hypothèse évolutionniste est de nouveau incorporée à cette formulation ; mais ici, en tant
que composante du SAP, cette hypothèse se révèle problématique même pour l’esprit scientifique
contemporain. C’est un fait que les constantes de la Nature sont ce qu’elles sont, et que la vie existe sur
Terre ; mais alors qu’est-ce que le SAP exige de plus ? Y a-t-il une différence entre « est » et « doit être » ?
Il semble qu’ait été opérée une certaine détermination, une sélection en faveur des constantes
fondamentales qui permettent la vie. Un réglage aussi minutieux, au début de ce qu’on suppose être la
cosmogénèse, suggère très fortement l’existence d’un dessein intelligent, et semble exiger le postulat
d’un créateur. On pouvait donc s’attendre à ce que l’énoncé du SAP soit sujet à discussion dans la
communauté scientifique et y provoque des divisions. Une certaine minorité, celle des scientifiques qui
ont tout au moins une affinité minimale avec la pensée théologique, accepte le SAP pour ainsi dire au pied
de la lettre ; à leurs yeux, ce principe peut être ainsi formulé : « Il existe un seul univers possible conçu
dans le dessein (désigned) d’engendrer et de maintenir en vie des “observateurs” »202. Mais la plupart des
scientifiques, dont la philosophie est naturaliste, ont trouvé parfaitement inacceptable la notion d’un
univers obéissant à une finalité (designed universe) — même si cette « finalité » est d’assurer leur propre
existence. Ils se sont ainsi trouvés confrontés à un problème assez considérable : comment expliquer en
termes naturalistes pourquoi l’univers doit être constitué de façon à engendrer et à maintenir en vie des «
observateurs » à un certain stade de son évolution ? Cependant, si décourageant que ce problème puisse
paraître, on ne devrait jamais sous-estimer les ressources des physiciens. S’il se révèle — c’est le cas ici -
qu’un univers unique ne fait pas l’affaire, on surmonte cette difficulté en postulant une multiplicité
d’univers et, si nécessaire, leur nombre infini. On peut alors vraiment parler de « probabilités » par
rapport aux constantes fondamentales, et expliquer la coïncidence anthropique par un concept
anthropique d’auto-sélection. Cette option, qui semble avoir été choisie par une majorité de scientifiques
attelés au problème anthropique, donne lieu à une autre version du SAP, que Barrow et Tipler formulent
ainsi : « Un ensemble d’autres univers, différents du nôtre, est indispensable à l’existence du nôtre ».
Trois formes différentes de genèse de l’univers ont été formulées : en suivant la terminologie si
évocatrice de Karl Giberson203, je les appellerai Recyclage, Clivage et Ébullition. La première est
supposée se produire lorsqu’un univers issu du Big Bang s’effondre en une singularité 204 finale,
généralement appelée « big crunch » (grand écrasement) 205, et émerge de l’autre côté,
métaphoriquement parlant, comme une sorte d’« univers recyclé » avec des propriétés fondamentales
dûment modifiées. Il va sans dire qu’aucune théorie physique ne nous permet de pénétrer dans cette
singularité. Quoi qu’il en soit, en poursuivant sur cette lancée, on obtient une série indéfinie d’univers
formels, dont le nôtre s’est auto-sélectionné par le fait, vraisemblablement, que nous existons dans cette
partie spéciale de l’ensemble donné. Le second scénario de genèse de l’univers, appelé Clivage, a été
conçu dans le contexte de la théorie des quanta pour expliquer la réduction du paquet d’ondes dans l’acte
de mesure206. Pour parer à l’indéterminisme associé à cette réduction, le physicien Hugh Everett a
proposé l’idée que chaque acte de mesure scinde l’univers en autant de mondes parallèles qu’il y a de
valeurs possibles de l’observable donnée. Bien sûr, l’observateur s’en trouve ainsi lui-même scindé — mais
tel est le prix à payer, semble-t-il, pour la préservation du déterminisme. De toute façon, les physiciens
concernés par le problème anthropique ont accepté l’idée d’Everett et l’ont appliquée dans ce contexte
comme principe mathématique de la genèse de l’univers. La troisième méthode, l’idée de l’Ébullition,
s’inspire de la théorie des champs quantiques, qui n’est pas sans avoir son mot à dire sur la production de
particules virtuelles en tant que fluctuations aléatoires dans un vide. Giberson décrit ainsi la conception
qui en découle : « Notre univers n’est qu’un parmi d’autres, noyé dans un “méta-univers”, dont jaillissent
constamment de nouveaux univers, comme les bulles jaillissent d’une eau en ébullition. »207
En quelques mots, voilà les diverses manières dont les physiciens naturalistes sont parvenus à un
scénario « pluri-cosmique » dans leurs tentatives respectives pour donner un sens naturaliste à la
coïncidence anthropique. Fondamentalement, ce qui la rend explicable, à la satisfaction des théoriciens
pluri-cosmiques, est que le problème a pu être inclus dans le WAP. Le spectre du dessein intelligent est
ainsi écarté au profit d’un concept d’auto-sélection. Selon eux, tous ces univers, nombreux ou
innombrables, sont aussi réels les uns que les autres, aussi signifiants ou insignifiants. Dans notre siècle
d’égalitarisme, même les univers ont reçu des droits égaux.
Il ne faut pas négliger, en particulier, leur lien avec le darwinisme. L’approche pluri-cosmique a été
d’abord suggérée de manière indépendante par Charles Pantin, biologiste de Cambridge, qui a fait
remarquer en 1965 que «si nous pouvions savoir que notre univers n’est que l’un quelconque d’un nombre
indéfini, mais avec des propriétés différentes, nous pourrions peut-être aboutir à une solution analogue au
principe de la sélection naturelle » pour expliquer l’existence de la coïncidence anthropique.
Je mentionne en passant que l’éminent physicien John Wheeler a proposé une troisième version de base
du SAP, connu sous le nom de principe anthropique participatif (PAP pour Participatory Anthropic
Principle), également inspiré de la théorie des quanta et étroitement lié à l’approche pluri-cosmique ; son
trait distinctif tient dans le fait qu’il assigne un rôle extraordinaire à l’observateur scientifique : loin de
n’être qu’un simple spectateur, c’est lui qui fait exister l’univers ! On voit que le niveau de sophistication
du débat a accompli un saut quantique avec l’introduction de cette idée et que la théorie de Wheeler a
une saveur caractéristique de l’idéalisme, qui rappelle l’évêque Berkeley, comme le remarquent Barrow et
Tipler. De toute façon, elle correspond à une troisième interprétation possible du SAP qu’on peut formuler
ainsi : « Les observateurs sont nécessaires pour que l’Univers soit». On s’étonnera, naturellement, qu’il
puisse y avoir des observateurs avant qu’il y ait un univers ; mais, je l’ai dit, il s’agit là d’une théorie
hautement sophistiquée, qu’on ne peut dissocier trop vite du niveau technique du discours. Nous aurons
néanmoins l’occasion de rappeler que la théorie de Wheeler repose sur des présupposés ontologiques
faux.
Une quatrième version du SAP — en un certain sens la plus intéressante — dite principe anthropique
final (FAP pour Final Anthropic Principle), affirme que « le processus informatif intelligent doit apparaître
dans l’Univers, et, quand il y est, il n’en disparaît plus ». L’idée émerge dans un article de 1979 du
remarquable physicien Freeman Dyson, dans Reviews of Modern Physics, sous le titre « Time without
End : Physics and Biology in an Open Universe », et dans sa conférence sur Darwin, deux ans plus tard, à
l’Université de Cambridge : « Life in the Universe ». Basée sur les concepts présentés dans ces deux
textes, une nouvelle discipline mathématique est née, actuellement connue sous le nom d’« eschatologie
physique ». Selon cette théorie, les créatures vivantes — et plus particulièrement les créatures
intelligentes — sont des ordinateurs, composés de hardware et d’un programme, celui-ci considéré
évidemment comme l’équivalent scientifique de ce qu’on appelait autrefois l’âme. Barrow et Tipler le
disent clairement: « L’essence de l’être humain n’est pas le corps, mais le programme qui contrôle le
corps ; on pourrait même identifier ce programme avec la notion religieuse d’âme, car tous deux se
définissent comme des entités non-matérielles, essence de la personnalité humaine. »208
L’espoir ou l’intention des physiciens eschatologistes est de montrer que d’une certaine manière « les
programmes ne meurent pas », c’est-à-dire que le processus informatif peut se perpétuer jusque dans les
états futurs de l’univers, dans les conditions desquels l’espèce de hardware biologique qui existe
actuellement ne sera plus possible. Nous renvoyons le lecteur intéressé au traité de Barrow et Tipler qui
expose ce « principe d’immortalité »209. Ce à quoi on a ici affaire, c’est à une branche de la physique, ou
tout du moins à une discipline qui prétend l’être, et arbore tous les attributs d’une mathématique qui
semble marcher très ouvertement sur les plates-bandes de la théologie. Quel parti est-il possible d’en
tirer ?
Après ce bref aperçu sur les interprétations plus-cosmiques et autres exposés naturalistes du principe
anthropique, il s’agit pour nous d’examiner ces théories supposées scientifiques. Barrow et Tipler, pour
leur part, définissent leur principe anthropique final comme « un énoncé de physique »210 ; mais en est-ce
réellement un ? Et le même doute surgit à propos des diverses théories pluri-cosmiques, pour ne rien dire
du principe anthropique participatif de Wheeler. La découverte de coïncidences anthropiques, parce
qu’elles étaient vues dans le contexte d’une cosmologie évolutionniste, est donc devenue un problème
pour la communauté scientifique, et même un défi pour sa Weltanschauung naturaliste. Pourquoi
l’électron devrait-il « se soucier de l’homme » ? Pourquoi les constantes fondamentales de la Nature
devraient-elles être précisément accordées à raison d’une partie sur tant et tant de milliards pour que la
vie puisse apparaître dans le cours du temps ? Se pourrait-il que ce ne soit qu’un accident ? Mis à part le
fait qu’on ne comprend pas bien en quel sens tout un univers pourrait être « accidentel », on a tout de
même le vague sentiment que, d’une certaine façon, il doit y avoir en jeu plus qu’un accident, plus qu’une
coïncidence. Mais qu’est-ce que cela pourrait être ? Ayant rejeté sans examen l’interprétation théiste, le
scientifique est bien en peine d’arriver à une explication de son cru. Le principe anthropique faible (WAP)
semble être à la limite de ce qu’on peut faire sur une base scientifique rigoureuse ; au-delà, la question
même n’est plus scientifique, mais inévitablement métaphysique. Même le doute — l’étonnement ou le
sens de l’émerveillement provoqué par la découverte de la coïncidence anthropique — se révèle
intrinsèquement métaphysique. C’est, dans son essence, l’espèce de doute, d’émerveillement, dont on dit
qu’il est le commencement de la philosophie ; il constitue ainsi une invitation à penser sur un mode
philosophique authentique et devient le seuil d’une voie qui peut nous conduire, Deo volente, au-delà des
limites de ce que Shakespeare appelait « ce monde étroit ». Il se trouve cependant que peu de
scientifiques ont profité de cet appel, de cette occasion, gênés qu’ils sont généralement par leur bagage
de croyances scientistes. En fait, c’est une croyance scientiste en forme de cosmologie évolutionniste, et
non de physique « dure », qui les a amenés à leur impasse actuelle ; ainsi les dés sont-ils jetés. Dès lors, il
semble qu’il n’y ait d’autre porte de sortie que de se lancer dans la philosophie, non comme un vrai
philosophe, évidemment, mais comme un scientifique, tout au moins de nom.
Ce qui, ai-je dit, était en jeu avant même l’avènement des théories anthropiques, c’est davantage que de
la simple physique « dure ». La transition entre la cosmologie du Big Bang originel et les univers recyclés,
clivés et en ébullition n’est pas aussi radicale ou discontinue qu’on pourrait le penser, et il n’est pas facile
de déterminer si cette discipline est demeurée la même, ou si la frontière entre la science proprement dite
et une espèce de science-fiction a été franchie à ce tournant particulier. Une chose est sûre : quand on
arrive à l’univers recyclé, clivé et en ébullition, la limite est déjà franchie ; il est clair, en effet, et
virtuellement par définition, que ces univers de conjecture se situent au-delà du seuil de l’observation
scientifique. Il ne peut y avoir aucune communication entre deux univers différents : aucun signal émis
par l’un ne peut atteindre l’autre. Pourtant, même ainsi, l’introduction d’univers exotiques ne peut
réellement se classer dans la rubrique de la science-fiction, dans la mesure où ce pas a été franchi avec
une intention sérieuse ; le problème est finalement l’explication de la coïncidence anthropique sur une
base naturaliste. Il faut aussi se souvenir que les théoriciens qui s’engagent dans ces recherches
spéculatives sont presque tous des scientifiques de haut niveau, et qu’on y rencontre des noms
éminemment respectables ; il ne s’agit ici ni d’amateurs ni de farfelus, loin de là ! Le niveau de maîtrise
mathématique et de sophistication que supposent nombre de ces études est en fait incroyablement élevé,
et le rapport avec des domaines aussi prestigieux que la physique des particules et la théorie du champ
quantique est très étroit. Non, ce n’est pas de la science-fiction. Il serait peut-être préférable de qualifier
cette nouvelle discipline d’hyperphysique : une physique qui se dépasse elle-même, qui a transgressé les
limites de son domaine propre. Il faut comprendre que la physique, emportée par le génie, pourrait-on
dire, de ses praticiens, est en train d’évoluer vers quelque chose de nouveau, de très différent de ce que la
science « dure » est d’habitude. On assiste à une prolifération sans précédent de nouvelles structures
mathématiques, de nouvelles « entités », dont le fondement doit de moins en moins à l’observation ; et,
parallèlement, les niveaux d’abstraction et de complexité mathématique atteignent des sommets eux aussi
sans précédent. Comme si la physique voulait, par ses prouesses mathématiques et ses abstractions hors
de pair, se transformer en une sorte de métaphysique mathématique ; ou devenir, si on veut, rien de moins
qu’une « théologie mathématique ». Il est révélateur que Barrow et Tipler parlent de leur FAP comme des
« conditions physiques préalables aux valeurs morales » ; et j’insiste à nouveau : c’est davantage qu’une
simple lubie. Cela rappelle la vision teilhardienne de la science transformée en religion : n’est-ce pas
justement ce qui se joue ici ?
J’ai relevé ci-dessus que l’étonnement qui semble avoir déclenché la recherche pluri-cosmique est
fondamentalement métaphysique. La recherche en tant que telle est celle d’une science qui tente de se
dépasser, de transgresser ses limites pourtant inviolables, et de devenir une véritable « théorie totale » («
theory of everything ») pour employer une expression courante et à la mode parmi les physiciens. Or cette
énergie, cette passion est prométhéenne, qu’il s’agisse d’une pluralité des mondes ou d’un seul. Elle est
donc illégitime, non parce qu’elle viole quelque commandement moral, mais parce qu’elle s’oppose à la
nature même du créé. Tout, dans la création, a ses limites propres, et la science n’y fait pas exception. J’ai
examiné en détail ailleurs211 le fait que la science contemporaine « dure » a dégagé un certain nombre de
ce que j’appelle les théorèmes limites, lesquels dévoilent quelques-unes de ces limites par les méthodes
mêmes de la science ; et qui peut douter qu’existe aussi en principe un théorème limite qui interdirait
toute théorie pluri-cosmique ? La physique est par nature une science qui traite de l’univers où nous nous
trouvons, et donc, nécessairement, d’un domaine restreint ou seulement de l’un de ses aspects ; comme
Goethe l’a dit avec sagesse : « In der Beschränkung zeigt sich der Meister » 212. La rigueur et l’exactitude
de la physique découlent de ses limites. On pourrait aller jusqu’à soutenir que les bornes imposées par
son modus operandi sont son objet même : il ne saurait donc être question d’une physique qui
transcenderait le plan ontologique auquel elle est adaptée. En d’autres termes, la physique ne peut
fonctionner que parce qu’elle n’est justement pas une « théorie totale ».
Sur le papier, il est naturellement toujours possible de transgresser les limites ; et même avec une
apparence de rigueur qui impose le respect. Mais les structures qui en résultent ont inévitablement perdu
le contact avec la réalité ; une science qui cherche à s’affranchir du joug de ses limitations devient
immédiatement une pseudoscience. Elle peut conserver la forme extérieure d’une science, son apparence
d’exactitude, mais jamais sa substance ni son contenu de vérité. Les structures d’une telle science
imaginaire se révèlent vides, indépendamment du degré de rigueur mathématique, de sophistication ou
d’exigence sur lequel reposent ses postulats ; même le célèbre critère de l’élégance mathématique est
impuissant à atteindre par lui-même la réalité. Remarquons en passant que c’est probablement la raison
pour laquelle Einstein a produit si peu de choses d’un intérêt durable après 1917, l’année où il a publié sa
théorie générale de la relativité. À partir de cette date, il semble avoir abandonné la méthode de pensée
expérimentale et de raisonnement physique qui l’avait si bien servi pendant ses années les plus
productives, en gros de 1904 à 1917. La physique mathématique semble être maintenant entrée
massivement dans une phase similaire, où l’accent s’est déplacé de l’interaction de la théorie et de
l’expérimentation vers la théorie pure, sorte de construction d’un univers mathématique, qui conserve son
caractère fictif même lorsque l’univers visé s’identifie théoriquement avec le nôtre. Peut-être le physicien
postmoderne se juge-t-il habilité à créer son propre monde, comme si la vérité n’était rien d’autre qu’une
convention mathématique.
Encore une remarque. Il peut être intéressant de souligner une analogie remarquable entre le
formalisme pluri-cosmique et la représentation géométrique de ce que René Guénon appelle les degrés de
l’Existence213. Rappelons qu’il représente chaque degré de l’Existence par un plan horizontal dans un
espace euclidien à trois dimensions. Or, si on pense à cet espace comme à un méta-univers, et à chaque
plan comme à un monde ou univers particulier, nous avons là une représentation du scénario pluri-
cosmique, dans lequel il y a, tout à fait littéralement, un nombre indéfini d’univers parallèles. Mais
l’analogie va plus loin : dans la représentation de Guénon, l’ensemble des êtres individuels compris dans
un degré donné de l’Existence est représenté par un groupe de droites parallèles qui remplissent le plan
correspondant. Or quelque chose de semblable se produit dans la cosmologie contemporaine, où une
particule individuelle est représentée dans l’intégralité de son existence par une courbe selon les quatre
dimensions de l’espace-temps, ce qu’on appelle sa ligne-monde. Ici aussi les « êtres individuels » que
contient un monde donné sont représentés par des lignes. On n’oubliera évidemment pas que les «
nombreux mondes » de la cosmologie théorique contemporaine, s’ils devaient exister, constitueraient
nécessairement un seul des degrés de l’Existence au sens de Guénon. Rien ne pourrait être plus éloigné
de l’horizon mental du physicien actuel que la notion de degrés multiples de l’Existence ; en effet, même à
l’intérieur de « notre monde », son modus operandi le contraint à réduire le spectre ontologique à ce
qu’on peut appeler proprement un unique plan infra-existentiel214. Et pourtant, comme cela a été
quelquefois remarqué, il existe une certaine correspondance, une analogie inverse parfois, entre les
opposés. Se pourrait-il alors que l’analogie entre les univers parallèles du physicien et les degrés de
l’Existence tels que les envisage Guénon soit plus que simplement formelle, plus qu’« accidentelle » ? La
pensée de ces scientifiques, tout anti-métaphysique qu’elle soit, pourrait-elle néanmoins avoir capté un
lointain reflet d’une profonde vérité métaphysique ? Personnellement, je n’écarterais pas cette possibilité.
Après cette longue réflexion sur la réponse naturaliste à l’énigme de la coïncidence anthropique,
examinons maintenant l’interprétation théiste, qui a également pris des formes variées. Tous les auteurs
de cette catégorie ne sont assurément pas des croyants. Par exemple, George Ellis, ancien associé de
Stephen Hawking, et actuellement professeur de physique du cosmos à l’université de Trieste : il
représente ce qu’on pourrait appeler la position minimaliste. Il parle avec une certaine circonspection d’«
un cadre plus vaste » d’explication, et concède qu’il puisse y avoir « une structure de signification sous-
jacente à la surface apparente de la réalité, dont l’expression de dessein délibéré (deliberate Design) rend
le mieux compte », hypothèse qu’on pourrait assez bien décrire comme le premier pas dans la bonne
direction. Et le physicien bien connu Paul Davies s’exprime dans des termes semblables. Dans Cosmic
Blueprint (1988), il fait allusion au « sentiment irrésistible de l’existence d’un dessein » et quatre ans plus
tard, dans The Mind of God, il écrit : « J’appartiens à ces scientifiques qui ne souscrivent pas à une
religion conventionnelle, mais qui nient néanmoins que l’univers soit un accident dépourvu de toute
finalité. Par mon travail scientifique, j’en suis venu à croire de plus en plus fortement que l’univers
physique est construit avec une ingéniosité si étonnante que je ne peux pas admettre qu’il ne soit qu’un
fait brut. Il doit y avoir, me semble-t-il, un niveau plus profond d’explication. »
Le sentiment exprimé dans cette profession de foi remarquablement franche est sans doute partagé par
de nombreux scientifiques sérieux et peut aller aussi loin qu’eux-mêmes veulent aller. À l’opposé,
quelques-uns seulement « adhèrent à une religion conventionnelle ». Le représentant le plus connu de ce
dernier groupe est peut-être John Polkinghorne, le physicien qui a renoncé à son professorat à l’Université
de Cambridge pour devenir prêtre anglican. Il pense que les faits de la coïncidence anthropique
s’accordent avec l’enseignement du christianisme sur la création du monde. Il ne s’agit pas là, pour lui, de
prouver l’existence de Dieu, d’y voir un « argument » au sens de S. Thomas, mais plutôt, selon son
expression, une « consonance ». Il accepte sans réserve le scénario évolutionniste — y compris le Big
Bang et l’origine des espèces —, et c’est précisément ce scénario qu’il voit comme « une consonance »
avec la doctrine chrétienne. Cela implique le rejet de l’interprétation historique des trois premiers
chapitres de la Genèse, comme le font d’ailleurs la plupart des théologiens contemporains. Sa
compréhension de la création est ontologique, explique-t-il, et non temporelle ; l’enseignement biblique,
affirme-t-il, « ne traite pas d’une origine temporelle, mais d’une origine ontologique. Ce qui répond à la
question de savoir pourquoi il existe des choses. Dieu est Créateur aujourd’hui autant qu’il l’était il y a
quinze milliards d’années »215. Le Dieu du christianisme, insiste-t-il, n’est pas « le Dieu des seules
extrémités, spécialement intéressé par les commencements », mais réellement « le Dieu de tout instant et
de tout lieu ». Voilà qui est certainement bien dit, et appuyé sur S. Augustin, si on veut ; la différence
essentielle réside cependant dans le fait que S. Augustin n’a pas simplement rejeté l’interprétation
historique de l’hexaemeron, mais qu’il l’a transcendée d’un point de vue authentiquement métaphysique.
La faille s’élargit, et c’est le moins qu’on puisse dire, lorsque Polkinghorne poursuit et explique que «
c’est en maintenant la fécondité du processus de développement du monde que Dieu est à l’œuvre en tant
que Créateur ». Assurément, « la fécondité du processus de développement du monde» n’est rien d’autre
que l’évolution dans son sens courant, c’est-à-dire que Polkinghorne se contente de répéter la maxime de
Teilhard que « Dieu crée par l’évolution ». En accord avec les prétendues découvertes de la science
contemporaine, il perçoit la « fécondité » en question comme le résultat d’« une interaction de deux
tendances opposées que l’on pourrait définir comme le “hasard” et la “nécessité” ». Puis il énonce une
interprétation théologique de ces deux principes : « Je crois que le Dieu du christianisme, qui est à la fois
amour et fidélité, a attribué à sa création les dons jumeaux de l’indépendance et de la fiabilité, qui se
reflètent dans la fécondité du processus de développement de l’univers grâce à l’interaction du fortuit et
du constant, du hasard et de la nécessité ». Ce qui mérite une remarque logique : si Dieu crée
véritablement en maintenant « la fécondité du processus de développement du monde », qui consiste dans
cette interaction, il s’ensuit que « les dons jumeaux en question ne se reflètent pas seulement dans le
hasard et la nécessité, mais doivent coïncider avec ces deux facteurs. En d’autres termes, selon cette
doctrine, le hasard et la nécessité, loin de constituer des principes secondaires reflétant la dualité
première des « dons jumeaux de l’indépendance et de la fiabilité », deviennent réellement la dualité
première elle-même. Il semble bien que, lorsque Polkinghorne parle de « reflet », il se replie
momentanément sur un concept préteilhardien de la création.
La formation des étoiles et des galaxies, comme on la conçoit habituellement, fournit un exemple
typique de « fécondité du processus ». Un univers initialement lisse devient par hasard granuleux ou
bosselé et ces petits écarts initiaux s’amplifient ensuite sous l’action de la gravité, et c’est là que la
nécessité entre en jeu. Polkinghorne en conclut que « l’interaction de ces deux tendances, le hasard
comme origine d’une nouveauté, et la nécessité comme tamis et conservateur de cette nouveauté, est le
moyen premier par lequel se réalise la fécondité de l’univers ». Notons que c’est là, appliqué à l’échelle
cosmique, la quintessence du darwinisme.
Il vaut la peine de remarquer que dans cette tentative de synthèse de la science et de la théologie, la
doctrine chrétienne de la Chute ne trouve pas sa place. On se souviendra que Teilhard aussi s’est heurté à
ce problème, et sans beaucoup de succès, en dépit de sa puissance phénoménale d’imagination.
«L’obstacle principal rencontré par les penseurs orthodoxes, écrit-il, quand ils tentent d’accorder l’image
historique révélée des origines humaines aux données scientifiques actuelles, est la notion traditionnelle
de péché originel »216. Apparemment Polkinghorne ne fait pas exception à cette règle. Dans le dernier
chapitre de Reason and Reality, par exemple, qui comprend exactement cinq pages, il traite de cette
question et ne cherche pas à interpréter la Chute sur une base évolutionniste, mais tente plutôt
d’expliquer pourquoi la doctrine pose des problèmes par rapport au point de vue scientifique. Comme on
pouvait s’y attendre, il insiste sur ce que « Genèse III doit se comprendre comme un mythe sur
l’éloignement de l’homme par rapport à Dieu et non comme une explication étiologique de la triste
situation de l’humanité, qui n’est que trop évidente »217. On pourrait naturellement soulever la question
que posait déjà Teilhard : « Est-ce encore du christianisme ? », mais c’est une autre affaire. Ce qui nous
concerne ici est le fait que, même quand il s’agit de scientifiques connus comme chrétiens, il ressort que
l’évidence supposée de la science a davantage de poids, et de loin, que les enseignements religieux
traditionnels : chaque fois qu’il existe un conflit apparemment insoluble, le dogme chrétien est
invariablement le perdant.
On notera en particulier que la notion même de péché, et donc de responsabilité, n’a plus aucune place
dans un univers évolutionniste, où il faut lire « hasard » à la place de « liberté », puisqu’à l’évidence il n’y
a dans le hasard ni responsabilité morale, ni bien, ni mal. Le mystère de la liberté humaine — de ce qu’on
appelle traditionnellement liberté de la volonté — est beaucoup plus profond que la notion de hasard. Il a
à voir, non avec la matière, mais avec son pôle ontologique opposé, dont les darwiniens ne tiennent pas
compte. La véritable liberté, je l’ai montré ailleurs218, apparaît dans le monde par le biais de la causalité
verticale, mode de causalité qui agit au-dessus du temps et qui, pour cette raison, ne peut trouver de
place dans une cosmologie évolutionniste. La liberté n’est ni le hasard ni la nécessité, ni une combinaison
des deux, mais quelque chose qui transcende le plan de la causalité naturelle, et qui ne peut donc
s’expliquer scientifiquement. Une théologie sans cette notion de liberté et de responsabilité n’est en
vérité pas une théologie du tout, elle n’en saurait être qu’une imitation appauvrie, un ersatz maladroit.
Il se trouve cependant que la perspective de Polkinghorne est déficiente, même d’un point de vue
scientifique. A la lumière de la théorie de l’« intelligent design », on sait maintenant que les principes
jumeaux de hasard et de nécessité ne suffisent pas pour rendre compte de la « fécondité du processus de
développement du monde ». En termes de science contemporaine, cette « fécondité » se traduit en
information spécifique complexe ou CSI, et c’est précisément ce que le hasard et la nécessité, pris
isolément ou en combinaison, ne peuvent pas produire219. L’exemple le plus frappant est assurément
fourni par les « tonnes » de CSI dans l’ADN de tout être vivant, de la bactérie ou de l’amibe à l’organisme
humain, dont aucun ne saurait être produit par un processus stochastique. Si donc on suppose que les
espèces existantes se sont développées à partir d’une origine commune, on se voit contraint de poser en
principe des actes de causation verticale pour rendre compte de la production de la CSI requise. Ces
interventions d’en haut seront probablement conçues comme plus ou moins localisées aux points de
départ des ramifications de l’arbre généalogique supposé, conformément à l’idée des « sauts » adoptée
par des néo-darwiniens comme Richard Goldschmidt et Stephen Jay Gould. Il est nécessaire que la
causalité verticale entre en jeu d’une manière ou d’une autre, même d’un point de vue strictement
scientifique. Mais il ne semble pas que Polkinghorne soit au courant de ce fait, qui n’est connu que depuis
1998220. Il ne se rendait pas compte, au moment de ses conférences de 1996, que la quintessence du
darwinisme, que non seulement il acceptait sans se poser de question, mais élevait au rang d’une
théologie, allait être rigoureusement réfutée moins de deux ans plus tard.
Étant donné qu’un acte de causation verticale à l’échelle cosmique est l’équivalent d’un acte divin, Dieu
rentre en scène. L’ancienne argumentation relative à la thèse finaliste conserve donc sa validité. La
découverte mathématique de ce que Dembski appelle « design inference » (théorème du dessein
intelligent) a remis à l’honneur la théologie naturelle au sens de William Paley. Par une étrange
dialectique, une science matérialiste, d’où Dieu était apparemment banni depuis des siècles, est arrivée à
une impasse que seule cette « hypothèse inutile » peut forcer. De même, on voit que le Dieu de l’évolution
— ou plutôt le Dieu des évolutionnistes — est inévitablement un « Dieu des fissures » dont la fonction est
de produire la CSI nécessaire aux points de jonction critiques où le processus stochastique échoue. Le fait
demeure cependant qu’un Dieu des fissures se révèle toujours une notion malencontreuse : affaire,
invariablement, de mauvaise science engendrant une mauvaise théologie. C’est à peu près comme si un
mathématicien, qui trouverait que les deux parties d’une équation ne s’équilibrent pas, ajoutait un «
terme Dieu » pour combler la lacune : il ferait mieux de revenir au tableau noir et de vérifier ses calculs.
Dans cet exemple, la réponse scientifique correcte à l’impasse serait d’abandonner l’hypothèse
darwinienne d’une origine commune ; d’un point de vue strictement scientifique, l’origine commune se
révèle impossible. Mais pourquoi un scientifique devrait-il invoquer Dieu pour sauver une théorie en
échec : quelle espèce de science est-ce là ?
Pourtant, une lecture théiste de la coïncidence anthropique n’est en aucun cas injustifiée ; l’idée que
l’univers obéit à un dessein — être l’habitat de l’homme — est après tout une idée traditionnelle. Le
problème que posent cependant les interprétations théistes contemporaines réside dans le fait qu’elles
présupposent le scénario évolutionniste. Il en ressort que le Dieu dont elles parlent est le Dieu de
l’évolution, le Dieu qui dirige le prétendu processus évolutionniste. L’un des rôles de ce Dieu est
évidemment d’ordonner le cosmos avec minutie ; c’est lui qui est supposé ajuster les constantes
fondamentales de sorte que le carbone 12 aura une résonance nucléaire à 7,656 MeV. Cette espèce de
théologie, si on peut l’appeler ainsi, semble légitimer toutes sortes de théories et d’hypothèses
scientifiques en donnant l’impression qu’elles sont littéralement des faits d’origine divine. Qui peut, par
exemple, argumenter contre la théorie des champs quantiques si c’est Dieu lui-même qui est à son
origine ? Cette nouvelle collaboration de la science et de la théologie se révèle ainsi comme une aubaine
des deux côtés : pour le théologien, elle signifie qu’il sera enfin pris au sérieux, tandis que pour le
scientifique, elle implique que le prestige de Dieu lui-même déteindra désormais sur ses théories.
Qu’on le comprenne ou non, la théologie subit actuellement une profonde transformation ; sa nouvelle
affiliation avec la science est en train de produire tous ses effets et la mode est aux nouvelles théologies.
Je me souviens d’avoir assisté à un colloque où un archevêque catholique faisait une conférence sur
l’œuvre de Stephen Hawking et confiait, dans la discussion qui suivit, qu’il préférait personnellement la
process theology 221 à la doctrine trinitaire. Ce qui me surprit le plus est que personne parmi les
scientifiques, théologiens et prêtres assemblés là, ne parut le moins du monde étonné ou décontenancé
par cette surprenante révélation. J’en ressortis avec le très fort sentiment que Teilhard avait enfin
triomphé, que la préoccupation de toute sa vie — « l’effort d’établir en moi-même et de répandre une
nouvelle religion (que vous pouvez appeler un meilleur christianisme) »222 — portait des fruits abondants.
Quoi qu’on puisse penser de la doctrine de Teilhard, il faut admettre que sa vision d’une nouvelle religion
— « une forme encore inconnue de religion [...] est en train de germer au cœur de l’Homme moderne dans
le sillon ouvert par l’idée d’Évolution »223 — n’était rien de moins que prophétique.

Dans une perspective traditionnelle, le phénomène de la coïncidence anthropique sera perçu sous un
éclairage très différent. On voit immédiatement qu’avec toute leur diversité, les approches
contemporaines de ce problème partagent cette affirmation que le monde corporel — de la planète Terre
aux organismes vivants — a été produit par un assemblage de particules. Mais, évidemment, ce qui
résulte d’un assemblage de particules est un assemblage de particules ; c’est ainsi qu’on suppose qu’un
objet corporel « est fait d’atomes », comme tout écolier de nos jours le croit. Le tout a ainsi été réduit à
ses parties les plus infimes ; et remarquons que, étant donné la définition aristotélicienne de la quantité
comme ce qui admet des composantes extérieures les unes aux autres, cette réduction place carrément
l’objet corporel dans le domaine de la quantité. Voilà la prémisse ontologique admise tout au long du
débat anthropique aussi bien par les théistes que par les naturalistes, par les partisans de la finalité
(design) que par les champions du hasard.
Or la première chose à faire, si l’on veut examiner cette conclusion d’un point de vue authentiquement
métaphysique, est évidemment de rejeter cette prémisse. Il devient alors évident que les choses,
indépendamment des positions individuelles, ont été prises à l’envers : on a mis la charrue avant les
bœufs. Du point de vue supérieur de la tradition, le tout précède les parties ; et s’il se trouve que
l’assemblage des parties est, d’une certaine façon, « minutieusement ordonné », cela ne peut être dû
qu’au fait que les parties découlent du tout. L’idée même que Dieu ajuste les lois et constantes de la
Nature — qu’il « singe la physique » (« monkeys with physics »), comme l’a dit un jour Fred Hoyle — pour
produire le monde organique se révèle fausse et rétrograde. Ce que Dieu fait, théologiquement parlant,
c’est créer, et ce qu’Il crée — ex nihilo et omnia simul ! — ce n’est pas des particules quantiques, mais des
êtres. Les particules viennent ensuite, ontologiquement parlant, c’est-à-dire qu’elles constituent une
réalité secondaire ; et, comme j’en ai déjà discuté en détail224, en un sens c’est l’homme, et non pas Dieu,
qui « fait » ces particules. John Wheeler avait raison : nous sommes dans un « univers de participation » ;
il s’agit seulement de comprendre que l’univers auquel Wheeler fait allusion est l’univers physique en tant
qu’il se distingue de l’univers corporel, dont lui-même ne semble pas avoir reconnu l’existence.
On le voit, le tableau est maintenant radicalement différent, inversé en un certain sens ; l’exemple
schématique suivant pourra aider à le rendre clair. Considérons un « univers » à deux dimensions en
forme de trapèze ABCD de base AD, et imaginons que les astrophysiciens qui habitent cet univers soient
arrivés à une cosmologie du Big Bang. S’étant assurés des coordonnées des côtés AB et CD, et ayant
calculé les coordonnées du point O, intersection des lignes correspondantes, ils ont supposé que ABCD
devait être à l’origine une émanation rectiligne de ce point O. Considérons maintenant l’angle ø formé par
OB et OC. Du point de vue des scientifiques locaux, une coïncidence anthropique est maintenant apparue :
« Si l’angle initial de dispersion avait été différent de ø, ne serait-ce que d’un milliardième de degré, nous
n’existerions pas ». Pour les naturalistes qui résident dans un tel univers, cela laisse entendre qu’il doit y
avoir un nombre infini d’univers parallèles, probablement en forme de trapézoïdes, correspondant à
toutes les valeurs possibles de l’angle initial de dispersion, hors duquel notre univers s’est auto-
sélectionné en accord avec le WAP ; pour certains autres habitants de ABCD, cela signifie en outre que
l’angle ø a été déterminé dès le début par l’acte d’un dessein intelligent. En réalité, toutefois, il s’avère
que le triangle OBC constitue ce qu’ailleurs j’ai appelé « l’univers extrapolé », et que l’angle ø n’est
déterminé ni par le hasard ni par la providence, mais par le trapèze ABCD. La conclusion peut s’exprimer
tout simplement ainsi : l’univers réel détermine l’univers extrapolé, avec ses constantes, etc. La prémisse
évolutionniste a donc inversé le rapport causal entre ces deux parties de l’univers intentionnel.
Il faut cependant admettre que l’hypothèse évolutionniste n’est pas aisée à réfuter sur le plan
scientifique, et qu’il subsiste nombre de questions embarrassantes pour lesquelles on ne dispose d’aucune
réponse, par exemple, relativement à la prévision de Fred Hoyle de la célèbre résonance nucléaire au
carbone 12 : étant donné que les noyaux de ce carbone 12 existent et ne peuvent être produits que par
nucléosynthèse à l’intérieur des étoiles, Hoyle en avait tiré l’argument que quelles que soient les
résonances nucléaires nécessaires à une telle synthèse, elles doivent exister ; et sa prévision a été
vérifiée. On sait évidemment qu’une confirmation expérimentale ne suffit pas pour garantir la vérité d’une
théorie : que même si on confirme l’existence de toutes les résonances nucléaires nécessaires pour rendre
compte de la provenance stellaire d’éléments chimiques, l’affirmation de cette origine stellaire sera
toujours sujette à caution. Il est pourtant flagrant que cet argument favorise l’hypothèse évolutionniste.
Les résonances nucléaires sont en principe déterminées par les lois et constantes fondamentales de la
physique ; d’un point de vue non-évolutionniste cependant, il n’y a apparemment aucune raison de
supposer que les constantes adéquates soient réglées avec une minutie telle qu’elles permettraient une
série intégrale de réactions nucléaires grâce auxquelles tous les éléments requis par les organismes
vivants puissent s’être développés, étape par étape, à partir de l’hydrogène et de l’hélium. Je dis raison «
apparente », parce qu’il est tout à fait concevable que, au fur et à mesure que nos connaissances
s’approfondissent, une explication physique de ce fait puisse voir le jour ; l’histoire de la science fournit
d’innombrables exemples de ce qui apparaissait d’abord comme un état de choses fortuit, mais dont on a
pu rendre compte plus tard en termes scientifiques. On ne paraît cependant pas avoir actuellement
d’explication pour les résonances nucléaires ; on ne dispose que de l’argument anthropique utilisé par
Hoyle, qui présuppose l’hypothèse évolutionniste. Au point où en sont les choses, il y a autant
d’arguments en faveur qu’en défaveur du scénario du Big Bang225, et il est difficile, d’un point de vue
scientifique, d’évaluer l’état présent de la théorie. On peut supposer que, dans le cas de chaque
scientifique, c’est sa tendance philosophique qui fait en fin de compte pencher la balance. On peut même
affirmer que la question ne peut se résoudre sur des bases strictement scientifiques, qu’elle est donc
condamnée à rester philosophique. Ce dont on a besoin, c’est de la distinction ontologique entre le
corporel et le physique, la réalité primaire et secondaire. Quand cette distinction essentielle a été
effectuée, il devient clair que le scénario cosmogénétique tel que l’envisage la théorie du Big Bang est
ontologiquement impossible : une réalité secondaire ne peut produire une réalité primaire ni la précéder,
sauf évidemment dans le sens d’une potentialité préexistante. On voit d’ailleurs que par son modus
operandi même, il est exclu que la physique s’attaque jamais à la question cosmogénétique, et il va de soi
que tout scénario cosmogénétique conçu en termes de physique est ipso facto une illusion.
Il nous reste encore à examiner la signification de la coïncidence anthropique du point de vue non-
évolutionniste auquel nous sommes parvenu. Quelle conséquence peut-on tirer du fait que les constantes
fondamentales de l’univers physique sont réglées de façon à permettre l’existence, non pas exactement de
l’être corporel, mais des structures subcorporelles qui lui sont liées, ce qu’ailleurs j’ai appelé l’objet
physique SX associé à l’objet corporel X ?226 Or le premier point essentiel à souligner est que l’univers
physique permet l’existence du corporel précisément en ce sens qu’il est réellement dérivé du domaine
corporel : en vertu de son statut ontologique, qui le désigne comme secondaire ou dérivé, il est
logiquement impossible que l’univers physique ne permette pas le corporel. Si on brise une poterie, on
découvrira que les tessons peuvent être réassemblés de manière à reconstituer la poterie à la perfection ;
et, évidemment, cet « ajustement minutieux » — qui ne paraît miraculeux qu’aussi longtemps qu’on ignore
la provenance des tessons — n’est le résultat ni du hasard ni d’un dessein. En un mot, l’univers physique
est minutieusement réglé parce que le monde corporel l’exige. On remarquera d’ailleurs que c’est la
méthode de mesure qui détermine les lois et constantes fondamentales de la physique, comme l’a prévu
Eddington, et comme Roy Frieden l’a confirmé par son analyse fondée sur la théorie de l’information227.
Le minutieux réglage de l’univers physique peut alors se voir comme une signature qui atteste sa
provenance corporelle grâce à la mesure.
Mais la question subsiste : comment l’homme, l‘anthropos, entre-t-il dans ce tableau ? Si le principe
anthropique ne concernait que le fait de la primauté corporelle, on pourrait abandonner cette désignation
et parler plutôt de principe corporel. Il nous faut cependant regarder de plus près la méthode de mesure.
Et tout d’abord noter qu’un instrument scientifique est beaucoup plus qu’un simple objet corporel,
puisqu’il est un artefact technique. L’homme a de toute évidence créé quelque chose d’absolument
essentiel. Selon la terminologie actuelle : c’est l’observateur scientifique lui-même qui contribue à
l’information spécifique complexe ou CSI, à quoi la Nature répond dans l’acte de la mesure ; et, comme
Frieden l’a démontré, les lois et constantes de la physique surgissent de cette interaction. Mais non sans
l’intervention d’un autre facteur : le facteur théorique, c’est-à-dire : « Quoi que nous ayons à appréhender,
écrit Eddington, doit l’être de la manière pour laquelle notre équipement intellectuel est conformé »228.
Même ici, à ce niveau supérieur, et expressément « anthropique », se produit un processus de sélection et
de formation qui se révèle essentiel à l’économie de la mesure. Tant que nous utilisons la métaphore
d’Eddington — l’excellente métaphore du filet -, nous devons garder à l’esprit que ce « filet » a deux
composantes égales : corporelle et intellectuelle. On voit que le physicien fonctionne dans la plénitude de
sa nature trichotomique, de la même façon que l’artiste qui travaille extérieurement avec son ciseau ou
son pinceau, et intérieurement « par un verbe conçu dans son intellect », comme dit S. Thomas
d’Aquin229. Ici aussi il s’avère qu’un « verbe » — un élément du logos — entre en jeu nécessairement. Il
faut cependant comprendre que le scientifique n’est pas tout par lui-même, mais « participe » du Logos
premier, « le Verbe qui était au commencement » : réellement, « rien de ce qui a été fait n’a été fait sans
Lui ». Même les réalités secondes ne sauraient « avoir été faites sans Lui » : c’est de cette « participation
» que le scientifique dérive ses prouesses de créativité, sa capacité à amener à l’existence les réalités
secondes. On le voit, lui aussi est un « créateur », un artiste en son genre, et comme tout artiste véritable,
il agit « à l’imitation de la natura naturans », c’est-à-dire de l’Artiste premier qui n’est autre que Dieu.230
Or ce point de vue éclaire plusieurs points. Il explique en particulier ce qu’Einstein appelait « la chose
la plus incompréhensible de l’univers » : le fait que l’univers se révèle compréhensible. L’univers physique
est compréhensible pour le scientifique exactement pour la même raison qu’une œuvre d’art est
compréhensible pour l’artiste ; il se révèle être mathématique parce qu’il a été « fait » par des physiciens
mathématiciens : « Les mathématiques ne sont là que quand on les y a mises », déclarait Eddington231 à
l’étonnement de ses collègues. Comme l’astrophysicien britannique l’a dit il y a longtemps : « Nous avons
découvert une marque de pas dans le sable ; et, oh surprise ! c’est la nôtre ». Nous y sommes enfin : dans
cette reconnaissance décisive gît la signification ultime du principe anthropique, son poids de vérité.
CHAPITRE XII

LA SCIENCE ET LA RESTAURATION DE LA CULTURE


Ma première affirmation ne prêtera guère à controverse : depuis le XVIIIème siècle, la science est, en
Occident, la première détermination de la culture. Son influence peut être directe ou indirecte, et la
réaction peut être de consentement ou d’opposition, mais le fait est là : dans tous les domaines culturels
elle a joué un rôle central comme premier agent du changement. En philosophie ou en théologie, dans les
normes sociales ou politiques, dans l’art, dans la morale ou les pratiques religieuses, le phénomène est le
même. Qu’on le veuille ou non, la science est le facteur décisif, la grande Révélation nouvelle, à laquelle la
société dans son ensemble a réagi de multiples façons. De même que la technologie, rejeton et partenaire
de la science, a radicalement transformé la vie extérieure de la civilisation occidentale, de même la
science même a maintenant la mainmise sur notre vie intérieure : sur nos croyances, valeurs et
aspirations fondamentales. Tout le monde n’est évidemment pas devenu un matérialiste inconditionnel,
mais tout le monde a néanmoins été affecté en profondeur.
Depuis ses débuts, la nouvelle science a prospéré à vue d’œil et s’est imposée dans des milieux toujours
plus larges comme la grande libératrice de l’ignorance et de la superstition. Le Siècle des Lumières nous
a dominés et nous domine encore, dans un sens tout à fait réel. On peut rappeler ici la formule de
Bertrand Russel que j’ai déjà eu l’occasion de citer : « Ce que la science ne peut pas nous dire, l’humanité
ne peut pas le savoir ». La foi exclusive dans la science est le vrai sceau de la modernité.
Cette foi cependant commence à chanceler : nous sommes entrés dans l’ère du postmodernisme. Il ne
s’agit pas simplement du triomphe d’une vision du monde sur une autre, comme cela arrivait autrefois. Le
passage au postmodernisme est beaucoup plus radical que cela, car il nie la validité non seulement de
telle ancienne vision du monde, mais de toute vision du monde. Il réduit la vérité à une convention, à une
construction sociale localisée. Sans doute en partie par réaction à la tyrannie de la Weltanschauung
scientiste, on s’est mis à relativiser toutes les visions du monde. Ce à quoi nous nous trouvons confronté
ici n’est pas simplement une tendance philosophique, mais un phénomène culturel, on peut même dire
une révolution culturelle. Qu’on pense au rejet total des normes traditionnelles, à la méfiance
envahissante vis-à-vis de l’autorité, à la désorientation radicale dont semble particulièrement souffrir la
jeunesse actuelle. Il existe évidemment de remarquables exceptions et des tendances opposées, mais elles
ne compensent pas ces tendances nihilistes. On a d’ailleurs des raisons de penser qu’il y a un réel rapport
entre la philosophie du postmodernisme et les tendances culturelles correspondantes, même s’il n’est pas
possible de l’interpréter comme une simple relation de cause à effet. On peut donc parler de
postmodernisme dans un sens assez large pour y inclure ses manifestations culturelles.
J’aimerais souligner que le postmodernisme n’est pas seulement une réaction au modernisme antérieur,
mais qu’il était déjà implicite dans le modernisme, donc dans la vision scientiste du monde. L’univers tel
que le dépeint la science moderne est inhabitable pour l’humanité, et la Weltanschauung scientiste n’est
supportable que parce que personne n’y croit — je veux dire intégralement, de tout son être : notre
croyance scientiste dans l’univers n’occupe qu’une partie de notre intelligence, celle qui est persuadée
que des méthodes scientifiques rigoureuses en garantissent la validité ; et pourtant nous supposons
encore, dans la vie quotidienne, que l’herbe est verte et que le ciel est bleu, ce que nie le scientisme, pour
ne rien dire du fait que nous considérons que tel homme ou telle femme est davantage qu’un « organisme
chimique ». Nous avons appris à compartimenter nos croyances, à passer en un clin d’œil et sans
sourciller de telle certitude à telle autre, incompatibles entre elles. Cette façon de gérer les croyances a
évidemment besoin d’un apprentissage ; c’est ce que l’instruction moderne a fait pour nous, et la pratique
s’en acquiert dans les écoles et les universités. C’est une pratique assurément étonnante, si on y
réfléchit ; mais d’habitude, on n’y réfléchit pas : nous l’avons si bien intériorisée que nous sommes à peine
conscients de l’appliquer. Comme dans la schizophrénie, nous ne prenons conscience de notre
inconsistance que lorsque nous nous engageons dans une réflexion philosophique authentique ; mais
même alors, il nous arrive rarement de percevoir l’ampleur du dilemme. Il faut apparemment un
Kierkegaard ou un Nietzsche pour en être profondément troublé ; chez la plupart d’entre nous, l’angoisse
est, semble-t-il, plus en puissance qu’en acte.
On le voit, le postmodernisme est latent dans la mentalité scientifique. Osciller entre ces deux visions
contradictoires du monde n’engage à en adopter aucune des deux, n’engage en fait à rien. Lorsqu’elle
persiste, cette façon de faire équivaut à une négation de la vérité.

Puisque la perspective scientiste est humainement insoutenable, nous devons nous demander si la
Weltanschauung en question est essentielle à la science en tant que telle. On le sait, la science moderne a
d’abord été un amalgame de métaphysique cartésienne et d’empirisme baconien, dont les principaux
philosophes ont très rapidement décelé l’absurdité. Cette union n’est en effet pas une vraie synthèse, et
ce qui y importe n’est pas l’ontologie cartésienne, ni son épistémologie, mais bien la méthode de Bacon.
C’est son novum organum 232, son « nouvel instrument pour l’esprit » qui a rendu possible l’entreprise de
la science moderne, dans laquelle « la connaissance humaine et la puissance humaine ne font plus qu’un
», comme il l’a lui-même prédit. La conception cartésienne de la res extensa (de la « pure matière ») a
assurément joué un rôle essentiel dans la motivation et l’orientation de la recherche scientifique.
Cependant, comme paradigme de Kuhn, la notion d’un univers semblable à une horloge est provisoire ;
elle n’est pas essentielle à la science, elle ne lui est qu’un appui transitoire. Ce qui compte finalement est
la méthodologie, le caractère baconien de toute l’entreprise.
Le réductionnisme primaire de la science est donc méthodologique ; il s’applique, non à la réalité elle-
même, mais aux moyens par lesquels nous nous proposons de la saisir et de l’exploiter. Orienté ainsi sur
son objectif de contrôle, le projet de Bacon vise intrinsèquement à calculer, mesurer et quantifier ; rien ne
réalise plus parfaitement ces lignes directrices qu’une physique mathématique. Ce réductionnisme
méthodologique ne présuppose cependant pas une ontologie, ni ne l’entraîne ; il est métaphysiquement
neutre. Mais tandis que la science n’autorise pas de jure un réductionnisme de nature ontologique, elle
l’autorise de facto ; en général, la tendance à nier ce que la science ne peut saisir se révèle irrésistible.
C’est un fait que la science a engendré le scientisme, et la bifurcation est sans aucun doute le premier des
dogmes scientistes. Comme l’a observé Gilbert Durand avec sagesse : « Le dualisme est la grande
structure “schizomorphique” de l’intelligence occidentale. »
Il va sans dire que cette « structure » implique une vision du monde et même une culture. On peut être
d’accord avec Theodore Roszak pour admettre qu’« il n’y a jamais deux cultures ; il n’y en a qu’une —
bien que cette culture unique puisse être schizoïde ». Et telle est bien la triste réalité. Il faut évidemment
ajouter que tous ceux qui vivent dans un tel climat culturel n’y adhèrent pas — mais ceci est une autre
question. Pour le meilleur ou pour le pire, il y a une culture occidentale, de même qu’il y a une vision
occidentale du monde ; et toutes les deux s’appuient sur la science occidentale. Cet appui n’a aucune
légitimité, mais, du point de vue de l’efficacité, cette illégitimité n’a aucun poids.
Si la bifurcation est le premier des dogmes scientistes, il faut préciser qu’il en existe une pléthore
d’autres qui dépendent d’elle. Par exemple le darwinisme : en réponse à ceux qui pensent que c’est une
théorie scientifique prouvée, je les renvoie à la littérature scientifique toujours plus abondante qui prouve
le contraire233. Le darwinisme n’a jamais respecté les critères baconiens de légitimité scientifique.
Cependant, compte tenu de la bifurcation — sans oublier cette idée connexe que l’univers est constitué
d’atomes ou de particules fondamentales se déplaçant sans aucun but, que ce soit au hasard ou selon des
lois déterministes —, compte tenu donc de ce scénario réductionniste, il n’y a fondamentalement aucune
autre façon de concevoir la biogénèse et la spéciation. Et on peut supposer que c’est la raison principale
pour laquelle les scientifiques continuent à s’accrocher à l’une quelconque des formes du darwinisme, en
dépit de son caractère extrêmement improbable. Le darwinisme est donc à ranger dans les dogmes
scientistes. Mais, bien qu’il constitue à l’évidence l’un des principaux exemples de croyance scientiste,
nos manuels sont pleins d’autres principes non moins faux, qui se réclament également du statut de vérité
scientifique. Il suffit que ces principes correspondent à la vision dominante du monde et se prêtent appui
les uns aux autres ; on passe généralement sous silence le fait qu’ils ne sont pas jugés scientifiquement
valables, et peut-être ce fait ne provoquerait-il même pas une trop grande consternation s’il venait à être
connu. Ce n’est que lorsqu’une crise surgit dans un domaine particulier que les scientifiques — quelques-
uns tout au moins — y voient une raison de s’engager dans des recherches de fond ; et même alors, on
peut observer qu’ils parviennent rarement à un discernement clair entre fait scientifique et fiction
scientiste.234

Les hypothèses de nature philosophique, aussi bien que les engagements idéologiques, influencent toute
l’entreprise scientifique, qui n’est pas aussi « scientifique » qu’on a tendance à le croire. Après tout, les
scientifiques sont des hommes, non des robots ni des ordinateurs ; et toute la philosophie postmoderne
des sciences n’a sans doute pas tort. Il y a pourtant, et c’est peut-être surprenant, une science « dure » :
une discipline rigoureuse capable de réelles découvertes. Cette science crée sa propre exactitude, que
personne ne peut infléchir, et dévoile des objets ou des théorèmes qui, comme l’Everest, sont tout
simplement là. Une science dure est quelquefois plus sage que les savants qui se lancent à sa recherche,
et plus sage en un sens que la société qui la commandite. Elle peut, d’un simple décret, abolir une attente
de longue date ou disqualifier tel canon sacré de la foi scientiste ; elle a, dans un sens tout à fait réel, une
vie propre, indépendante des conventions sociales, des préjugés philosophiques, des orientations
idéologiques. À part les compétences techniques et un génie éventuel, elle n’exige qu’une chose de la
communauté scientifique : l’intégrité, c’est-à-dire un certain respect de la vérité. Et on peut heureusement
dire, pour l’honneur de cette communauté, qu’elle s’est généralement montrée digne de cette confiance.
Il faut maintenant souligner qu’il s’est produit quelque chose de considérable et de complètement
inattendu dans le domaine scientifique au cours du XXème siècle : la science s’est enfin mise à discerner
les limites qui lui sont inhérentes, ses bornes indiscutables. Non qu’elle ait le moins du monde désavoué
son exactitude. Ce que la science a désavoué est la notion scientiste que cette exactitude s’applique en
principe à tous les domaines, que la science englobe de jure toute vérité. Elle est d’ailleurs arrivée à la
reconnaissance de sa propre incapacité, non par quelque intuition supra-scientifique, mais par des
moyens strictement scientifiques, des théorèmes, des découvertes aussi incontournables que les
certitudes mathématiques ou les lois fondamentales de la Nature. Je mentionnerai quelques-uns des
exemples principaux de ces « théorèmes limites » du XXème siècle, en passant par toute la gamme qui va
des mathématiques et de la physique à la biologie et à la psychologie cognitive ; et nous verrons plus loin
quelles sont leurs implications culturelles. Pour l’instant, il suffit d’observer que ces remarquables
découvertes viennent à l’appui de mes affirmations « absolutistes » en faveur de ce que j’ai appelé la
science dure.
A titre de premier exemple, je citerai le théorème d’incomplétude établi en 1931 par Kurt Gödel,
mathématicien autrichien alors âgé de vingt-cinq ans, qui constitue incontestablement la découverte la
plus importante du XXème siècle en matière de logique. Le théorème de Gödel disqualifie d’un seul coup
les vieilles espérances des autorités en place, les David Hilbert, Gottlob Frege et Bertrand Russell, qui
pensaient qu’on pourrait découvrir un système formel qui embrasserait l’ensemble des vérités
mathématiques. Ce que le jeune Autrichien a prouvé — et ceci, une fois pour toutes ! — est qu’un système
de logique formelle assez riche pour contenir l’arithmétique ordinaire est nécessairement incomplet; il n’y
a simplement pas de structure formelle qui rassemble toutes les vérités mathématiques. On notera que le
théorème de Gödel a une certaine résonance postmoderne : en restreignant l’éventail d’une simple
théorie, d’un simple système formel, il semble bien ouvrir la porte à une perspective pluraliste qui tolère
d’autres positions. Mais même ainsi, il ne compromet pas les affirmations absolues de la vérité : le
résultat de Gödel est un théorème de logique mathématique, soutenu par une argumentation rigoureuse,
une preuve irréfutable. Il ne relativise en aucune façon la vérité mathématique ; et on peut ajouter que
Gödel, qui est platonicien, est donc aussi éloigné que possible du scepticisme postmoderne.
Mon deuxième exemple concerne la théorie des quanta, et on peut le voir comme impliquant un
théorème limite d’une tout autre sorte. Ce qui vient d’emblée à l’esprit est le principe d’incertitude de
Heisenberg, qui pose des limites à l’exactitude avec laquelle les valeurs des variables dynamiques
conjuguées d’un système quantique (telles que position et impulsion) peuvent être établies et vérifiées. La
conclusion, comme on le pense aujourd’hui, n’est pas une incapacité de la part de l’expérimentateur, mais
le fait que les variables dynamiques d’un système quantique n’ont pas en général de valeur définie. Un
électron, par exemple, peut ne pas avoir de position définie ou d’impulsion spécifique, et il ne peut en tout
cas jamais avoir les deux en même temps. Il s’ensuit que l’incertitude de Heisenberg restreint
l’applicabilité de la physique pré-quantique à un domaine macroscopique dans lequel les effets quantiques
sont négligeables. Et ceci n’est qu’une des manières dont la théorie des quanta peut être considérée
comme impliquant un théorème limite.
En regardant la chose de plus près, on découvre cependant que l’enjeu est plus considérable ; comme
on l’a vu dans les trois premiers chapitres, la mécanique quantique entraîne une distinction ontologique
entre les domaines physique et corporel. Plus précisément, c’est le phénomène de la réduction du paquet
d’ondes qui exige ce qu’on peut appeler la redécouverte du monde corporel, domaine qui est en principe
hors de portée de la physique. On a ici affaire à un théorème limite si radical et si profond que les
physiciens ont été jusqu’ici incapables de s’attaquer à ses implications. Et ce n’est pas tout : la mécanique
quantique entraîne de surcroît, on l’a vu au chapitre IV, un théorème limite qui affirme le caractère limité,
non seulement du domaine physique, mais du continuum espace-temps qui englobe le monde corporel. À
la lumière de l’ontologie traditionnelle, cela revient à une redécouverte du domaine intermédiaire. On ne
peut qu’être d’accord avec Henry Stapp pour reconnaître que c’est réellement « la découverte la plus
profonde de la science », car elle nous emmène, ontologiquement parlant, jusqu’au niveau le plus profond
de la réalité cosmique accessible à la science.
William Dembski nous fournit un autre exemple de théorème limite avec sa théorie récente du dessein
intelligent (design theory), dont il a été question de façon plus détaillée au chapitre X. Dembski prouve
que ni le hasard ni la nécessité, ni leur combinaison, ne couvrent tout l’éventail de la causalité. Il montre
en particulier que ce que nous reconnaissons normalement comme des exemples de finalité (design) ne
peut être assigné à aucun de ces trois modes de causalité. Ces découvertes constituent clairement un
théorème limite de la causalité, qui impose des bornes contraignantes au domaine des phénomènes
susceptibles de s’expliquer sur la base de la causalité naturelle, et donc sur le plan de la science. Il se
trouve d’ailleurs que toute la biosphère, en partant des virus et au-delà, se situe de l’autre côté de cette
ligne de démarcation, ce qui veut dire que l’origine des structures biologiques ne peut être attribuée à des
causes naturelles. Si la théorie des quanta a mis en lumière l’existence de plans ontologiques supérieurs,
le théorème de Dembski démontre que ni l’univers physique ni l’univers corporel (ni les deux ensemble)
ne constituent ce que les scientifiques appellent un système clos.
Le dernier exemple concerne la théorie de la perception visuelle proposée par feu James J. Gibson,
professeur de psychologie à l’Université Cornell, qui a consacré cinquante ans à l’étude de la
perception235. Grâce à de minutieuses recherches empiriques, il a acquis la conviction que les théories
officielles de la perception visuelle sont en fait insoutenables. La notion même que « l’œil envoie, le nerf
transmet, et un mental ou esprit reçoit » doit être radicalement modifiée. La perception doit finalement se
concevoir comme un acte, non du corps, ni du mental, ni même de tous les deux opérant en tandem, mais
du composé corps-mental, conçu holistiquement comme une entité unique. Ce que Gibson appelle système
perceptuel n’est pas une somme de parties, et l’acte perceptuel ne peut être subdivisé de façon binaire en
stimulus et réponse. Quant à la célèbre «image perceptuelle » — qu’on la conçoive comme existant
physiologiquement dans le cerveau ou psychologiquement dans le mental —, il conclut que cette
conception est fausse236. Ce qu’on perçoit, d’après Gibson, n’est pas une image, mais tout simplement
l’environnement extérieur ; en un mot, ce qu’on appelle la théorie écologique de la perception est non-
bifurcationniste. « Cette distinction entre qualités primaires et secondaires n’est en rien nécessaire »,
écrit Gibson, et en fait son approche la « rejette complètement »237. On est surpris de voir ce scientifique
mesuré réussir, grâce à une recherche réaliste solidement étayée sur des découvertes empiriques, à
abattre tout l’édifice cartésien. Il montre que l’approche habituelle de la perception, fondée sur la
neurologie et la théorie de l’information, est insuffisante, et peut au mieux aboutir à des résultats d’une
nature secondaire — une découverte qui peut se définir comme un théorème limite fondamental pour la
psychologie de la connaissance.

La science dure est donc en fin de compte une destruction du mythe scientiste. L’entreprise scientifique
est intrinsèquement autocorrectrice. Prenons comme exemple le phénomène de la réduction du paquet
d’ondes : cette découverte a non seulement été une surprise totale, mais un choc pour la communauté
scientifique. Erwin Schrödinger, l’un des fondateurs de la théorie des quanta, en fut si troublé — il
l’appelait « ce sacré saut » — qu’il regretta amèrement sa trouvaille. On voit, en particulier, que les
théorèmes limites de la mécanique quantique — ou mieux, les découvertes qui sous-tendent ces
théorèmes — se sont imposées à la communauté scientifique avec la force d’une logique inexorable, que
même les pairs d’Einstein ne pouvaient contrecarrer. Il est impossible de concevoir une preuve plus
parlante de l’existence de la « science dure ».
Il faut cependant noter encore ce qui suit : si la science dure est effectivement plus sage que les
scientifiques, elle est aussi plus sage que les philosophes postmodernes qui en contestent la validité. Je ne
nie pas un seul instant que la nouvelle philosophie des sciences ait introduit des idées importantes : par
exemple, que les faits scientifiques peuvent être « chargés de théorie », comme je l’ai déjà relevé, ce qui
est évidemment appréciable. Ce qui m’embarrasse, en revanche, dans la perspective postmoderne, c’est
son relativisme envahissant, qui attaque la vérité de la même façon qu’un acide ronge le métal. Ce n’est
pas vraiment le lieu, ici, de tenter une critique du postmodernisme, mais je noterai cependant qu’il se
peut que, de fait, Frithjof Schuon ait visé juste en observant que « son absurdité initiale, c’est la
prétention implicite d’être seul à sortir, comme par enchantement, d’une relativité déclarée seule possible
» 238. Pendant ce temps, la science continue à évoluer, à développer ses potentialités, et elle a maintenant
atteint des niveaux de découverte qui ébranlent les fondements de la foi scientiste. La science dure a
infirmé les prémisses mêmes qui ont donné naissance tout d’abord aux Lumières modernistes, et deux
siècles plus tard, par réaction, au scepticisme postmoderne.
Que faire alors ? Si les perspectives moderne et postmoderne sont maintenant discréditées ou jugées
insuffisantes, quelle option viable nous reste-t-il ? Comme Alexandre Soljenitsyne l’a déclaré devant un
auditoire incrédule : la seule voie qui nous reste aujourd’hui est « ascendante ». Mais assurément, cette
voie ne s’improvise pas, ne se tire pas de rien : il faut plutôt la redécouvrir, se l’approprier, la recevoir. Le
concept même de « verticalité » est étranger aussi bien au postmodernisme qu’au modernisme. Il nous
vient d’un lointain passé, un passé qu’on nous a enseigné à mépriser comme primitif et superstitieux.
Nous avons oublié, pour la plupart, que la tradition est plus qu’une coutume, une convention, un simple
vestige dont on peut se débarrasser à volonté. Que la tradition peut être vivante et donner la vie, qu’elle
peut même transmettre un élément de révélation — ce qui semble difficile à croire : dans cette époque
darwinienne, nous n’avons pas une très haute opinion de la culture. Ce à quoi je veux en venir est simple :
il est grand temps d’accorder de nouveau une attention sérieuse et respectueuse aux grandes traditions
de l’humanité ; au lieu de devenir postmodernes, rejoignons la plus vaste des communautés humaines.
Il est nécessaire de redécouvrir la cosmologie traditionnelle. La culture et la cosmologie, répétons-le, ne
vont pas l’une sans l’autre ; et ce qui fait défaut à l’Occident moderne - aussi bien à notre culture qu’à
notre cosmologie —, c’est précisément la dimension de verticalité. Au fur et à mesure que notre univers
s’aplatit, s’aplatissent aussi notre conception de l’homme et tous les aspects de notre culture239. Il y a des
compensations, évidemment, à divers niveaux horizontaux, mais elles ne suffisent pas : l’homme n’est pas
né pour cela, il a besoin de la dimension verticale pour être intégralement humain. Il y a bien sûr ceux qui
acceptent cette dernière affirmation, mais qui se demandent si elle a quoi que ce soit à voir avec la
cosmologie. La verticalité se réfère à une dimension intérieure, diront-ils, à quelque chose de spirituel
avec quoi la cosmologie n’a aucun rapport. Mais la question n’est pas aussi simple — pas aussi
cartésienne. L’intérieur et l’extérieur sont profondément liés. Je le répète : notre culture s’aplatit en même
temps que l’univers. Et comme Huston Smith le remarque : « Une vie qui a un sens n’est finalement pas
possible dans un monde qui n’en a pas ».
Nous avons besoin d’une nouvelle cosmologie, d’un cosmos incomparablement plus vaste que l’univers
de l’astrophysique contemporaine. Je ne songe évidemment pas à une extension spatiale : l’univers
physique tel qu’on le conçoit couramment comprend assez d’années-lumière. Je parle plutôt de choses qui
ne peuvent être ni mesurées ni pesées, de choses, en fait, dont on ne peut parler qu’en termes
traditionnels : d’un cosmos intégral avec ses niveaux ontologiques distincts, que l’on peut se représenter
comme autant de plans horizontaux ou de sphères concentriques240. Je parle donc d’une hiérarchie
cosmique, d’un univers avec une dimension supplémentaire de verticalité, ce qui ne renvoie pas à une
direction spatiale, mais à la valeur, au sens, et finalement, à nos origines premières et nos fins dernières.
C’est cette dimension qui transforme le cosmos d’une simple chose en un symbole authentique : en rien
de moins qu’une théophanie ; c’est elle qui nourrit en nous l’artiste, le poète et le mystique — qui, une fois
encore, nous permet d’être intégralement humains. C’est aussi cette dimension qui rend possible
l’existence, l’Être en tant que tel, car on peut affirmer qu’ontologiquement parlant, rien n’existe
uniquement sur un plan horizontal. Rien ne peut se comprendre, se savoir, faire l’objet d’une expérience
sans entrer dans la dimension verticale. Ce n’est pas un désavantage mineur que la verticalité ait été
bannie : le nihilisme postmoderne n’est en rien arbitraire. Il a même une cause profonde. Nietzsche avait
raison : « Nous avons aboli le monde réel. Que nous reste-t-il ? Peut-être le monde des apparences ? Non !
Avec le monde réel nous avons aussi aboli le monde des apparences ». Paroles prophétiques !
Reste à savoir s’il est possible de réhabiliter ce monde réel. Plus précisément : la science dure peut-elle
ratifier une cosmologie traditionnelle à plusieurs niveaux ? On peut affirmer que oui. Mieux, on peut
affirmer que la science d’aujourd’hui non seulement admet une cosmologie hiérarchique, mais exige
même une telle vision du monde ; la seule difficulté est que cette science n’est pas en état de formuler
cette exigence. Comme nous l’avons vu à la lumière de l’ontologie pérenne, la mécanique quantique elle-
même implique trois niveaux ontologiques distincts : physique, corporel et intermédiaire. Selon la théorie
de Dembski, le critère de la présence d’un dessein (design) nous permet de distinguer scientifiquement
entre les niveaux animé et inanimé des êtres corporels, ce qui s’accorde avec la cosmologie traditionnelle.
À cette structure hiérarchique qui comprend maintenant quatre niveaux, la théorie « écologique » de
Gibson ajoute une division puisqu’elle définit la perception comme un acte sui generis, irréductible à la
physiologie. On voit ainsi qu’à sa manière la théorie distingue entre les niveaux végétal et animal au sein
de la biosphère. On retrouve ainsi quatre chaînons de ce qu’Arthur Lovejoy appelle « la grande chaîne de
l’être », avec un cinquième chaînon, celui du domaine physique, appliqué au niveau le plus bas. Il est
évident que, plus on s’élève le long de cette chaîne, plus la saisie scientifique de la réalité se relâche,
comme il fallait s’y attendre, étant donné que nos sciences sont périnoétiques et qu’en s’élevant on se
rapproche du pôle essentiel. Le plus étonnant est que la science moderne a été en mesure de saisir assez
de la réalité supra-physique pour parvenir à ces distinctions ontologiques. Dans cette tâche elle a
cependant atteint ses ultimes possibilités ; après tout, elle repose sur la physique, et donc est adaptée au
seul traitement des aspects quantitatifs de la réalité, qui émanent pour ainsi dire du pôle matériel de
l’existence et ne peuvent s’étendre au-delà du domaine corporel. On ne devrait pas oublier que les
découvertes ontologiques que j’ai énumérées sont le fruit de résultats négatifs, de l’exploration des limites
que la science ne peut franchir. Ces observations constituent ce que j’ai appelé théorèmes limites ; ce sont
des découvertes scientifiques qui ne révèlent leurs implications ontologiques qu’à la lumière des doctrines
traditionnelles. C’est en ce sens que la science contemporaine entraîne une distinction entre les degrés
physique, corporel et intermédiaire, de même qu’une subdivision du corporel correspondant au ternaire
traditionnel « minéral, végétal, animal ».
Pour pouvoir aller au-delà des théorèmes limites, on a besoin de moyens d’une espèce très différente —
mais qui sont, en fait, exactement ce que lesdits théorèmes impliquent. Au-dessus du domaine physique,
l’essence entre en jeu, et c’est ce qu’une science fondée sur l’exploration du seul domaine de la quantité
ne peut comprendre. La seule façon de saisir l’essence est un acte de perception, qu’il soit sensoriel ou
intellectif, et ceci constitue une connaissance authentique : une connaissance reposant sur le fait que le
monde extérieur préexiste en essence dans le microcosme humain. Comme je l’ai noté dans l’Introduction,
nous ne pouvons connaître un niveau donné de la réalité cosmique, ou y « pénétrer », qu’en actualisant en
nous-mêmes l’état correspondant. Et ceci a toujours été le modus operandi de la science traditionnelle,
dont les paramètres quantitatifs ne sont pas le souci premier, mais précisément les essences. On pourrait
d’ailleurs remarquer que la conception d’une science fondée sur la « vision » n’a pas entièrement disparu
de l’Occident contemporain. Goethe s’est fait le champion d’une telle science durant l’âge d’or des
Lumières ; et quoique cette science ait été presque totalement raillée ou ignorée pendant plus d’un siècle,
elle a maintenant été redécouverte, et on y continue recherches et applications dans divers domaines. J’ai
déjà mentionné le nom d’Henry Bortoft, le physicien dont le livre The Wholeness of Nature est une
contribution remarquable à la profondeur et à la portée de cette science longtemps négligée ; de manière
significative, son sous-titre est « la voie goethéenne vers une science de la participation consciente à la
Nature ». Que ce soit à la façon de Goethe ou autrement, je me contenterai d’ajouter que « la
participation consciente à la Nature » constitue le seul moyen de saisir la réalité cosmique dans son
essence ; il faut cependant comprendre que nous « participons consciemment à la Nature » justement en
rentrant en nous-mêmes, dans les profondeurs de notre être propre. Je l’ai déjà dit, la clef du problème de
la connaissance réside dans l’injonction delphique « Connais-toi toi-même » ; mais ici nous parlons
évidemment d’une connaissance essentielle, qui n’a que peu en commun avec la connaissance
périnoétique à laquelle la méthode de Bacon donne accès.
On voit que la science contemporaine, si limitée soit-elle dans ses possibilités de connaissance, admet
néanmoins une cosmologie hiérarchique traditionnelle, et autorise des modes d’approche différents. Une
réhabilitation de la cosmologie, impensable il y a un siècle, est ainsi devenue théoriquement réalisable.
Depuis le siècle des Lumières, l’Occidental a vécu dans un cosmos plat, un univers tronqué, uniquement
composé de particules, persuadé que la science en avait ainsi décidé ; et maintenant on sait - ou on
devrait savoir ! — que nous avons été trompés. C’est le scientisme qui est responsable de l’imposture ; et
cela, nous le savons grâce à la science elle-même.
Ce dont on a besoin aujourd’hui c’est surtout de ce que Seyyed Hossein Nasr nomme un « réveil de la
tradition »241. Nous avons perdu ce qu’il appelle « la dimension sapientielle qui réside au cœur de la
tradition » : « Au XIXème siècle déjà, ce qui pouvait survivre en fait de connaissance d’un caractère
originellement sacré s’était plus ou moins trouvé réduit à de l’occultisme ou à une philosophie purement
théorique coupée de la possibilité d’une réalisation, philosophie du reste incomplète même en tant que
théorie »242.
Or un renouveau de la tradition sapientielle s’est amorcé, et la connaissance qui en résulte a déjà gagné
du terrain dans le cœur et l’esprit de beaucoup ; Nasr l’explique : « Le principe de compensation
cosmique remit la quête du sacré au premier plan à l’époque même dont les hérauts du modernisme
avaient prédit qu’elle serait la phase finale d’éradication du sacré de la culture humaine, cette époque
dont Nietzsche avait annoncé l’aurore il y a un siècle en proclamant la “mort de Dieu” »243.
Dans le chapitre III de son livre, et en s’appuyant sur de nombreuses références, Nasr se fait le
chroniqueur de ce renouveau, chapitre auquel je renvoie le lecteur intéressé. Je note seulement que,
significativement, ce renouveau intervient à un moment où la science moderne elle-même, par la force de
sa propre logique interne, appelle à la restauration de la vision traditionnelle du monde. La boucle semble
avoir été bouclée. Naturellement, cela ne signifie nullement que la civilisation contemporaine est prête à
revenir à l’ancienne sagesse : rien ne pourrait être plus éloigné de la vérité. Il ne fait aucun doute que
l’ordre actuel, qui est en fait un désordre, doit disparaître avant qu’une telle renaissance puisse
réellement se produire ; et nous ne savons vraiment ni quand ni comment cela arrivera. La boucle étant
bouclée, peut-être n’y a-t-il pas seulement succession ou alternance des phases de l’histoire, les yuga et
les kalpa du Védânta, il semble au contraire que leurs extrémités se chevauchent et s’interpénètrent. On
se rappellera les paroles du Christ : « Les temps sont accomplis, et le royaume de Dieu est proche » (Marc
I, 15), prononcées en un temps où l’ancien monde, historiquement parlant, avait encore des millénaires
devant lui244.
On pourrait croire qu’en faisant allusion à l’eschatologie chrétienne, j’embrouille la question ; on peut
pourtant supposer que la renaissance de la tradition sacrée, dans ses modes sapientiaux, a une réelle
signification eschatologique, si difficiles à comprendre que paraissent ces choses. On se contentera de
dire que la signification de ce renouveau, dont notre époque est déjà le témoin, est beaucoup plus vaste
que ce qu’on est normalement disposé à croire, de même qu’une seule étincelle de vérité sacrée l’emporte
sur toutes les choses de ce monde prises ensemble. Les vues auxquelles la science moderne donne
actuellement accès, du moins en principe, grâce à ses théorèmes limites, s’étendent réellement jusqu’aux
portes mêmes du monde à venir.
ANNEXE I

LA SCIENCE MODERNE ET LA CRITIQUE GUÉNONIENNE 245

Rejeter des modes partiels de la connaissance uniquement parce qu’ils sont ce qu’ils sont est une erreur
aussi grave que de prendre la partie pour le tout et pour le tout-englobant.
Gai Eaton

En lisant, plus d’un demi-siècle plus tard, ce qu’écrit René Guénon de la science moderne, on est frappé
non seulement par la profondeur de sa vision, mais aussi, quoiqu’à un degré moindre, par des
insuffisances flagrantes. J’examinerai ici la critique guénonienne en relation avec la physique
contemporaine, particulièrement avec sa discipline fondatrice et sa branche la plus pertinente, la théorie
des quanta.
Je rappellerai d’abord un fait de la plus haute importance : que Guénon a défini l’époque actuelle
comme « le règne de la quantité ». Par là, il n’a pas seulement caractérisé le domaine principal de la
science, mais, ce qui est encore plus considérable, il a aussi interprété son « règne » selon une
compréhension métaphysique traditionnelle de l’histoire. « Cette réduction au quantitatif traduit
rigoureusement les conditions de la phase cyclique à laquelle l’humanité en est arrivée dans les temps
modernes »246. En accord avec les doctrines hindoues, il envisage une descente « qui s’effectue, avec une
vitesse toujours accélérée, du commencement à la fin d’un manvantara », et qui, métaphysiquement
parlant, ne constitue « que l’éloignement graduel du principe, nécessairement inhérent à tout processus
de manifestation ». En termes chrétiens, cela correspond à la Chute, conçue ici comme un processus
toujours en cours. « Dans notre monde, continue-t-il, et en raison des conditions spéciales d’existence
auxquelles il est soumis, le point le plus bas revêt l’aspect de la quantité pure, dépourvue de toute
distinction qualitative ». La naissance de la physique moderne et sa domination progressive dans notre
culture peut alors être perçue — pour la première fois ! — en termes métaphysiques, et par conséquent
du point de vue le plus profond et le plus inclusif.
D’une façon magistrale, Guénon dépeint les multiples manifestations de cette « descente jusqu’au point
le plus bas » est les étapes par lesquelles elle est destinée à passer. Il fait allusion à l’aveuglement total
qui est à la fois une condition et une manifestation de cette descente. « Si nos contemporains, dans leur
ensemble, affirme-t-il, pouvaient voir ce qui les dirige et vers quoi ils tendent réellement, le monde
moderne cesserait aussitôt d’exister comme tel » (p. 10). Il n’est pas étonnant que ce monde, en dépit de
ses protestations d’ouverture aux vues dissidentes de toute espèce, soit en fait entièrement fermé aux
voix de la tradition. « Ces choses ne pourront pas être comprises par la généralité, mais seulement par le
petit nombre de ceux qui seront destinés à préparer, dans une mesure ou dans une autre, les germes du
cycle futur » (ibidem). Selon ce point de vue, l’hégémonie croissante des sciences physiques à la fois
manifeste et institue « le règne de la quantité ».
Il est de la plus haute importance de ne pas oublier que Guénon distingue deux phases principales dans
cette dégénérescence continue, qu’il désigne par les termes de « solidification » et de « dissolution », et il
est intéressant de remarquer qu’il a formulé cette distinction à une époque où la physique, par la
découverte de la mécanique quantique, entrait justement dans la deuxième phase. Bien que Guénon ne
fasse nulle part allusion à cette nouvelle physique, née entre 1925 et 1927, il est évident que la théorie
des quanta amorce la dé-solidification de l’univers physique. Ce développement — qui provoqua dans la
communauté scientifique une surprise totale et un choc majeur — correspond à l’analyse de Guénon, qui
fournit ainsi la clef d’une compréhension métaphysique de la physique quantique, comme j’essaierai de le
montrer.
Je vais cependant m’intéresser tout d’abord à ce qu’on peut considérer comme la faille principale de la
critique guénonienne de la science contemporaine. J’ai longuement expliqué que la chose la plus
indispensable à une évaluation de la science moderne est la distinction entre la « connaissance
scientifique » et la « foi scientiste », donc entre la science proprement dite et le scientisme. Cette
distinction essentielle n’apparaît cependant nulle part chez Guénon, apparemment pour la simple raison
qu’il ne crédite la science contemporaine d’aucune connaissance authentique. Il faut reconnaître que,
dans la pratique, science et scientisme sont perpétuellement liés, de facto inséparables ; il suffit d’avoir
fréquenté les milieux scientifiques pour n’avoir aucune illusion à ce sujet. On peut même soutenir que la
foi scientiste joue un rôle vital dans le processus des découvertes scientifiques, qu’elle constitue un
élément pivot de toute l’entreprise scientifique. On peut néanmoins affirmer que ces deux aspects
complémentaires sont aussi opposés que le jour et la nuit et doivent être distingués avec netteté dans
toute critique pertinente de la science contemporaine. En ce qui concerne en particulier la physique, il
existe un ensemble de découvertes positives qui est indépendant de la croyance scientiste et constitue «
un mode partiel de connaissance », selon l’expression de Gai Eaton. C’est évidemment cette connaissance
qui permet la révolution technologique en cours et donne ainsi à la science, aux yeux du public, son
immense autorité. Le fait que le public, et aussi dans une certaine mesure la communauté scientifique,
confondent cette connaissance avec la croyance scientiste est une autre affaire, sur laquelle je reviendrai.
Pour l’instant, j’insiste seulement sur le fait qu’il y a dans le monde moderne une science dite « dure »,
une science capable de découvertes positives, si limitée que soit sa visée.
Guénon ne semble pourtant jamais admettre qu’il y a des « découvertes positives » dans la science
contemporaine. Il distingue, tout à fait normalement, entre « le domaine de la simple observation des faits
» et la construction d’hypothèses, mais semble regarder celles-ci comme dénuées de toute valeur
cognitive. « On sait d’ailleurs avec quelle rapidité toujours croissante ces hypothèses, à notre époque,
sont abandonnées et remplacées par d’autres, et ces changements continuels suffisent trop évidemment à
montrer leur peu de solidité et l’impossibilité de leur reconnaître une valeur en tant que connaissance
réelle »247. La conclusion de Guénon est cependant loin d’être évidente, et en fait se révèle insoutenable,
tout au moins en physique. Bien sûr, l’histoire de la physique, de Galilée à nos jours, présente toute une
succession d’hypothèses ; cependant, voir dans cette succession une forme d’agression gratuite perpétrée
dans l’obscurité, qui n’obtient aucun résultat durable et ne comporte aucune valeur « en tant que
connaissance réelle », c’est assurément passer à côté de la question. Ce que Guénon semble ignorer c’est
que la physique évolue, et que les hypothèses ne sont pas simplement rejetées, mais généralisées et
complétées à la lumière de nouvelles découvertes. La physique newtonienne, en particulier, n’a pas été
simplement abandonnée comme une théorie erronée, elle demeure en usage constant, et est
rigoureusement impliquée à la fois par la relativité einsteinienne et la mécanique quantique dans la limite
où, respectivement, c tend vers l’infini et h vers zéro. Il est hors de question de se précipiter sur des
conclusions hasardeuses ; il s’agit plutôt ici d’une physique progressivement affinée, plus juste et plus
effective dans ses applications. Il est d’ailleurs manifeste que cette évolution de la physique théorique se
reflète très précisément dans le développement concomitant de la technologie ; il suffit de comparer les
moteurs à vapeur aux avions à réaction et aux vaisseaux spatiaux pour percevoir, par cette simple image,
la croissance réelle des connaissances physiques. On est très franchement stupéfait de la superficialité de
l’analyse de Guénon lorsqu’elle s’attaque à l’aspect positif de la science contemporaine, et donc à la
science contemporaine comme telle ; on ne peut que supposer que le métaphysicien français n’avait pas le
moindre intérêt pour les réussites réelles de l’entreprise empiriométrique et désirait se débarrasser du
sujet aussi rapidement que possible. Il ne demandait évidemment pas mieux que de rejeter entièrement la
science moderne comme un « savoir ignorant », une recherche malavisée et sans aucun aspect positif, qui
n’a rien de valable à offrir à l’humanité : « Le moins qu’on puisse dire, déclare-t-il, est que toute cette
affaire est plutôt futile ». Comme l’a noté Jean Borella à propos des vues de Guénon au sujet de la science
moderne : « Pour lui ce n’est qu’une production parmi d’autres d’un monde qu’il condamne en bloc ».
Le comble est que Guénon nie même l’originalité de cette science méprisée : « Les sciences profanes
dont le monde est si fier ne sont bien réellement que des “résidus dégénérés” des antiques sciences
traditionnelles »248. Pourtant, si forcée que semble être cette affirmation, Guénon vise une vérité
métaphysique essentielle ; en effet, il ajoute : « d’ailleurs la quantité elle-même [...] n’est pour ainsi dire
que le “résidu” d’une existence vidée de tout ce qui constituait son essence ». Comme nous aurons encore
l’occasion de le relever, là se trouve la clef de la compréhension métaphysique de ce qu’est la physique
contemporaine. On remarquera cependant que le caractère « résiduel » de la quantité n’implique en
aucun cas que les sciences concernées exclusivement par les aspects quantitatifs de la réalité soient «
résiduelles » en un sens analogue. Pour justifier que la physique moderne, en particulier, constitue un «
résidu dégénéré » de quelque science traditionnelle, il serait nécessaire d’établir que le modus operandi
de la première dérive d’une source ancienne. Il existe évidemment une relative continuité historique entre
les sciences antiques et modernes ; Galilée et Newton, par exemple, étaient imprégnés de la tradition
aristotélicienne, qui a joué un rôle évident dans le développement de leur pensée. Pourtant, même ainsi, le
fait décisif est qu’ils ont rompu avec la physique d’Aristote et l’ont remplacée par quelque chose de tout à
fait nouveau. Le modus operandi de la physique newtonienne n’est ainsi nullement dérivé d’Aristote, pas
plus qu’il n’est dérivé d’aucune science authentiquement traditionnelle ; ajoutons que s’il en était ainsi,
Guénon n’aurait probablement pas stigmatisé la physique de Newton comme une science profane
dépourvue de toute valeur cognitive.
Il est étrange que Guénon nie l’originalité de l’entreprise scientifique moderne, étant donné son idée
que l’actualisation de possibilités génériques est liée aux phases d’un cycle majeur comme le manvantara.
Selon ce point de vue, il semble que la science moderne constitue précisément la possibilité cognitive qui
est « rigoureusement conforme aux conditions de la phase cyclique à laquelle l’humanité en est arrivée » ;
ce qui veut dire non seulement qu’elle constitue fondamentalement la seule sorte de science qui demeure
ouverte aux « hommes d’aujourd’hui », mais aussi qu’elle représente une « voie de connaissance » qui
n’aurait pu être poursuivie efficacement autrefois. On peut affirmer que la science moderne et sa
technologie constituent le seul domaine dans lequel notre civilisation excelle et montre une maîtrise que
rien n’égale dans le monde ancien. L’objet voulu de la physique contemporaine peut bien être un « résidu
», métaphysiquement parlant, la science elle-même est très loin d’en être un.
L’événement décisif dans l’évolution de la pensée moderne est sans aucun doute le rejet des essences
accompli par Galilée et Descartes, et l’adoption concomitante d’une épistémologie bifurcationniste qui
relègue les qualités perceptibles dans le domaine de la subjectivité. Ces infractions métaphysiques et
épistémologiques n’invalident cependant pas par elles-mêmes le modus operandi d’une science
exclusivement concernée par les aspects quantitatifs de la réalité. D’un point de vue méthodologique,
l’abandon des essences constitue simplement la délimitation qui définit le domaine de la physique, et il n’y
a rien de paradoxal dans le fait que la nouvelle science doive ses immenses possibilités cognitives
justement à cette réduction de sa visée ; ici aussi, sans aucun doute, s’appliquent les mots de Goethe déjà
cités : « In der Beschränkung zeigt sich der Meister ». Remarquons encore, sous ce rapport, que la
logique de la physique contemporaine est positiviste et opérationnelle, comme l’ont reconnu les
philosophies actuelles des sciences, et qu’elle ne repose aucunement sur des prémisses cartésiennes. Et
s’il arrive que les convictions scientistes des physiciens contemporains soient encore affectées par un
cartésianisme résiduel — ce dont on ne saurait douter —, cela n’invalide en rien les découvertes positives
de la physique. Cette connaissance scientifique peut être « obscure » et centrifuge, elle peut conduire à la
dissolution finale, selon le point de vue de Guénon, mais elle constitue tout au moins un mode de
connaissance authentique, même s’il demeure partiel.
Assurément, l’échec de Guénon à distinguer science et scientisme n’invalide pas le moins du monde sa
perception de la foi scientiste — de « la mythologie scientifique » comme il l’appelle — comme facteur
dominant de ce qui dirige l’humanité contemporaine dans sa descente à travers les phases de
solidification et de dissolution jusqu’à la fin de son cycle. Il amorce son analyse en faisant remarquer que
« le grand public » est enclin à accepter aveuglément « ces théories illusoires » comme de véritables
dogmes « par cela seul qu’elles s’intitulent scientifiques », et il note que le terme de « dogme » est
réellement approprié, « car, pour l’esprit anti-traditionnel moderne, il s’agit bien là de quelque chose qui
doit s’opposer et se substituer aux dogmes religieux »249. Ce qui suit dans Le Règne de la Quantité est
une analyse élaborée du monde moderne et même postmoderne qui a rarement été égalée, si elle l’a
jamais été, à la fois en profondeur et en ampleur250. L’argumentation se déroule en une séquence sans
faille, avec une précision mathématique qui est la signature littéraire de Guénon ; mais ceci nous entraîne
au-delà de notre but. Nous tenterons dans ce qui suit d’examiner en particulier la théorie des quanta du
point de vue traditionnel de la métaphysique, d’accord en cela avec Guénon lui-même.

Des millénaires avant l’apparition de la science moderne, la connaissance humaine a amorcé sa


descente. Tout ce qui est historiquement conservé correspond déjà à un stade avancé de ce que S. Paul
appelle « l’obscurcissement du cœur », lequel est, métaphysiquement parlant, un obscurcissement de
l’intellect. Il est cependant nécessaire de comprendre que, dans cette descente, la naissance de la
physique marque une discontinuité, le début d’une nouvelle phase. Avant elle, toute la connaissance
humaine, en dépit de cette dégénérescence, était encore dirigée vers l’essence. Même l’acte le plus
humble de perception sensorielle cognitive — qu’on l’ait compris ou non — implique une saisie
intellectuelle des essences. Cette saisie s’est graduellement obscurcie ; cependant, même ainsi, la
perception cognitive dépend, aujourd’hui comme hier, d’un discernement de l’essence : c’est précisément
ce qui fait de la perception un acte cognitif. Toutefois, avec l’avènement de la physique moderne, le
tableau a changé : pour la première fois, l’homme pouvait diriger son regard vers le bas, loin du pôle de
l’Essence, vers la materia secunda qui limite notre monde par en bas. Pour cela, il fallait une nouvelle
méthodologie, une toute nouvelle manière de connaître, en fait élaborée par les pionniers de l’entreprise
empiriométrique. En une rapide succession, Galilée, Descartes et Newton accomplirent les premiers pas
décisifs ; suivirent deux siècles d’intense activité, dont témoignent, entre autres, la découverte des
champs électromagnétiques et la relativité einsteinienne — et, vers 1925, la nouvelle physique trouva son
accomplissement avec la formulation de la théorie des quanta : l’essence était enfin totalement exclue de
l’univers dit physique qui, en conséquence — à la surprise et au désappointement de la communauté
scientifique —, se dé-solidifia instantanément. Comme Eddington le fit observer : « Le concept de
substance a disparu de la physique fondamentale »251. Après plus de deux siècles d’efforts, la science
empiriométrique était enfin parvenue au « “résidu” d’une existence dénuée de tout ce qui constituait son
essence », selon l’expression de Guénon.
On est évidemment confronté ici à une nouvelle manière de connaître qui est étrange. On connaît la
masse de l’électron, sa charge et son moment magnétique ; on sait avec précision comment il réagit aux
champs électromagnétiques, et on sait comment produire un faisceau d’électrons et créer ainsi des
images sur un écran fluorescent. Quand, cependant, on nous demande « qu’est-ce qu’un électron ? », nous
n’en avons pas la moindre idée. Et il ne saurait en être autrement : s’il est vrai que l’objet en question est
« dénué d’essence », alors il n’a, à strictement parler, aucune quiddité, aucun Sosein. De façon assez
surprenante, les fondateurs de la théorie des quanta ont très tôt reconnu cette situation curieuse.
Heisenberg, pour sa part, a fait observer que ce qu’on nomme les particules quantiques constitue ce qu’il
a appelé « une étrange espèce d’entité physique qui tient le milieu entre la possibilité et la réalité », et il a
brillamment suggéré que les fonctions ondulatoires associées constituent « une version quantitative de
l’ancien concept de potentia de la philosophie d’Aristote »252. Schrödinger nous informe de son côté que «
nous avons été contraints de rejeter l’idée qu’une telle particule puisse être une entité individuelle qui
conserverait en principe pour toujours son “identité”. Tout au contraire, nous sommes maintenant dans
l’obligation de soutenir que les composantes fondamentales de la matière n’ont aucune identité ». S’étant
évidemment aperçu de l’énormité de ce qu’il venait de dire, il continue et confirme : « Je me permets
d’insister sur cela, que je vous supplie de croire : il ne s’agit pas pour nous de pouvoir établir cette
identité dans certains exemples et de ne pas pouvoir le faire dans d’autres. Il n’y a réellement aucun
doute que la question de l’“identité” n’a vraiment aucun sens »253. Elle peut n’avoir aucun sens,
ajouterons-nous, justement parce que ces particules supposées sont dénuées d’essence : c’est l’essence
qui octroie l’unité, la similitude, autrement dit l’identité. En l’absence de ces qualifications
métaphysiques, on ne peut parler de l’être : rien de ce qui est dépourvu d’essence ne peut donc exister.
Comme je l’ai fait remarquer à maintes reprises, l’univers physique conçu comme le domaine quantique
est un domaine « sub-existentiel » qui doit être très nettement distingué du domaine corporel.
On va très certainement objecter que les objets corporels, puisqu’ils sont composés d’atomes, sont en
fait des agrégats de particules quantiques ; et on remarquera que même Heisenberg et Schrödinger,
malgré leurs profondes réflexions sur la nature de ces particules, s’en sont tenus à cette opinion. Alors
que les particules simples sont « sub-existentielles », on croit qu’à partir d’une certaine dimension les
agrégats ne le sont pas ; d’une certaine manière, le nombre même des particules constitutives ou la
dimension de l’agrégat sont supposés octroyer l’être. La distinction ontologique entre les domaines
physique et corporel est par là même niée, ce qui revient à dire que le corporel est réduit au physique,
comme presque tout le monde le croit aujourd’hui.
Or, comme je l’ai déjà montré, la possibilité même d’une physique mathématique se fonde sur le fait que
chaque objet corporel X est associé à un objet physique correspondant SX, qui se réduit finalement à un
agrégat de particules quantiques254. Le point décisif est cependant que X et SX ne sont pas identiques,
qu’ils appartiennent à des plans ontologiques différents, à des domaines intentionnels différents. Et ce qui
les différencie est évidemment l’intrusion de l’essence, de la forme substantielle, sur le plan corporel :
c’est ce qui octroie aux entités corporelles l’unité, l’identité, qualités métaphysiques que SX ne possède
pas. Il faut donc établir une distinction entre les atomes de X et ceux de SX : dans une entité corporelle,
les atomes et les molécules participent dans une certaine mesure de l’essence, de la forme substantielle
qui constitue l’être même de cette entité. Ils deviennent réellement plus que des atomes et des molécules
tels que les conçoit le physicien : ils deviennent des parties d’un tout. Ils n’appartiennent plus alors
exclusivement au domaine de la quantité : dans la mesure où ils participent de l’essence — même en tant
que parties —, ils deviennent plus que de simples quantités, plus que des entités physiques au sens
contemporain. Ainsi, en concevant la constitution moléculaire d’un objet corporel X comme un simple
agrégat de particules quantiques, on perd quelque chose d’essentiel — tout à fait littéralement : on n’a
vraiment plus que le simple résidu d’une existence « dénuée de tout ce qui constituait son essence ».
En règle générale, SX détermine les propriétés quantitatives de X ; et cela est évidemment la raison
pour laquelle il peut y avoir une physique mathématique. Les propriétés physiques et chimiques du sel,
par exemple, peuvent se déduire avec précision de la physique des molécules de NaCl. La possibilité de
déviations existe cependant, et se vérifie sans doute à divers degrés au fur et à mesure que l’on s’élève le
long de la scala naturae ; le fait qu’à l’intérieur d’un objet corporel les atomes qui constituent sa base
matérielle « participent dans une certaine mesure de l’essence » n’est pas sans conséquence, même en un
sens physique. L’hypothèse réductionniste peut avoir eu son utilité heuristique, elle n’en devient pas
moins tôt ou tard contre-productive ; on a quelque raison de croire qu’en médecine et en pharmacologie,
par exemple, une perspective non-réductionniste ouvrirait de nombreuses portes. En clair, ce que l’on
demande, c’est la distinction théorique entre X et SX, que l’on attend depuis longtemps.
Ceci nous amène à un second point essentiel à côté duquel les physiciens sont passés. Il faut remarquer
que la « réceptivité » des particules quantiques vis-vis de l’essence, leur capacité à devenir des parties
authentiques d’un tout, est précisément due à l’élément d’indétermination caractéristique du domaine
quantique. Si ces particules possédaient une identité, elles ne pourraient pas être amalgamées dans une
entité corporelle. Pour que cela puisse avoir lieu, les particules doivent participer de la potentialité au
sens aristotélicien du terme, qualification qui se manifeste aux yeux du physicien comme indétermination
quantique. Ce que tous les physiciens ont considéré comme une anomalie qui frisait le paradoxe, et
qu’Einstein n’a jamais pu se résoudre à accepter, se révèle être une nécessité métaphysique. Des deux
côtés du débat de Copenhague, personne ne semble avoir compris que le rôle des particules quantiques
n’est pas de donner, mais de recevoir l’être. Bien sûr, Heisenberg a pourtant défini ces particules comme
des potentiae ; ce faisant, il pensait toutefois exclusivement à la mesure comme processus susceptible de
les actualiser. Il ne lui est apparemment jamais venu à l’esprit que c’est l’être corporel qui, partout,
actualise les particules quantiques dans les agrégats, c’est-à-dire que c’est X qui actualise SX. C’est là un
fait plein de sens, même d’un point de vue scientifique ; comme je l’ai montré plus haut255, il explique, par
exemple, pourquoi des boules de billard n’ont pas la faculté de bilocation, et pourquoi les chats ne
peuvent être à la fois morts et vivants. Dans une perspective traditionnelle, on peut d’ailleurs voir que le
passage de SX à X constitue également un acte de mesure, quoique évidemment d’une espèce très
différente — point sur lequel je reviendrai dans la dernière partie.
Ces quelques observations peuvent suffire à faire comprendre que la véritable signification de la
physique contemporaine ne peut être saisie que du point de vue supérieur de la métaphysique, donc à la
lumière de la tradition. Là seulement la physique actuelle devient philosophiquement compréhensible ; là
seulement elle cesse d’être «une sorte de chant mystique sur un univers inintelligible », comme le dit
Whitehead.

Étant donné que la physique contemporaine traite en dernier ressort des entités sub-existentielles, il
nous faut examiner, ne serait-ce que brièvement, comment on parvient à ce type de connaissance.
L’humanité a toujours eu les moyens de connaître les réalités supérieures ; il revenait au XXème siècle de
découvrir un moyen de connaître les choses qui n’existent pas. Comment a-t-on accompli un tel prodige ?
Pour comprendre la logique de la physique contemporaine, il nous faut tout d’abord distinguer ses lois
de ce que j’appelle provisoirement les réalités physiques. Il y a beaucoup à dire en faveur de l’idée,
qu’Eddington a été le premier à proposer, que les lois fondamentales de la physique (y compris ses
constantes universelles sans dimensions) peuvent se déduire du modus operandi de la physique, c’est-à-
dire qu’elles se rattachent aux structures mathématiques imposées par le physicien lui-même au moyen
de la mesure. Cette idée a été brillamment confirmée depuis peu, comme je l’ai expliqué plus haut, par le
physicien américain Roy Frieden, qui a déduit ces lois au moyen d’une analyse des instruments adéquats
de mesure fondée sur la théorie de l’information256. Ce que j’ai appelé réalités physiques est au contraire
ce que nous détectons et mesurons réellement grâce à ces instruments. La réalité physique est en un sens
constituée de particules quantiques ; et pourtant ce que nos instruments détectent, ce n’est pas à
strictement parler une particule ou un ensemble de particules, mais une distribution de probabilité
associée. Il faut reconnaître cette bizarrerie : ce que le physicien observe et mesure n’est rien d’autre
qu’une probabilité !
En examinant les choses de plus près, on s’aperçoit que le concept de probabilité se révèle
particulièrement approprié ; comme l’a dit Heisenberg, il constitue en un certain sens « une version
quantitative de l’ancien concept de potentia dans la philosophie d’Aristote ». Après tout, une probabilité
n’est pas une « chose », mais vise « une chose ou un événement » dont elle est la probabilité. Ce serait
donc une erreur de parler d’« existence » à propos d’une probabilité ; mais on ne peut pas non plus dire
qu’une probabilité n’est rien. Elle est donc quelque chose, je l’ai souvent répété à la suite de Heisenberg,
«qui tient exactement le milieu entre la possibilité et la réalité ».
Naturellement, la notion de probabilité ne tire pas son origine du contexte de la mécanique quantique.
Longtemps auparavant, les mathématiciens calculaient les probabilités relatives à des actes aussi banals
que jouer à pile ou face ou distribuer un jeu de cartes. La nouveauté est le concept de probabilité comme
l’une des catégories d’entités physiques, et en fait comme la seule. Et pourtant la conception
mathématique sous-jacente demeure la même : une probabilité n’est qu’une possibilité pondérée. C’est
ici, dans cette qualification, que la quantité entre en jeu ; et elle y entre, non — comme c’est la cas dans la
physique classique —, comme l’un des attributs d’un existant corporel — par exemple la masse ou le
diamètre d’une sphère solide —, mais comme une mesure de vraisemblance. Que de telles mesures
subsistent d’une manière ou d’une autre dans l’univers physique et se propagent par ondes, que, à
rigoureusement parler, elles soient précisément ce qui « existe » dans cet univers — voilà qui est tout à
fait étonnant. Au moment où il ne s’y attendait pas, le physicien a un aperçu de la materia, de la hyle
aristotélicienne, non pas, évidemment, en elle-même - comme « puissance pure » —, mais en tant qu’elle
est partiellement déterminée : non comme une simple possibilité, mais comme une possibilité pondérée,
donc une probabilité. Qu’il le comprenne ou non, le physicien quantique lorgne par le trou de la serrure le
mystère de la cosmogénèse, non pas à la manière douteuse de la théorie du Big Bang, mais
ontologiquement, ici et maintenant. Grâce à la théorie des quanta, il est entré dans un domaine
ontologique « antérieur » à l’union de la matière et de la forme, sur un plan sub-existentiel auquel
l’homme n’a jamais eu accès auparavant.
Comment alors le physicien acquiert-il la connaissance des distributions de la probabilité qui
constituent ce domaine mystérieux ? Fondamentalement il les connaît comme il a toujours connu les
probabilités : soit pas le calcul, soit par l’échantillonnage. Considérons la probabilité d’obtenir, sur cinq
cartes tirées au hasard, trois de la même couleur : on peut calculer cette probabilité, ou on peut distribuer
mille donnes de poker et compter le nombre de fois où se produit l’événement en question. En physique,
le calcul s’effectue au moyen des lois fondamentales et des constantes universelles, tandis que
l’échantillonnage s’effectue par la mesure. Le point sur lequel j’aimerais insister est qu’une distribution
de la probabilité en mécanique quantique peut être échantillonnée, donc « observée », justement parce
que les probabilités en question se rapportent aux objets ou événements du plan corporel. Le fait qu’on
peut approcher ces probabilités par deux vois — la théorie et la mesure — est d’ailleurs ce qui ouvre la
porte à une connaissance positiviste ou opérationnelle, celle qui propulse notre technologie.
L’homme n’est pourtant pas né pour connaître les quantités, mais les essences. Il est incapable de
connaître la quantité en elle-même, indépendamment de la substance ; et si le concept même de
substance a bel et bien été exorcisé de la physique contemporaine, il est nécessaire de le réintroduire
d’une manière ou d’une autre, et, pourrait-on dire, par la petite porte. Il est humainement impossible de
penser in abstracto, sans réifier en quelque manière les « choses » que nous concevons. Or ceci peut se
faire provisoirement sur un plan technique, comme un artifice qui nous permet de « penser l’impensable
» ; c’est ainsi qu’un mathématicien, par exemple, peut penser à des espaces à n dimensions, et à d’autres
abstractions inimaginables. Ce qui le sauve de l’erreur, d’une sorte d’idolâtrie intellectuelle, c’est qu’il
reconnaît que ce qu’il imagine — ce que la scolastique appelle phantasmata — n’est qu’un tremplin, ce
qu’en allemand on appelle eine Eselsbücke, « un pont aux ânes ». En physique théorique, au contraire, on
ne peut guère soutenir cette attitude ; il appartient à la conception même de la physique de rapporter en
fin de compte ses objets intentionnels aux réalités cosmiques, aux choses qui existent. Le physicien peut,
par exemple, saisir l’idée de probabilité sans réification illégitime — mais seulement parce que les
probabilités se rapportent à des choses et des événements réels. Dès qu’il nie la réalité substantielle de
ces choses et de ces événements, il crée un vide intellectuel insoutenable ; il ne peut pas plus supporter
ce vide que vivre sans respirer. Le vide doit impérativement être comblé par une attribution de réalité,
une stipulation d’être : il n’existe pas de Weltanschauung sans imputation de substance. Ce qui laisse au
physicien deux options : ou il attribue la substance aux choses substantielles, et redécouvre par là le
monde corporel, ou il place la substance dans le domaine de la physique, où cette notion ne s’applique
pas. Il n’a pas d’autre choix, et aucune acrobatie mentale ne peut rien y changer.
Étrangement, les physiciens répugnent invariablement à reconnaître la réalité du monde corporel. Pour
quelque obscure raison, ils ne peuvent se résoudre à reconnaître l’existence de la couleur, par exemple
que les pommes peuvent être rouges — ce qui reviendrait à affirmer l’existence du monde corporel. Ils se
condamnent ainsi à une schizophrénie chronique, puisqu’il va sans dire que dans la vie quotidienne tout le
monde croit loyalement aux pommes rouges et à toutes les choses semblables. Le comble est qu’à cause
de cette alternative, le physicien est obligé de passer la notion de substance en contrebande dans un
domaine sub-existentiel, où, selon ses propres règles, la substance n’a aucune place. Depuis plus de
soixante-dix ans, quelques-uns des esprits les plus brillants sont engagés dans cette recherche
philosophique sans issue, et en tirent ce qui est peut-être la littérature la plus fantastique que l’on ait
jamais vue. On peut aujourd’hui choisir entre diverses variétés de théories sur la pluralité des mondes, ou,
si l’on préfère, trouver rassurante l’idée que « les observateurs sont indispensables à l’existence de
l’Univers », comme l’affirme le principe anthropique participatif257. Le spectateur neutre ne peut que se
demander ce qui peut bien conduire des êtres intelligents à s’engager dans cette étrange entreprise, dans
— peut-on oser le dire ? — cette folie. Il n’est pas facile de répondre à cette question. Nous sommes ici
confrontés, non à un phénomène marginal — le comportement d’amateurs ou de fous —, mais au
développement de tendances et d’idées propres à la physique. Comme je l’ai montré précédemment258, il
s’agit pour la physique contemporaine de chercher à se transformer en une hyperphysique, une sorte de
métaphysique ou de théologie mathématique, pourrait-on presque dire.
Le phénomène ne peut fondamentalement se comprendre qu’à partir de Guénon. Nous assistons en
effet, tout au moins dans sa phase initiale, à l’autodestruction de la physique mathématique, à l’inévitable
reductio ad absurdum d’une science qui n’a de goût que pour « la quantité elle-même ». Il semble que,
vers la fin, le physicien — le théoricien, à l’opposé du praticien — est poussé à s’engager dans l’édification
d’univers formels comme par une tentative prométhéenne de compréhension totale de l’univers. La
tendance même qui l’a conduit à créer une physique authentique est finalement un aiguillon pour la
dépasser et ainsi dissoudre la physique dans une hyperphysique nébuleuse qui a perdu tout contact avec
la réalité physique. En ce sens, il se peut que Guénon ait raison lorsqu’il évalue avec pessimisme la
substitution des hypothèses les unes aux autres ; le point essentiel est cependant que la construction
d’une hyperphysique constitue une phase nouvelle dans l’évolution de la physique, c’est-à-dire la phase de
déclin, la phase terminale. Finalement, rien de ce qui n’est pas centré sur l’Essence, et donc en dernière
analyse sur Dieu, ne peut éviter la dissolution, échapper à une disparition finale dans le néant. Ici aussi
semblent s’appliquer les paroles du Christ : « Qui n’est pas avec Moi est contre Moi ». La fuite loin de
l’Essence ne peut mener qu’aux « ténèbres extérieures ».
L’analyse précédente a mis en lumière la cause immédiate de l’illusion scientiste. Pourquoi une foi
scientiste obscure accompagne-t-elle en pratique les plus profondes intuitions scientifiques ? N’est-ce pas
précisément pour cette raison que le physicien ne peut pas arriver à admettre que les pommes sont
rouges ? Dans les deux cas, la cause immédiate est le rejet de l’Essence, donc la désessentialisation du
monde : du monde corporel, évidemment, le seul dont nous puissions réellement faire l’expérience, le seul
que nous puissions connaître « existentiellement ». C’est à cause de cette désessentialisation que le
physicien ne peut s’empêcher de succomber à l’illusion scientiste. Une fois accompli l’acte de
désessentialisation — lorsque « Dieu est mort », comme dit Nietzsche —, le pas suivant devient
inévitable : ce qui a été vidé de son essence doit être essentialisé bon gré mal gré : un faux dieu, si l’on
veut, sera installé à la place du vrai. Le scientisme se révèle finalement comme l’idolâtrie d’une
civilisation postchrétienne.
La science, en revanche, est quelque chose de tout différent : aussi différent que la méthodologie l’est
de la métaphysique. Tandis que la désessentialisation est l’erreur fondamentale qui engendre le
scientisme, méthodologiquement elle constitue, je l’ai déjà dit, la délimitation qui rend possible une
nouvelle voie de connaissance, où les symboles mathématiques remplacent les essences et où notre
regard est détourné du monde extérieur vers un domaine formel de chiffres dont le sens se définit en
termes opérationnels. Comme Bacon l’a prédit, c’est une véritable connaissance grâce à un novum
organum, sorte d’outil pour l’esprit où la vérité et l’utilité deviennent réellement identiques. Telle est la
nature de l’entreprise scientifique qui transforme actuellement notre civilisation ; et quoi qu’on puisse
dire d’autre sur la science empiriométrique, le fait demeure qu’elle fournit le seul et unique accès
méthodologique à la vérité encore viable dans un monde désessentialisé.
Cependant, outre sa fonction de pourvoyeuse de la vérité positiviste, la science moderne comprend une
herméneutique qui échappe aux baconiens. Cette vérité est pourtant quelque chose de plus que l’utilité.
Même si elle est mesurable, pour ainsi dire, en termes de prévision et de contrôle, elle ne se définit pas
par là. Si « les paroles dérivent leur sens de la Parole », comme le dit Maître Eckhart, les vérités ne
dérivent-elles pas également leur véracité de la Vérité ? La réduction baconienne de la vérité à l’utilité
correspond épistémologiquement à la désessentialisation du monde : ici aussi, dans le domaine de la
connaissance, l’essentiel a été rejeté. En fait, pourtant, il ne peut l’être : ce qui resterait ne serait rien du
tout.
Il doit par conséquent y avoir un autre aspect de la physique contemporaine, aspect que seul le
métaphysicien peut percevoir. Si c’est son rôle de fulminer contre une mythologie fallacieuse promulguée
au nom d’une science positiviste, il doit encore davantage découvrir la signification métaphysique des
découvertes réelles de cette science ; comme Seyyed Hossein Nasr l’a clairement montré dans ses
conférences Gifford, l’échec à intégrer la science dans les ordres supérieurs de la connaissance est lourd
de tragiques conséquences pour l’humanité259. Comment peut-on l’éviter ?
Nous avons déjà donné une réponse partielle à cette question à propos de la théorie des quanta. Le
premier pas, décisif, consiste obligatoirement dans la distinction ontologique entre les domaines physique
et corporel. C’est cette distinction métaphysique qui situe l’univers physique proprement dit sur le plan
subcorporel, et intègre ainsi l’objet de la physique contemporaine dans la hiérarchie ontologique
traditionnelle. Cette mise en perspective nous permet de comprendre quel est, en fait, l’objet de la théorie
des quanta, et donc de la physique contemporaine en général. Elle nous permet d’interpréter
ontologiquement, comme nous l’avons vu, le phénomène de l’indétermination quantique, et de
comprendre ainsi la nature et la fonction des particules quantiques d’un point de vue métaphysique.
Lorsque Richard Feynman remarquait que « personne ne comprend la théorie des quanta », c’était
presque exact : on ne peut pas la comprendre philosophiquement sans distinguer entre eux les plans
physique et corporel.
Revenons une dernière fois sur le phénomène de la réduction du paquet d’ondes, qui a provoqué la
perplexité des physiciens depuis la Conférence Solvay de 1927. Tant que le corporel est réduit au
physique et que les deux se confondent, ce phénomène de mécanique quantique reste réellement
inexplicable. La controverse porte sur le fait que de l’interaction d’un système physique avec un
instrument de mesure résulte une détermination — une réduction de l’indétermination — pour laquelle il
n’existe pas d’explication physique. Dès qu’on a compris que l’instrument est nécessairement corporel, il
devient clair que cette détermination constitue un acte de l’essence, et donc de la forme. La nature même
de l’essence, de la forme au sens aristotélicien, est d’imposer des limites : et c’est pourquoi la
manifestation, l’union de la matière et de la forme, a été traditionnellement conçue comme un acte de
mesure. Ce qu’Ananda Coomaraswamy explique ainsi : « Le concept platonicien et néo-platonicien de
“mesure” concorde avec le concept indien : le “non-mesuré” est ce qui n’a pas encore été défini ; le
“mesuré” est le contenu défini ou fini du “cosmos”, c’est-à-dire de l’univers “ordonné” ; le “non-
mesurable” est l’infini, qui est la source à la fois de l’indéfini et du fini, et qui demeure inaffecté par la
définition de ce qui est définissable »260.
Or ce qui mesure n’est pas le non-mesuré, mais la formé, qui est justement un acte. Il est donc
parfaitement normal que le physicien soit perplexe : l’acte de détermination qui constitue la réduction du
paquet d’ondes ne peut pas s’expliquer selon le plan physique, qui est dépourvu d’essence, de forme
substantielle. Cette réduction révèle donc une cause non-physique, un principe qui entre en jeu sur le plan
corporel261. Qu’il le sache ou non, le physicien a détecté l’acte cosmogénétique grâce à la réduction du
paquet d’ondes. Ayant pénétré sous la terra firma de notre monde, jusqu’aux « eaux » d’en bas, qui
demeurent même après que l’Esprit de Dieu a soufflé sur elles, et ayant saisi, en termes probabilistes
quelque chose du chaos primordial, du tohu-wa-bohu du monde infra-existentiel, il est rentré dans le plan
corporel par l’acte de mesure et a ainsi été témoin du mariage alchimique de la matière et de la forme. Or
cette reconnaissance de ce qu’est la physique quantique constitue un pas dans cette intégration de la
science moderne dans les ordres supérieurs de la connaissance, intégration à laquelle Nasr fait allusion
comme à un desideratum de première importance.
Mentionnons encore qu’outre la réduction du paquet d’ondes, la physique quantique nous a offert une
seconde absurdité apparente : le phénomène de non-localité. L’univers quantique est plus soudé que les
critères du continuum espace-temps einsteinien ne l’autorisent, ce qui implique que le cosmos dans son
intégralité ne s’accorde pas réellement aux limites dudit continuum. Comme je l’ai souligné262, le
théorème de Bell est une découverte qui revient à une reconnaissance du domaine intermédiaire ou astral
— le bhuvar du tribhuvana védique —, qui a non seulement été exclu de l’horizon de la science moderne,
mais même, depuis longtemps, de celui de la cosmologie occidentale. La mécanique quantique nous
emmène curieusement non seulement vers le bas, au-dessous de la terra firma du monde corporel, mais
aussi dans la direction opposée : vers le haut, au-delà de l’ordre spatio-temporel, sur le plan astral.
Rappelons que le physicien Henry Stapp pourrait bien avoir raison lorsqu’il définit la non-localité comme
« la plus profonde découverte de la science » : d’un point de vue ontologique, c’est la plus profonde par
ses implications directes. On peut supposer que S. Thomas aurait été fasciné par cette découverte, et
aurait à tout le moins composé un opusculum pour en expliquer la portée ontologique.
Je ne voudrais toutefois pas donner l’impression que l’importance métaphysique de la physique
contemporaine se limite au domaine des quanta. Évidemment, il est particulièrement riche en implications
métaphysiques ; on n’oubliera pas pour autant que les possibilités d’interprétation métaphysique sont
illimitées et doivent en principe se manifester partout où se trouve la vérité. On peut néanmoins admettre
que la physique moderne ne s’y prête pas immédiatement ; dans la pratique, son rapport à la
métaphysique reste en général obscur et ne se discerne qu’en des lieux particuliers, qu’il s’agit
d’identifier. En règle générale, il faut considérer l’univers physique à ses lisières, si l’on peut dire, si l’on
veut entrevoir la vérité métaphysique. Et c’est pourquoi le monde des quanta se trouve si bien convenir à
cet égard : le fait que la théorie des quanta soit de la physique fondamentale implique que l’univers
quantique comme tel constitue un domaine limite. Il n’est pourtant pas le seul ; le champ
électromagnétique classique, en vertu d’une certaine immatérialité, en est un autre, ce que corrobore le
fait que les ondes électromagnétiques — la lumière physique — possèdent des propriétés remarquables,
parmi lesquelles l’invariance, la constance et la « maximalité » de leur vitesse. Il n’est donc pas
déraisonnable de supposer que la physique de la lumière se prête également, et même éminemment, à
une interprétation métaphysique ; et c’est effectivement le cas263. Il peut donc être approprié de conclure
ces quelques réflexions en indiquant brièvement quel est ici l’enjeu.
Mathématiquement parlant, le fait décisif à propos du champ électromagnétique est ce qu’on appelle
l’invariance de Lorentz, qui entraîne deux conséquences particulièrement inexplicables : les phénomènes
jumeaux des contractions spatiale et temporelle de Lorentz, qui entrent en jeu quand un objet matériel —
par exemple une tige à mesurer ou une horloge — atteint une vitesse proche de celle de la lumière. Selon
la théorie de la relativité, ce qui se passe dans le cas de la tige à mesurer est que sa longueur tend vers
zéro quand sa vitesse longitudinale approche de c, tandis que, dans le cas de l’horloge, la durée qu’elle
mesure tend également vers zéro : que signifient ces découvertes ? Il s’est avéré fécond d’approcher cette
question par le biais de la théosophie allemande, c’est-à-dire par les enseignements de Jakob Boehme et
de son école. À la lumière de cette doctrine métaphysique, on peut conclure que les contractions spatiales
et temporelles de Lorentz se rapportent réellement aux aspects correspondants du monde céleste,
respectivement à la himmlische Leiblichkeit (« corporéité céleste ») et à l’aéviternité. Pour entrevoir cette
relation, considérons le fait que, « à la vitesse de la lumière » — et donc, en un sens exactement
mathématique, à la frontière du monde spatio-temporel —, l’extension et la durée se contractent jusqu’à
un certain point, sans pourtant y perdre leur différence — comme si l’espace et le temps s’étaient d’une
certaine manière intériorisés. Spatialement, cela rappelle l’expression employée par la théosophie
allemande d’« extension intensive », concept qui, comme le montre Borella dans sa préface au présent
ouvrage, p. 9, revient à l’extensio interna d’après laquelle Suarez et d’autres théologiens ont conçu la
présence corporelle du Christ dans l’Eucharistie. D’un point de vue quelque peu différent, la contraction
spatiale de Lorentz se réfère au renversement dont parle Dante lors du franchissement du seuil de
l’Empyrée, renversement qui suggère que l’extension dans notre monde correspond à la contraction —
mieux, à un centrage ou une « concentration » — dans le monde futur, et donc encore à une extensio
interna. Quant à l’aspect temporel, la contraction de Lorentz exprime la simultanéité universelle que la
métaphysique traditionnelle attribueà « la vie aéviternelle » : le fait que « toute succession coïncide dans
un maintenant éternel » comme dit Nicolas de Cues. Tels sont les aperçus métaphysiques que l’on peut
glaner dans la physique de la lumière ; et remarquons que ce n’est pas ici une question de physique de la
relativité qui empièterait sur les plates-bandes de la métaphysique, mais d’exégèse capable de
transcender le plan de la pensée scientifique. Fondamentalement, ce dont il s’agit ici, c’est
d’exemplarisme, quoique évidemment d’une espèce inhabituelle dans la mesure où l’icône concernée — le
champ électromagnétique — est subcorporelle et dénuée d’essence. Ce que cependant le champ
électromagnétique possède est une structure mathématique ; son essence est, pourrait-on dire,
mathématique. L’exemplarisme dont il est ici question est donc également mathématique.
Il n’est pas sans intérêt de rappeler que Guénon lui-même n’est pas opposé à un exemplarisme de ce
genre ; en particulier dans Les Principes du calcul infinitésimal, il conclut ainsi une longue réflexion sur la
formation d’une intégrale mathématique : « Ces quelques indications montrent que toutes ces choses sont
susceptibles de recevoir, par une transposition analogique appropriée, une portée incomparablement plus
grande que celle qu’elles paraissent avoir en elles-mêmes, puisque, en vertu d’une telle transposition,
l’intégration et les autres opérations du même genre apparaissent véritablement comme un symbole de la
“réalisation” métaphysique elle-même »264.
On peut difficilement concevoir un exemple plus admirable d’exemplarisme mathématique. Il est
d’autant plus surprenant que Guénon ait manifesté si peu d’intérêt pour la physique mathématique et se
soit contenté d’une analyse manifestement superficielle qui échoue à distinguer la physique proprement
dite de la « mythologie scientifique » avec laquelle on la confond communément. D’un autre côté, c’est
seulement grâce à la théorie des quanta que la logique fondamentale de la physique a finalement été mise
en lumière ; mais il apparaît que la conception probabiliste de la connaissance physique était étrangère à
Guénon, dont la perception de la physique moderne semble être restée « classique » jusqu’à la fin. Il lui a
donc manqué les moyens de comprendre la nature de la connaissance physique — comment le physicien
peut comprendre des choses qui n’existent pas vraiment —, et cela l’a prédisposé à conclure qu’en fait le
physicien n’a aucune connaissance réelle.
ANNEXE II

RÉPONSE À WOLFGANG SMITH


Par Seyyed Hossein Nasr,

Le professeur Wolfgang Smith est l’un des très rares scientifiques à avoir consacré sa vie à la recherche
scientifique et à être en même temps enraciné dans la philosophie pérenne. Son essai « Sophia Perennis
et science moderne » 265 est en cela très judicieux et révèle cette vérité essentielle que les principes de la
philosophie pérenne n’ont pas seulement un sens dans les divers domaines des études religieuses, de l’art
traditionnel, de la psychologie, etc. Ils sont aussi de la plus grande importance pour permettre une
réévaluation de la philosophie des sciences modernes et fournir un cadre sérieux à la compréhension de
ces sciences, spécialement de ce qui en constitue le fondement, c’est-à-dire la mécanique quantique.
Smith a précédemment traité ce dernier point dans un livre remarquable, The Quantum Enigma, et la plus
grande partie de ce dont il traite ici est lié aux thèses de cet ouvrage, quoique le présent essai soit une
synthèse exceptionnelle de sa pensée sur la relation entre la philosophie pérenne ou sophia perennis et la
science moderne, et pas seulement un résumé de The Quantum Enigma.
Je suis si profondément en accord avec presque tout ce qu’il a écrit ici que c’est à peine si je parviens à
trouver un point susceptible d’être critiqué. Ma réaction à la plupart des questions abordées se résumera
à de simples confirmations. Il y a néanmoins un certain nombre de points sur lesquels j’aimerais revenir
afin de clarifier davantage mes propres idées. Smith écrit que « la science au sens traditionnel consiste à
“lire l’icône” : voilà qui est loin de la vision de Bacon ! » Voilà surtout une manière fort pertinente de
parler des sciences cosmologiques traditionnelles. Elles montrent un cosmos dont le sens le dépasse et
qu’on peut contempler comme une icône. On peut faire un pas de plus et, en langage chrétien, dire que le
cosmos est une icône et ne peut se comprendre en profondeur que comme une icône, qui révèle une
réalité divine qui la transcende. La cosmologie traditionnelle met en évidence cette réalité iconique et
permet à ceux qui l’ont étudiée et comprise de voir le cosmos comme une icône et de pouvoir le
contempler plutôt que de le connaître seulement de manière discursive. Les sciences modernes, issues de
ce que Smith appelle « la vision baconienne », connaissent aussi la nature mais ne la connaissent plus
comme icône. Elles peuvent nous renseigner sur la taille, le poids, la forme de l’icône, et même sur la
composition des diverses couleurs de la peinture, mais elles ne peuvent rien nous dire sur son sens par
rapport à une réalité transcendante. Ce qu’elles peuvent nous dire n’est pas faux à son niveau, mais elles
n’épuisent pas la connaissance de l’icône, et ce serait à la fois de l’ignorance et de l’hubris que de
prétendre que ce type de connaissance en est la seule connaissance possible. Les conséquences de cette
ignorance, qui parade comme une science totalitaire mâtinée de démesure et qui est rendue d’autant plus
dangereuse qu’on la nie, sont mortelles pour la vie spirituelle. Cette hubris et ce déni ont des
conséquences terribles, même extérieurement, sur la relation de l’homme avec la nature, dont la
signification dernière a été rejetée par la mentalité moderne, résultat des prétentions intransigeantes de
la science selon Bacon.
Smith complète ses considérations sur Bacon en précisant que la meilleure partie de la science
contemporaine n’est pas complètement baconienne, comme le montre le commentaire occasionnel
d’Einstein sur « le Vieux », qui laisse entendre que lui aussi semble avoir cherché des « vestigia d’une
sorte ou d’une autre ». Je sais qu’un certain nombre de scientifiques, actuellement même, comme le
botaniste anglais John Ray, cultivent la science à titre individuel dans le but de découvrir dans la création
les vestigia Dei. Mais ils agissent dans un cadre scientifique tel que ce souci personnel ne peut en rien
influencer leurs travaux. On peut étudier et accepter la théorie de la relativité avec ou sans références au
« Vieux », ce qui veut dire que le but de la science einsteinienne n’est pas la recherche des vestigia Dei ni
la description du cosmos comme icône, quelles qu’aient pu être les vues et l’orientation personnelles
d’Einstein.
La distinction que Smith établit entre ce qui devrait se passer dans l’esprit d’un scientifique moderne,
qui raisonne sur des données fournies par les sens, et la signification de la connaissance selon la sophia
perennis, est d’une importance capitale. L’épistémologie liée à la sophia perennis couvre, comme dit
l’auteur, « un éventail incomparablement plus vaste de possibilités cognitives » puisqu’elle relie tous les
actes de connaissance au fait que l’intellect humain participe à la lumière de l’Intellect divin. Dans
presque toute discussion épistémologique actuelle, scientifique ou non, la question est négligée, ou tout
au moins n’est pas mise en relief, y compris dans les œuvres de beaucoup de penseurs musulmans
contemporains. Cette participation ne se limite pas à des « moments d’illumination », mais comprend
toute connaissance qui relie le sujet humain connaissant à l’objet connu. Smith cite l’Évangile de Jean et
affirme « ce qui relie en dernier ressort le sujet humain à son objet dans l’acte de la connaissance est “la
lumière véritable qui éclaire tout homme venu dans le monde” » (I, 9). Puisque la sophia perennis est
immuable et universelle, il faut ajouter ici que cette thèse est également centrale dans d’autres traditions.
Comme je suis plus familier de la tradition islamique que des autres, je peux m’y référer et préciser qu’il y
a beaucoup de versets du Coran et de hadîth qui concernent le rapport de la connaissance (al-‘ilm) à la
lumière répartie dans une vaste hiérarchie d’origine divine. Selon le Verset de la Lumière (XXIV, 35), Dieu
est la lumière non seulement des cieux mais aussi de la terre. Sur la base de ces sources traditionnelles et
de certains éléments de la philosophie grecque, les philosophes musulmans, depuis al-Fârâbi et Ibn Sînâ
(Avicenne), parlent de l’illumination de l’intellect humain, dans l’acte d’intellection, par l’Intellect agent.
Le symbolisme de la lumière est au centre des enseignements de Suhrawardî, le fondateur de l’École de
l’Illumination (al-ishrâq), et ce que le professeur Smith a écrit sur la participation à la Lumière de
l’Intellect divin est pratiquement identique à ce qu’en dit Suhrawardî, sauf que celui-ci identifie les divers
degrés de cette lumière aux différentes substances angéliques. Je dois encore insister sur l’importance de
cette question pour une étude approfondie — donc sous l’éclairage des enseignements traditionnels — de
l’épistémologie scientifique moderne, et, en ce qui concerne les penseurs musulmans actuels qui traitent
de ce sujet, je tiens à attester à quel point il est crucial de comprendre les affirmations de la philosophie
musulmane traditionnelle avant de s’embarquer dans des comparaisons souvent puériles et en outre
inutiles entre les épistémologies traditionnelles et l’épistémologie scientifique moderne.
Smith souligne très judicieusement la nécessité d’une tradition sapientielle vivante dans laquelle on
cultive les sciences cosmologiques, sans laquelle ces dernières s’étiolent et dépérissent pour « donner
alors naissance à ce qu’on peut appeler à juste titre une superstition ». C’est là une affirmation très juste
au sujet de laquelle il me faut donner quelques précisions. Une superstition est littéralement quelque
chose que l’on a privé de son fondement. Les enseignements métaphysiques de la sophia perennis
constituent justement le fondement sur lequel se sont édifiées les sciences cosmologiques traditionnelles.
Avec la destruction de ce fondement, ces sciences ont donc été réduites à des superstitions, quoiqu’elles
contiennent encore des résidus de vérités que l’on ne comprend plus. De ce point de vue, le phénomène
occidental de l’occultisme est tout à fait intéressant. Dans d’autres civilisations, où les fondations
métaphysiques n’ont pas été détruites, il existe certainement des formes de superstition populaire,
d’ailleurs également très présentes dans le monde moderne, bien que selon d’autres modalités, mais on
n’y rencontre pas le phénomène de l’occultisme tel qu’il s’est développé dans les salons en France et dans
le reste de l’Europe à partir du XVIIIème siècle. Beaucoup de gens d’esprit moderne, particulièrement ceux
qui ont une inclination pour la science, rejettent sans appel comme de simples superstitions les sciences
traditionnelles telles que l’alchimie. Ils ne comprennent pas que ces sciences sont des pierres précieuses
qui brillent lorsqu’elles sont en présence de la lumière d’une tradition sapientielle vivante et deviennent
opaques dès que cette lumière disparaît. En les disqualifiant comme superstitions, l’entreprise
scientifique moderne, paradoxalement, ne s’est pas seulement trouvée sans défense devant l’intérêt
croissant porté à ces sciences traditionnelles, même sous la forme résiduelle qu’ont connue les milieux de
l’occultisme, mais elle a contribué à la multiplication de nouvelles formes de superstition, comme l’idée de
progrès, beaucoup plus dangereuses pour l’avenir de l’humanité que la pratique des prédictions
astrologiques.
Pour en venir à la question de la perception, Smith insiste sur le fait que les ondes lumineuses, les ondes
sonores, la fonction cérébrale, etc., sont évidemment nécessaires et jouent un rôle dans la perception,
mais qu’elles « ne constituent pas — elles ne le peuvent pas ! — un acte de perception » qui « n’est
littéralement pas de ce monde ». Il accuse l’oubli de la « participation », chez l’Européen postmédiéval,
d’être à la source de l’erreur qui consiste à tomber dans le piège de la bifurcation. J’ai repris ces lignes
pour souligner leur importance centrale et mon accord total. Ni la philosophie moderne, ni la psychologie,
ni la science ne sont capables d’expliquer la perception, qu’elles réduisent toujours à l’une de ses
composantes ou à quelque chose d’autre, parce que la participation de l’intellect humain à la Lumière de
l’Intellect divin est tout simplement au-delà de la vision du monde tronquée autour de laquelle tourne
toute la pensée moderne. La redécouverte de la signification réelle de la perception n’est possible qu’à la
lumière de la sophia perennis, et alors elle devient une clef de la découverte de l’univers métaphysique
décrit par la philosophie pérenne dans toute son ampleur et toute sa plénitude. Je suis aussi d’accord avec
Smith que le plus grand obstacle et à l’intégration de la science moderne dans les ordres supérieurs de la
connaissance et à la redécouverte du miracle de la perception est le dualisme cartésien, ou théorie de la
bifurcation.
Je crois que la distinction nette que Smith établit entre les mondes physique et corporel d’une part, et
d’autre part la limitation de la mécanique quantique au monde physique plutôt que corporel, de même
que la relation qu’il pose entre eux, sont des pas déterminants dans la formulation d’une philosophie de la
physique qui soit davantage en accord avec la sophia perennis. Comme Smith, j’aimerais insister sur le
fait que les mondes corporel et physique, tels qu’il les décrit, ne sont pas seulement différents, mais
constituent deux domaines ontologiquement distincts. Il y a entre eux un hiatus ontologique, et on ne peut
pas dire que le niveau physique contient tout simplement les « cubes de construction » du monde
corporel. Toute l’idée des particules fondamentales à partir desquelles on peut construire le monde
corporel, avec toutes ses formes et ses qualités, est par conséquent fausse ; la forme et la qualité relatives
au monde corporel — pour ne rien dire des réalités psychologiques et spirituelles - ne peuvent jamais être
réduites aux éléments quantitatifs du monde physique qui, seuls, peuvent être étudiés par la « méthode
scientifique moderne » et devenir le sujet de la mécanique quantique. Sans les mathématiques, il n’y a
naturellement aucune possibilité d’étudier le monde physique tel que le définit Smith.
Comprendre le statut ontologique des domaines corporel et physique résoudrait aussi le problème du
statut de la physique quantique dans sa relation non seulement au monde de la physique classique, mais
aussi au monde corporel, ou à ce qu’on appelle ordinairement « le monde physique » (contrairement à la
terminologie de Smith), et aux sciences traditionnelles qui traitent de leurs aspects qualitatifs et formels.
Cette prise de conscience ontologique éclairerait aussi le point fondamental que j’ai mentionné dans
nombre de mes ouvrages, c’est-à-dire que la cosmologie traditionnelle n’est pas simplement une tentative
rudimentaire pour comprendre la nature et un stade primitif des sciences quantitatives modernes, mais
qu’elle renferme une profonde connaissance des aspects formels et qualitatifs du monde corporel, qui ne
se réduisent pas à la quantité et ne sont pas non plus d’une moindre importance que la quantité à la
Galilée. Ils se rapportent, au contraire, aux réalités dont le statut ontologique transcende le domaine
quantitatif.
L’analogie que Smith établit entre la materia secunda et le plan euclidien d’où émergent les formes
géométriques et où elles s’actualisent, est également brillante : je ne peux qu’être d’accord avec elle. Il
est tellement important de se rappeler que les objets de la physique moderne ne sont pas, à l’exception de
leur petite taille, semblables à des tables et à des chaises, mais qu’ils sont « construits », c’est-à-dire qu’«
ils se définissent ou se spécifient par une certaine intervention expérimentale ». Et pourtant, quoique les
méthodes expérimentales affectent la forme des lois physiques, le contenu des équations mathématiques
qui renferment les lois ne dérivent pas de ces méthodes. Ici encore, l’analogie entre la materia secunda de
la physique et la géométrie euclidienne se révèle utile, parce que, alors que la manière d’opérer du
géomètre affecte les propriétés géométriques de ses constructions, qu’il dessine un carré ou un cercle, ce
n’est pas le géomètre qui détermine les structures mathématiques des formes géométriques. Elles
appartiennent en dernière analyse au monde intelligible, terme auquel Smith donne à bon droit son sens
platonicien. Toute son analyse s’accorde parfaitement avec mon propre point de vue et ouvre une porte à
ceux qui sont capables de comprendre les principes de la sophia perennis aussi bien que ceux de la
physique moderne, en vue de l’intégration de la mécanique quantique dans la hiérarchie traditionnelle de
la connaissance. Elle invite à intégrer le monde de la mécanique quantique dans la hiérarchie ontologique
de la philosophie pérenne.
A cette fin, il est d’une importance capitale de comprendre que les objets physiques de la mécanique
quantique sont plutôt relationnels et n’ont pas d‘esse. La principale leçon à tirer de cette vérité est que
les attributs essentiels des choses ne viennent pas des objets quantiques, mais d’ailleurs, et plus
précisément d’en haut. Smith nous en offre une splendide métaphore quand il dit que « l’essence d’une
plante provient de sa graine, et non du sol où la graine a été semée ». On pourrait dire que, dans cette
métaphore, la graine fait finalement référence à la réalité archétypale, l’Idée platonicienne, que cette
plante particulière reflète et manifeste au plan corporel. Quand Smith affirme que la physique moderne
ne traite pas de l’essence, qu’elle est inessentielle, sa contribution est pleinement valable, parce que la
compréhension de cette vérité fournit à ceux des réductionnistes qui cherchent le Soleil au fond du puits
une occasion de regarder un peu plus haut afin d’y trouver l’origine des essences que l’on observe et
expérimente dans le monde corporel.
Je donne aussi entièrement raison à Smith quand il affirme que « le pas décisif dans la restitution de la
cosmologia perennis est sans aucun doute possible la redécouverte des “formes” comme principe
ontologique et causal » ; dans plusieurs de mes livres j’ai exprimé la même idée. Il est également tout à
fait vrai que l’oubli, par Bacon et Descartes, du sens des formes, fondé sur l’incompréhension de leur
véritable signification, a ouvert la porte au réductionnisme de la science moderne et à la tentative sans fin
des scientifiques pour expliquer les choses à leur façon, prétendant que le tout n’est rien de plus que la
somme de ses parties. Quand Smith pose au contraire que cet effacement des formes « n’a pas [...]
conduit à la réalisation de la visée réductionniste » et que « la philosophie réductionniste semble avoir fait
son temps comme principe heuristique », il me semble qu’il n’a en vue que quelques scientifiques comme
lui-même, et non l’influence du réductionnisme d’origine scientifique sur le paysage culturel
contemporain. Il suffit de considérer la vision générale courante du monde physique, de la médecine et du
corps, de l’approche des problèmes sociaux, économiques et écologiques, pour voir à quel point la vision
réductionniste est réellement indélogeable. Une philosophie holiste ou intégrale reste cantonnée aux
marges de la vision du monde de l’homme moderne et postmoderne, ce qui découle principalement des
orientations dominantes de la science contemporaine.
En outre, Smith énonce cette affirmation décisive qu’il existe des principes formels non-mathématiques
qui ne sont « rien d’autre que les formes substantielles dont il a déjà été question, qui s’avèrent d’ailleurs
être “essentielles” en un sens ontologique strict ». Et il ajoute que ces formes constituent un ordre
ontologique. Si cette affirmation centrale de Smith, à laquelle j’adhère pleinement, était acceptée
intégralement par la science moderne, une vision scientifique nouvelle émergerait qui cesserait d’être
celle de la modernité et se transformerait en une extension des sciences traditionnelles, comme je l’ai
moi-même proposé. Alors, et seulement alors, on pourrait dire que le réductionnisme a perdu de son
emprise et n’a plus aucune « utilité ». Jusque-là, malheureusement, il continuera à niveler les choses selon
leur plus petit commun dénominateur, à détruire la qualité au nom de la quantité, et à appauvrir la vision
spirituelle et l’esprit de ceux qui se laissent séduire par son chant de sirène.
Le texte de Wolfgang Smith, auquel je n’ai fait qu’ajouter quelques commentaires, est riche et original,
et devrait être étudié soigneusement par tous ceux qui s’intéressent à la réintégration de la science dans
la métaphysique, cœur de la sophia perennis et des sciences cosmologiques traditionnelles qui lui sont
liées. Il serait aussi nécessaire que le lisent tous ceux qui cherchent une nouvelle philosophie de la
science, mais finissent souvent par se contenter d’adaptations superficielles du Taoïsme ou de
l’Hindouisme, qu’ils amalgament alors aux découvertes de la science moderne. Smith nous emmène plus
loin dans cette quête et montre le rôle que la sophia perennis peut jouer dans une compréhension
véritable du sens de la mécanique quantique et dans l’intégration de la connaissance scientifique dans la
hiérarchie universelle de la connaissance.
Depuis quelque quarante ans, j’écris sur la science traditionnelle et ses rapports avec la science
moderne, sur la science islamique, la hiérarchie de la connaissance, de même que sur la métaphysique
traditionnelle et la philosophie pérenne. C’est pour moi une expérience passionnante de voir ici comme
une synthèse de ma propre pensée, avec de nombreuses vues nouvelles, présentées par un scientifique en
pleine activité et également versé dans les doctrines traditionnelles. En écrivant ces lignes, il me semble
que certaines de mes pensées se prolongent en direction de l’horizon nouveau ouvert par Smith. Il n’y a
pratiquement rien dans ce texte important qui puisse entraîner de ma part des critiques destinées à
préciser telle ou telle différence avec ma propre pensée. Au contraire, pour comprendre ma pensée sur
les rapports entre la sophia perennis et la science moderne, il convient de tenir compte de mon plein
accord avec les thèses principales de Smith, qui rendent entièrement justice d’une part aux doctrines
traditionnelles et aux principes de la sophia perennis, et d’autre part aux découvertes de la mécanique
quantique et à toute l’aventure de la physique moderne. Je suis heureux que l’occasion d’écrire dans ce
volume 266 ait permis au professeur Smith de publier cet essai d’une importance exceptionnelle sur les
relations de la philosophie pérenne et de la science moderne, sujet qui me préoccupe depuis le temps où
j’étais étudiant.
REMERCIEMENTS

Les textes publiés dans ce recueil ont été reproduits avec l’aimable autorisation des revues et des éditeurs
suivants :

CHAPITRE I — Réimpression sous une forme abrégée du texte paru dans The Philosophy of Seyyed
Hossein Nasr, sous la direction de Lewis Edwin Hahn, Randall E. Auxier et Lucian W. Stone, Jr. ; La Salle,
IL : Open Court Publishing Company, 2001 ; copyright © 2001 by The Library of Living Philosophers.

CHAPITRE II — Initialement présenté sous la forme d’une Conférence Templeton sur le Christianisme et
les Sciences Naturelles à l’Université Gonzaga en février 1998, puis une seconde fois devant l’Institut
Thomiste à l’Université Notre Dame ; réimpression avec de légères modifications du texte paru dans The
Thomist 63, 1999.

CHAPITRE III — Réimpression, sous une forme révisée, de l’article paru dans Sophia, Vol. 6, N° 2,
Foundation for Traditional Studies, Oakton, VA, 2000.

CHAPITRE IV — Reproduction de l’article paru dans Sophia, Vol. 3, N°1, 1997.

CHAPITRE V — Texte augmenté, repris de Sophia, Vol. 5, N° 1, 1999.

CHAPITRE VI — Reproduction de l’article paru dans Sophia, Vol. 6, N° 1, 2000.

CHAPITRE VII - Version révisée du texte paru dans Sophia, Vol. 7, N°2, 2001.

CHAPITRE VIII — Reproduction de l’article publié dans Sacred Web, Vol. 9, 2002.

CHAPITRE IX — Reproduction du texte paru dans Sophia, Vol. 8, N° 1, 2002.

CHAPITRE X - Réimpression de l’article publié dans Sacred Web, Vol. 10, 2002.

CHAPITRE III — Version révisée du texte paru dans Modern Age, Vol. 43, N° 1, 2001.

APPENDICE I — Reproduction de l’article publié dans Sophia, Vol. 9, N° 2, hiver 2003-2004.

APPENDICE II — Réimpression du texte paru dans The Philosophy of Seyyed Hossein Nasr, sous la
direction de Lewis E. Hahn, Randall E. Auxier et Lucian W. Stone, Jr.
INDEX

AIRY, George Biddel


ALBERT LE GRAND, S.
AL-FÂRÂBI ET IBN SÎNÂ Voir Avicenne
ALFVÉN, Hannes
ARISTOTE
ARP, Halton
AUGUSTIN, S.
AVICEBRON
AVICENNE

BAADER, Franz von


BACON, Francis
BARROW, John D.
BECKER, Carl
BEHE, Michael
BELL, John Stewart
BELLARMIN, cardinal
BÉNOT, Michel
BERKELEY, évêque
BERTHAULT, Guy
BOÈCE
BOEHME, Jacob
BOHM, David
BOHR, Niels
BOLTZMANN, Ludwig
BONAVENTURE, S.
BONDI, Hermann
BORELLA, Jean
BORTOFT, Henri
BOSCOVICH, Ruggiero
BOUW, Gerardus
BRADLEY, James
BRAHÉ, Tycho
BRILLOUIN, Léon
BUFFON, G.L.L.
BULTMANN, Rudolf
BURCKHARDT, Titus
BURTT, Edwin A.

CARTER, Brandon
CHRIST
CLÉMENT VII, pape
COOMARASWAMY, Ananda
COPERNIC
CORBIN, Henry
CUES, Nicolas de

DAMPIER, W. C.
DANTE
DARWIN, Charles
DAVIS, Paul
DAWKINS, Richard
DEGHAYE, Pierre
DEMBSKI, William
DÉMOCRITE
DENTON, Michael
DENYS l’Aréopagite, S.
DENZINGER, Henry
DESCARTES, René
DICKE, Robert
DINGLE, Herbert
DIRAC, Paul A.
DONNE, John
DURAND, Gilbert
DYSON, Freeman

EATON, Gai
ECKHART, Maître
EDDINGTON, Arthur
EINSTEIN, Albert
ÉLIE, prophète
ELLIS, George
ÉNOCH
EUCLIDE
EVERETT, Hugh

FAIVRE, Antoine
FERM, Vergilius
FEYNMAN, Richard
FICIN, Marsile
FISHER, Ronald
FREGE, Gottlob
FRIEDEN, Roy
FRIEDEN, Roy

GALILÉE
GAMOV, George
GELLER, Margaret
GENTRY, Robert V.
GIBSON, James J.
GILSON, Étienne
GÖDEL, Kurt
GOETHE
GOLDSCHMIDT, Richard
GOULD, Stephen Jay
GRÉGOIRE le Sinaïte, S.
GUÉNON, René

HAMBERGER, Julius
HARTMANN, Nicolai
HAWKING, Stephen
HEIDEGGER, Martin
HEISENBERG, Werner
HENDERSON, Lawrence
HERBERT, Jean
HERBERT, Nick
HERMÈS Trismégiste
HILBERT, David
HIPPARQUE
HOYLE, Fred
HUBBLE, Edwin
HUCIIRA, John
HUMPHREYS, Russell
HUSSERL, Edmund

ISAÏE

JASPERS, Karl
JASTROW, Robert
JEAN CHRYSOSTOME, S.
JEAN DE KRONSTADT, S.
JEAN PAUL II, pape
JEAN, S.
JOHNSON, Phillip E.
JOLY, John
JONES, R.K.
JUNG, Carl Gustav

KAMP, Walter van der


KEPLER, Johannes
KIERKEGAARD, Sören
KUHN, Thomas

LAPLACE, Pierre Simon de


LEMAÎTRE, Georges
LOBACHEVSKI, N. I.
LORENTZ, H. A.
LOVEJOY, Arthur
LUC, S.
LUTTER, Martin
LYELL, Charles

MACAIRE le Grand, S.
MARITAIN, Jacques
MARTENSEN, H.L.
MATTHIEU, S.
MICHELSON, A. A.
MILTON, Richard
MORRIS, H.M.

NAPOLÉON
NARLIKAR, Jayant
NASR, Seyyed Hossein
NEEDLEMAN, Jacob
NEUMANN, John von
NEWTON, Isaac
NICOLESCU, Basarab
NIETZSCHE, Friedrich

OETINGER, Friedrich Christoph


ORIGÈNE

PALEY, William
PANTIN, Charles
PARACELSE
PAUL, S.
PEEBLES, P. J. E.
PENROSE, Roger
PENZIAS, Amo
PHILOLAOS
PIE VII, pape
PIETSCH, Roland
PLANCK, Max
PLATON
PLÉTHON, Gémiste
POE, Edgar Allan
POINCARÉ, Henri
POLKINGHORNE, John
PTOLÉMÉE
PYTHAGORE

RAY, John
REED, E.S.
RICKABY, Joseph
ROEMER, Olaus
ROSE, Seraphim
ROSEN
ROSZAK, Theodore
RUSSEL, Bertrand

SCHRÖDINGER, Erwin
SCHUON, Frithjof
SCOT Erigène, Jean
SÉRAPHIN de Sarov, S.
SHANNON, Claude
SMITH, Huston
SMITH, John Pye
SOKOLOWSKT, Robert
SPIEKER, Edmund M.
STAPP, Henri
STEBBING, L. Susan
STEUCHUS, Augustinus
SUAREZ
SUHRAWARDÎ
SYMÉON le Nouveau Théologien, S.

TEILHARD de Chardin
TERTULLIEN
THOMAS D’AQUIN, S.
THOMAS D’AQUIN, S.
TIPLER, Frank J.
TULLY, Brent

VIVEKANANDA

WALLACE, William A.
WEIGEL, Valentin
WELLS, Jonathan
WHEELER, John
WHITCOMB, J. c.
WHITEHEAD, A.N.
WIENER, Norbert
WILSON, Robert

ZAJONC, Arthur
L’HARMATTAN, ITALIA
Via Degli Artisti 15 ; 10124 Torino

L’HARMATTAN HONGRIE
Könyvesbolt ; Kossuth L. u. 14-16
1053 Budapest

L’HARMATTAN BURKINA FASO


Rue 15.167 Route du Pô Patte d’oie
12 BP 226
Ouagadougou 12
(00226) 50 37 54 36

ESPACE L’HARMATTAN KINSHASA


Faculté des Sciences Sociales,
Politiques et Administratives
BP243, KIN Xl ; Université de Kinshasa

L’HARMATTAN GUINEE
Almamya Rue KA 028
En face du restaurant le cèdre
OKB agency BP 3470 Conakry
(00224) 60 20 85 08
harmattanguinee@yahoo.fr

L’HARMATTAN COTE D’IVOIRE


M. Etien N’dah Ahmon
Résidence Karl / cité des arts
Abidjan-Cocody 03 BP 1588 Abidjan 03
(00225) 05 77 87 31

L’HARMATTAN MAURITANIE
Espace El Kettab du livre francophone
N° 472 avenue Palais des Congrès
BP 316 Nouakchott
(00222) 63 25 980

L’HARMATTAN CAMEROUN
BP 11486
(00237) 458 67 00
(00237) 976 61 66
harmattancamn@yahoo.fr
1 Ces conférences ont été publiées sous le titre Knowledge and the Sacred, Crossroad, 1981. Traduction
française de Patrick Laude: La Connaissance et le Sacré, Delphica-L’ Âge d’Homme, Lausanne, 1999. La
pagination des citations suit désormais la version française.

2 Voir S. H. Nasr, op. cit., pp. 65-66.

3 Arthur O. Lovejoy, The Great Chain of Being, Harvard University Press, 1964.

4 The Concept of Nature, Cambridge University Press, 1964, p. 30.

5 Ihid, p. 32.

6 The Quantum Enigma, Sherwood Sugden, Peru, Illinois, 1995, rééd. Sophia Perennis, Hillsdale, New
York, 2005.

7 Nature and Life, Greenwood, New York, 1968, p. 6.

8 The Quantum Enigma (op. cit.), chap. III.

9 Ibid., chap. IV.

10 Physics and Philosophy, Harper and Row, New York, 1962, p. 41. Il faut remarquer que, tandis que
Heisenberg relègue les atomes individuels et les « petits » agrégats atomiques dans le domaine de la
potentia, il considère néanmoins, en accord avec la perspective réductionniste, les agrégats «
macroscopiques » comme des entités réelles. À la lumière de la non-bifurcation, il faut distinguer
ontologiquement entre une entité corporelle X et l’agrégat atomique sous-jacent SX. Ils sont littéralement
« des mondes à part ».

11 Voir en particulier René Guénon, Le Règne de la Quantité et les Signes des temps, Nrf, Gallimard,
collection Tradition, 1945, chap. II. Le fait que la materia secunda sous-tende également le domaine
physique apparaîtra dans la suite.

12 Ces propriétés géométriques sont données dans les axiomes d’Euclide.

13 La chambre à bulles (ou chambre de Wilson) est un récipient rempli d’hydrogène liquide dont la
température est maintenue juste au-dessous du point d’ébullition. La trajectoire d’une particule qui la
traverse devient visible — et peut être photographiée - grâce aux bulles qui se forment sur son passage
(KM).

14 Encounters with Einstein, Princeton University Press, 1989, p. 83.

15 Comme le dit Heisenberg : « La “chose-en-soi” est finalement, pour le physicien de l’atome, au cas où
il emploierait ce concept, une structure mathématique » (Physics and Philosophy, op. cit., p. 91).

16 Op. cit., p. 11.

17 Remarquons que la mécanique quantique, par son formalisme même, met fin à cette réduction. Un
système physique, du point de vue de la mécanique quantique, n’est définitivement pas « la somme de ses
parties ».

18 “Formal and material causality in science”, Proc. Amer. Cath. Phil. Assoc. 69, 1995, p. 64.

19 Allusion au célèbre passage d’Hamlet (I, V) : « Horatio, il y a plus de choses au ciel et sur la terre que
ne peut en rêver toute la philosophie. » (NdT)

20 Ces trois degrés correspondent aux tribbuvana ou « trois mondes » de la tradition védique, aux
Beriah, Ietsirah et Asiab de la Kabbale et, sur le plan du microcosme, à la triade classique corpus-anima-
spiritus.

21 La cosmographie ptolémaïque symbolise cette vérité ontologique par l’inclusion des sphères
planétaires les plus basses dans les plus hautes.

22 Comme je l’ai montré dans ma monographie, il existe « un isomorphisme induit par la présentation
entre les quantités corporelles et subcorporelles » dont les physiciens font un usage constant. Voir op. cit.,
p. 91.

23 Nick Herbert, Quantum Reality, Doubleday, Garden City, 1985, p. 15.

24 Nature ami Life, Greenwood Press, New York, 1968, p. 10.

25 Un nouvel Ansatz : une nouvelle approche (NdT).


26 The Emperor’s New Mind, Oxford University Press, 1989, p. 256.

27 Ibid, p. 296.

28 The Concept of Nature, Cambridge University Press, 1964, p. 30.

29 Nature and Life, p. 6.

30 The Quantum Enigma. William A. Wallace en a publié un résumé et un commentaire éclairants dans «
Thomism and the Quantum Enigma », The Thomist, vol. 61, 1997, pp. 455-467.

31 Le « paquet d’ondes » probabilistes superposées est réduit à une seule possibilité lors de
l’observation ou, pour le dire autrement, quand le quanton est observé sa fonction d’onde est réduite à
l’une des possibilités qu’elle décrit (KM).

32 Somme Théologique, I, 8, 1.

33 Le Thomisme. Introduction à la Philosophie de S. Thomas d’Aquin, 6ème édition, Vrin, Paris, 1986, p.
236.

34 Ibid., p. 237.

35 Meister Eckhart, trad. C. de B. Evans, Watkins, Londres, 1924, Vol I, p. 115.

36 Physics and Philosophy, p. 41.

37 Cité par E. A. Burtt, The Metaphysical Foundations of Modern Physical Science, Humanitics Press,
New York, 1951, p. 112.

38 Les positrons sont comptés négativement, de sorte que les interactions électron-positrons n’affectent
pas le total.

39 Das Naturbild der heutigen Physik, Rowohlt, Hambourg, 1955, p. 21.

40 Frieden montre que cette « interaction » peut réellement se concevoir comme un jeu de « somme
nulle » entre le physicien à la recherche d’information et un adversaire peu disposé à s’en séparer.
Généralement, l’adversaire, qui représente la Nature, gagne.

41 Je dois ajouter que l’EPI impose une autre condition : outre le principe de variation, il impose à I et à J
une condition algébrique. Ces deux conditions EPI constituent ensemble une loi fondamentale (top law)
dont la plupart des lois de la physique, et peut-être toutes, peuvent être dérivées. Quoique obtenu par une
méthode de considérations heuristiques, le principe EPI lui-même n’est cependant pas déduit grâce à une
analyse épistémologique à la Eddington. En ce sens, les prétentions de Frieden sont plus modestes.

42 Cela ne veut pas dire qu’il doive y avoir une parenté mathématique entre l’approche EPI de Frieden
et les dérivations d’Eddington fondées sur la théorie des groupes. La seule chose que ces théories
extrêmement différentes ont en commun — en surface tout au moins — est leur étonnante prétention à
dériver les lois de la physique grâce à une analyse du processus de mesure.

43 La pagination entre parenthèses se réfère à The Philosophy of Physical Science, Cambridge


University Press, 1939.

44 Quelques pages auparavant, Eddington, dit à propos de l’histoire de Procuste : « On s’en souvient,
Procuste étirait les membres ou coupait les pieds de ses hôtes pour les mettre aux dimensions du lit qu’il
avait construit. Mais la fin de l’histoire est peut-être moins connue. Il les mesurait le lendemain matin
avant leur départ, et rédigea un article savant “De l’Uniformité de stature chez les voyageurs” pour la
Société Anthropologique de l’Attique » (p. 110).

45 B. Roy Frieden, Physics from Fisher Information, Cambridge University Press, 1998, p. 276.

46 De cette façon certains groupes particuliers, tels que le groupe de rotations à six dimensions, entrent
dans les fondements de la physique.

47 The Nature of the Physical World, J. M. Dent, Londres, 1935, p. 5.

48 Ibid., p. 268.

49 Il y a peu de doute qu’Eddington faisait principalement allusion à G. E. Moore et à A. N. Whitehead.

50 Voir particulièrement James J. Gibson, The Ecological Approach to Visual Perception, Erlbaum,
Hillsdale, NJ, 1986, et deux articles perspicaces de E. S. Reed et R. K. Jones : « Gibson’s theory of
perception : A case of hasty epistemologizing ? » dans Philosophy and Science, No 45, 1978, pp. 519-530 ;
et « Gibson’s ecological revolution in psychology » dans Philosophy of the Social Sciences, No 9,1,1979,
pp. 89-204.

51 Le fait qu’un objet soit perçu comme transcendant ne garantit évidemment pas son objectivité : je ne
nie pas la possibilité de l’erreur. Il y a en fait une signature de la transcendance qui en prouve
l’authenticité ; mais cette signature aussi peut être si bien contrefaite qu’elle trompe. Se tromper est
humain, après tout.

52 Au sens strict, « tout ce que nous connaissons », ce sont les valeurs données, comme Frieden l’a
aimablement fait remarquer. Les probabilités ne sont ainsi pas « connues », mais inférées. Elles sont «
tout ce que nous pouvons inférer ».

53 Dans la théorie des systèmes, « intrant », opposé à « extrant », traduit en français input, opposé à
output (KM).

54 Op. cit., p- 83.

55 Op. cit., p. 84.

56 Selon l’approche EPI, l’équation ondulatoire de Schrödinger n’est pas violée dans l’acte de la mesure,
mais « réinitialisée », comme Frieden le fait remarquer. Ainsi, ce qui est violé est, strictement parlant, la
trajectoire originelle de Schrödinger, qui pâtit d’une discontinuité.

57 « Toutes les choses physiques, écrit le physicien John Archibald Wheeler, sont informatives-théoriques
à l’origine, et c’est ce que j’appelle un univers participatif ». Frieden cite à la page 1 cette remarquable
formulation.

58 Goethe le savait très bien quand il protestait contre la doctrine de Newton, mais sa voix n’a pas été
entendue ; ses critiques de la Weltanschauung newtonienne n’ont commencé à être prises au sérieux que
lorsque cette vision du monde elle-même a commencé à décliner. Dès lors quelques physiciens – et un
beaucoup plus grand nombre de biologistes – se sont mis à apprécier la signification de ce que Goethe
avait dit en tant que savant. Heisenberg, par exemple, a manifesté son intérêt en traitant cette question
dans une conférence intitulée « Die goethesche und die newtonische Farbenlehre im Lichte der modernen
Physik » (voir Wandlungen in den Grundlagen der Naturwissenschaft, Hirzel Verlag, Zurich, 1949).
L’œuvre d’Henri Bortoft, physicien et élève de David Bohm, est d’un intérêt encore plus grand. En suivant
l’approche de Goethe, Bortoft a découvert à quelle profondeur du monde objectif la perception sensorielle
humaine peut atteindre. Son livre, The Wholeness of Nature, Lindisfarne, 1996, offre une introduction de
valeur à un sujet d’une très considérable importance.

59 « Bell’s Theorem and World Process », Il Nuovo Cimento, 29B, 1975, p. 271.

60 Nick Herbert, Quantum Reality, Doubleday, Garden City, 1985, p. 15.

61 De Civitate Dei, 11.6.

62 Metaxu signifie en grec ce qui se tient entre deux choses, dans l’intervalle, au milieu. Diotime utilise
cette notion dans Le Banquet de Platon (KM).

63 Timée, 31 b, trad. Léon Robin, éd. de la Pléiade, p. 447.

64 « Are Superluminal Connections Necessary ? », Il Nuovo Cimento, 40B, 1977, p. 191.

65 On peut à juste titre se demander pourquoi cette « réalité cosmique » ne pourrait pas tout aussi bien
se situer au-dessus du plan intermédiaire, c’est-à-dire dans le domaine spirituel. En fait elle le peut !
Cependant la condition de non-localité nous oblige à ne monter que d’un seul échelon : voilà la difficulté.

66 « à corporéité est le terme de l’œuvre divine ».

67 « Andeutungen zur Geschichte und Kritik des Begriffes der himmlischen Leiblichkeit », vol 7, pp. 107-
165. Je dois au Professeur Roland Pietsch, de l’Université Maximilien de Munich, d’avoir attiré mon
attention sur ce texte.

68 L’une des autorités les plus en vue dans ce domaine, Pierre Deghaye a fourni ce qui est peut-être le
commentaire le plus fin sur la pensée du mystique allemand. Voir en particulier La Naissance de Dieu ou
la Doctrine de Jacob Boehme, Albin Michel, Paris, 1985.

69 Nos citations sont extraites de l’essai de Pierre Deghaye, « Jacob Boehme and his followers », dans
Modern Esoteric Spirituality, sous la direction d’Antoine Faivre et de Jacob Needleman, Crossroad, New
York, 1995.

70 Quoique né dans le pays de Luther et officiellement luthérien, Boehme a été persécuté par les
Luthériens, au point qu’il n’a pu recevoir une sépulture chrétienne que grâce à l’intervention d’un ami
influent. Mais, si sa doctrine est en réel désaccord avec celle de Luther, elle ne s’oppose en rien à la
théologie catholique. Du fait que la théosophie et la théologie dogmatique représentent différents points
de vue, on pourrait soutenir que Boehme se cantonne dans la tradition catholique intégrale, prise au sens
de katholikos. On sait que Boehme était ennemi de la papauté ; mais cette question n’a rien à voir avec
ses intuitions théosophiques et ne nous concerne pas ici.

71 En français dans le texte.

72 Je laisse de côté ce qu’Henry Corbin appelle l’imagination active, qui est une faculté intrinsèquement
spirituelle.

73 L’intérêt pour l’alchimie semble augmenter actuellement. Si le public cultivé n’a encore que
scepticisme et mépris pour cette ancienne discipline, il y a aujourd’hui une conscience de plus en plus
profonde, chez ceux qui sont les mieux informés, que ce qui se cache derrière mainte « superstition
discréditée » peut en fait être une sagesse oubliée. Quoique Carl Gustav Jung ait de toute évidence
exagéré quand il suggérait que, quatre siècles après avoir été exclue des universités, l’alchimie revient «
frapper à la porte », nombre de facteurs ont conspiré à rendre la perspective de sa réadmission moins
éloignée, tout au moins que ce qu’elle était à l’âge d’or du matérialisme. De toute façon, personne n’a
encore proposé de bases solides pour rejeter l’alchimie. Dans le cas des quatre éléments, la terre, l’eau,
l’air et le feu, on peut être raisonnablement sûr que les alchimistes n’utilisaient pas ces termes dans leur
sens ordinaire, mais pour désigner les éléments, justement, dont sont constituées les substances telles
que nous les connaissons. Un peu à la manière des quarks de la physique moderne, on ne trouve pas
empiriquement ces éléments à l’état isolé, mais dans leurs multiples combinaisons, c’est-à-dire en tant
que substances perceptibles, celles qui constituent ce que j’appelle le domaine corporel. Or, comme je l’ai
montré en détail dans The Quantum Enigma, les objets corporels ne sont pas de simples agrégats de
particules quantiques ; ce qui laisse clairement entendre qu’il peut réellement y avoir des éléments de
cette espèce. On le voit, notre opposition habituelle à l’alchimie repose principalement sur un préjugé
scientiste : le dogme réductionniste, dont il n’existe aucun support scientifique réel.

74 Basarab Nicolescu, La science, le sens et l’évolution : Essai sur Jacob Boehme, suivi d’un choix de
textes, Éditions du Félin, Paris, 1988. Voir aussi mon compte rendu de ce livre dans Sophia, Vol. 3, No 1,
1997, pp. 172-179.

75 Les citations de Julius Hamberger dans cette section-ci du chapitre sont tirées d’un second article sur
la corporéité céleste, également publié dans le Jahrbuch für Deutsche Theologie. Il est intitulé « Die
Rationalität des Begriffes der himmlischen Leiblichkeit », vol 8, 1863, pp.433-476. Après avoir publié trois
articles de la première importance dans le Jahrbuch, de 1862 à 1867, Hamberger les a réunis en volume
sous le titre Physica sacra, oder der Begriff der himmlischen Leiblichkeit und die aus ihm sich ergebenden
Aufschlüsse über die Gobeimnisse des Christenthums, Stuttgart, 1869.

76 Comme un autre auteur l’a remarqué : « Dans l’éternité, une chose n’est pas à l’extérieur d’une autre,
comme dans nos relations spatiales matérielles, mais l’une de ces choses est dans l’autre tout en étant
différente d’elle » (H. L. Martensen, Jacob Boehme: His Life and Teaching, Londres, 1885, p. 74). Ce qui
met en évidence l’affinité entre tout ceci et la pensée de Jean Scot Erigène.

77 La cosmologie de Dante, telle qu’il la dépeint dans la Divine Comédie, décrit cette inversion de façon
frappante. Voir ci-dessous chapitre IX, surtout les pages 206-210.

78 J’ai traité de cette question dans The Quantum Enigma, chapitres I et II. On trouvera un résumé de
mon point de vue au chapitre II ci-dessus.

79 Comme je l’ai montré dans The Quantum Enigma, c’est l’interprétation réductionniste des qualités
dites secondes (telles que la couleur) qui rend les découvertes de la théorie des quanta embarrassantes et
vraiment paradoxales. Le débat chez les physiciens et les philosophes des sciences autour de la « réalité
quantique » — qui a débuté en 1927 et se poursuit actuellement — atteste à quel point le réductionnisme
a pénétré l’esprit scientifique.

80 Le point de vue thomiste n’attribuerait pas l’éternité au Royaume des Cieux, mais l’« aéviternité »,
moyen terme entre le temps et l’éternité. Ce que Boehme appelle la naissance de la nature céleste, et ce
qu’il appelle la naissance de Dieu, sont cependant deux conceptions concomitantes et donc
contemporaines, ou mieux, coéternelles. Une seule et même éternité s’applique ainsi « au Dieu qui Se
révèle » et à son royaume éternel. En outre, Boehme appelle « Ewigkeit ohne Wesen » l’éternité au sens
absolu.

81 Comme dans le cas de l’extension spatiale, il est évidemment possible de transposer le concept de
durée temporelle au domaine céleste. L’essentiel est de se souvenir que le concept transposé est
radicalement différent de celui de « durée » au sens temporel.

82 Ce qui rappelle l’étonnante affirmation de Mozart suivant laquelle, au premier moment de la


conception artistique, une composition musicale entière se présente sans discontinuité à son sens
intérieur. Ce n’est qu’à une étape suivante que l’œuvre se divise en parties qui se succéderont dans le
temps. Ces parties doivent donc avoir été de quelque manière contenues dans l’original perçu par le sens
intérieur sans succession temporelle, non comme des parties « extérieures les unes aux autres », mais
vraiment « coïncidentes ». 1 Selon la théologie, le péché originel est la cause de cette détérioration. Ici-
bas toute vie — y compris infrahumaine — est réellement une mutilation. 2 Ces deux formes de lumière ne
coïncident pas vraiment, mais notre discussion n’exige pas leur distinction. Sur cette question, on se
reportera encore une fois aux chapitres I et II de The Quantum Enigma.

83 Cette question a été traitée en détail dans les trois premiers chapitres de ce livre.

84 Il est remarquable qu’une théorie non-bifurcationniste de la perception visuelle, en contradiction avec


la croyance populaire, ait été récemment proposée par James J. Gibson, professeur de psychologie à
l’Université Cornell, sur une base empirique, pas moins. Voir The Ecological Theory of Visual Perception,
Lawrence Erlbaum, Hillsdale, NJ, 1986.

85 The Quantum Enigma, particulièrement les pages 33-36 et 92-94.

86 Ibid., pp. 30-32.

87 Le problème est celui-ci : si P et Q sont des points en C, et R un point « entre » P et Q, il faut que R
appartienne aussi à C. Or, dans un espace-temps « plat », on peut définir C comme étant simplement le
plus petit sous-ensemble convexe contenant tous les objets corporels. De même peut-on évidemment
traiter le cas général d’un espace-temps courbe.

88 Ibid., pp. 52-57.

89 The Christian Philosophy of St. Thomas Aquinas, University of Notre Dame Press, 1994, p. 467.

90 Buffon fut le premier à proposer qu’on interprète les « jours » de la création comme des époques
(KM).

91 On trouvera son traité sur ce sujet, intitulé Hexaemeron, P.L. 14, col. 123-274.

92 Genesis, Creation and Early Man, St. Herman of Alaska Brotherhood, Platina, CA, 2000. Je demeure
profondément reconnaissant au P. Seraphim de m’avoir ouvert les yeux sur la signification de la
cosmologie patristique, et de m’avoir facilité l’accès au matériau de base qui s’y rapporte. Pour la facilité
de la lecture, je donnerai la référence des pages du livre du P. Seraphim avec l’abréviation GCEM.

93 GCEM, p. 397.

94 Extrait d’une correspondance privée entre l’auteur et le Prof. Jean Borella.

95 « Chapitres sur les Commandements et les Dogmes », 130, dans la Philocalie russe ; GCEM, p. 416.

96 Homélies sur la Genèse, 13, 4 (in The Fathers of the Church, vol. 74) ; GCEM, p. 444.

97 Pour une analyse critique de la doctrine de Teilhard, voir mon Teilhardism and the New Religion, TAN
Books, Rockford, IL, 1988.

98 Sept Homélies, 4, 5 (en russe) ; GCEM, p. 405.

99 J’ai traité cette question dans Cosmos and Transcendance, Sherwood Sugden, Peru, IL, 1984, chap.
VII.

100 The First-Created Man, St. Herman of Alaska Brotherhood, Platina, CA, 1994, pp. 82-83.

101 J’ai montré ailleurs qu’en particulier les faits fondamentaux de l’invariance de Lorentz sont une
expression de la Chute : comme dans une icône, ils apposent le sceau de la Chute sur la création. Voir ici
chap. V.

102 La géologie « uniforme » de Charles Lyell (1797-1875) s’oppose à la géologie catastrophiste qui
admet que l’histoire de la Terre a été marquée par une série de cataclysmes (KM).

103 Citation tirée de J. C. Whitcomb et H. M. Morris, The Genesis Flood, P&R Publishing, Phillipsburg,
NJ, 1998, p. 211.

104 Shattering the Myths of Darwnism, Park Street Press, Rochester, 1997, p. 78.

105 Lamina : ce mot latin signifie lame, feuille, couche, strate géologique de sédimentation (KM).

106 Cité par Richard Milton, ibid., p. 78.


107 Ibid., xi.

108 The First-Created Man, 90 ; GCEM, p. 157.

109 De Revolutionibus, I, 10 ; cité par W.C. Dampier, A History of Science, Cambridge University Press,
1948, p. 111.

110 The Large Scale Structure of Space-Time, Cambridge University press, 1973, p. 134.

111 Ces questions seront reprises en détail aux chapitres VII, VIII et IX.

112 Starlight and Time, Master Books, Green Forest, AR, 1994.

113 « Horizon des événements » (event horizon) : tout événement se produit en-deçà de cet horizon. Au-
delà, il n’y a pas d’événement (KM).

114 A Brief History of Time, Bantam Books, Londres, 1988, pp. 87-88.

115 La relativité restreinte prévoit une « dilatation de la vitesse du temps » : l’allure à laquelle le tic-tac
des horloges diminue avec leur vitesse et descend à zéro à la vitesse de la lumière. La relativité générale,
qui tient compte des champs gravitationnels, prévoit aussi une seconde espèce de dilatation du temps : les
champs gravitationnels aussi ralentissent les horloges.

116 Physics and Philosophy, Harper and Row, New York, 1962, p. 41.

117 L’aéviternité proprement dite peut se définir comme la temporalité appropriée à l’état céleste ou
angélique. Mais tandis que le Paradis terrestre se situe « au-dessous » de l’état céleste et est déjà soumis
à la condition temporelle, il participe encore de l’aéviternité ; comme S. Jean Chrysostome l’a déjà fait
observer : « L’homme vivait sur terre tel un Ange... ». Et remarquons que c’est justement un moyen de
passage entre le temps séculaire et l’aéviternité qui est recouvré dans facte liturgique, et avant tout dans
le rite traditionnel de la Messe où, comme le dit la théologie, la fragmentation temporelle est
définitivement transcendée. Ma position est alors non pas que le Paradis terrestre est aéviternel, mais
plutôt qu’il reflète l’aéviternité. C’est en ce sens que le moment de la Chute « marque le passage de
l’aéviternité au temps » : à ce moment-là le temps a cessé d’être « liturgique », son lien avec l’éternité
s’est rompu. Et c’est évidemment à cause de cette scission que « la mort et la corruption » sont entrées
dans le monde.

118 Chapitre V, p. 137.

119 Pléochroïque : en grec, plein de couleurs (KM).

120 On trouvera un compte rendu tout à fait lisible de la recherche sur les halos dans Robert V. Gentry,
Creation’s Tiny Mystery, Earth Science Associates, Knoxville, 1992. Inutile de souligner que, dans des
circonstances opposées, ces découvertes se seraient répandues partout et auraient été considérées
comme des « preuves positives » du point de vue qu’elles défendent.

121 Georges Lemaître, élève d’Arthur Eddington, est un physicien jésuite belge. Ses spéculations sur «
l’atome primitif » - curieux mélange de physique et de philosophie — semblent avoir été bien reçues dans
les milieux ecclésiastiques, à en juger par le fait qu’il a été nommé peu après directeur de l’Académie
Pontificale des Sciences. Assez bizarrement, l’idée du Big Bang remonte au poète Edgar AUan Poe, qui
était un amateur passionné de science. Pour obvier au problème de l’effondrement gravitationnel, il
suggéra en 1849 que l’univers était né d’une explosion.

122 Comme Stephen Hawking dans Une brève histoire du temps, Gamov imposa sa vision de l’univers à
toute une génération, dans un best-seller scientifique intitulé One, Two, Three, Infinity.

123 La Steady State Theory fut proposée par Fred Hoyle dans les années 50. Au fur et à mesure que
l’expansion de l’univers fait disparaître à l’horizon les galaxies devenues inobservables, des protons
naissent du vide, ce qui maintient stationnaire la masse totale de l’univers et son aspect d’ensemble (KM).

124 « Giant horn antenna » : il s’agit du réflecteur de 20 pieds utilisé par Arno Penzias et Robert W.
Wilson en 1964-65 lorsqu’ils ont fait leur fameuse découverte du rayonnement cosmique de fond à 3
degrés kelvin, vestige du Big Bang (KM).

125 Les galaxies ne sont pas distribuées uniformément dans l’espace, mais se groupent ici ou là en
formant des sortes de grumeaux (KM).

126 Par exemple, quand les astronomes ont découvert des incompatibilités entre les orbites observés des
planètes et les trajectoires prévues par la physique newtonienne, ils ont supposé que ces déviations
pouvaient être dues à un objet non encore identifié. L’hypothèse se vérifia en 1930 avec la découverte de
la planète Pluton.
127 On peut l’expliquer, soit par la théorie de l’état quasi-stationnaire de Burbridge, Hoyle et Narlikar
(voir Physics Today, vol. 52, No 4, avril 1999, pp. 38-44), soit par l’approche plasma-physique de Hannes
Alfvén (Cosmic Plasma, D. Reidel, 1981), toutes deux se présentant comme des alternatives plausibles à la
cosmologie du Big Bang.

128 Nucléarite: il s’agit d’une particule élémentaire, imaginée, comme les précédentes. Cependant, la
particule de Higgs, ici nommée « higgsino », prévue par la théorie, pourrait bien être observée un de ces
jours dans le nouvel accélérateur annulaire géant (KM).

129 Halton Arp, Seeing Red: Redshifts, Cosmology and Academic Science, Apeiron, Montréal, 1998, p.
95. Halton Arp est un astrophysicien américain, l’une des principales autorités en matière de quasars.
Quand, toutefois, il a commencé à mettre ouvertement en question l’interprétation Doppler des «
décalages » stellaires, il est rapidement devenu persona non grata, tout au moins aux États-Unis. Il
travaille maintenant à l’Institut Max Planck d’Astrophysique, à Munich. Son livre est une excellente
source de documentation dans un domaine où il devient de plus en plus difficile de distinguer les faits de
la fiction.

130 Ibid., pp. 225-233.

131 Le plus célèbre de cette poignée de savants dissidents est le regretté Fred Hoyle, l’un des tout
premiers pionniers de l’astrophysique.

132 Comme nous le verrons tout à l’heure, il est cependant tout aussi significatif que le pape Jean Paul
II, dans une autre allocution à l’Académie Pontificale, en 1988, ait mis en garde contre « un usage
dépourvu d’esprit critique et précipité, dans une intention apologétique, de certaines théories récentes
comme celle du Big Bang».

133 Henry Denzinger, Symboles et définition de la foi catholique, Cerf, 2001, n° 3512-3519. Il faut
souligner que S. Pie X, dans son Motu proprio de 1907, « Prestantia Scripturae », a déclaré contraignante
la décision de la Commission Biblique. Voir Denzinger, n° 3503.

134 Voir mon Teilhardism and the New Religion.

135 Voir chap. III.

136 Voir chap. I.

137 Jacques Maritain a dit à peu près la même chose lorsqu’il a caractérisé la physique moderne en
disant qu’elle était « périnoétique ».

138 Voir chapitre III, pp. 74-77.

139 Sur la question du géocentrisme, voir les chapitres VIII et IX de ce livre.

140 Selon les anciens, un lion, par exemple, ne symbolise pas le Soleil seulement en vertu de sa crinière,
mais parce qu’il est réellement un animal « solaire ». Mais c’est là quelque chose que l’homme moderne
ne comprend plus : son ontologie réduite n’admet pas de telles relations. On a besoin pour cela d’une
ontologie ouverte sur ce qu’on peut appeler à proprement parler « le mystère de l’essence ».

141 Arthur Zajonc, qui fait autorité en physique quantique, a magnifiquement dit de la lumière même : «
Je ne peux pas la décrire, mon imagination peut à peine en effleurer le bord, mais je sais qu’en son cour
existe une “première lumière” primitive, où réside la sagesse, une sagesse réchauffée pas l’amour et
rendue active par la vie » (Catching the Light, Oxford University· Press, 1995, p. 325). Je trouve vraiment
remarquable qu’un physicien contemporain témoigne de la métaphysique pérenne de la lumière, et en des
termes aussi éloquents. Comme le point iconique brillant dans le champ obscur, Zajonc compense, pour
ainsi dire, la nescience presque universelle de ses pairs.

142 Dans The Quantum Enigma.

143 Nom donné en sanskrit aux diverses écoles classiques de la philosophie hindoue (J. Herber & J.
Varenne, Vocabulaire de l’hindouisme, Dervy, Paris, 1985). On peut ici entendre ce terme au sens plus
général de “point de vue” (NdT).

144 The Copernican Révolution, MJF Books, New York, 1985, p. 7.

145 Il cite aussi les auteurs anciens qui n’étaient pas géocentristes, dont les pythagoriciens (NdT).

146 On n’oubliera pas que plus l’orbite est petite, plus le mouvement est rapide.

147 En fait, aujourd’hui, tous les avocats sérieux du géocentrisme suivent la théorie de Tycho Brahé.

148 On trouvera une esquisse de cette preuve dans Thomas Kuhn, op. cit., pp. 201-206.
149 Ibid., p. 212.

150 En français dans le texte. (NdT)

151 Cité dans Dean Turner, The Einstein, Myth and the Ives Papers, Devin Adair, Greenwich, 1979, p.
154.

152 Le spectre des galaxies éloignées est décalé vers le rouge (les grandes longueurs d’onde), ce qu’on
interprète comme un effet Doppler, signifiant que ces galaxies s’éloignent de nous (KM).

153 Voir chap. VI, p. 143-144 et chap. VII, pp. 159-161.

154 Voir chap. VII.

155 Physics and Philosophy, p. 41.

156 The Philosophy of Physical Science, Cambridge University Press, 1949, p. 110.

157 Ibid., p. 32.

158 On se souvient de la remarquable affirmation de René Guénon selon laquelle ceux qui ne peuvent
pas concevoir que tous les événements puissent se produire simultanément sont exclus de la moindre
compréhension de tout ce qui est métaphysique. Ceci place évidemment le métaphysique à l’antipode du
physique, dans lequel il n’existe aucune véritable simultanéité entre deux événements distincts (quoiqu’ils
puissent apparaître comme tels par rapport à un cadre de référence particulier). On peut dire qu’au fur et
à mesure que l’on gravit la scala naturae de l’ontologie, la dispersion temporelle est progressivement
réduite et finalement transcendée.

159 Voir chap. II.

160 Voir chap. I.

161 Comme je l’ai indiqué précédemment, la Commission Biblique Pontificale, dans une décision sur «
Le caractère historique des premiers chapitres de la Genèse » communiquée en 1909, nie la validité des «
systèmes exégétiques » qui excluent le sens littéral de la Genèse. Voir Denzinger, Symboles et définitions
de la foi catholique, n° 3512-3519.

162 The Philosophy of Seyyed Hossein Nasr, Open Court, La Salle, IL, 2001, p. 487.

163 Certains lecteurs seront étonnés d’apprendre que le géocentrisme a encore des avocats dans le
monde scientifique. L’un des plus connus actuellement est Gerardus Bouw, directeur de l’Association pour
l’Astronomie Biblique et responsable du Bibical Astronomer, revue qui défend le géocentrisme
scientifique. Voir son traité Geocentricity, Association for Biblical Astronomy, Cleveland, 1992.

164 Op. cit., p. 488.

165 Le système de Tycho Brahé propose, nous l’avons vu, que Saturne, Jupiter, Mars, Vénus et Mercure
tournent autour du Soleil, tandis que le Soleil et la Lune tournent autour de la Terre ; et nous avons vu
aussi qu’à peu près tous les défenseurs actuels de l’astronomie géocentrique sont des « tychoniens ».

166 Platon, République, Livre VI.

167 Mirror of the Intellect, State University of New York Press, Albany, 1987, p. 21. L’édition américaine
portant ce titre diffère sensiblement de la version française — Miroir de l’Intellect, Delphia-L’Age
d’Homme, Lausanne, 1992 -, dans laquelle le passage cité ne figure pas.

168 Sur la cosmologie de Dante, voir Titus Burckhardt, Alchimie, Archè, 1979, pp. 44-53 ; et Science
moderne et Sagesse traditionnelle, Archè, 1986, pp. 127-155.

169 On trouvera une esquisse de la preuve dans Thomas Kuhn, The Copernican Revolution, pp. 201-206.

170 En ce qui concerne les orbites planétaires, l’astronomie de Tycho Brahé et celle de Copernic se
valent. Les interventions ad hoc sont cependant nécessaires pour rendre compte de l’aberration et de la
parallaxe sidérale. Voir le chapitre VIII de ce livre.

171 De la Docte Ignorance, Alcan, Paris, 1930. On trouvera une magistrale discussion de la cosmologie
du Cusain dans Jean Borella, The Secret of the Christian Way, State University of New York Press, Albany,
2001, chap. II, pp. 45 sq., originellement publiée en français dans La Crise du symbolisme relagieux,
Delphica-L’Age d’Homme, Lausanne, 1990, pp. 51-59.

172 Nous avons traduit design, selon les cas, par “dessein” ou “finalité”, et intelligent design par
“dessein intelligent”. Toutefois, il nous a paru préférable de conserver l’expression anglaise intelligent
design lorsqu’elle s’applique au mouvement d’idées connu sous ce nom aux États-Unis (NdT).

173 The Quantum Enigma, pp. 95-108.

174 Le Thomisme, op. cit., p. 238.

175 Francis Darwin, The Life and Letters of Charles Darwin, Murray, Londres, 1887, vol. 2, pp. 303-312.

176 Darwin’s Black Box, The Free Press, New York, 1996, p. 39.

177 On the Origin of Species, Harvard University Press, 1964, p. 189.

178 Comme indiqué précédemment, cet exposé est présenté ici en petits caractères, afin que le lecteur
non-spécialiste puisse, s’il le souhaite, passer directement à la suite (NdE).

179 Bit : terme anglais acronyme de binary digit utilisé aussi en français. Il signifie unité de mesure
d’une quantité d’informations binaires (KM).

180 No Free Lunch, Rodman & Littlefield, New York, 2002, p. 155. Il faut peut-être préciser que
l’expression « no free lunch » (en français, littéralement : « pas de déjeuner gratuit » [NdT]) a récemment
reçu un sens technique : elle se réfère à une classe de théorèmes mathématiques qui concernent ce qu’on
appelle les algorithmes évolutionnaires, démontrés à la fin des années 90. Il en découle que la capacité de
ces algorithmes à résoudre des problèmes est très limitée. La théorie de Dembski peut être considérée
comme une généralisation de ces théorèmes « no free lunch ».

181 Voir Leon Brillouin, Science and Information Theory, 2ème éd., Academic Press, New York, 1962, pp.
267-269.

182 Un phénomène stochastique comporte une variable aléatoire, par exemple la distribution des points
d’impact quand on tire sur une cible (KM).

183 En fait, la démonstration n’est pas tout à fait aussi simple que le suggère mon résumé : par exemple,
il faut tourner la difficulté que les fonctions f et fω peuvent comporter la CSI, et donc l’injecter dans le
processus. Pour une plus ample discussion, voir William A. Dembski, No Free Lunch, pp. 149-166.

184 Ayant découvert empiriquement la formule exacte des radiations, Planck dériva sa signification
physique par une analyse statistique. Comme il le dit dans son discours de 1920 à la réception du Prix
Nobel : « Après quelques semaines du travail le plus intense de ma vie, la lumière commença à
m’apparaître et des vues inattendues se révélèrent dans le lointain. »

185 Voir chap. III.

186 Le Règne de la Quantité et les Signes des Temps, nrf Gallimard, 1945, p. 11.

187 Comme le lecteur l’a peut-être remarqué, je n’ai pas abordé la formulation mathématique de la
detachabilité. Il suffit de dire que la condition dépend de la notion statistique de fonctions de rejet,
concept technique dont nous n’avons pas à nous occuper dans ce résumé.

188 The Quantum Enigma, pp. 109-125.

189 Opusculum, De Unitate intellectus contra Averroistas, iii ; cité par Joseph Rickaby dans Of God and
His Creatures, Carroll Press, Westminster, MD, 1950, note p. 127.

190 Summa Theologiae, I. 117. 1 et I. 45. 6.

191 La question se pose de savoir si on peut aussi atteindre cette conclusion sur la base du théorème de
Dembski, étant donné que le processus en question (le mouvement de l’archet) comporte de la CSI. Le
problème est là : le violoniste ne fait peut-être rien de plus que transmettre la CSI, qui était probablement
en réserve dans son cerveau, et agit ainsi à la manière d’une machine. En fait, l’analyse de Dembski
n’exclut pas cette possibilité.

192 Je ne cherche pas à suggérer que l’acte intellectuel a lieu « avant » que l’idée musicale soit
transmise au monde sensoriel: j’affirme seulement que l’acte intellectuel a une priorité ontologique
distincte de la priorité temporelle. L’acte intellectuel peut n’avoir aucune priorité temporelle, puisqu’il est
atemporel. Il appartient à un domaine où il n’y a ni « avant » ni « après », si difficile à saisir que puisse
être ce point. Pour y parvenir, nous avons besoin d’un symbole métaphysique, sorte d’icône mentale : un
cercle, par exemple, qui représente le temps. Dans la mesure où le centre est équidistant de tous les
points de la circonférence, il est également « présent » dans chacun d’eux, sans qu’on ait à se soucier de
sa position dans la séquence temporelle. Ce qu’il nous faut, pour saisir l’idée d’atemporalité, c’est une
dimension supplémentaire : justement « la dimension de verticalité ». On pourrait ajouter que c’est la
perte de cette dimension — en d’autres termes l’incapacité à comprendre le sens du symbolisme
métaphysique - qui caractérise l’esprit moderne de la façon la plus exacte.

193 The Quantum Enigma, pp. 105-108.

194 Steps Towards Life: A Perspective on Evolution, Oxford University Press, 1992, p. 12.

195 On peut affirmer sans risque que l’exposé le plus convaincant de l’évolutionnisme théiste est celui
de Teilhard de Chardin, que beaucoup considèrent comme un véritable prophète. Voir mon Teilhardism
and the New Religion, TAN Books, Rockford, IL, 1988.

196 Selon l’ontologie thomiste, la ratio seminalis d’un organisme, à strictement parler, est « extérieure »
à son acte-d’être, qui constitue, si l’on peut dire, la base existentielle de la ratio seminalis elle-même, et
est ainsi « le point le plus intérieur » de l’organisme : le centre même de notre cercle symbolique.

197 Voir particulièrement le traité devenu classique de John D. Barrow et Frank J. Tipler, The Anthropic
Cosmological Principle, Oxford University Press, 1986.

198 Dans le diagramme Hertzsprung-Russel, qui met en relation le spectre et la magnitude absolue, la
plupart des étoiles se distribuent au voisinage d’une courbe dite « séquence principale » (KM).

199 Constante de structure fine : il s’agit de la constante de couplage de la force électromagnétique


notée a (KM).

200 Op. cit., p. 16.

201 Si les nombres en question comportent, par exemple, beaucoup de décimales, une telle coïncidence
est très improbable (KM).

202 Op. cit., p. 22.

203 « The Anthropic Principle », Journal of Interdisciplinary Studies, 9, 1997, pp. 63-90.

204 Le point de départ du Big Bang, quand le rayon de l’univers était quasi-nul, et la région centrale
d’un trou noir sont désignés comme des « singularités », Un trou noir est le résultat d’un effondrement
gravitationnel (KM).

205 Si la densité de l’univers est supérieure à une valeur donnée, son expansion s’inversera un jour en
une contraction, puis un effondrement, ou « big crunch », dont l’aboutissement sera la « singularité finale
» dont il est ici question (KM).

206 J’ai traité cette question, du point de vue de la métaphysique traditionnelle, dans le chapitre III de
The Quantum Enigma. Voir également ici chapitre II.

207 Op. cit., p. 74.

208 Op. cit., p. 659.

209 Voir aussi Frank J. Tipler, The Physics of Immortality, Doubleday, New York, 1994.

210 Op. cit., p. 23.

211 Voir le chap. XII, paru, sous le même titre, dans Madern Age, No 43, 1, 2001, pp. 85-93.

212 « C’est aux limites qu’il s’impose qu’on reconnaît le maître » (NdT).

213 Le Symbolisme de la Croix, Véga, Paris, 1970, chap. XI.

214 Sur ce caractère « infra-existentiel » de la réalité physique, voir le chap. I de ce livre.

215 « So Finely Tuned a Universe », Commonweal, août 1996, pp. 11-18. Les citations de Polkinghorne
sans référence sont tirées de cet article.

216 Christianity and Evolution, New York, Harcourt Brace jovanovich, 1971, p. 36.

217 Reason and Reality, Trinity Press International, Hauppauge, NY, 1991, p. 73.

218 Voir le chapitre « “Dessein intelligent” et causalité verticale ».

219 Ibid.

220 William A. Dembski, The Design Inference, Cambridge University Press, 1998.

221 Le terme de « process theology » renvoie à un courant de pensée qui remonte à Alfred Whitehead
(NdE).

222 Lettres à Léontine Zanta, Desclée de Brouwer, 1965, p. 127.

223 L’Activation de l’Energie, Seuil, 1963, p. 406.

224 Voir le chapitre III de ce livre.

225 Sur les arguments en sa défaveur, voir ici chapitre VII.

226 Voir chap. II de The Quantum Enigma.

227 Physics from Fischer Information, Cambridge University Press, 1998 ; voir également ici chapitre
III.

228 The Philosophy of Physical Science, Cambridge University Press, 1939, p. 115.

229 Summa Theologiae, I, 117. 1.

230 Je fais ici allusion à la doctrine scolastique de l’art ; voir par exemple Ananda Coomaraswamy, La
Philosophie chrétienne et orientale de l’Art, Pardès, Puiseaux, 1990, et La Transformation de la nature en
art, Delphica-L’Age d’Homme, Lausanne, 1994.

231 Op. cit., p. 137.

232 L’organon, c’est la logique d’Aristote. Francis Bacon a intitulé son principal ouvrage, où il expose la
méthode scientifique : Novum organum = nouvel organon (KM).

233 Par exemple, Michael Denton, Evolution : Une théorie en crise, coll. Champs, Flammarion, Paris,
1992 ; Phillip E. Johnson, Le Darwinisme en question : science ou métaphysique ? éd. Exergue, 1996 ;
Michael J. Behe, Darwin’s Black Box, déjà cité ; Jonathan Wells, Icons of Evolution : Science or Myth ?
Why much of what we teach about evolution is wrong, Regnery, Washington, 2000 ; William A. Dembski,
(ed.), Uncommon Dissent : Intellectuals who Find Darwinism Unconvincing, ISI Books, Wilmington, 2004.

234 Il importe de voir que les faits scientifiques sont bel et bien « chargés de théorie », comme les
philosophes des sciences en sont venus à le reconnaître. Il faut cependant établir une distinction entre de
tels faits et ce que j’ai appelé fiction scientiste. Le problème est que les faits scientifiques ne peuvent se
concevoir isolément, mais présupposent la structure théorique dans laquelle ils sont définis. Les vérités
de la physique, tout au moins, se saisissent non dans des faits isolés, mais dans des structures complètes.
Ce que j’ai appelé fictions scientistes tend, à l’inverse, à être isolé et à ne formuler que des affirmations
ad hoc, qu’aucune structure vérifiable ne confirme. Par exemple, la théorie de la bifurcation : le fait que la
physique même peut s’interpréter sous un angle non-bifurcationniste (comme je l’ai montré dans The
Quantum Enigma) prouve que cette prétention ne peut s’étayer sur aucune découverte physique. Pour
d’autres exemples de grands articles de foi scientiste, traités en détail, voir mon Cosmos and
Transcendence, déjà cité.

235 Voir The Ecological Approach to Visual Perception, Lawrence Erlbaum, Hillsdale, NJ, 1986.

236 Ibid, pp. 60-61.

237 Ibid., p. 31.

238 Frithjof Schuon, Logique et transcendance, Éditions Traditionnelles, Paris, 1970, p. 15 (NdT).

239 Voir mon Cosmos and Transcendence, chap. VII.

240 Seyyed Hossein Nasr a donné, dans ses conférences Gifford de 1981, une excellente description de
la cosmologie hiérarchique. Voir La Connaissance et le Sacré, Delphica-L’Âge d’Homme, Lausanne, 1999,
qui offre aussi un très grand nombre de références bibliographiques.

241 La Connaissance et le Sacré, chap. III.

242 Ibid., p. 84.

243 Ibid., p. 83.

244 je renvoie sur ce sujet à mon article « Eschatological Imminence and Biblical Inerrancy », Homiletic
and Pastoral Review, mars 1987, pp. 21-27.

245 Il nous a paru intéressant de reproduire ici en annexe un article qui, outre-qu’il présente une
synthèse des chapitres précédents — d’où d’inévitables répétitions que le lecteur voudra bien excuser —,
confronte leurs principales conclusions à la critique guénonienne de la science moderne (NdE).
246 Le Règne de la Quantité, op. cit., p. 9.

247 Ibid, p. 119.

248 Ibid., p. 11.

249 Ibid., p. 120.

250 Rétrospectivement, on ne peut que déplorer que les milieux catholiques n’aient pas prêté attention à
cette critique au moment où Guénon y évoluait, et qu’au lieu de prendre à cœur La Crise du monde
moderne (paru pour la première fois en 1927), ils se soient entichés de l’Humanisme intégral de Maritain
(1936). Combien différente eût été l’histoire ultérieure de l’Église si ses guides intellectuels avaient
écouté Guénon ! Mais ils ne l’ont pas fait et, au lieu d’une critique métaphysique du scientisme, ils nous
ont offert, il est triste de le dire, Gaudium et Spes.

251 The Philosophy of Physical Science, Cambridge University Press, 1939, p. 110.

252 Physics and Philosophy, Harper & Row, New York, 1962, p. 41.

253 Science and Humanism, Cambridge University Press, 1951, p. 18.

254 The Quantum Enigma, chap. II.

255 Voir ici chap. II.

256 Physics from Fisher Information, Cambridge University Press, 1998.

257 Voir ici chap. XI.

258 Ibid., pp. 251-256.

259 La Connaissance et le Sacré, pp. 176-177.

260 Cité par René Guénon, op. cit., p. 32.

261 Au sujet de la réduction du paquet d’ondes, voir The Quantum Enigma, chap. III et, ci-dessus, chap.
II.

262 Voir ici chap. IV.

263 Voir ici chap. V.

264 Les Principes du calcul infinitésimal, Gallimard, Paris, 1946, p. 129.

265 Correspondant au chap. I de ce livre (NdE).

266 The Philosophy of Seyyed Hossein Nasr, edited by Lewis Edwin Hahn, Randall E. Auxier and Lucian
W. Stonc, Jr., Open Court Publishing Company, La Salle, IL, 2001 (NdE).