Académique Documents
Professionnel Documents
Culture Documents
Le défi de l’antigravitation
Marcel Pagès
TousVosLivres.com
TECHNIQUES ANTIPONDERALES
UTILISATION DE L’ENERGIE DE L’ESPACE
Avertissement au lecteur :
Le lecteur pourra être surpris que mes valeurs numériques soient exprimées dans le
système CGS avec variante Tonnes. C'est à toute fin de rendre l'exposé plus démonstratif,
mais il sera facile pour les physiciens habitués au système MTS actuellement en vigueur,
d'ajouter les puissances de dix nécessaires à leur transformation.
Quand j'exprime en effet qu'un dé à coudre de 1 cm3 pèse des millions de tonnes, cela est
plus clair que d'exprimer le poids masse d'un mètre cube.
Toutes les unités par ailleurs disparates sont ainsi présentées pour une meilleure
compréhension des forces et des masses en présence.
Dr. M. J.J. PAGES
INTRODUCTION
Ce livre fait l'historique des quelques rares recherches sur l'antigravité, et essentiellement
de celles que je mène en tant que PIONNIER depuis 1916.
En ce qui concerne l'histoire du développement terrestre, du problème des techniques des
Objets Volants Non Identifiés (OVNIS) et de leurs occupants éventuels, je présente mes
recherches selon trois stades, soit de 1916 à 1958, puis de 1958 à 1972 et enfin dans leur
état actuel.
De ce fait, la technique même de L’ANTIGRAVITE sera reprise dans trois chapitres,
mais chaque fois avec plus de précision en fonction de l'évolution du principe.
De nombreuses autorités scientifiques considèrent que ce livre définit les bases des
procédés possibles permettant, à la lumière de nos connaissances en physique, de
sur des réalités physiques. D'ailleurs, en 1973, les physiciens qui ne se contentent pas
d'accepter les idées à la mode se détachent de cette théorie.
Ainsi, je devais par intuition et par quelques calculs, confirmer en moi l'idée que l'espace
loin d'être vide est un milieu énergétique anisotrope. En effet, l'énergie étant pesante,
puisque formée d'éléments à la fois matériels et ondulatoires, les photons, on peut penser
que ces derniers réalisent une texture que l'on pourrait rapprocher de celle de l'espace
aérien circumterrestre. Il devient donc possible de transposer dans ce milieu, mutatis
mutandi, les techniques de l'aéronautique connues ou encore à préciser.
En sachant que le premier homme qui avait quitté le sol par ses moyens avait utilisé l'air
chaud pour s'élever, c'est-à-dire grâce à une différence de densité pour un même volume,
il suffisait de faire un trou dans l'énergie pour obtenir un effet archimédien dégravitatif.
Toutefois, si le trou produit dans l'air ne semble pas influencer l'inertie de l'aérostat, des
considérations précises paraissent démontrer que le trou fait dans l'énergie spatiale peut
supprimer cette inertie, ce qui permet d'envisager la propulsion d'engins dégravités et sans
inertie à des vitesses fantastiques. Nous verrons d'ailleurs, qu'en fonction de la relation de
Broglie C2 = C'C" et dès l'instant que nous reconnaissons l'anisotropie anisobarye de
l'espace, la vitesse d'une particule doit tendre vers l'infini quand la vitesse de son onde
d'accompagnement tend vers 0, comme c'est le cas dans un espace vide d'énergie, donc
sans support pour les ondes.
De ce fait, une bonne partie de la Physique doit être réformée et en particulier
l'astronomie dimensionnelle, ce qui de toute évidence sera déchirant pour les astronomes.
Enfin, diverses considérations relatives à la particulogenèse et la comparaison des
densités respectives des particules et de l'espace m'ont amené à envisager le fait suivant :
si le proton, condensation de l'énergie spatiale est lourd, l'électron qui en est une
expansion doit se trouver en état d'antigravité naturelle, tout au moins dans le champ
terrestre, ce qui pourrait expliquer les ceintures de Van Allen, lieu de réunion des
électrons ayant échappé aux effets coulombiens protoniques. De là, à en conclure qu'un
gaz d'électrons est l'homologue dans le champ de gravitation terrestre de l'hydrogène dans
l'atmosphère aérienne, il n'y a qu'un pas à franchir, d'ailleurs confirmé par de nombreuses
expériences.
D'autre part, bien d'autres techniques telles l'application de ce que j'ai dénommé l'effet
Magnus électro magnétique ou la turbine antigravitationnelle étant utilisées comme
propulseurs polydirectionnels, nous avons d'ores et déjà en mains tous les éléments
permettant la réalisation sur notre planète d'engins proches quant à leur morphologie ou
leur dynamique cinétique des OVNIS, jusqu'ici bien mystérieux.
Enfin s'ouvre devant nous la possibilité de maitriser la fantastique énergie de l'espace
dont le gradient est d'environ 1027 joules au cm3 énergie auprès de laquelle la puissance
de la fusion nucléaire est dérisoire puisque 10 000 milliard de fois plus faible. D'ailleurs
sur ce point j’étonnerais bien des atomistes, en leur confirmant qu'ils l'utilisent déjà sans
s'en douter. En effet, l'énergie de liaison dont ils ignorent la nature n'est en définitive que
l'énergie de l'espace refoulée par cavitation au moment des réactions de combinaisons
nucléaires de fusion, la perte de masse atomique constatée n'étant compréhensible que par
un effet archimédien démassifiant.
L'homme devient ainsi à même de se mesurer avec la puissance des extra-terrestres et il
reste à espérer que cela ne donnera pas lieu à des chocs titanesques comme il semble s'en
être déjà produit. en d'autres cieux, si l'on en croit les légendes. Puissions nous toutefois
espérer que l'évolution de l'intelligence nous apportera la sérénité et non la destruction
qui, parait-il, nous est promise pour la fin des temps. Et quand je dis la fin des temps, il
ne saurait s'agir que de notre épopée terrestre, car le temps, création mathématique et
simple opérateur pour faciliter la compréhension anthropomorphique des phénomènes
physiques, n'existe nulle part en soi !
L'Univers, tout comme l'intelligence suprême de l'espace PSI, a toujours existé et n'aura
pas de fin, mais pour l'homme qui naît, vit et meurt, qui voit chaque jour se lever et
disparaître le soleil, l'idée de temps ne saurait être conçue que comme celle de
recommencements éternels au sein de l'éternité immuable.
Perpignan, le ler juin 1972
distances».
Cette formule permet ainsi à LEVERRIER la découverte de NEPTUNE et de déterminer,
grâce à la balance de torsion, la constante K de l'attraction universelle soit :
6,67 x 10-8 CGS
Tout restait donc cartésien, c'est-à-dire conforme à la logique traditionnelle (Temps
absolu - Simultanéité - Espace absolu Euclidien - Conservation de la masse -
Composition des vitesses), lorsque la célèbre expérience de MICHELSON sème le
désarroi parmi les physiciens, du fait que la lumière possède une vitesse identique dans
tous les sens le long de sa trajectoire, qu'elle aille vers le Soleil ou en sens inverse.
Il semble en effet qu'il y ait une insurmontable contradiction, si l'on considère que
l'espace traversé est fixe ou entraîné par la Planète, en raison du phénomène d'aberration.
Tous les principes de la physique en sont bouleversés, le temps et l'espace perdant leur
caractère absolu et la simultanéité dépendant des observateurs. La masse augmente avec
la vitesse et l'énergie a une masse, elle est donc pesante.
C'est à cette époque qu'Einstein développe sa théorie de la relativité restreinte basée sur
un postulat :
«La vitesse de la lumière est la même dans toutes les directions et cette vitesse est une
limite à toutes les vitesses possibles dans l'univers».
Je dis bien, il s'agit d'un postulat !
Selon Einstein, la loi d'attraction se déduit des propriétés de l'espace-temps, c'est-à-dire
du fait qu'il comprend trois plus une dimension.
La présence de la matière courbe l'espace comme une boule pesante au milieu d'une
membrane élastique tendue horizontalement. Suivant cette image, une balle légère en
mouvement aurait une trajectoire rectiligne, mais la déformation due à la boule pesante
crée un entonnoir autour duquel la boule légère se met à tourner.
Ainsi donc pour Einstein il n'y a pas d'attraction, mais simple déformation du milieu, et la
loi de Newton devient :
«Dans un champ gravitationnel la ligne d'Univers est une géodésique».
Nous aboutissons ainsi à une formulation de 10 équations à 10 inconnues et sur ces quatre
termes il en est un λ = I / R2 faisant apparaître une force de répulsion correctrice de
l'attraction, ce qui parait évident dans le schéma relativiste.
La différence entre les deux lois dépend du rapport V / C de la vitesse d'une particule ou
d'une planète à celle de la lumière.
Tout en reconnaissant qu'à l'époque, c'est-à-dire autour de 1925, les faits semblaient
donner raison à ces vues, un grand nombre des conclusions auxquelles on était arrivé font
actuellement l'objet de critiques nombreuses et il semble que cette théorie doive perdre
avec le temps tout le panache scientifique qui avait étonné au début.
Nous consacrerons d'ailleurs tout un chapitre à la réfutation de la, théorie d'Einstein, ce
qui ne saurait minimiser son génie mathématique, afin de montrer qu'elle vient d'une
grave erreur d'interprétation de l'expérience de Michelson, due elle-même à une
conception erronée de la constitution physique de l'espace cosmique.
Certes, la correction apportée à la loi de Newton par les équations relativistes n'est pas
négligeable, mais elle est encore insuffisante pour englober des anomalies indubitables,
telles que les oscillations gravitationnelles des étoiles doubles et surtout les étranges
réactions du pendule de Maurice Allais au moment précis d'une éclipse lunisolaire.
En dehors d'anomalies de rotation du plan d'oscillation qui contrarient les expériences de
Foucault, il apparaît lors d'une éclipse une rotation de ce plan de 13° à l'instant précis ou
la Lune s'interpose entre la Terre et le Soleil, retrouvant son point de départ lorsque cesse
la conjonction.
Cette anomalie démontre un effet d'écran pour la gravitation, ce qui oblige à admettre que
les lois de Newton et d'Einstein ne sont pas rigoureuses.
Cette expérience permettant théoriquement d'évaluer la vitesse de transmission de la
gravitation avec une certaine exactitude, il est bon de rappeler que les physiciens et
astronomes qui ont étudié la question arrivent à des conclusions différentes.
Pour Bernouilli cette vitesse était de l'ordre de 2 à 4 km/s, Laplace l'estimait à 128000
fois la vitesse de la lumière, Gerber pensait qu'elle était de l'ordre de celle de la lumière,
alors qu' Armelini propose 1600 fois cette vitesse !
En conclusion, il nous faut bien avouer que si Newton et Einstein ont établi des rapports
entre des grandeurs, décrivant en formules le champ de gravitation, aucun des deux n'a
donné du phénomène une explication cohérente. C'est d'ailleurs le grand reproche que je
fais à tous les physiciens mathématiciens que, dans tous les domaines, la formulation
mathématique, aussi complexe qu'elle soit, semble être surtout faite pour cacher
l'incompréhension fondamentale que nous avons des phénomènes.
Certes, définir un champ par un ensemble de tenseurs permet de mesurer certaines
grandeurs, et par là même un certain nombre de conséquences logiques, mais l'explication
ultime du substratum du champ reste toujours aussi mystérieuse et incompréhensible.
Newton et Einstein constatent et calculent, mais c'est tout. Et cela ne serait pas grave si
certaines déductions issues de l'imperfection des bases de la formulatiqn n'étaient
fallacieuses et, de ce fait, mettaient le physicien dans l'impossibilité de créer une synthèse
et une exacte représentation de la réalité physique.
J'estime personnellement que les conclusions de la relativité (par les «tabous» et les
«interdits» qu'elle a créés), ont freiné le progrès scientifique, plus particulièrement en
matière d'antigravité, problème théoriquement insoluble dans un univers relativiste, alors
que les simples déductions logiques de la physique antérelativiste, c'est-à-dire basée sur
l'existence d'un champ de gravitation énergétique et non sur un espace géométrique dénué
de matérialité mais courbe, auraient dû amener les physiciens aux mêmes solutions que
celles que je présenterai par la suite.
Il est nécessaire toutefois de rendre à César ce qui lui appartient et Newton, lui-même,
vers la fin de sa vie déclarait :
«Supposer qu'un corps puisse agir à distance sur un autre à travers le VIDE sans
intervention d'un intermédiaire quelconque, paraît une telle absurdité que je crois
qu'aucun homme capable de penser philosophiquement ne pourra admettre un tel fait ! »
Et pourtant Einstein et tous ses disciples l'ont cru. Ils ont même soutenu qu'une onde
électro-magnétique pouvait se propager sans milieu énergétique.
Cette aberration reste le fait de la déformation mathématique de certains cerveaux
schizoïdes, et je ne sais plus qui a dit :
«Un mathématicien n'est pas forcément intelligent »
Il apparaît que ce dédain pour la logique des origines de la gravitation a eu des
conséquences fâcheuses et que la science a eu grand tort de ne pas essayer de pénétrer
dans la série des causes et des effets.
Faute de ces éléments, on ne pouvait songer à lutter contre la gravité que par des
techniques brutales balistiques utilisant, comme me l'écrivait von Braun, la seule force de
la réaction, fonction de l'unique technique à ce jour employée par l'URSS et les USA.
Certes le jeu complexe de la fusée et de la balistique a permis à l'homme de fouler le sol
Lunaire et cela est de toute évidence un premier pas vers les étoiles, mais à quel prix !
Pour obtenir cette victoire éphémère, puisque le programme américain semble en fin de
course, il n'a pas fallu moins de trois millions de kgm pour porter sur notre satellite deux
LE GRAVITON
Dans mes premiers essais sur l'antigravité, j'avais dénommé photons les particules de base
de l'énergie cosmique, c'est-à-dire le complexe particule-onde, mais de nombreux auteurs
ont défini cette dualité sous le nom de graviton et il semble que l'on veuille le considérer
actuellement comme un ensemble de neutrinos. Mais l'espace cosmique ne renferme-t-il
qu'une seule forme de particules ? L'avenir le dira. Quant à moi je penserais plutôt à une
complexité de types plutôt qu'à une unité, leur découverte étant extrêmement délicate du
fait de l'infini petitesse de ces particules d'ordre de masse l0-60 g à 10-80 g et leur
observation étant très difficile contrairement à celle des particules atomiques.
J'extrais de l'admirable étude de Jean Galy parue dans le bulletin de la SAPT de juillet
1959, qui me sert de canevas pour cet historique des études sur la gravité, ce qui suit à
propos du graviton :
«La particule (dénommée graviton avant même qu'on eut prouvé sa réalité) ne serait-elle
pas ce que Pauli, il y a une trentaine d'années, avait appelé le neutrino ? Le neutrino
mystérieux conçu pour expliquer la radioactivité Beta:
NEUTRON - NEGATON donne
PROTON + RADIATION GAMMA
Le négaton expulsé a une énergie variable ce qui est anormal.
Mais l'anomalie principale réside dans le fait que si l'on additionne la masse du proton
celle du négaton et l'énergie de celui-ci convertie par la formule Mc2, on ne retrouve pas
la masse du noyau primitif. Son existence fut après hésitations, admise par la plupart des
physiciens. On décrivit ce fantôme, il restait à le capturer.
En 1956 on organisa, pour effectuer cette capture, un ensemble expérimental près des
piles atomiques de la Savannah River. Le principe réside dans la réciproque de la
radioactivité Beta.
Si NEUTRON - NEGATON donne PROTON + NEUTRINO la réciproque doit
donner :
PROTON + NEUTRINO = NEUTRON + POSITON
Dans la première réaction la charge Z du noyau augmente de 1 dans la deuxième elle
diminue de 1.
Les neutrinos doivent être fournis à raison de trillons à la seconde par les piles. Les
protons sont donnés par les noyaux d'hydrogène de l'eau d'une cuve de quelques centaines
de litres. Cette eau contient un sel de cadmium. La cuve est protégée contre les particules
parasites par des cuirasses de plomb et de bore. Un liquide scintillant au passage d'une
particule énergétique visualise les réactions.
On doit avoir deux séries de scintillations :
Le positon passant dans le liquide scintillant ionise les atomes (premier éclair) puis
s'annule avec un négaton en produisant de l'énergie et deux radiations gamma. Le tout
dure 10 trillionièmes de seconde.
Le neutron formé par le neutrino et le proton est absorbé par le cadmium en donnant en
quelques microsecondes trois raies avec nouvelles scintillations.
Le déroulement régulier de ces phénomènes prévus décèle l'existence du neutrino.
De même que le champ de Fermi semble être le champ de gravitation, le neutrino semble
bien s'identifier au « graviton».
Ainsi donc le champ de gravitation serait un complexe énergétique à base de gravitons
c'est-à-dire de particules pratiquement sans inertie du fait de l'extrême ténuité de leur
masse ce qui leur permet de traverser des épaisseurs de matière (2000 Al de Pb).
«LA CONTRAGRAVITE»
A la lumière de ces représentations physiques, il semble donc au premier abord que la
solution du problème de l'antigravité soit des plus ardues, et pourtant nous assistons
depuis des siècles à des manifestations indiscutables de phénomènes antigravitatifs
prouvant que cette solution existe et doit être possible.
Parmi ces phénomènes, on peut citer les phénomènes de lévitation, c'est-à-dire le
soulèvement spontané ou produit par télékinésie d'objets et d'êtres humains.
Depuis des temps immémoriaux, ce phénomène a été relaté aussi bien chez, les
Egyptiens.qui en faisaient le test essentiel de l'authenticité de leurs prêtres capables de
s'élever dans l'air, que chez les Astèques (hommes volants). Quant à certains monuments
gigantesques épars dans le monde, ils n'ont pu être érigés par la mécanique ou la force des
esclaves... ?
On cite d'autre part de nombreux mystiques qui ont étonné par les lévitations qu'ils
manifestaient.
Selon l'Ingénieur-général Cordonnier, du CNRS, les aspirations métaphysiques vers le
Ciel peuvent produire soit des courants, soit des polarisations et des résonances vis-à-vis
des ondes gravitationnelles. Plusieurs explications sont possibles, et nous verrons que
certains effets physiques peuvent en donner la raison.
On sait qu'une note musicale correctement modulée est capable par résonance de briser
un objet de verre, et pourquoi pas de créer un effet antipondéral ?
Indiscutablement, c'est donc de ce côté que doivent se porter les recherches, mais pour ne
rien passer sous silence, je crois utile de signaler les travaux soviétiques d'Ivanenko et de
Kapitza qui estiment qu'au zéro absolu les mésons sont gelés et qu'en conséquence l'effet
dynabarique de Heim doit alors être nul et par là même l'effet de gravité.
D'autres travaux russes sont axés sur l'antimatière dont certains théoriciens pensent
qu'elle doit être repoussée par la matière, mais il s'agit là une fois de plus de théories
issues de travaux mathématiques qui ne semblent pas avoir de rapport avec la réalité, si
j'en crois les résultats d'expériences ayant surtout abouti à de formidables déflagrations et
à la mort de techniciens.
Je ne saurais passer sous silence l'effet Brown dont l'expérimentation en France fut un
échec cuisant, les marchés de l'Etat ayant préféré confier à un étranger le financement qui
m'avait été primitivement accordé... Mais nous sommes en France et depuis des siècles
rien n'a changé, nul n'est prophète en son pays. Pourtant nous sommes les pionniers de
toutes les découvertes, excepté les chemins de fer, qui ont révolutionné les techniques et
la civilisation.
Quoiqu'il en soit restons optimistes, l'expérience prouvant que dans toute technique
révolutionnaire il faut un temps de mûrissement. Reconnaissons toutefois que les
procédés antigravitatifs ouvrent la voie à des perspectives prodigieusement riches de
possibilités nouvelles, qui impliqueraient la mise au rancart de nos techniques
actuellement florissantes. Par contre les toits ou les terrasses des habitations deviendraient
fonctionnels.
La civilisation entrerait de ce fait dans un univers à trois dimensions et peut être même à
quatre, le temps ayant perdu son aspect habituel théorique pour devenir un élément
énergétique efficace.
L'antigravité permettrait même l'utilisation directe de l'énergie spatiale, non plus sur des
techniques de fusion ou de fission, mais par un retour aux bases de la mécanique
traditionnelle. L'énergie cosmique ainsi domestiquée serait inépuisable aussi bien en
durée qu'en puissance.
Certes, on conçoit que la texture des sociétés dans nos civilisations archaïques exploserait
et de ce fait on comprend que les gens qui en tirent profit soient confrontés à des
problèmes humains d'intérêt.
Mais pourquoi ne pas envisager qu'une telle révolution puisse être réalisée avec assez de
rapidité pour que chacun y trouve son intérêt immédiat ?
Hélas ! le pire écueil reste l'inertie intellectuelle et, si j'en juge par mon expérience, bien
peu d'individus attachés à leurs habitudes semblent intéressés.
Et je ne citerai que le Professeur Boris Koukarine, vice-président du conseil astronautique
soviétique qui déclarait le 4 janvier 1959 : «L'approche des étoiles, un vol dans leur
direction présente pour nous un intérêt exceptionnel. Le lancement de la fusée cosmique
vers la Lune démontre indiscutablement que nos rêves deviendront bientôt réalité ».
Koukarine se moque du monde, le lancement de la fusée même en 1972 ne permettant pas
d'avancer d'un millimètre «relatif» dans l'exploration des espaces cosmiques
intersidéraux.
Certes, penserez-vous, même avec l'antigravité les Relativistes démontrent ou plus
exactement postulent qu'il faudrait quand même près de 8 années aller-retour à la vitesse
de la lumière pour explorer le Soleil le plus proche du notre c'est-à-dire Alpha Centauri.
Heureusement tout cela est erreur grossière, l'antigravité devant supprimer le temps et
l'espace et même l'inertie de la matière sous tous ses aspects solides ou biologiques.
Ces problèmes seront étudiés en leur temps.
Je dois dire que depuis cette expérience de jeunesse, j'ai reçu à examiner de la part de
techniciens bien des projets analogues mais aucun aussi étudié que celui de l'ingénieur
astronome Emile Drouet, paru dans un hebdomadaire parisien à la date du 30 juin 1947.
M'étant mis en rapport avec ce technicien, nous devions échanger nos vues pendant plus
de six années. Je possède personnellement plus de quatre kilos de lettres et documents et
mon correspondant en a certainement autant.
Le projet Drouet basé sur le principe que j'ai décrit était grandiose, il s'agissait en effet du
tore astronautique un immense engin de près de 200 mètres de diamètre, constitué par un
tore pouvant flotter ; ce tore étant équipé de plusieurs volants disposés suivant des axes
horizontaux dont le prolongement virtuel se confondait au centre de révolution du tore.
Les volants étaient accélérés par des moteurs électriques ou à carburant, et l'ensemble de
l'appareil propulsé lui-même sur le plan d'eau en rotation grâce à des hélices
aérodynamiques.
Fig. 2.
modifier le destin !
Certes, j'étais physicien, mais après tout la biologie et plus tard la psychiatrie qui me valut
le diplôme de l'Université, n'étaient-elles pas les plus fantastiques des mécaniques de la
nature, et ces sciences n'englobaient-elles pas la totalité des connaissances humaines en
physique et chimie ?
C'est dans cet esprit que je devais effectuer les années de faculté et me trouver par la suite
affecté dans divers postes de l'armée en métropole et aux colonies.
Devais-je regretter cette situation. Je ne le crois pas car s'il est reconnu que le métier de
médecin des armées en temps de paix laisse une très grande liberté d'action, j'en profitais
pour reprendre mes études et mes recherches en physique.
Puis est venue la guerre. Après la libération, je démissionnais pour me consacrer à mes
travaux.
Nous sommes en 1947, époque où je collabore avec l'ingénieur Emile Drouet comme
je l'ai décrit précédemment, époque aussi où je réalise une oeuvre sociale au profit des
cheminots victimes de la guerre, oeuvre certes essentiellement humanitaire, mais dont
j'espérais la reconnaissance de la SNCF. Je pensais qu'elle m'apporterait une aide sur le
plan mécanique pour réaliser l'engin dégravité selon mes techniques de l'époque !
Hélas, j'ai appris que le dévouement ne servait à rien ici bas, ayant été remercié de mon
activité sociale par de belles paroles très éloquentes, mais en définitive par la plus noire
des ingratitudes, les responsables SNCF ayant non seulement oublié leurs promesses,
mais ayant mis de plus sur le compte des ouvriers du rail mon oeuvre exécutée seul avec
l'aide de mon épouse au cours de plus de six mois de travail dans un wagon spécialement
aménagé sur mes plans.
Cet épisode pénible est une triste expérience de la valeur morale de l'humanité, et par la
suite cela n'a cessé de se confirmer au sujet de mes travaux sur l'antigravité, tout étant fait
dans les milieux scientifiques pour m'éliminer en tant que chercheur indépendant et isolé.
Faute d'aide matérielle, je ne pouvais qu'espérer en un miracle, mais comme il est dit
«Aide-toi, le ciel t'aidera», après avoir déposé un certain nombre de brevets, étant bien
entendu féru d'aviation et pour cause, je redéposais un dossier pour une voiture
automobile volante permettant de se propulser sur route et, par envol vertical, dans les
airs.
Le projet devait intéresser des amis et un ingénieur de l'aéronautique.
Toutefois, devant l'importance des frais envisagés pour le prototype, il fut décidé de faire
des calculs en vue d'un avion de tourisme normal mais possédant un coefficient de
sécurité absolu.
J'introduisis dans sa réalisation un de mes brevets hypersustentateur qui devait se révéler
remarquable d'efficacité comme nous le verrons.
Les calculs terminés, et la maquette réalisée en vue d'essais en soufflerie à Banlève près
de Toulouse, le prototype fut réalisé en partie par moi-même, en partie par des ouvriers
spécialistes d'aviation, surtout pour les éléments métalliques.
Malheureusement, alors que j'avais espéré un Continental comme élément moteur,
l'ingénieur avec lequel je collaborais, étant ami avec un autre constructeur de moteurs
dont je tairai le nom, c'est ce dernier type de moteur qui fut choisi.
Le prototype, réalisé en version quadriplaces, ailes hautes, était prêt pour les essais, mais
il fallait encore vérifier les éléments des couloirs de refroidissement du moteur, le
quatrième cylindre exigeant un supplément d'aération.
Cela tout le monde le savait, mais le destin était là une fois de plus.
En effet, alors que j'avais formellement demandé de ne rien faire en dehors de ma
L'instant était émouvant, car demander à la nature une réponse oui ou non confirmant ou
infirmant quarante années de cogitations conscientes ou subconscientes, était évidemment
dramatique et j'avoue être resté plus d'une semaine avant d'oser mettre en charge le
dispositif.
Enfin je jetais les dés fermant les yeux de peur d'être déçu, mais au bruit de la réaction je
compris qu'il s'était passé quelque chose.
En effet, sous l'influence de la charge le condensateur s'était élevé brutalement et se
maintenait en équilibre dégravitatif et cela autant de fois que l'on renouvelait la charge
celle-ci au bout d'une à deux minutes s'étant dissoute dans l'air tandis que le bras de levier
du trébuchet reprenait sa position horizontale.
Fig. 5
Certes, il importait d'éliminer les puissants effets électrostatiques et d'opérer dans un
espace exempt de la présence de masses, en dehors bien entendu de l'atmosphère.
Je montrais cet effet à des amis qui en parlèrent autour d'eux et pendant quelques mois ce
fut dans mon laboratoire un défilé de curieux plus ou moins techniciens ou convaincus.
J'avais été invité entre temps par Marc Thirouin, Directeur fondateur de la revue française
« Ouranos », spécialisée dans les recherches sur les OVNIS, à venir exposer mes travaux
dès 1955 à Paris. C'est à cette occasion que Jacques Bergier, qui avait assisté à une de
mes causeries, ne cacha pas l'intérêt qu'il y avait pris et diffusa un certain nombre
d'articles sur ce sujet qui me firent connaître.
Il y avait aussi parmi les membres d'Ouranos le Commandant Lenoir qui avant mon
arrivée était le théoricien inspiré du fonctionnement hypothétique des OVNIS.
Le commandant Lenoir avait ses idées, bien différentes des miennes, les siennes étant
surtout basées sur les idées officiellement admises dans les milieux scientifiques de
l'époque. Aussi, étant en relation avec les membres du CASON, c'est-à-dire les services
techniques de l'armée, il dépêcha chez moi une équipe d'enquêteurs, le Colonel Beker et
un technicien de l'Université des Sciences de Toulouse.
Ces messieurs, venus indiscutablement avec de bonnes intentions, m'écoutèrent avec
intérêt pendant quatre heures et voulurent voir mes expériences.
Et là se place un phénomène, naturel en principe, mais bien étrange en vérité, car ce jour-
là un violent orage s'étant abattu sur Perpignan causa une panne du réseau électrique toute
la matinée. L'atmosphère était moite et ionisée et les esprits certainement influencés.
Je remontais donc l'expérience du condensateur après avoir démontré qu'un système de
condensateurs coniques enchassés sur un mandrin s'allégeait de dix grammes sous la
charge de 150 kV.
Ces Messieurs ne voulurent y voir qu'un effet réactif en raison de la conicité des
armatures et j'étais bien d'accord. Mais, pour en revenir à la démonstration indiscutable de
l'effet d'allégement sur un condensateur plan, ce qui ne s'est jamais produit ni avant ni
après cette expérience aussi bien dans mon laboratoire que partout ailleurs dans le monde
Il m'était difficile de ne pas satisfaire à ces exigences, sachant par avance, vu l'originalité
de mes titres universitaires en la matière, que je ne pouvais pas m'imposer autrement, et je
considérais d'autre part que les Américains étaient nos alliés.
Nous sommes tombés d'accord sur nos conceptions réciproques, qui de toute évidence
étaient les mêmes puisqu'elles représentent avec le maximum de probabilité la réalité
physique et donc scientifique, mais je savais très bien que les Américains ont pour
habitude de puiser à toutes les sources et de trouver de bonnes raisons de se contenter de
remerciements surtout dans un pareil domaine qui est l'objectif n°1 de leurs activités. Je
pense que Costa de Beauregard ne me contredira pas ?
Je ne citerai comme preuve que le cas d'un ingénieur de mes amis qui avait inventé un
accumulateur qui se rechargeait uniquement en le chauffant dans de l'eau bouillante.
Appelé aux USA, il fut comme moi-même promené de palace en palace, entouré de
toutes les séductions américaines possibles et au bout de trois mois... remercié avec
effusion, mais malheureusement on avait découvert que quelques années auparavant un
Américain avait déjà mis au point son système ! Tout cela est courant.
Entre temps Gordon Allen avait certainement reçu des instructions «diplomatiques» et il
fut entendu que je rentrerais provisoirement en France où des dispositions avaient été
prises pour me permettre de poursuivre mes travaux.
Effectivement l'Elysée avait reçu un important dossier à mon sujet, mais je n'allais pas
tarder à être pour le moins surpris de la réception qui m'attendait !
Comme convenu je demandais un rendez-vous qui me fut accordé, puis sans raisons
remis à la quinzaine suivante, comme par un fait exprès le jour où Krouchtchev avait
rendez-vous avec le Président.
Tout le monde a en mémoire le scandale qui s'en suivit, le Soviétique s'étant brusquement
décommandé. L'affolement régnant de ce fait à l'Elysée, je pénétrais dans le sanctuaire
sans que personne ne me demande ce que je venais y faire !
Ayant erré dans les salons à la recherche d'un appariteur et' l'ayant enfin trouvé, je
demandais, ayant rendez-vous, à être présenté à Monsieur Lelong, conseiller scientifique
du Président.
Je m'attendais à un accueil conforme à celui de l'Ambassade de France à Washington, et
ma surprise fut grande d'être reçu plus que fraîchement.
Après avoir ressorti un important document, Monsieur Lelong me dit froidement :
«Qu'est ce que cette histoire, je reçois ce rapport, il me parait trop élogieux, c'est vous qui
l'avez écrit ! ».
Ma stupéfaction passée, ayant demandé à consulter le papier, je me crus obligé de lui
faire remarquer que le document était signé du Consul Général Batault.
«Je vous dis que c'est vous qui l'avez rédigé ! »
Il est des circonstances où l'homme le plus calme est en droit de s'énerver et je réponds :
«Monsieur, je reviens des USA où j'avais un contrat avec la promesse que l'Elysée
mettrait à ma disposition les éléments de recherche et votre façon de me recevoir me fait
regretter d'avoir refusé les propositions soviétiques qui, elles, n'étaient pas du vent».
Certes, mettre en cause les Soviétiques en un moment où le scandale Krouchtchev était à
son apogée, était je crois une imprudence et Lelong fort en colère me dit :
«Et bien c'est cela, allez donc en Russie».
Sur ce, je pense que personne ne me reprochera de m'être levé et d'être sorti en claquant
la porte.
Je laisse à la réflexion de chacun le soin de conclure, mais à part les amitiés et l'estime
d'un grand nombre de physiciens français, malheureusement pour la plupart
fonctionnaires du CNRS, c'est je crois tout ce que j'avais à espérer des responsables de
mon pays.
Il me faut à ce propos revenir en arrière, et rappeler qu'avant mon départ aux USA et
alors que mes exposés étaient écoutés avec stupéfaction en raison des horizons qu'ils
ouvraient en un moment où personne ne croyait à la possibilité de supprimer la pesanteur,
j'avais été pressenti devant les marches de l'Etat, rue de Grammont pour une bourse
d'étude de l'ordre de 50 millions de francs.
Le directeur, Monsieur Brangier et le sous-directeur avaient manifesté leur intérêt pour
mes conceptions, parce qu'elles ouvraient un parallèle entre les phénomènes physiques
connus et ceux de l'espace à cette époque totalement inconnus et je dirais même
contradictoires pour une analyse mathématique.
Lors de la séance, quelle ne fut pas mon étonnement de me l'entendre dire.
«Monsieur Pagès nous vous avons déjà donné 50 millions, mais les résultats que vous
avez obtenus ont été négatifs».
Certes, il y avait de quoi surprendre, n'ayant jamais et pour cause reçu de l'Etat le
moindre centime, et le drame c'est que certainement Monsieur Brangier était de bonne
foi !
D'où provenait donc cette erreur, sinon d'un organisme bien résolu à m'interdire toute
expérimentation, pour permettre à des personnalités officielles de profiter de mes vues, ce
qui s'est révélé exact par la suite, à l'occasion d'une imprudence de langage d'un membre
du CNRS.
Il se trouve que j'ai déposé des brevets, et cela est très ennuyeux, le seul espoir de certains
étant que je laisse tomber ces brevets dans le domaine publie avant 1985, date à laquelle
automatiquement je n'aurais plus aucun droit.
Si j'ajoute qu'à l'occasion d'un dîner chez la comtesse de Saint-Aubin, où Marcel Bloch
(dit Dassault) était invité celui-ci me fit dire que mes théories ne l'intéresseraient que dans
dix ans, mais qu'entre temps il ferait tout pour me faire obstacle.
Certes, je n'accuse pas uniquement Marcel Bloch (alias Dassault) d'être un adversaire
résolu, mais aussi bien des fonctionnaires du CNRS ou d'autres organismes qui ne
peuvent admettre qu'un médecin piétine avec fracas leurs plates-bandes, à la fois sur le
terrain des idées en physique, mais surtout à cause des conséquences matérielles
qu'apportent mes solutions dans tous les domaines.
Seuls les atomistes sembleraient à l'abri de cette révolution industrielle si se révélait
exacte mon hypothèse que l'énergie de FUSION n'est que l'énergie de l'espace qui se
manifeste dans certaines réactions à l'échelle de sa puissance.
Les ouvertures que fait prévoir la domestication de l'énergie spatiale sont étonnantes de
possibilités, et si je me permets d'en parler c'est qu'ayant exposé cette vue à Rome devant
un parterre de physiciens et d'atomistes, ma démonstration fut accueillie avec le plus
grand intérêt, un des physiciens présents s'étant même levé pour vérifier au tableau par
ses calculs l'exactitude de cette hypothèse.
L'humanité est ainsi faite que le plus grand ennemi du progrès est l'intérêt momentané des
gens en place et la fatuité de beaucoup, et ce n'est pas pour rien que l'on monte en épingle
l'Effet Inertiel de Spin du Professeur Costa de Beauregard, car il s'agit d'un officiel.
Pourtant cet effet ne se révèle qu'au microscope et n'est acquis qu'à la suite
d'invraisemblables calculs et hypothèses.
Il serait en tout cas difficile d'expliquer les difficultés que l'on accumule autour de moi
sans parler du discrédit dont je suis victime auprès de mécènes éventuels qui désirent à
juste titre m'aider dans mes recherches et se documentent auprès du CNRS ce qui est
normal.
J'en ai eu un exemple frappant avec le peintre Salvador Dali qui pourrait en témoigner.
Dix années ont donc passé apparemment stériles, étant dans l'impossibilité matérielle
d'expérimenter à une échelle convenable d'énergie, mon microlaboratoire ne disposant
que de quelques kW alors que les puissances nécessaires sont des Mégawatts.
Mais rien ne se perd dans la nature a dit Lavoisier, encore un grand précurseur
récompensé par la guillotine, et si la France s'obstine dans cette neutralisation de ses
possibilités, l'étranger est d'une autre qualité et infiniment plus compréhensif.
Je n'insisterai pas sur les Soviétiques et les USA dont j'ai longuement parlé, mais sur nos
voisins les Allemands, les Autrichiens et les Italiens.
Dès la parution, en 1958, des premiers articles de presse et des premiers documents
photographiques sur mes expériences, je recevais de l'ex-Général allemand Werner von
Engel, organisateur de l'aviation militaire dans divers pays que je ne puis divulguer, une
invitation à nous rencontrer à Genève pour discuter du problème de l'antigravité, mes
conceptions lui paraissant assez voisines de celles d'un de ses ingénieurs l'Autrichien
Erich Halik.
Un projet de contrat fut élaboré et par la suite Halik ayant répété sous toutes leurs formes
mes expériences du condensateur de gravité, me communiquait ses résultats très
supérieurs à ceux que j'avais obtenus parce qu'il disposait d'un appareillage plus
perfectionné.
Ses conclusions étaient que mes théories en physique étaient vérifiées et qu'il fallait
continuer dans cette voie.
Toutefois et si j'anticipe, je ne me suis jamais expliqué la raison pour laquelle l'Allemand
Burkhart Heim se défendait de travailler sur l'antigravitation, insistant pour qu'il soit
convenu qu'il n'étudiait que la dynamique des champs.
Je présume que des raisons très particulières de même nature ont fait que W. von Engel
semble avoir lui-même mis ses travaux en veilleuse, son ingénieur Halik ayant été affecté
aux usines d'armement à Vienne en Autriche d'où il me tient au courant de ses travaux,
après avoir passé une semaine dans mon laboratoire de Perpignan.
Je suis d'autre part en liaison permanente avec un ingénieur d'origine tchécoslovaque qui
a donné bien des ennuis à la DST du temps où j'étais sous la protection de cet organisme,
celle-ci le prenant pour un espion, bien à tort j'en suis persuadé.
Mes relations avec l'Etranger devaient trouver leur aboutissement le plus marqué avec
l'Italie.
Invité en effet à me rendre à Rome devant un groupe de recherche comprenant d'éminents
physiciens, le premier exposé que je fis dans une salle de réunion des ingénieurs
ferroviaires à Roma Termini fut accueilli avec l'exubérance qui marque même les
hommes de sciences italiens, et mon point de vue sur les forces de liaison que je
considère comme dues à la pression de l'énergie de l'espace et non pas à des symboles
mathématiques destinés à cacher notre ignorance, fit l'objet d'une importante discussion.
Un des physiciens présents (qui ressemblait curieusement physiquement à Einstein)
s'étant levé pour aligner quelques équations au tableau et en ayant conclu que j'avais
indiscutablement raison, je me suis fait au delà des Alpes les meilleurs amis possibles. Il
fut alors décidé qu'un congrès international prévu pour l'année suivante permettrait aux
spécialistes internationaux de l'espace de comparer leurs points de vue.
Ainsi fut fait et c'est au Ministère de l'Air à Rome quelques mois après que, reçus avec
tous les honneurs militaires, les congressistes parmi lesquels se trouvaient une
cinquantaine de techniciens, eurent l'occasion de se rencontrer.
C'est ainsi que je devais prendre contact avec le très célèbre Burkart Heinrich Heim, ex-
collaborateur de von Braun à Peenemünde et inventeur des V1 et des V2. La science est
ainsi faite que du jour au lendemain elle réunit dans un idéal commun ceux qui se sont
combattus la veille.
J'ai exposé que pour Heim le champ mésonique des protons est le facteur de l'attraction
créant le champ dynabarique, le champ magnétique devait être par contre contrabarique.
C'est dire que son point de vue restant fidèle à l'espace Einsteinien se développait dans un
univers théorique mathématique, et en effet la base de ses calculs repose sur un espace à
six dimensions, alors que l'espace d'Einstein est à dix équations, à dix inconnues.
La mathématique comme j'ai eu déjà bien souvent l'occasion de le dire est un merveilleux
outil puisque devant l'incompréhension de bien des mécanismes physiques de la nature, il
arrive à en donner une solution. Mais, qui ne comprendra la supériorité du raisonnement
intuitif logique en comparant l'extrême complexité du point de vue relativiste avec ma
propre conception, élaborée pourtant dans la plus complète ignorance des calculs de
Heim ?
Certes la base de mon raisonnement est des plus simples.
Le champ de gravitation est analogue au champ créé par la présence de l'atmosphère. Il
est composé de particules, les gravitons, qui ont une masse et qui pèsent puisque l'énergie
est pesante sous toutes ses formes puisque matérielle.
En conséquence, puisqu'il était possible de se dégraviter dans l'atmosphère. aérienne en
créant une dépression c'est-à-dire en réalisant une zone de moindre densité grâce à un gaz
de même énergie interne mais moins dense, il était donc possible de s'élever dans l'espace
gravitationnel par le même procédé.
La comparaison des vues mathématiques dynabariques et contrabariques de Heim, et des
miennes basées sur le fait, facile à calculer, que la densité des protons étant supérieure à
celle du milieu spatial alors que celle des électrons est plus de quatre cent fois inférieure,
c'est en utilisant un gaz d'électrons obtenu en «déprotonisant» la matière qu'il était
possible de la dégraviter.
Heim. donnait donc l'aspect mathématique du problème, alors que j'apportais la solution
pratique, et par la même la plus économique en énergie puisque utilisant uniquement des
«trous» préfabriqués par la nature, c'est-à-dire les électrons.
Certes, une longue conférence, faite d'ailleurs en dehors de ma présence, avec les
admirateurs de Heim, devait conclure à la symétrie de nos points de vue et, en
conséquence, à en déduire quelle était la seule voie logique à suivre pour la solution du
problème de la suppression de la pesanteur, problème considéré comme insoluble encore
à l'heure qu'il est par beaucoup de physiciens conformistes, surtout dans les sphères
universitaires.
C'est à la suite de ce congrès qu'il fut décidé de déposer les bases de l'organisation dite :
«Centre Européen de Recherches sur la Gravitation», Heim et moi-même étant à la tête
des membres fondateurs.
D'autres congrès, suivirent et par l'arrivée de physiciens américains, le CERG devint
international.
Je suis bien entendu tenu au courant des travaux réalisés dans les laboratoires Italiens qui
ont toujours confirmé les projets que je leur ai confiés et un contrat m'en garantit la
propriété, toutefois sur le plan de l'aide gouvernementale les Italiens ne semblent pas
mieux placés qu'en France et la plupart des travaux sont réalisés aux frais des coopérants.
Voilà donc où j'en suis personnellement en 1972, après quinze ans de lutte et de sacrifices
pour instaurer sur la planète l'ère de la maîtrise des forces de gravitation.
Antigravitation 1957
L'inversion de la résultante pondérale par effet archimédien sur la densité énergétique de
PHOTONS
Du temps de Newton, la lumière était considérée comme une projection de photons, c'est-
à-dire de grains d'énergie, puis par la suite, et après Maxwell, comme une onde de
propagation.
De nos jours les physiciens admettent avec juste raison que les deux modes existent
simultanément, mais reconnaissent que les vitesses de l'onde et des photons ne sont pas
toujours synchrones, en particulier dans la traversée des solides transparents.
Toute la physique quantique reconnait ce grain d'énergie.
Toute la physique atomique admet que toute particule est créée par un PHOTON et qu'en
conséquence l'Univers entier est en premier lieu un plenum de photons.
Pourquoi ne pas admettre que tout vient des photons et que le premier aspect du cosmos
n'a été en définitive qu'un gaz de photons (Fiat Lux !).
Certes le photon possède une personnalité curieuse, puisqu'issu du vide dans lequel il
baigne, il semble être à la fois onde et particule.
C'est en définitive un grain d'énergie insécable, mais qui s'accompagne d'une onde dans
certains aspects de sa cinématique.
Ainsi défini, nous pouvons, grâce à lui, édifier notre atmosphère énergétique, sorte
d'immense bulle d'un gaz formé du mélange de ces photons primaires et des particules
que leur condensation a créés. Ce milieu bien distinct de l'espace réellement vide dans
lequel il baigne est en perpétuelle oscillation puisque traversé par tous les rayonnements
électro-magnétiques dont il est le support et qu'il engendre.
Il ne s'agit pas en l'occurence d'un retour à l'éther, puisque le milieu cosmique général
reste bien parfaitement vide de toute matérialité, mais plutôt de la condensation sous
l'influence des bombardements cosmiques venus de toute part de l’Univers, de bulles
d'énergies perdues dans l'immensité du vide cosmique et qui produisent en leurs centres
de gravité des soleils et leurs satellites planétaires en raison de la pression énorme qui y
règne.
Nous verrons en fin de chapitre que cette Cosmogonie explique très parfaitement
l'histoire du monde, mais auparavant revenons sur l'analyse comparative entre
l'atmosphère aérienne qui nous entoure et l'atmosphère photonique du champ de
gravitation.
La composition de notre atmosphère aérienne est caractérisée par :
AZ0TE - 0XYGENE - ARG0N - XEN0N - KRYPT0N – ELECTRONS – IONS,
ces atomes étant agités d'oscillations thermiques désordonnées qui créent une pression et
qui sont cause de frottements sur des masses et volumes en translation.
L'air possède de ce fait une densité et une pression variables avec l'altitude, la hauteur
moyenne étant de 200 km.
Quelles réactions ces deux caractéristiques vont-elles donner sur un volume matériel qui
baigne dans ce milieu et qui lui est imperméable ?
Prenons l'exemple du corps humain dont la surface est environ de un mètre carré.
La force de pression totale sera donc de 10 tonnes ou 10 millions de grammes, répartie
sur toute la surface.
D'autre part notre corps déplace environ un volume de 80 litres d'air et subit de ce fait une
perte de poids archimédienne de 100 grammes !
Nous constatons ainsi une énorme différence d'action entre les forces de pression et de
«dégravitation» dues à l'atmosphère soit un rapport de :
Cent mille fois au profit de la pression !
Plaçons nous maintenant dans le milieu gravitationnel solaire au niveau de la Terre par
exemple, nous constatons qu'il se manifeste bien aussi deux types de phénomènes qui
semblent dus à la même cause et qui diffèrent par un rapport énorme.
En effet il existe entre deux masses d'hydrogène de un gramme placées à 10 mètres de
distance, une force d'attraction gravitationnelle de :
6,7 . 10-14 dynes.
Par contre, la force coulombienne due à la pression qui se manifesterait si ces masses
étaient ionisées, et si les éléments protoniques étaient placés à la même distance des
électrons, serait de
0,8 . 1014 TONNES ! ou 0,8 . 1023 dynes.
Le rapport d'action étant donc de
1,2 . 1036 (D'après Gérardin)
Comparons ces deux résultats et tirons en les conclusions :
Dans l'air atmosphérique pression et densité sont fonction de la masse des molécules que
multiplie le carré de leur vitesse d'agitation, que multiplie la hauteur totale de l'ensemble.
Dans ce cas la masse est relativement grande (14 et 16 . l0-24 g.masse).
La vitesse étant elle relativement petite soit :
1000 à 2000 mètres par seconde.
La hauteur du milieu étant de 200 km environ.
Dans l'atmosphère photonique gravitationnelle les mêmes valeurs diffèrent
considérablement :
En effet si la masse du photon est extrêmement petite, mais réellement non nulle, sa
vitesse d'oscillation peut être très voisine de celle de la lumière et sa hauteur d'action étant
fonction des dimensions du champ de gravitation solaire celle-ci doit avoisiner :
100 000 000 000 de km.
Nous voyons donc, dans un très large tour d'horizon, une symétrie parfaite entre les
caractéristiques de l'atmosphère aérienne et photonique matérialisée, sous forme de deux
actions distinctes mais de même origine à savoir :
La densité locale et la pression locale.
Ce qui nous amène à considérer le problème de l'unité des champs comme résolu, c'est-à-
dire que :
Il existe un champ unique énergétique gravitationnel.
1° Les effets de gravitation sont dus à des effets archimédiens par différence de densité
énergétique locale et effets d'écran sur les radiations qui peuplent ce milieu. Radiations
dont la propagation est d'ailleurs modifiée en fonction de cette densité variable
localement.
2° Les effets de différence de pression détermineront les forces coulombiennes
électrostatiques et magnétiques.
L'effet électrostatique étant donné par un champ de photons électroniques en sur ou sous
pression, mais en agitation désordonnée.
Les effets magnétiques étant au contraire matérialisés par un champ de photons
électroniques polarisés c'est-à-dire de spin parallèles et de même sens, ce parallélisme
étant du à la tendance naturelle d'une particule à placer son spin dans une position
parallèle au sens de son mouvement lorsqu'elle se déplace dans un milieu, la position des
pôles étant inversée suivant que la particule est un proton ou un électron.
Par contre dans un champ magnétique, le spin étant orienté par les lignes de force
perpendiculairement à sa trajectoire, il se produit une sorte d'effet Magnus électro-
magnétique qui incurve la trajectoire.
Quant aux champs mésoniques, ils représentent le maximum de la pression totale de
l'énergie cosmique refoulée par les rotations particulaires qui créent une cavitation en
son sein.
Cette conception des champs me paraît résoudre logiquement l'épineux problème du
champ unitaire sur lequel a buté Einstein.
Reste actuellement à expliquer l'effet particulier de l'attraction pondérale ou
électromagnétique.
Venant de constater l'analogie profonde qui existe entre le champ aérien et photonique,
nous allons voir comment démontrer expérimentalement la gravitation dans un milieu
gazeux.
L'expérience consiste à enfermer dans une salle hermétiquement close un groupe de
ballons, les uns gonflés à l'hydrogène les autres au gaz carbonique.
Ces ballons abandonnés en air calme, les plus légers s'éléveront vers le plafond, les autres
tomberont sur le sol, leur densité étant plus grande que celle de l'air.
En air calme rien ne se manifestera, quelle que soit la durée de l'expérience et bien que les
ballons reçoivent en tous sens les impulsions des chocs moléculaires de l'air.
Mais tout va changer si nous injectons dans la pièce soit une puissante énergie vibratoire
grâce à un sifflet à ultra-sons ou une énergie tourbillonnaire en faisant tourner rapidement
un disque autour d'un de ses diamètres.
La pièce close va en effet constituer une sorte de corps noir sonore au sein duquel règne
une énergie vibratoire et nous constatons alors que :
Les ballons de gaz carbonique s'attirent alors que les ballons d'hydrogène se repoussent,
ce qui nous permet de conclure que :
«Dans un milieu fluide au sein duquel règne une énergie vibratoire sinusoidale, les
masses de densité supérieure à celle du milieu s'attirent alors que celles de densité
inférieure se repoussent».
Ce mécanisme ne peut s'expliquer qu'en fonction des variations de l'amplitude des ondes
sonores dans les divers milieux.
Transposée au niveau du «gaz» photonique cosmique, cette loi doit expliquer que les
constituants du milieu photonique doivent s'attirer puisqu'ils «baignent» dans l'espace
vide de densité énergétique nulle et que cet espace est parcouru par des ondes de toute
nature homo ou hétérogènes et que ces constituants sont comprimés par l'impact de
particules issues de tous les points de l'univers et arrivant à des vitesses supraluminiques
(voir, par exemple, la théorie des gravitons de Mr Doliguez).
ANTIGRAVITATION
Cette hypothèse de l'espace gravitationnel considéré comme l'atmosphère énergétique du
soleil étant admise, la solution du problème de l'antigravitation est immédiate.
Représentons en effet sous forme de sphères concentriques les divers milieux matériels
ou énergétiques qui nous entourent, nous avons ainsi autour de la masse solide d'une
planète, la masse liquide des océans, celle gazeuse de son atmosphère et enfin suivant nos
conceptions celle qui est constituée par le «gaz» énergétique gravitationnel et qui, elle,
«imprègne» toute la planète et son environnement.
Au delà, il existe encore celle de l'énergie isotrope sans effet attractif et enfin le vide
absolu immatériel spatial seulement parcouru à des vitesses supraluminiques par les
particules déshabillées de leurs ondes d'accompagnement puisqu'il n'y a aucun support
pour ces ondes et aucun modérateur de vitesse pour les particules.
Or, il n'y a rien de plus facile que de dégraviter une masse de plomb au sein des océans, il
suffit de lui attacher un flotteur. De même, au niveau de l'atmosphère, un ballon à air
chaud ou à hydrogène suffisamment gonflé pourra s'élever dans l'espace aérien.
Ces dégravitations sont théoriquement gratuites puisque c'est le milieu qui fournit le
travail et non le système sustentateur, mais par contre le seul travail consistera à gonfler
le flotteur ou l'enveloppe de l'aérostat, avec un gaz plus léger ou à faire le vide à
l'intérieur.
Le même raisonnement transposé au niveau de l'énergie cosmique gravitationnelle nous
permettra de dégraviter, c'est-à-dire de soulever et maintenir indéfiniment en l'espace
une masse pesante en utilisant pour toute énergie motrice l'effet archimédien d'une
différence de densité locale entre l'énergie du milieu et celle moins dense du dispositif
dégravitant c'est-à-dire une énergie de même pression mais moins dense.
Ainsi nous passons sans transition de l'aérostation de nos pères à la cosmonautique, qui
nous ouvre toutes larges les portes de l'infini astronomique.
Toutefois si l'aérostation permet de s'élever dans l'atmosphère, jusqu'à une altitude où la
densité des fluides porteurs et portants s'équilibrent, la cinématique du ballon diffère
notablement de celle de l'engin dégravité.
En effet, dans le premier cas, le ballon est un volume ayant une traînée dans l'air qui,
après l'accélération première, va la neutraliser jusqu'à l'altitude maximale possible. Mais
pour un engin baignant en dehors de l'atmosphère dans l'énergie cosmique, l'accélération
doit pouvoir se maintenir et donner une vitesse résultante constamment accélérée et cela
probablement jusqu'à des vitesses proches de celle de la lumière dans le milieu considéré,
par conséquent très largement supérieures à la vitesse de libération.
D'autre part cette molécule gramme (Ni) occupe un volume atomique spatial de : 6,7
centimètre cubes dont une faible partie est en dépression d'énergie spatiale du fait des
électrons et de leurs mouvements orbitaux.
Nous sommes donc en droit d'exprimer que, la combinaison de 58 électrons + 58
protons donnant une molécule gramme de nickel, celle-ci chasse dans 6,7 cm2 d'espace
un poids d'énergie de 3,072 g, ce qui donne la valeur approchée de la densité locale du
«gaz» photonique c'est-à-dire de l'énergie cosmique spatiale DANS NOTRE
GRADIENT TERRESTRE; k étant un coefficient très élevé.
Cette densité approximative serait donc de l'ordre de :
500 . k grammes au dm3
Mais des calculs basés sur d'autres techniques démontrent qu'elle est près de 1014 fois
supérieure à 500 g au dm3 ( k = 1014 ). Soit
10 000 000 de tonnes au centimètre cube minimum !
En conclusion, la science relativiste a conclu au vide alors que la réalité demontre que
nous vivons au fond d'un océan énergétique de gradient fantastiquement élevé !
Il n'est donc pas étonnant que cette densité, et les pressions inimaginables qu'elle
présente, permette tout en rendant le problème de l'antigravitation parfaitement soluble
d'expliquer tous les aspects de la physique restés obscurs et formulés uniquement à grand
renfort d'hypothèses plus ou moins vérifiées et d'abstraction.
Cela prouve aussi que si jusqu'ici aucune manipulation n'a permis de modifier la
gravitation, c'est parce que, face à des forces fantastiques dont l'effet pondéral n'est qu'un
résidu, on ne peut le modifier qu'en mettant en jeu des forces aussi puissantes. Mais grâce
au ciel la nature a mis à notre disposition tous les éléments nécessaires, cachés
uniquement par les erreurs de conception des physiciens.
Poids dégravité :
CONCLUSION
Il découle de ces formules que
1° L'annulation du poids est réalisable en faisant tourner une charge autour d'une autre de
signe contraire c'est-à-dire autour du corps à dégraviter.
2° Cette dégravitation s'accompagne de la suppression de la masse efficace donc de
L’INERTIE DU SYSTEME !
En effet cette suppression de l'inertie découle du fait expérimental que les forces
d'accélération appliquées à la molécule gramme de nickel donnent un effet propulsif
fonction non pas de la somme théorique des masses des particules mais uniquement de la
masse expérimentale inférieure à la première ; alors que les masses constitutives sont
toujours présentes.
Nous en concluons donc, que compte tenu des effets quantiques, que nous pouvons
négliger,
il suffit d'accélérer l'électron autour du noyau pour ANNULER LA MASSE ET L’INERTIE.
En première approximation la vitesse de 2000 km/s qui est celle de l'électron du protium
semble donc dégraviter l'atome d'hydrogène de 0,025 de son poids réel, ce qui pourrait
paraître contraire aux conclusions relativistes, mais qui s'explique par les effets
archimédiens dans l'atmosphère photonique du fait de la cavitation que crée l'électron en
rotation.
En augmentant cette vitesse nous devons donc obtenir l'annulation du poids et de l'inertie
du protium.
L'atome ayant neutralisé sa masse doit donc atteindre presque instantanément une vitesse
préluminique sous l'influence d'une force minime, et c'est déjà le cas pour l'électron.
Il va sans dire que toute la physique actuelle doit être remaniée, les constantes ne
représentant que les caractéristiques d'un état local, variables en dehors de notre gradient
énergétique, et les vitesses orbitales des électrons étant elles-même fonction des rapports
entre les énergies matérielles rotatoires et des énergies spatiales rayonnantes.
PROTOTYPE EXPERIMENTAL
La transposition du mécanisme d'allégement par perte de masse au niveau de l'atome doit
pouvoir être reproduite à l'échelle des grandeurs usuelles expérimentalement.
En conséquence je rappelle que depuis 1921, j'ai exposé à de nombreuses autorités
scientifiques mon expérience du disque de mica lévitant, et que depuis des années, c'est
en vain que j'essaie d'attirer l'intérêt des milieux scientifiques sur cette expérience.
Voici comment j'avais procédé à cette date sans m'en expliquer exactement le mécanisme
théorique, uniquement à la suite d'un programme de recherches sur la combinaison des
forces cefitrifuges et électro-magnétiques.
Le disque de mica avait été placé sur un axe en équilibre horizontal et sur deux pointes
reliées aux pales d'une très puissante machine de Wimshurst à huit plateaux équipée de
condensateurs, cet accessoire étant de toute nécessité.
REALISATION PRATIQUE
Un appareil fiable établi sur ces principes doit présenter un certain nombre de
caractéristiques originales qui le différencient de tout ce qui est actuellement connu.
Le principe en est simple. Il consiste à faire tourner à la vitesse nécessaire, c'est-à-dire
préluminique, une charge électronique ou de caractère physique non encore précisé par
exemple, ce qui constitue la «charge» de l'électron ou du proton, lesquels semblent être
de nature identique, autour de l'engin à dégraviter.
Mais ce qu'il faut bien préciser c'est la pure analogie qui existe entre ce système de
dégravitation et celui qui permet à un aérostat de s'élever dans l'atmosphère en utilisant
non point une énergie réactive obligatoirement introduite sous forme de combustible,
mais uniquement la poussée de l'atmosphère aérienne ou énergétique qui devient
gratuite, le travail de la charge étant effectué préalablement et une fois pour toute au sol !
Cette mise en charge est gratuite pour l'aérostat à hydrogène, mais elle exigera pour
l'énergostat le travail préalable consistant à «creuser un trou dans l'énergie cosmique».
Cette énergie paraît devoir être importante, mais elle peut être injectée au sol en un temps
quelconque tout comme l'on charge un accumulateur à faible ou haut régime d'intensité.
Il s'agit en effet de lancer un volant, mais un volant d'électrons dont les caractéristiques
électro-magnétiques feront que le beam se concentrera par pinch effect en un mince tore.
Certes, il est reconnu qu'en raison des accélérations centrifuge et centripète, les électrons
doivent perdre de l'énergie par rayonnement, mais dès l'instant où l'électron qui tourne
autour du proton n'en perd pas puisque sa rotation est pratiquement constante, il n'est pas
impossible d'y pallier, ne serait-ce qu'en créant un circuit d'ondes stationnaires.
Quant au travail résultant de l'effet archimédien produit par la différence de densité, il ne
saurait influencer l'énergie du beam -tout au moins en toute logique-, l'expérimentation
restant à faire.
Une sphère d'acier intérieurement vidée au fond de la mer de son contenu et remontant
vers la surface ne saurait en effet être affectée par ce travail si ce n'est du point de vue de
sa tenue en fonction de la variation de pression.
Mais il est mathématiquement convenu que le travail à fournir au départ dans ce cas
correspondra au volume d'eau expulsé de la sphère multiplié par la pression locale.
Le problème de l'antigravitation me semble donc pratiquement résolu grâce à la mise en
oeuvre de forces naturelles ou tout au moins voyons nous dans quelle direction nous
devons orienter nos efforts.
Il ne faut cependant pas oublier que la texture de l'air est parfaitement différente quoique
analogue à celle du gaz photonique dont la viscosité est pratiquement nulle et qui de plus
ne saurait être arrêté par un effet de surface puisque pénétrant intimement la matière.
Ce milieu semble en effet jouir du privilège de l'hyperfluidité déjà démontrée au sein de
certains fluides au 0 absolu.
Nous devons donc nous attendre, non pas à une ascension à vitesse uniforme comme les
aérostats, mais à une accélération permanente fonction seulement de la densité
énergétique locale mais que la diminution progressive du facteur g au numérateur de ma
formule de dégravitation doit rendre pratiquement constante dans n'importe quel gradient
gravitationnel.
En conséquence si notre engin est repoussé centrifugement par notre planète et le Soleil
jusqu'à la limite d'action du champ de gravitation, c'est avec une vitesse énorme qu'il doit
se présenter dans un milieu vide d'énergie.
Il est à noter, d'autre part, que cette accélération étant fonction du degré de vide local
dans l'engin obtenu, nous sommes à même non seulement d'inverser la poussée G, mais
d'en augmenter l'impulsion jusqu'à une limite incalculable dans l'état actuel de nos
connaissances, mais théoriquement voisine de l'infini lors que la vitesse du beam devient
voisine de celle de la lumière, d'après ce qui résulte de ma formule.
L'éjection dans le cosmos dans une direction préalablement choisie à des vitesses
théoriquement illimitées et fonction, selon mes vues, uniquement de la densité locale de
l'énergie semble donc réalisable.
De cette densité découle obligatoirement un décalage entre la vitesse des ondes
lumineuses et des photons particules, c'est dire que si les vues relativistes sur la vitesse de
la lumière sont acceptables dans notre gradient d'énergie, elles ne le sont plus en dehors
de ce gradient qui, ne l'oublions pas, ne se modifie expérimentalement qu'assez loin de
notre Planète, banlieue du Soleil.
Nous reviendrons, à propos de mon hypothèse cosmogonique, sur ce point particulier.
EFFETS SECONDAIRES
Nous sommes évidemment libres de croire ou ne pas croire aux manifestations, pourtant
si souvent confirmées par des personnes dont on ne saurait suspecter ni l'intégrité
sensorielle ni l'intégrité morale, d'engins similaires provenant sans aucun doute d'autres
régions de l'univers, mais certainement extérieures à notre système solaire.
Il devient toutefois intéressant de comparer les effets théoriquement possibles du
SYSTEME que je propose avec ceux qui semblent avoir été si souvent constatés et
décrits, de bonne foi généralement.
Nous disposons, en définitive, d'un engin qui se présente comme un formidable et
gigantesque champ magnétique, la rotation d'une charge considérable à des vitesses
préluminiques devant créer un champ de plusieurs millions de gauss.
Que devons-nous constater dans ces conditions au voisinage de l'engin ?
1 Saturation magnétique des pièces polaires industrielles c'est-à-dire «arrêt» des
moteurs à allumage par induction.
2 Manifestations bruyantes par attraction des pièces ferro
magnétiques qui vibrent au passage des engins.
3 L'azote atmosphérique étant diamagnétique ainsi que la grande majorité des
éléments chimiques, faiblement d'ailleurs pour les champs ordinaires, ceux-ci sont
repoussés, par le flux d'induction, tout comme deux anneaux en présence dont l'un est le
siège d'un courant alternatif, l'autre étant repoussé du fait de la self-induction.
Du fait de la cavitation énergétique il se crée un vide matériel autour de l'engin, ce qui
évite tout frottement de l'air donc perte thermique et trainée, le glissement des molécules
d'air les unes sur les autres s'effectuant alors avec le minimum de perte par turbulence.
4 Enfin la cavitation imperméable dans le milieu énergétique spatial autour de l'engin va
créer des effets de réfraction qui auront pour résultat de rendre les contours de l'engin
très flous et même de le faire disparaître à la vue, les rayons lumineux déviés entourant
l'appareil et l'oeil les percevant comme venant du ciel sans être interceptés par la masse
de l'engin.
Dans ces conditions, la dégravitation archimédienne entraînant la suppression de
l'inertie, il sera donc normal de penser que la moindre accélération puisse donner à un
solide entouré d'une zone d'air extrêmement raréfié des vitesses instantanément
considérables sans que le personnel, lié électromagnétiquement au système de référence
de la sphère qu'il occupe, en soit incommodé.
Ce personnel semble en effet DETACHE du monde extérieur par la ceinture de vide
énergétique et aérien qui l'entoure. Et l'inertie, lors d'un déplacement, pouvant être
théoriquement liée aux modifications locales de l'énergie de l'espace lesquelles créent
une sorte de self induction qui tend à réagir contre le mouvement, ne peut se manifester.
5 Nous savons d'autre part que la meilleure protection contre tout RAYONNEMENT
COSMIQUE est constituée par un puissant champ magnétique qui en élimine l'action en
le refoulant.
6 Quant aux phénomènes lumineux qui entourent généralement et surtout la nuit les
apparitions d'engins ils s'expliquent facilement par l'exitation des électrons atomiques du
fait de l'ionisation intense à laquelle ils sont soumis.
Cette longue énumération correspondant intégralement aux aspects constatés au moment
des apparitions d'engins extra-terrestres il ne me paraît pas nécessaire d'insister sur
l'analogie indiscutable existant entre ces engins superévolués et la technique que je
préconise et qui remonte dois-je le rappeler à mes propres recherches dont les débuts se
CONCLUSION
Il semble bien que les systèmes permettant jusqu'ici de se libérer de l'attraction terrestre
par EFFET REACTIF doivent se réveler de plus en plus archaiques et primitifs en raison
des servitudes qu'ils présentent, et surtout du rapport de masse entre l'engin propulseur et
le matériel propulsé !
Nous disposons en effet du puissant mécanisme des forces cosmiques qui nous donne
intégralement toutes les possibilités d'atteindre l'extrême limite du cosmos à des vitesses
insoupçonnables au regard du «veto» relativiste. Il faut donc compter sur le bon sens des
techniciens pour affecter à l'astronautique archimédienne électro-magnétique, les crédits
astronomiques employés à utiliser des procédés pyrotechniques pour des résultats certes
honorables, mais plus que dépassés par les possibilités présentées dans cet ouvrage.
Dans cet espoir il me paraît toutefois utile et nécessaire de donner une vue générale du
milieu cosmique dans lequel nous vivons.
L'UNIVERS EN EXPANSION
Nous pouvons remonter au tout début du cosmos, en admettant qu'il y ait eu un
commencement. Ce qui est très discutable. En effet je préfère logiquement penser que
nous sommes dans un univers n'ayant pas eu de commencement et ne devant avoir
aucune fin, cet univers étant le lieu de transformations perpétuellement renouvelées, mais
qui, localement, ont un début, une durée et une fin.
Quoiqu'il en soit, en admettant le Fiat Lux de la Genèse, il faut admettre qu'au début
n'existait que le vide du néant, mais que de ce vide a «suinté», un jour, quelque chose
d'extrêmement ténu, les particules de base des photons accompagnés de leurs ondes.
Il est en effet curieux que le récit de la Genèse place la création de la lumière (les
ondes ? ) au tout début, ne décrivant celle des luminaires que le quatrième jour.
Matières particulaires et radiations s'étant concentrées et condensées dans certaines
régions de l'espace vide, elles ont déterminé en leur centre de pression ou de gravité une
zone de densité énergétique maximale qui est devenu Soleil.
Ce Soleil représente donc le foyer du système en fonction de la pression engendrant la
température élevée nécessaire pour la particulogenèse.
Ce passage de l'énergie à la particule peut être considéré comme une sorte de
liquéfaction avec rayonnement d'énergie du gaz primitif photonique, le cycle de Bethe
étant secondaire à cette matérialisation primaire.
Il semble toutefois qu'il doive exister un rapport «seuil» entre la masse de l'énergie
liquéfiée sous forme du soleil et celle de l'atmosphère gazeuse photonique ambiante.
C'est ainsi que le Soleil conserve depuis des milliers d'années sa masse alors qu'à chaque
seconde il émet des tonnes de matière sous forme d'énergie radiante et de vent solaire.
Mais en raison des éruptions qui semblent être dues au dépassement du seuil d'équilibre,
le soleil éjecte de temps en temps une certaine masse de sa substance qui devient
l'embryon d'une planète.
Il est logique de penser, qu'au moment de l'expulsion, la masse planétaire restant encore
liée au Soleil par une sorte de «queue» celle-ci se rompt en deux points créant entre ces
points de rupture une microplanète satellite. (Fig. 6).
Fig.6
De nombreuses expériences démontrent ce mécanisme.
D'autre part, ce mécanisme de liquéfaction entraînant une sorte de contraction, il ne va
pas tarder à se manifester un tourbillon (tout comme un liquide qui s'écoule par un trou
fait à la base d'un vase ou dans un entonnoir) et c'est la raison pour laquelle tout le
système soleil et son atmosphère photonique va se mettre à tourner, plus rapidement
d'ailleurs sur la zone équatoriale du tourbillon et selon l'image même du Soleil dont on
sait que sa vitesse angulaire équatoriale est beaucoup plus rapide qu'au niveau des pôles.
Nous en arrivons donc au système Solaire dont l'aspect est celui d'un ellipsoïde assez plat
en rotation complexe, et dont le mécanisme peut être reproduit en faisant tourner un
disque autour d'un de ses diamètres après l'avoir plongé dans un liquide renfermant des
particules qui visualisent le mouvement.
Deux mécanismes semblent actuellement prouver que les planètes éjectées du Soleil s'en
éloignent régulièrement en fonction du temps.
Il apparaît que l'ensemble de l'atmosphère solaire étant entraîné dans un mouvement
circulaire les Planètes suivent le mouvement, leur rotation étant due à la différence de
densité des couches énergétiques dans lesquelles elles baignent, à l'instar d'un différentiel
de voiture.
Il est intéressant pour étayer cette démonstration de noter quelques aspects
physicochimiques des planètes Solaires.
En premier lieu, les deux planètes les plus proches du Soleil Mercure et Vénus ne
semblent pas encore pivoter sur leur axe polaire.
Mais une certaine rotation encore mal précisée peut être enregistrée sur Vénus rotation
qui paraît être en sens inverse du sens de rotation terrestre, cela s'explique sans difficulté
par le mécanisme différentiel déjà défini.
Il est toutefois probable que Vénus une fois arrivée au niveau de la place que nous
occupons, tournera dans le même sens que la Terre.
Il est à noter d'autre part que l'axe polaire de ces deux planètes est encore pratiquement
perpendiculaire au plan de l'écliptique.
Je crois pouvoir affirmer que cet axe parvenu lui-même à notre stade d'éloignement
présentera une incidence analogue au nôtre.
En effet, toutes les planètes extra-solaires tournent dans le même sens et présentent une
incidence symétrique jusqu'à URANUS dont l'axe est en position de retournement, celui-
ci étant provisoirement dans le plan de l'écliptique.
Tous ces mécanismes ont une origine identique c'est-à-dire des lignes de force
magnétique émanant du Soleil et dont la direction dans l'espace dénote une origine qui
n'est pas confondue avec l'axe polaire du Soleil.
Quant au mécanisme de l'entraînement déterminant la rotation dans un sens ou dans
l'autre, il est la conséquence et de la différence de densité des milieux d'entraînement et
de leur vitesse locale respective, la viscosité du gaz photonique énergétique étant loin
d'être nulle surtout en fonction de son temps d'action.
Il est donc important d'en conclure que la vitesse de rotation autour du Soleil, c'est-à-dire
l'année de révolution et la durée du jour ne cessent de varier, et, en conséquence la durée
de cette seconde phase dont il a été démontré la réalité, est aussi variable.
Une autre démonstration réside dans la constatation de la diminution continue de la
densité des planètes qui passent ainsi successivement de 1,41 pour le Soleil qui est un
plasma à 6,2 pour Mercure qui est un solide, diminuant ensuite jusqu'à la densité 1 pour
Neptune. (fig. 7).
Fig. 7
Cette diminution constante de densité ne peut que confirmer celle de l'énergie ambiante
qui, considérable au niveau du Soleil, doit tendre vers 0 bien au-delà de Pluton c'est-à-
dire vers 100 milliards de km.
La cohésion des atomes et molécules étant fonction de cette pression, sa diminution doit
entraîner la dématérialisation par radio-activité des éléments, d'abord les plus complexes
comme les Uraniens dans notre gradient terrestre jusqu'à l'hydrogène bien en deçà des
transuraniens.
Tous ces aspects du système Solaire étant uniquement exposés pour inviter les
astrophysiciens à revoir leurs conceptions, trop de théoriciens estimant sans preuve que
l'Univers est partout identique à celui de notre environnement.
Tout me paraît justiciable de lois mettant uniquement en cause la somme de toutes les
énergies locales et, plus particulièrement pour les planètes, celle de leur énergie massique
+ cinétique c'est-à-dire, translation + rotation + thermique en établissant les relations
d'équilibre avec l'énergie photonique du milieu dans lequel elles baignent.
CONCLUSION
Il apparait donc à la suite de cet exposé que
1° Nous sommes à même de vaincre la gravitation en inversant ses résultantes
pondérales grâce aux effets archimédiens de l'énergie dans l'énergie, résultant de la
formation électromagnétique d'un « trou» dans l'énergie cosmique gravitationnelle.
2° Nous sommes à même de nous déplacer dans les champs cosmiques en utilisant les
énergies locales à des vitesses largement supra luminiques donc dans des durées
compatibles avec nos caractéristiques biologiques.
3° Un seul point reste inconnu, c'est-à-dire notre possibilité de nous poser en dehors de
l'engin sur des planètes de gradient énergétique différent du nôtre.
4° Si d'une part, les lois logiques de l'évolution font que seules les planètes situées dans
un milieu énergétique identique au nôtre peuvent porter une humanité parallèle à la
nôtre, d'autre part cette restriction reste compensée, dans certaines limites.
Perpignan,Août 1957.
Antigravitation 1967
Le document qui vient d'être présenté concerne l'état de mes conceptions en 1957.
Malheureusement bien qu'ayant adressé copie de ce texte (qui par ailleurs, avait été
diffusé dans le «Bulletin de la Société Astronomie» de Toulouse) à diverses notabilités
scientifiques ou militaires, je n'ai pas l'impression que cette étude ait été ou comprise ou
appréciée, en dehors de techniciens non engagés dans les cohortes serrées des
fonctionnaires de la science.
Certes, le texte original a été entre temps expurgé de quelques erreurs de présentation et
j'admets que, pour des mathématiciens ne comprennant que le langage des abstractions, la
simplicité de mes vues ait pu paraître indigne d'un examen sérieux.
J'ai déjà exposé le mépris exprimé sans détour par Monsieur de Broglie, qui par ailleurs
semble s'en être inspiré puisque, trois mois après sa présentation, paraissait dans le
Journal de Physique et dans Radium la reconnaissance par MM. De Broglie, Bohm et
Vigier de la valeur du gradient de l'énergie spatiale, soit 1021 joules au cm3 .
Il n'y a je crois aucune raison de me formaliser, cette façon d'agir étant coutumière dans
les milieux élevés de la recherche scientifique. Et je pense que je dois m'estimer comblé
par le fait qu'une autorité comme M. de Broglie se soit trouvée en accord avec mes
propres conceptions, confirmées de surcroît par une autre méthode de calcul basée sur les
caractéristiques massiques et volumiques, mesurées, du proton et de l'électron.
Bien entendu, reconnaître une valeur quelconque aux élucubrations d'un médecin en mal
de physique, ce sont là choses bien impensables.
Malheureusement, si le CNRS dépense largement ses milliards pour des recherches dont
on se demande parfois la nécessité, il n'est pas possible à un chercheur isolé d'évoluer
dans les disciplines expérimentales sans une aide que seul l'avis d'une autorité aurait pu
lui fournir, et ce sont donc dix années stériles qui se sont écoulées entre la diffusion de
mon exposé de base et la chance qui m'a été offerte par le général de Jussieu-Pontcarral,
directeur de La Revue Française d’Astronautique, de diffuser quelques conceptions
nouvelles sur les problèmes de la physique intéressant la dégravitation, et je ne peux
mieux faire que de les publier dans cet ouvrage, à titre de rappel pour les uns ou de
curiosité pour les autres.
Ce sont donc les six premiers articles parus en 1967-1968 que je présente parmi les
quinze que j'avais en préparation, car entre temps pour des raisons bien étranges la Revue
Française dAstronautique cesse de paraître, absorbée par la Société Française
d’Astronautique qui s'était entre temps constituée et qui comprenait uniquement des
membres du CNRS.
Le procès intenté par le général de Jussieu-Pontcarral a été comme il se doit, réglé à son
désavantage.
Je crois inutile d'épiloguer, tout cela aussi entre dans les règles classiques qui régissent
notre société, au niveau de son .... élite.
Le lecteur pourra, je pense, s'intéresser à l'évolution du problème au cours des dix années,
stériles sur le plan expérimental, mais qui ont apporté un certain nombre de précisions sur
les mécanismes de la physique des champs et des particules.
Je passe sur l'évidence d'une contradiction, exprimant que le néant puisse avoir des
courbures, car cette affirmation peut satisfaire un mathématicien dans l'abstrait, mais pas
un physicien.
Qu'il me soit permis de citer quelques extraits de la préface du remarquable travail du
physicien M. Doligez sous la plume du mathématicien F. Prunier :
«Certes, la théorie d'Einstein parait bien quantitativement rendre à peu près compte des
mouvements des planètes et satellites, et peut-être des éloignements des galaxies, mais
quantitativement seulement.
C'est une théorie descriptive, non pas explicative... et si l'on pose à Einstein, Lemaître et
bien d'autres, la question :
«Pourquoi la matière déforme-t-elle les géodésiques de l'espace temps ? » S'ils ne
répondent rien, on est en droit strict de soutenir que ce n'est pas l'espace qui est déformé,
mais le milieu qu'il contient... et tout le monde, Dirac, De Broglie, Bohm, Vigier, Kartzef,
Kleiner, Wexler, Bourbon et plus d'un autre admet aujourd'hui la nécessité d'un retour à
quelque substratum, peuplant, nomade ou casanier, l'Espace».
Et que dire du récent congrès des Relativistes Astro-physiciens américains présidé par le
Professeur Robert H. Dicke à New York, commencé sous un portrait d'Albert Einstein,
enlevé au cours des séances, la relativité ayant subi entre temps un coup mortel à la suite
de la communication du Président au sujet de l'aplatissement du Soleil, communication
qui sonnait le glas de la théorie, démontrant que cette constatation mettait un point final à
la validité des vues Einsteiniennes.
J'avais moi-même en 1959, au Congrès International des fusées à Paris et plus tard à
l'occasion de ma campagne de diffusion aux USA, exprimé que l'Espace loin d'être vide
de toute substance, était au contraire un plenum renfermant un gradient d'énergie
prodigieux !
Mon raisonnement logique démontrait que tout corps abandonné dans l'espace
gravitationnel, était soumis à une accélération pondérale le faisant tomber, cela prouvait
indubitablement la présence d'une énergie spatiale.
Or, l'énergie sous toutes ses formes étant considérée comme pesante, il était possible d'en
déterminer la masse et éventuellement, la pression locale ou tension.
Ces données permettaient de définir l'espace comme possédant des caractéristiques
analogues à celles d'une atmosphère gazeuse quoique assez différentes du fait de
l'extrême ténuité de ses constituants hypothétiques, doués d'une masse, extrêmement
faible et de leur extrême vélocité.
Le calcul des caractéristiques de ces éléments a été fait en partant de diverses données
théoriques, et la surprise a été grande d'arriver à des résultats très sensiblement
équivalents.
De Broglie, Bohm et Vigier ont donné, en partant de l'énergie résiduelle au zéro Kelvin,
la valeur de 1027 joules au centimètre cube !
Personnellement j'avais antérieurement annoncé une telle valeur en déterminant la
pression nécessaire pour maintenir la stabilité de l'électron et du proton, pression
transformée en densité volumique d'énergie, en fonction de la relation d'équivalence bien
connue que :
P ≈ W = E / V
Traduite en unités de masse cette valeur de l'énergie donne dix millions de tonnes masse
au centimètre cube !
Ainsi donc à l'espace vide d'Einstein est actuellement attribué une densité massique
fantastiquement élevée, et il est intéressant de la comparer à celle des particules
élémentaires, qui sont respectivement pour 1'électron de 30 000 tonnes par cm3 et pour le
proton de 400 000 000 de tonnes.
Nous constatons immédiatement que, si l'électron est à peu près sphérique, sa densité
étant inférieure à celle de l'espace énergétique gravitationnel, cette particule se présente
comme un trou, relatif, dans l'énergie, alors que le proton en est une condensation.
Cette conception personnelle me permet de concevoir le comportement négatif de
l'électron dans les champs, et positif du proton. En effet, de même qu'une balle de ping-
pong s'élève dans un milieu liquide de densité supérieure à la sienne, alors qu'une balle de
plomb tombe dans ce même milieu, électrons et protons seront soumis dans les champs à
des accélérations de signes contraires, et j'irai jusqu'à dire que l'électron est, peut-être,
soumis dans le champ de gravitation à des effets centrifuges dégravitatifs, alors que le
proton étant accéléré centripètement, est donc lourd.
Nous reviendrons sur ces principes qui donnent à la physique des clartés qu'aucune
théorie n’avait approchées jusqu'ici.
Je ne peux d'ailleurs passer sous silence la Force d'Ampère que j'explique comme une
sorte d' effet Magnus électromagnétique, identifiant cet effet dans l'énergie
magnétocosmique à celui obtenu au niveau d'un ballon mis à la fois en rotation autour
d'un axe et en translation suivant une direction perpendiculaire à cet axe de rotation, dans
le fluide aérien par exemple.
Ces données de base étant exprimées, qui ne voit poindre à l'horizon l'aurore du siècle de
l'antigravité et de la véritable astronautique ?
En effet, si nous admettons une certaine similitude d'une atmosphère aérienne et d'un
substratum énergétique gravitationnel, il est logique de penser que l'antigravité dans le
champ cosmique doit accepter des solutions très voisines, mutatis mutandi, de celles qui
ont donné à l'homme la possibilité de s'élever dans le champ aérien.
La première, étant bien entendu l'oeuvre de Montgolfier, consistait à créer un effet
antipondéral archimédien en diminuant, soit par le feu soit par la spécificité même de gaz
plus légers que l'air, la densité d'un milieu, celle plus élevée de l'atmosphère aérienne,
amenant un déplacement ascensionnel.
Puis ce fut l'ère du plus lourd que l’air !
Que nous faudra-t-il faire a priori pour obtenir ces mêmes effets, mais dans un milieu
autrement dimensionné que l'air près de la terre ?
Il suffira de diminuer la densité locale de l'énergie et de trouver les éléments matériels
permettant de créer une liaison mécanique supportant l'effet archimédien résultant dans
cette énergie.
Nous avons vu à ce sujet que l'électron pouvait être déjà considéré comme un trou dans
l'énergie ; il suffira donc de créer un électron géant.
Je présume que les électrons libres non liés aux protons étant en état d'antigravité, ou de
très faible gravité naturelle se sont réfugiés dans un niveau isoénergétique dans les
ceintures de Van Allen.
Mais je considère comme un phénomène de diminution de l'énergie locale, créant des
effets archimédiens dégravitatifs, tous les effets attractifs que nous démontre la nature,
c'est-à-dire les attractions entre champs électriques ou magnétiques et aussi, pour une
certaine part, l'attraction gravitationnelle.
Toute recherche dans ces dornaines doit nous donner des solutions antigravitatives, mais
il ne faut pas oublier que dès l'instant que ces solutions exigent d'expulser une masse
énergétique de pression énorme, le travail nécessaire sera donc conforme aux lois de la
conservation de l'énergie c'est dire que la densité spatiale étant de 1027 joules au cm3, il
faudra donc fournir une énergie équivalente pour créer un trou de un centimètre cube...
... mais ce trou, nous donnera une résultante dégravitative de...
10 000 000 de tonnes !
Pour clore cet aspect de la dégravitation, nous pouvons déjà grâce à la conception de
l'effet Magnus électromagnétique envisager des techniques identiques, quoique parallèles,
à celles utilisées par les plus lourds que l'air.
Il semble toutefois qu'il faille noter qu'un plus léger que l'air, une fois « allégé» par
chauffage du gaz ou injection de gaz de moindre densité ou obtention d'un vide, pourrait
rester indéfiniment dans l'air si des éléments hermétiques le permettaient.
Il n'en serait pas de même avec des techniques mettant enjeu les effets type Magnus. La
technique s'identifie à celles du plus lourd que l'air ; mais ce qu'il importe de préciser,
c'est qu'il est prévu par des effets du premier type d'envisager la possibilité de
fonctionnement d'engins qui, une fois dégravités au sol, le resteraient indéfiniment dans
l'espace.
Tous ces effets ont fait l'objet de recherches de ma part et les résultats repris par
différents laboratoires mondiaux ont été confirmatifs, en fonction des énergies mises en
jeu.
Par contre, les auteurs sont d'accord en ce qui concerne la masse théorique des gravitons
sur une valeur de 10-60 g-masse à l0-80 g-rnasse. Voir travaux de M.M. Doligez,
Gravitation, Ed. Blanchard, Paris 1965.
Or nous savons que la masse soleil est de 1033 g-masse, ce qui place les particules
atomiques assez exactement au milieu de l'échelle des grandeurs.
Il est donc évident que la mécanique de ces ultra-particules doit être assez différente de
celle des atomes et molécules.
On admet généralement que leur vitesse d'oscillation ou de translation doit être infiniment
plus grande que celle de la lumière, car on a constaté que les effets gravitationnels se
propageaient presque instantanément, comme l'a prouvé le Physicien Allais, et quelques
autres.
On comprendra dans ces conditions que la matière atomique puisse être traversée par les
particules gravitoniques sans subir de nombreux chocs, étant donné l'extrême
perméabilité des édifices atomiques.
Les seuls chocs, d'ailleurs ultra-élastiques, déterminant les effets pondéraux, peuvent être
considérés comme d'infimes résidus des résultantes des chocs dans des milieux où les
trajectoires des gravitons sont troublées par la présence de masses matérielles.
Il me paraît difficile de trouver à la gravitation universelle une explication plus
rationnelle.
Elle donne en effet une réponse à presque tous les problèmes de physique atomique ou
astronomique, et je ne voudrais pas clore ce premier chapitre sans l'explication d'un
problème, se rapportant à la constance de la masse du Soleil qui reste invariable en dépit
des millions de tonnes d'énergie qui sont expulsées chaque seconde depuis le
«Commencement».
Le volume du Soleil reste stable parce que cet astre n'est en définitive, que le produit de
la liquéfaction permanente de l'énergie gravitationnelle qui du fait de la contexture de
notre champ solaire, est le centre où converge toute la pression de la bulle sidérale
d'énergie qui constitue notre système solaire.
L’énergie pure gravitationnelle en se liquéfiant pour donner toute la famille des particules
de base et par la suite le cycle de Bethe, détermine la création de toutes les radiations
connues, et ceci en fonction d'un équilibre qui règle la masse du Soleil depuis le
Commencement.
Toutes les planètes sont nées du Soleil, et s'en éloignent au cours des siècles occupant
successivement toutes les places de celles qui les ont précédées, et subissant suivant leur
éloignement toute l'évolution que nous avons connue sur notre planète.
En s'éloignant, elles dissipent en radioactivité progressivement leur masse, qui retourne
au Soleil après désintégration totale en raison de la diminution de la pression énergétique.
Bien des erreurs sont à modifier dans les vues astronomiques sur la vitesse de la lumière,
fonction de la pression du milieu qui la porte.
Nous reverrons toutes ces données, qui nous ouvrent d'ailleurs les voies du cosmos, dans
la suite de notre étude, ne voulant pas étonner plus longuement le lecteur.
Parler en effet de la liquéfaction de la pesanteur, n'est pas un langage actuellement
compréhensible et peut paraître aberrant, mais ce sera dans un avenir plus ou moins
proche la base des hypertechniques de demain, l'utilisation de cette énergie naturelle étant
destinée par le Créateur à nous ouvrir les portes de l'Infini.
Nous avons exposé au chapitre précédent les principes de base permettant d'envisager des
possibilités d'inversion de la résultante pondérale par les effets Archimédiens de l'énergie
dans l'Energie spatiale gravitationnelle.
La méthode employée consiste dans la transposition des effets aérostatiques dans l'air aux
effets gravitostatiques dans l'énergie gravitative, solution possible dès l'instant que nous
avons démontré que le «vide» interplanétaire était en réalité un plenum possédant une
densité énergo-massique extraordinairement élevée, de l'ordre de 10 000 000 de tonnes
masse au cm3 .
Cette valeur est calculée en fonction de la relation W = MC2 l'énergie W étant reconnue
par MM. de Broglie, Bohm et Vigier et moi-même comme avoisinant 1027 joules au cm3.
Dans ces conditions un «trou» de 1 cm3 fait dans cette énergie par un processus électro-
magnétique, doit donner un effet Archimédien antipondéral de 10 000 000 de tonnes,
effet produit en mettant en jeu bien entendu une énergie de «forage» de 1027 joules.
Sur cette base, il est donc possible d'imaginer toute une technique astronautique, aux
performances extraordinairement élevées, si élevées même qu'elles mettent en défaut
toutes les conceptions physiques et bio-physiques actuellement considérées comme
dogmes intangibles dans les Universités.
Nous venons d'envisager la transposition des effets aérodynamiques dans le milieu
énergétique cosmique et décrit une technique qui comme pour «Le plus léger que l'air»
doit se définir comme «Plus légère que l'énergie spatiale».
Mais, parallèlement à cette méthode, celle qui a prédominé dans notre siècle est celle du
«Plus lourd que l'air».
Il nous faut donc essayer de voir s'il n'existe pas une possibilité de créer un tel mécanisme
sustentateur au niveau de l'énergie cosmique.
L'aviation est partie du vol des oiseaux, et l'ingénieur a essayé de l'imiter, faisant porter
son appareil sur l'air grâce aux effets de portance d'un plan accéléré dans le milieu aérien,
incliné sur sa trajectoire.
Nous voyons immédiatement qu'un tel procédé est inapplicable au niveau de l'énergie, les
éléments gravitoniques étant d'une telle tenuité qu'ils traversent tous les milieux sans
donner d'autres effets que le poids résultant d'une différence de gradient énergétique entre
les rayonnements gravitoniques centripètes et centrifuges par rapport à notre planète.
Le poids étant en définitive dû à un effet d'écran, en réalité très faible puisqu'il faut que
les rayonnements centrifuges traversent 12 000 km de terre pour que leur différence
d'action sur une masse de 1 kgm donne une force de 1 kgp, les rayonnements centripètes
n'ayant subi pratiquement aucune diminution de leur énergie.
La masse des constituants gravitoniques de cette énergie est relativement faible, mais ce
qui lui donne sa prodigieuse énergie réside dans la fantastique vitesse des particules
considérablement plus grande que celle de la lumière, ce qui est actuellement admis par
bien des pbysiciens non excessivement orthodoxes.
Il n'est pas dit toutefois que pour une «aile» théoriquement accélérée au voisinage de la
vitesse de la lumière, certains effets de portance ne seraient pas reconnus.
Je me permets, sous toutes réserves, d'imaginer en effet l'énergie cinétique résultant du
mouvement comme due à une charge complémentaire de gravitons injectée dans la masse
et obéissant à des lois thermo-dynamiques.
En effet, une masse en mouvement est accompagnée d'ondes qui ressemblent
étrangement à un sillage dans un fluide, mais ces ondes émises en avant du sens de la
marche ont une fréquence plus élevée que celles émises en arrière, ce qui est conforme à
l'effet Doppler et, en conséquence, cette masse ainsi encadrée devient une machine
thermique.
A mesure que la vitesse dans le milieu cosmique s'élève, la dissymétrie des longueurs
d'onde croît en même temps que la masse des gravitons injectés tend vers l'infini
théorique et je suis fondé à penser que la masse devenant ainsi de plus en plus opaque aux
rayonnements, certains effets de portance restent possibles (Fig. 8).
Fig. 8
Nous sommes bien entendu dans un domaine purement théorique mais je suppose avoir
ainsi décrit le mécanisme de l'inertie.
L'action du champ gravitonique considéré comme une hyperatmosphère est loin toutefois
d'être négligeable, et si les satellites circumterrestres ne semblent pas freinés par la
présence de l'énergie, c'est de toute évidence parce que leur vitesse propre est
dérisoirement petite par rapport à celle de la lumière et, à plus forte raison, à celles des
rayonnements gravitatifs.
Il en sera différemment du jour où des engins habités seront propulsés au voisinage de ces
vitesses, mais, et voilà encore un dogme destiné à passer dans l'oubli, la limite des
vitesses est fonction du gradient local de l'énergie, or il n'est pas démontré que ce
gradient soit le même dans tout l'Univers et en conséquence l'hypothèse de la possibilité
de vitesses supra-luminiques (par rapport à la vitesse luminique terrestre) en dehors de
notre gradient local reste possible, ce qui modifierait bien entendu bien des erreurs en
astronomie stellaire.
EFFET MAGNUS
Nous venons de voir que les effets énergodynamiques calqués sur les réactions
aérodynamiques ne semblent pas donner de possibilités de «vol» cosmique, mais fort
heureusement pour l'ingénieur, la nature nous a donné beaucoup. mieux, je veux parler de
l'effet Magnus aérodynamique.
Qu'est-ce que l'effet Magnus ?
On sait qu'un cylindre ou une sphère en rotation et se déplaçant suivant une trajectoire
perpendiculaire à leur axe de rotation, subissent une résultante aérodynamique
perpendiculaire au plan renfermant la trajectoire et l'axe de rotation (Fig. 9).
Cet effet a été utilisé soit comme propulseur en navigation, soit comme sustentateur en
aérodynamique, mais il semble que les ingénieurs n'aient pas su tirer toutes les
extraordinaires applications qui en découlaient pour créer des machines volantes auprès
desquelles avions et hélicoptères paraîtraient des mécaniques peu évoluées.
Etudions avec la sphère les conséquences de cet effet. Un premier cas se présente, l'axe
de rotation de la sphère étant parallèle à la direction de la trajectoire, et c'est celui des
projectiles d'artillerie.
Dans cette position, l'effet de rotation étant symétrique, il ne donnera qu'une tension de la
parabole balistique, ce qui allongera la trajectoire avec une meilleure pénétration dans
l'air.
Par contre, si l'axe de rotation est perpendiculaire à la trajectoire, celle-ci sera incurvée
par l'effet Magnus et la sphère décrira des cercles dans l'air donnant une courbe
Fig. 9
Fig. 10
Il faut toutefois noter que cette courbe reste théorique car en pratique et pour une
trajectoire importante, l'axe de rotation se mettra rapidement dans la position première par
raison de symétrie aérodynamique, c'est-à-dire l'axe de rotation confondu avec la
trajectoire.
Fig. 11
Le rayon du cercle ainsi décrit se calcule suivant la formule R = 5,6 v / H , R étant le
rayon du cercle en cm ; v étant la vitesse de l'électron en milliers de km/s et H la valeur
en gauss du champ magnétique.
L'explication du phénomène est relativement simple si l'on se permet de réfléchir par
analogie, mais bien des physiciens n'entendent pas que les explications soient simples, et
voici extrait d'un ouvrage de vulgarisation qu'elle en est l'explication «officielle».
«Un aimant n'exerce aucune action sur une charge électrique immobile, mais pour une
charge en mouvement, c'est une autre affaire !
Que devient en effet une charge électrique qui se déplace ?
Tout simplement, un courant, et par conséquent elle va être sensible à l'action d'un champ
magnétique ; mais puisqu'un aimant à la différence d'une pile ne peut fournir aucune
énergie, il ne pourra pas augmenter la vitesse de la charge en mouvement et devra se
borner à «dévier sa trajectoire» !
Qu'en des termes officiels ces choses là sont dites.
Puis-je me permettre, sans déchaîner les critiques, de trouver une prodigieuse analogie
entre la cinématique de la sphère dans l'air et celle de l'électron dans le champ
gravitationnel.
En fait il semble bien que l'électron se propage dans le champ cosmique, en plaçant son
axe de spin dans la direction de sa trajectoire ce qui la rectifie, par la même occasion la
projection de son champ magnétique reste conforme au spectre d'un aimant et c'est la
raison pour laquelle un aimant se met en croix sur un courant ; ses lignes de forces
concordant avec celles du spectre électronique (Fig. 12).
Fig. 12
Par contre, entrant dans les lignes de force d'un champ magnétique l'axe de spin va se
trouver redressé devenant perpendiculaire au plan renfermant sa trajectoire, ce plan étant
lui-même perpendiculaire aux lignes de force.
Nous nous trouvons dans le même cas que notre sphère matérielle, c'est l'effet Magnus
déterminé par le spin électronique réagissant sur le milieu gravitonique qui créant une
résultante centripète donne à l'électron une trajectoire circulaire, tant que l'action
magnétique persiste.
Il est à noter que cet effet peut être centripète ou centrifuge, mais du fait que les lignes de
force donnent au spin électronique une position conforme aux lois d'attraction/répulsion
des pôles magnétiques, et que le sens de rotation du spin est déterminé, nous constaterons
que cet effet est naturellernent centripète, ce qui n'exclut pas qu'en faisant artificiellement
tourner notre électron, ses pôles magnétiques étant en opposition avec ceux des lignes de
force, l'effet serait répulsif donc expansif.
Ceci est très important comme nous allons le voir par la suite.
En résumé, nous pouvons considérer un champ magnétique comme produit par une
déformation locale de la géométrie de l'espace, déformation que l'on peut admettre
comme créée par des ondes à ultra fréquence non décelables, mais que l'on pourrait
calculer en fonction de la vitesse de rotation de l'onde électronique, cette dernière étant
celle (locale) de la vitesse de la lumière tournant sur une trajectoire circulaire autour de
l'axe de spin qui est de rayon 1,9 10-13 cm.
Cette onde à ultra-fréquence propagée sur les lignes de force modifierait en conséquence
la statique locale du milieu gravitonique.
Il s'agit là bien entendu une nouvelle fois d'une conception personnelle que je considère
simplement comme commode pour la compréhension des mécanismes, mais nous en
tirerons la conclusion qu'elle semble démontrer cette analogie entre le milieu aérien et
cosmique, puisque la cinématique des masses semble être elle aussi régie par les mêmes
lois.
Prenons en effet un champ magnétique autour d'un axe aimanté, et injectons dans les
lignes de force extérieures un flux d'électrons.
Dans un premier cas et cela en fonction de la règle d'Ampère dite des trois doigts, nous
voyons que dans le cas du schéma ci-joint le flux électronique soumis à un effet Magnus
E.M. va se concentrer entraînant une condensation de l'espace gravitonique ; ce processus
est naturel, mais nous avons là l'image de la création d'un proton qui est suivant notre
hypothèse plus lourd que l'espace (Fig. 13).
Fig.13
Par contre, si nous injectons ce même flux au beam en maintenant la polarité magnétique
des électrons en opposition par rapport aux lignes de forces du champ, c'est un
mécanisme d'expansion que nous allons créer, c'est-à-dire construire un électron géant
artificiel, donc un matériau plus léger que l'espace !
Bien entendu, le flux du beam se place suivant un cercle conforme à la formule connue :
R = 5,6 v / H et dans ces conditions il existe un équilibre perturbé uniquement par la
modification éventuelle de la valeur du champ, qui doit donner à la fois une modification
de l'inclinaison de l'axe de spin et de la concentration gravitonique.
Mais si nous arrivons artificiellement à maintenir nos électrons sur une trajectoire de
rayon plus petit ou plus grand, la réaction non équilibrée de l'effet Magnus sur l'énergie
déterminera, selon le cas, des effets réactifs sur l'espace dont la densité énergétique locale
se trouvera modifiée.
Un dernier aspect du problème, réside dans le cas où l'axe de spin des électrons est
confondu avec le rayon de giration, et c'est ce cas qui est à la base même de la propulsion
électro-magnétique par effet Magnus (Fig. 14).
Fig. 14
Certes, cette conclusion ne saurait en terminer avec le problème, car tout comme en
matière d'aviation, il sera nécessaire de dissiper de l'énergie, car l'on sait qu'un flux
électronique en rotation émet de l'énergie, il ne faut donc pas s'attendre à ce que ce mode
de propulsion soit gratuit. Par contre il est évident que tout comme en matière
d'aérostation, le ballon une fois gonflé d'hydrogène pourrait se maintenir indéfiniment
dans l'espace s'il était possible d'éviter la diffusion du gaz à travers la paroi, il est normal
d'envisager que l'engin spatial électro-magnétique, une fois dégravité au sol par injection
de l'énergie nécessaire durant un temps suffisant, pourra se maintenir dans cet état de
dégravitation théoriquement indéfiniment.
Bien entendu, le procédé par Effet Magnus sera utilisé comme complément d'allègement
selon l'intensité de la pesanteur locale et, dans les espaces non gravitatifs, comme moyen
de propulsion d'accélération ou de freinage.
CONCLUSION
Il paraît donc théoriquement possible de créer un engin libéré de sa pesanteur par un
mécanisme de beam électronique en rotation à des vitesses pré-luminiques dans un champ
magnétique symétrique.
Suivant la position artificiellement maintenue des électrons, ou même de protons, ce
beam sera capable en inversant la position naturelle des électrons dans un champ polarisé
de créer un «trou» dans l'énergie cosmique, trou donnant un effet archimédien.
De même, en modifiant les angles des spins électroniques ou protoniques sur le plan de
leur trajectoire, il sera possible de déterminer des effets propulsifs, dégravitatifs ou
directifs.
Pour illustrer ces mécanismes, je tiens tout spécialement à décrire une expérience que
j'avais personnellement réalisée en 1921 et que j'ai retrouvée par la suite dans une revue
scientifique.
Je crois, étant donné l'importance de cette expérience que la parution intégrale de sa
description s'impose.
Voici ce texte :
Fig. 15
J'ai vu le disque tourner, pour la première fois, à Londres, quelques temps après le Coup
dEtat, lorsque je suivais les cours de Faraday. Quelques temps après être revenu d'exil,
Ruhmkorff me montra de nouveau l'expérience, et nous discutâmes sur les causes du
phénomène que Faraday n'avait pas indiquées, mais ni l'un ni l'autre nous ne pûmes
arriver à une idée acceptable.
Cette circonstance me revint à l'esprit vingt années plus tard, lorsque j'imaginai
d'employer un disque en fer qui ne tourne pas avec une rapidité moins grande, et que l'on
met en mouvement d'une foule de manières différentes, comme nous aurons l'occasion de
l'expliquer plus au long. Alors je découvris pour le mouvement du disque de fer une
explication, qui je crois est la bonne, et que j'ai l'espoir de voir accepter par la science
officielle. Je me réserve de voir si elle ne s'applique pas par hasard au disque de mica,
mutatis mutandis.
Le mouvement du disque de fer produit par l'électromagnétisme a déjà été employé dans
l'industrie sous la forme que jai imaginée et par les procédés que j'ai indiqués. Des
modifications plus ou moins heureuses, ont permis d'en étendre considérablement l'usage
et nous pensons qu'il est loin d'avoir dit son dernier mot dans la grande question du
transport de la force à distance.
Quel est l'inventeur du disque en mica, qui me parait un complément obligatoire de toute
machine électrique qui se respecte, à un moment où il est tant question de champs
magnétiques tournants et de rotations directes auxquelles, par une série de circonstances
bizarres, il a indirectement donné naissance ?
Monsieur Ducretet qui a construit le modèle que nous présentons m'a appris que
Ruhmkorff prétendait l'avoir inventé, et que l'invention lui était disputée par l’Abbé
Laborde ; mais la description insérée dans Les Mondes (n° 23) ne date que de 1870, à
une date bien postérieure à l'expérience à laquelle j'ai assisté. Reste la question de la
priorité de Faraday que je réserve.
Ce qui est certain, c'est qu'un disque analogue se trouve décrit sous le nom de
«tourniquet de Franklin» à la page 271 du traité de Sigaud de la Fond, mais ce disque est
pourvu d'une bande d'étain qui n'existe pas dans le disque dont nous parlons. Placé entre
les deux boules d'une machine de Wimshurst ou de Holtz, le disque de Franklin prend une
vitesse très grande, sans que l'on ait besoin d'employer de pointes.
Cette expérience oubliée pendant plus d'un siècle, est évidemment analogue aux deux
autres et leur sert de préface. Ce n'est pas la seule fois que l'on pourra constater que rien
n'est plus fécond que de rapprocher de l'électricité moderne les théories, les principes et
les expériences de l'électricité du XVIIIème siècle, science oubliée, que l'on dédaigne et
que l'on méprise trop aujourd'hui ? Avec les moyens restreints dont ils disposaient, les
électriciens du XVIIIème siècle ont positivement fait merveille !
Comme il existe une étroite analogie constante entre les phénomènes des deux
électricités, comme ce sont les mêmes forces qui après tout sont en oeuvre, le regard
intelligent jeté en arrière est souvent la manière la plus puissante de lire dans les
ténèbres de l'avenir.
W. de FONVIELLE
magnétique une direction opposée à celle de l'électron, les chercheurs de Stanford en ont
conclu qu'il devait en être de même dans le champ de gravitation.
Or, si mon point de vue est exact, je pense qu'électron et anti-électron doivent se
comporter de la même manière, c'est-à-dire qu'ils pourraient s'élever et non tomber.
S'il en est autrement dans un champ magnétique, c'est uniquement parce que l'antiélectron
étant l'image de l'électron, le sens de rotation de son spin est opposé et, en conséquence,
l'effet Magnus déterminant la rotation de sa trajectoire donne une direction opposée. Il est
toutefois étrange de constater que depuis qu'il y a des physiciens, et qui pensent, l'idée ne
soit venue à aucun d'eux, puisque les caractéristiques physiques et les réactions des
électrons sont opposées à celles des protons dans les champs, qu'il n'en soit pas de même
dans le champ de gravitation, qu'il s'agisse de matière ou d'antimatière.
Quant à penser qu'il puisse exister une différence, dans le domaine de la gravitation, entre
électron et positon ou proton et anti-proton, je ne le crois pas en tout logique, car la nature
n'est pas en en définitive aussi compliquée que certains mathématiciens voudraient le
soutenir.
En effet, si la masse atomique, en atome-gramme, de l'électron ou du positon est
reconnue officiellement comme ayant pour valeur respective 0,000548 et celle du proton
ou antiproton 1,00758, ce ne sont là que des valeurs exactes pour les deux premières
décimales, les autres n'étant qu'approximatives et variables suivant les auteurs.
Nous prendrons pour notre démonstration les valeurs données comme probables à ±
0,0031 près par Heisenberg. Ces valeurs additionnées doivent donner la masse atomique
de l'hydrogène soit :
1,00758 + 0,000548 = 1,008128
Or la densité d'un gaz est égale au quotient de son poids moléculaire par 28,95 (Dernière
valeur officielle).
Dans ces conditions, la densité théorique de l'hydrogène (Protium) est en considérant la
masse de l'électron comme pesante :
D = 1,008128/28,95 + 0,03487 x 2 = 0,06974
Calculons cette même densité en considérant cette fois la masse de l'électron comme étant
en antigravité, c'est-à-dire en la soustrayant de la masse du proton :
Soit : 1,00758 - 0,000548 = 1,007032
D = 1,007032/28,95 = 0,3477 X 2 = 0,06954
Or, la densité réelle de l'hydrogène est de 0,06947.
Comparons ces trois valeurs :
(E = +) 0,06974 « (H) 0,06947 »
(E = -) 0,06954.
et nous constatons grâce à ces valeurs officielles que c'est bien en soustrayant la masse de
l'électron de celle du proton que nous obtenons la valeur de la densité la plus approchée
de la valeur expérimentale exacte.
Soit une erreur de 7 en soustrayant, contre 27 en additionnant et bien entendu en tenant
compte de la présence dans H naturel, de ses deux isotopes plus lourds dont la proportion
est de 0,02 %.
Ceci est évidemment du domaine théorique, et il reste à comparer ces résultats sur le
papier avec ceux obtenus à Stanford.
Quoi qu'il en soit de ces résultats que j'ai contrôlés grâce à plusieurs méthodes
personnelles, je ne pourrais les admettre, au cas où ils contrediraient mes vues, comme
vérifiés et j'en donne mes raisons.
Il semble à certains physiciens que les données de la Science sont formellement exactes,
jusqu'à ce que des idées nouvelles en démontrent la... fausseté, et de tous temps, en une
époque où l'idée d'antigravité naturelle n'effleurait aucunement les esprits, les masses ont
été considérées comme pesantes, et toute la physique est restée imprégnée de cet axiome.
D'autre part, il est bien connu que l'on ne voit dans les choses que ce que l'on veut y voir,
et que l'on ne veut y voir que ce que l'on sait, ceci étant valable bien entendu pour tout le
monde.
Or, vouloir vérifier si dans un champ de gravité, un électron est soumis à une force
pesante ou ascensionnelle, cela représente l'obligation d'effectuer les pesées dans le vide
le plus absolu et à des distances de toute masse matérielle théoriquement infinies, car il
existe entre les effets du champ gravitationnel et du champ électrostatique, un rapport
d'action de 1036 au profit du champ électrostatique, ce qui revient à dire que dans toutes
les expériences dégravitatives par champ électro-magnétique, les résultats subissent de
telles interactions qu'il est difficile d'en juger les effets gravitationnels en dehors du vide
interplanétaire lui-même.
Prenons en effet deux masses d'hydrogène de un gramme placées à 10 m de distance et
qui donnent une force d'attraction gravitationnelle de :
6,7 . 10-14 dyne
Par contre, la force coulombienne qui existerait si ces masses étaient ionisées, et que les
éléments + soient placés à 10 mètres des éléments -, serait de :
0,8 . 1014 tonnes ou 0,8 . 1023 dynes
Dans ces conditions, le rapport d'action est bien de 1036 et la démonstration du
comportement de la charge électronique par rapport au champ de gravité serait un tour de
force expérimental dont les résultats resteraient contestables.
Toutefois, n'est-il pas confirmatif qu'à la suite de diverses expériences effectuées avec la
participation de l'Ingénieur EDF Guy Martin, nous ayons constaté que les éléments
matériels chargés négativement perdaient de leur poids, la balance ayant démontré un
allègement de cinq grammes pour une charge de 200 W.
Il reste bien entendu beaucoup à dire dans ce domaine qui sera étudié à propos des
différents systèmes d'antigravité dans les chapitres qui suivront.
Il existe un point capital à discuter, que les Physiciens considèrent comme naturel et une
vérité première, c'est que la charge de l'électron et du proton aient la même valeur.
Or, il est bien étrange que deux particules aussi différentes possèdent cette seule
similitude, alors que la masse du proton est 1800 fois plus importante que celle de
l'électron, et que le volume hypothétique de l'électron plus léger est au moins le double de
celui du proton.
Ainsi donc au royaume des particules, des éléments de dimension double, ont une masse
1800 fois plus petite alors que leurs effets et interactions sont de même qualité.
Comment concilier toutes ces contradictions autrement que par mon hypothèse que le
proton est une contraction de l'énergie gravitative cosmique, alors que l'électron en est
une expansion.
Quant à l'identité de leur charge représentée par 1,60 . 10-19 coulombs, il faut abandonner
l'idée que cette charge est un élément tangible et la considérer comme la résultante
dynamique de la constitution propre des deux particules, l'une étant un trou et l'autre une
condensation, leur attraction mutuelle étant justement le fait de cette opposition de
structure, la nature ayant tendance à rétablir soit par l'association externe donnant
l'hydrogène, soit par leur combinaison interne donnant le neutron , un équilibre de
pression.
Si les énergies cinétiques et massiques non théoriquement basées sur les masses
expérimentales sont identiques comme le prouve l'égalité des effets de charge, il apparaît
évident que si le proton est plus compact, il est forcément plus lourd que le milieu dans
lequel il baigne.
Par contre l'électron qui est une expansion de ce même milieu doit être plus léger
massiquement puisqu'il devient un «trou» dans l'énergie ambiante, et qu'il subit de ce fait
des effets archimédiens, effets qu'il ne faut pas considérer uniquement comme sensibles
dans le champ de pesanteur, mais aussi dans n'importe quelle direction si, pour une raison
quelconque, l'espace perd son homogénéité, c'est-à-dire dans un champ électrique, le
champ magnétique comme nous l'avons vu ne modifiant que la direction des spins.
Mais alors apparaît l'explication de l'effet d'inertie et peut-être son mécanisme, car dans le
milieu énergétique spatial, l'effet archimédien s'accompagne d'une résultante de
démassification sensible non seulement pour la pesanteur, mais pour tout autre effet
d'accélération positive ou négative.
Cet effet anti-inertie dont nous reparlerons ultérieurement, ouvre au physicien et au
physiologiste des perspectives fantastiques.
Comment expliquer cette perte de masse et d'inertie ?
Cela peut paraître a priori difficile à admettre pour l'atomiste conformiste, mais il s'agit
bien là d'une réalité que nous allons retrouver et expliquer à propos de la perte de masse
atomique s'accompagnant de la perte d'inertie concommittante dans les phénomènes de
transmutations et d'atomogenèse.
Au point où nous en sommes, qui ne voit que l'hypothèse du champ gravitationnel
énergétique donne sa vraie solution au problème du champ unitaire sur lequel ont buté,
avec Einstein, les mathématiciens les plus doués ?
Il existe à mon point de vue, un seul et unique champ de force qui est le champ
gravitationnel énergétique, sorte d'atmosphère énergo-gravitonique ayant une certaine
analogie avec l'atmosphère aérienne terrestre, mais dont les éléments constitutifs en
diffèrent par leur extrême ténuité de l'ordre de 10-60 à 10-80 g-masse, animés par contre de
vitesses infiniment plus élevées que celle de la lumière.
Les éléments gravitoniques sont aux particules, ce que ces dernières sont aux planètes, ce
qui leur confère une prodigieuse diffusibilité.
Ce champ doit être considéré comme l'atmosphère du Soleil qui s'étend bien entendu au-
delà des trajectoires planétaires, sa pression partant de valeurs faibles pour augmenter au
niveau du Soleil au point de se liquéfier sous forme de plasma.
Cette pression au niveau du gradient terrestre est de l'ordre de 1016 baryes.
Ainsi donc un «trou» dans ce milieu ne peut être effectué que grâce à des possibilités que
seuls possèdent les particules et les noyaux.
Ce trou détermine donc le champ nucléaire.
Le champ de gravitation étant lui-même dû à des effets d'écrans, écrans sphériques dont
l'ombre est elle-même sphérique au niveau des planètes.
Le champ électrique est dû à une surpression locale ou dépression engendrée par la
présence d'électrons ou de protons, en proportion non identique.
Quant au champ magnétique, il s'agit d'une polarisation de l'espace gravitonique
déterminant des modifications directives sur les axes de spin des particules ionisées ou
tout au moins incluses dans les édifices moléculaires.
Cet effet paraît explicable par l'entraînement du milieu gravitonique du fait de la rotation
des particules.
Il ne me paraît pas nécessaire pour avoir une vue d'ensemble des phénomènes physiques,
d'envisager d'autres dimensions mathématiques en dehors du temps, dont l'aspect sera
précisé.
bien évident que les atomes qu'ils génèrent, conservent l'essentiel de leur masse pesante
positive, car si certains corps électriquement neutres existaient démassifiés, ils seraient de
toute évidence expulsés depuis longtemps du champ gravitationnel solaire.
La perte de masse, qui au début des recherches atomiques a posé de très nombreux
problèmes aux physiciens, élevés dans le culte de l'axiome de la conservation de la
masse, consiste bien entendu dans la constatation d'une inégalité entre la somme des
poids-masse des constituants particulaires de la matière et le poids-masse des éléments
constitués.
Certes, s'il a été reconnu dès le début que la combinaison rotationnelle de l'électron autour
du proton dans la synthèse de l'hydrogène, était plus «légère» que la combinaison statique
de ces deux éléments dans le neutron, donnant dans le ler cas une perte de masse de 0,013
pour le protium et un excédent de masse de 0,001 pour le neutron, cela corrobore
pleinement mon point de vue, le volume archimédien du protium étant supérieur à celui
du neutron.
Cette constatation semble démontrer une contraction des éléments proton-électron dans le
neutron, du fait que le proton semble dans ce dernier cas être intégré dans l'électron, ce
qui neutralise aussi bien pour l'hydrogène que le neutron, le champ électrique, les effets
contraction-expansion étant compensés.
Chaque combinaison des particules de base dans la constitution des noyaux atomiques
entraînerait une «dépression» ou cavité dans l'énergie gravitationnelle de dimension
variable, hypothèse plausible qui remplace les forces de liaison qui deviennent ainsi
matérialisées pour l'esprit.
Fig.16
Fig. 17
Quant à l'énergie expulsée lors des réactions atomiques de synthèse, ce ne sont plus les
forces de liaison, mais l'énergie même de l'espace expulsée pour céder la place à la
combinaison atomique.
Bien entendu la pression de l'espace continue à se manifester, déterminant d'ailleurs selon
Henri Poincaré, la stabilité du noyau. Stabilité fonction de la pression, et qui explique la
radioactivité dès l'instant que la pression diminuant les édifices atomiques explosent, et
cela d'autant plus intensément, comme nous le verrons par la suite, que les atomes
s'éloignant du Soleil, c'est-à-dire du maximum de pression, se trouvent placés dans un
gradient énergétique de potentiel diminué, et cela jusqu'à la limite du système solaire où
toute matière atomique devenant instable, elle peut retourner au champ énergétique du
Soleil pour recommencer le cycle.
SUPPRESSION DE L'INERTIE
Nous savons d'après les recherches des atomistes que la perte de masse extrêmement
sensible au niveau des premiers éléments de Mendeleef se stabilise après diverses
inflexions au niveau de l'élément 28, le nickel.
Le 28/58 possède en effet, compte tenu des neutrons, eux-mêmes constitués d'un proton +
un électron, une structure de base de
58 protons, 58 électrons,
soit en faisant leur somme théorique de leurs masses :
97,144622 x 10-24 g-masse.
Dans ces conditions la molécule-gramme de Ni doit peser :
97,144622 x 6,02 x 10-1= 58,481 g.
Mais elle ne pèse en fait que 57,9372, soit une perte de masse par effet archimédien de :
0,5438.
D'autre part cette molécule-gramme Ni occupe un volume spatial de 6,7 cm3 .
Nous sommes donc en droit d'exprimer que la combinaison de 58 électrons + 58 protons
donne une molécule-gramme de 57,9372 g, qui occupe un volume de 6,7 cm3 et qui
chasse une énergie équivalente à une masse de 0,5438 g.
Bien entendu, nous sommes loin du vide énergétique total qui reste théoriquement de 10
000 000 de tonnes masse au cm3 .
Un calcul plus poussé donnerait pour l'exemple imparfait du Ni, une valeur de la densité
énergétique spatiale de l'ordre de la moitié de celle de l'eau, parce que le vide reste très
relatif. Mais si j'indique ces valeurs, c'est pour les rapprocher de celle du Soleil qui est de
1,41 et de celle au voisinage d'Uranus qui est de 0,3 cela dans la seule intention d'y
rechercher une loi physique, dont nous reparlerons ultérieurement.
Un autre exemple est celui de l'Osmium, dont la densité est 22 tonnes au m3
Mais la somme des masses particulaires est dans l'Osmium de 22 200 kg-masse soit une
perte de masse de 200 kg-masse.
Il est évident que ce poids de 200 kg-poids, sur terre, est allégé dans 1m3 d'Osmium du
fait du poids de l'énergie gravitationnelle que déplace le volume du métal, au même titre
qu'il faut envisager une diminution de poids archimédienne, par rapport à l'atmosphère,
de 1,33 kilogramme-poids pour 1 m3 d'air déplacé.
Toutefois l'intérêt est de réfléchir que ces 200 kilogrammes-poids supprimés par le
déplacement de l'énergie, s'ils sont démassifiés existent toujours, car nous les
retrouverons intégralement en désintégrant le métal.
En cas d'accélération horizontale, nous agirons de même sur 22 200 kilogrammes-masse
alors que l'effort ne sera supporté que par 22 200 - 200, soit 22 000 kg-masse.
J'insiste sur ce point qui est essentiel.
Ainsi donc, si le processus de dégravitation archimédienne était à propos de ce m3
d'Osmium poussé jusqu'à la limite de la dégravitation, il nous suffirait d'une chiquenaude
pour expédier 22 tonnes vers l'infini céleste, et de même le simple frein d'une plume
l'arrêterait net, sans modifier en quoi que ce soit sa structure moléculaire, à condition de
l'enfermer dans un volume d'énergie à 1027 J / cm3, lui-même entouré d'un vide suffisant
constamment maintenu.
Il est donc possible d'obtenir des vitesses proches de l'infini accessibles à des masses en
état d'antigravité, donc de masses pratiquement négatives.
Le problème se pose en effet d'envisager la mécanique d'une masse ultradégravitée, c'est-
à-dire de poids négatif, et l'idée vient qu'il faudrait peut-être l'accélérer dans un sens
opposé au déplacement désiré, mais de cela, il en sera question, une fois de plus,
ultérieurement.
Il faut bien admettre que nous ne sommes pas, à ce niveau, dans le domaine de l'utopie, ni
de la science fiction, mais dans celui de la physique de demain qui n'a pas fini d'étonner,
et il est assez étrange que pour confirmer ce point de vue, je fasse appel à la
métaphysique du phénomène parfaitement reconnu et contrôlé des lévitations spontanées.
Ce phénomène est en effet décrit par de nombreux auteurs parfaitement dignes de
confiance, puisque certains travaux officiels américains s'occupent sérieusement de ces
problèmes, que certaines lévitations de Saints ou d'objets s'accompagnaient
d'accélérations instantanées au moindre souffle, et que ces derniers projetés avec une
grande vitesse contre des obstacles, étaient arrêtés net sans subir le moindre dommage
physique corporel.
Ces faits restent encore mystérieux, mais si une cavité de 1 cm3 est susceptible de
déterminer des puissances de lévitation de 10 000 000 de tonnes, il suffit donc d'un trou
de un cent millionnième de cm3 pour soulever 100 kg, et je pense que certaines forces
psychophysiques sont peut-être par polarisation (Cordonnier) capables de déterminer de
tels effets spontanément.
Nos prochaines rédactions porteront sur l'aspect de la Cosmogonie planétaire et stellaire
de demain, contestant bien des dogmes de la physique moderne, en particulier sur l'erreur
relativiste de la limite des vitesses dans l'univers, vérité peut-être dans notre gradient
d'énergie, mais erreur en-deçà, l'erreur des rayonnements fossiles datant de milliards
d'années, alors que la transmission des photons peut être instantanée dans certaines zones
interstellaires, l'erreur conséquente de l'expansion de l'Univers, le temps n'étant qu'un
aspect physique de l'espace, alors que l'Univers est éternel, mais se transforme, retournant
régulièrement à son point de départ.
Nous étudierons par la suite un certain nombre de procédés permettant l'obtention de
des trajectoires variables, sur ses orbites atomiques autour d'un ou N protons, et cela sans
perte, apparente, d'énergie ? Voilà certes qui démontre que la seule objection de principe
qui m'a été opposée à propos du brevet ci-après, est de celles qui recèlent une ou plusieurs
solutions, la première étant bien entendu la possibilité d'enfermer le beam électronique
dans un anneau en supraconduction !
Toutefois, il est possible que dans ce cas, les effets prévus soient modifiés, et seule
l'expérimentation restera susceptible de partager les opinions.
Je ne saurais conclure, sans évoquer la récente démonstration de l'effet inertiel de spin
d'Olivier Costa de Beauregard et expérimenté avec succès par Charles Goillot, qui n'est
en définitive que mon effet Magnus électro-magnétique dont j'ai exposé et pour cause le
principe voilà plus d'une dizaine d'années, lors de très nombreuses conférences en France,
en Europe ou aux USA !
J'ai même été en rapports, parfois forcés, avec des membres de l'Institut Henri Poincaré
( Ivanoff ? ).
Je compte donc sur le fair-play de ces auteurs pour reconnaÎtre mon antériorité, ma
paternité même, dans l'expression de ce mécanisme. Antériorité qui devrait même, en
toute justice, être la conclusion de l'effet Haas-Einstein bien connu, mais si mal interprété
si j'en juge par certaines explications que j'avais obtenues en leur temps auprès de certains
dirigeants du Palais de la Découverte et qui prouvaient bien que l'idée était loin d'être
dans l'air en raison des opinions rationalistes de l'époque, lesquelles je le souhaite feront
bien d'évoluer.
REPUBLIQUE FRANCAISE
MINISTERE DE L'INDUSTRIE
SERVICE de la PROPRIETE INDUSTRIELLE
BREVET D'INVENTION
P.V. n° 814.855 No 1.253.902
Classification internationale : B 64 c
Fig. 1
La sphère présente, d'autre part, suivant son plan équatorial, un certain nombre de
filaments 8 tels que des filaments de tungstène chauffés à partir d'une batterie
d'accumulateurs 9 ou autres générateiirs électriques similaires, le point milieu du
filament 8 étant connecté électriquement à la masse de l'engin en 10. On a représenté un
seul filament mais il peut y en avoir un nombre variable répartis autour de la sphère.
L'engin comporte en outre une pompe moléculaire 12 agissant à l'intérieur de l'engin 7 et
évacuant les gaz aspirés par elle, soit dans la sphère, soit à l'extérieur de la sphère 1. Son
débouché à l'extérieur de la sphère en 13 peut être prévu pour pouvoir être raccordé à
des appareils de vide plus puissants lors de la mise en charge à terre de l'engin. A
l'intérieur des deux coquilles 7 et sur un même cercle de coquille sont montées des
bobines plates 14, ces bobines plates formant trois paires espacées entre elles de 120°.
Ces paires de bobines sont alimentées par des conducteurs 15 à partir du générateur ou
accumulateur 9, l'intensité du courant envoyé à chaque paire étant réglée par exemple
par des résistances 16, les trois résistances en triangle étant réglées par le plus ou moins
grand enfoncement d'un élément porté à l'extrémité de bras 17 disposés radialement sur
une rotule 18 commandée automatiquement 19. Un systeme 20 peut commander la mise
en ou hors circuit de l'ensemble des paires de bobines.
Fig. 2
Pour la mise en oeuvre de l'engin, on commence par mettre sous vide l'enceinte
équatoriale délimitée par les coquilles 7 et la partie périphérique de la sphère 1 par
l'intermédiaire d'une source de vide extérieure à l'engin, le vide étant parfait par la
pompe moléculaire 12. Lorsque le degré de vide usuellement mis en oeuvre dans les
accélérateurs de particules classiques est atteint, on met sous
tension les filaments 8 et l'on adapte sur l'engin trois électrodes (fig. 3) espacées à 120°
l'une de l'autre et constituées par des pièces métalliques en V embrassant chacune
radialement le bord périphérique de l'enceinte équatoriale. Ces électrodes sont reliées à
la plaque de trois lampes 22 dont les grilles sont commandées par l'intermédiaire d'un
circuit d'accord du type self-capacité 23 à trois électrodes 24 disposées dans un
magnéton 25 à 120° les unes des
autres. La vitesse du magnéton est accélérée progressivement de
manière à déterminer à l'intérieur de l'enceinte équatoriale et en raison des hautes
fréquences envoyées dans les électrodes 21, un système de champs électrique et
magnétique tournant en phase mais
perpendiculaires. Les ions extraits par les filaments 8 de l'enveloppe de magnésium sont
accélérés par lesdits champs tournants. La vitesse
de rotation des champs tournants est accrue progressivement jusqu'à
donner aux électrons une vitesse de l'ordre de 290 000 à 295 000 km/s. Les électrons
circulent alors dans un tore géométrique 26 en même temps qu'apparaît progressivement
dans la zone équatoriale périphérique de la sphère de magnésium une charge électrique
positive. La trajectoire des électrons dans le tore 26 ou au voisinage de l'axe dudit tore
est maintenue par équilibre entre l'attraction électrique centripète, entre la charge
électrique positive apparaissant sur la surface équatoriale de la sphère 1 et les électrons
et la force centrifuge à laquelle sont soumis les électrons du fait de leur vitesse de
déplacement sur la trajectoire.
Fig. 3
On a calculé que l'on obtenait un effet dégravitatif d'une masse d'une tonne, c'est-à-dire
que l'on supprimait l'effet d'attraction massique et l'inertie d'une masse d'une tonne en
créant un flux électronique d'environ 3 000 A. Il est à noter que ce flux électronique de 3
000 A est égal à la charge unitaire de l'électron multipliée par le nombre d'électrons
inclus dans le flux et par le nombre de tours effectués par chaque électron en une seconde
suivant la trajectoire.
Il est à noter que l'ensemble de l'engin est électriquement neutre,
les charges positives concentrées sur la périphérie équatoriale de la
sphère 1 et les charges des électrons s'annulant. Le potentiel des
parties polaires de la sphère n'est pas modifié par la charge de l'engin
et aucune tension n'apparaît entre celles-ci et le sol de l'endroit où il
a été chargé. Par contre, si l'engin circule entre planètes à des
potentiels différents, il peut prendre un potentiel relatif par rapport
soit à ladite planète, soit même par rapport au milieu atmosphérique
dans lequel il circule. Ce potentiel est évacué, de préférence par un
effet de pointe en munissant d'antennes les parties polaires de
l'engin. Lesdites antennes peuvent être utlisées, en outre, pour faire varier l'énergie du
volant électronique par exemple en modifiant
1’équilibre par élimination par lesdites antennes d'une fraction des
charges positives de la sphère 1.
La conduite de l'engin s'effectue par effet «magnus» en créant par les bobines 14 des
champs symétriques ou dissymétriques qui modifient la trajectoire des électrons. A cet
effet le courant est dosé dans les différentes bobines par action sur le systeme 19.
Fig.4
Dans le dispositif illustré à la figure 4, l'engin est constitué par une sphère ou un cylindre
central 27 entouré par une enveloppe équatoriale cylindrique 28. Comme décrit avec
référence aux figures 1 à 3, l'enceinte équatoriale peut être mise sous vide atmosphérique
et elle comporte des paires de bobines 29 analogues aux bobines 14 ci-dessus décrites et
commandées d'une manière analogue. La charge de l'engin est assurée en plaçant sur les
COSMOGENESE
C'est donc ce point que je vais essayer d'éclaircir. Si j'étais relativiste inféodé aux idées
einsteiniennes, je me trouverais certes fort embarrassé d'expliquer une fois de plus que
l'espace étant vide, il possède quand même des courbures, et c'est ce genre d'hypothèse,
fruit de l'imagination de mathématicien que je qualifie de déraisonnable pour rester dans
la limite de la courtoisie.
Mais je me suis libéré, malgré l'idolâtrie officielle, de ce mode de raisonnement, et je vois
plus simplement l'espace peuplé de gravitons de différentes énergies, les uns étant quasi-
statiques, d'autres animés de vitesses supraluminiques et d'autres enfin ayant transformé
leur énergie cinétique de translation en énergie rotatoire sous forme de spin (M. Doligez).
Pour bien comprendre les mécanismes cosmiques de ce milieu, le plus simple est de partir
de données tangibles pour essayer d'extrapoler à leur niveau.
Soit en effet un espace « occupé» par le vide des physiciens dans lequel nous injectons
une certaine quantité de molécules d'un gaz, parfait ou non.
Suivant la température du gaz, il va, soit occuper le plus grand volume possible, soit se
condenser (si cette dernière est voisine du 0 Kelvin, mais ce cas ne nous intéresse pas).
Imaginons-donc de bombarder, depuis toutes les directions, ces molécules en expansion
par un rayonnement de forte énergie, que va-t-il se passer ?
Laissons, si vous voulez, dans l'ombre, tous les mécanismes électrodynamiques, pour ne
voir que celui d'ensemble.
Il est clair que lorsque les pressions de radiation seront plus fortes que celles d'expansion
cinétique, ce volume de gaz va se trouver comprimé, et si les rayonnements proviennent
de toutes les directions spatiales, c'est sous forme d'une sphère gazeuse que nous pourrons
décrire l'aspect de ce volume.
Il est pour nous évident qu'à l'intérieur de cette sphère, la pression locale va augmenter de
la surface externe vers le centre.
Que va-t-il se produire si nous augmentons la pression ?
Personne ne me contredira, j'espère, si j'affirme qu'au centre de la sphère va apparaître,
pour une température locale donnée et un gaz déterminé, une goutte de gaz liquéfié !
Mais nous savons que cette liquéfaction ne peut se produire sans rayonnement thermique
destiné à abaisser la température du liquide, cette goutte rayonnera donc de la chaleur.
CREATION DU SOLEIL
Reprenons notre exemple et passons, mutatis mutandi, d'un gaz de molécules à un «gaz ?
» de gravitons, le mécanisme de la compression de ces ultraparticules par les
rayonnements de gravitons cosmiques à haute énergie va être similaire et entraîner les
mêmes conséquences : c'est-à-dire créer, au centre de gravité du système, une
condensation des gravitons sous forme d'un plasma solaire ou stellaire, lequel émettra
pour se refroidir des rayonnements énergétiques, thermiques, lumineux et
électromagnétiques divers.
Certes, le mécanisme intime de la liquéfaction d'un gaz n'a que peu de ressemblance avec
la création d'un plasma à partir d'éléments énergétiques purs, mais il faut bien reconnaître
que grosso modo les résultats sont marqués d'une puissante analogie.
Dans un cas comme dans l'autre, on part d'éléments ténus pour aboutir à une substance
visible et tangible, et cette analogie nous permet d'aller très en avant dans la conception
d'une création permanente de la matière à partir d'un élément hypothétique quoique de
plus en plus tangible, et il reste pour comprendre la Création (si ce concept n'est pas un
pseudo-problème) à essayer de définir celle de l'énergie cosmique à partir de laquelle tout
se développe normalement jusqu'à la création d'une autre énergie d'un type bien
particulier, la conscience, et l'intelligence.
Qu'il me soit toutefois permis pour rassurer certains esprits inquiets, de leur confirmer
que cette vue personnelle de la cosmogenèse a reçu partout, depuis que je l'ai exposée,
soit aux USA, soit en Allemagne et en Italie, l'accueil le plus franc et que même quelques
mathématiciens et des meilleurs, m'ont confirmé quoique relativistes convaincus, leur
accord.
Il ne faut pas oublier que notre bulle gravitonique s'étend bien au-delà de Pluton et que
dix milliards de kilomètres peuvent être considérés comme un rayon minimal. En
conséquence, le bombardement de cette bulle par les rayonnements gravitationnels
cosmiques doit donner en son centre de gravité, occupé par notre Soleil, des effets
barydynamiques énormes bien propres à la création des particules plasmatiques, création
que nous étudierons dans un prochain chapitre.
D'autre part, il est admis actuellement que les planètes proches du Soleil, c'est-à-dire
jusqu'à Jupiter, baignent dans l'atmosphère solaire, ce qui va nous permettre de
comprendre la suite des mécanismes.
Cette conception est d'autre part, la seule qui explique la constance du volume-masse du
Soleil qui, bien que perdant à chaque seconde, depuis des milliards d'années, plusieurs
milliers de tonnes-masses d'énergie radiante semble, d'après les calculs des astronomes,
conserver sa substance.
Bien entendu comme dans tous les mécanismes de la nature, il existe un seuil d'équilibre,
la substance perdue en radiations étant continuellement compensée par celle
nouvellement créée.
Fig. 18
Fig. 19
Ce mécanisme de rotation entraîne en effet le liquide suivant un plan équatorial qui peut
être assimilé à celui de l'écliptique, la vitesse allant en diminuant en fonction de
l'éloignement.
Il se produit d'autre part, un phénomène extrêmement suggestif, c'est-à-dire le retour du
liquide expulsé par l'effet centrifuge à la sphère génératrice, ce liquide revenant à son
point de départ en y retournant symétriquement par les lignes des pôles.
Nous avons là l'explication générale et complète des mécanismes qui régissent tous les
mouvements et la vie des planètes.
Fig. 20
MERCURE
Cette planète est la dernière-née, et se trouve déjà à une certaine distance du Soleil
générateur. Comment naît la planète :
pour bien comprendre ce mécanisme, il est bon de songer au préalable que si l'intensité
attractive du Soleil, est théoriquement de 28 fois celle subie sur notre Terre, le milieu
d'environnement possède lui-même une densité relative extrêmement élevée, voisine de
celle de l'étoile qui est théoriquement de 1,41 (soit celle de l'eau, ce qui n'est peut-être pas
tellement exact). Mais si, par un effet d'expulsion de type volcanique ou de scission, la
masse solaire est trop importante par rapport à l'équilibre avec l'ambiance, un certain
volume de plasma se sépare du Soleil, cette substance est en équilibre archimédien avec
le milieu et doit donc suivre par entraînement une trajectoire spirale qui l'éloigne du globe
générateur.
Toutefois, avec l'éloignement il se produit un refroidissement et le plasma prend l'aspect
polyatomique de toute substance connue et nous assistons à la constitution d'une planète.
Les milliards de siècles passant, Mercure venant occuper la place de Vénus, va se trouver
dans un état très voisin de ce que nous constatons actuellement sur notre voisine, c'est-à-
dire que son volume aura augmenté par expansion, en même temps que les gaz dissous
VENUS
Cette planète que l'on peut considérer comme la soeur aînée de Mercure, se trouve dans
ces conditions à la place qu'occupait la Terre quelques milliards d'années auparavant.
C'est donc sur cette planète l'ère anté-préhistorique de l'Algonkien qui règne, c'est-à-dire
une époque où la naissance d'une végétation se nourrissant du gaz carbonique, base
essentielle de son atmosphère, et soumise à des températures de serre, va permettre à
celle-ci de se développer, transformant le CO2en oxygène pur et carbone sous tous ses
aspects solides ou liquides.
Il semble d'autre part que l'eau de condensation contenue dans les roches se dissocie de
son élément solvant pour aider à la végétation.
Reste la question de l'azote qui ne semble pas avoir été dosé dans l'atmosphère
Vénusienne, quoique faisant partie de l'atmosphère Terrestre et ayant fait partie de
l'atmosphère Martienne à l'époque où cette planète occupait la position actuelle de la
Terre.
D'où est donc venu l’Azote terrestre et comment Vénus va-t-elle se procurer ce gaz ?
L'idée primitive est que tout comme pour H20 ce gaz est actuellement dissous dans le
corps en ignition de la planète, car il est peu vraisemblable que Mars et la Terre aient
rencontré une queue de comète qui les ait complétées, chimiquement.
On sait en effet que Az est soluble à chaud dans les métaux (Nitruration).
Reste toutefois une hypothèse qui est à vérifier : ce gaz n'aurait-il pas été produit par
synthèse atomique par les substances végétales, qui, si elles sont en général constituées
par les éléments C-0-H renferment aussi des complexes azotés.
Je rappelle certaines expériences de biologistes, ayant démontré qu'en l'absence
d'éléments essentiels, les végétaux étaient capables de procéder à la transmutation
atomique et il ne faut pas oublier qu'entre l’Azote et le Carbone,il n'existe que peu de
différence de structure, le Carbone étant le 6ème élément de la table de Mendeleef et
l’Azote le 7ème (voir aussi les travaux de Louis Kervran, «Transmutations biologiques»).
Il y a donc là un mécanisme qui peut permettre des recherches et si l’Azote est
particulièrement abondant, c'est peut-être en raison de la rareté de ses combinaisons
naturelles, à part NH3 comparativement à la masse des combinaisons de l'oxygène avec
presque tous les éléments, et les masses énormes de carbone enfouies dans les sols.
Il y a donc de fortes chances pour que le mécanisme biochimique qui a donné l'état actuel
de la Terre, se renouvelle sur cette planète actuellement trop jeune pour héberger des
êtres organiques.
TERRE
Que dire de notre planète, qui ne soit connu, et qui du fait de sa position dans la ronde
circumsolaire est la seule qui porte une vie organisée et douée d'intelligence, en attendant
la relève Vénusienne, ce dont nous reparlerons longuement.
MARS
Mars malheureusement nous présente l'image future de la Terre lorsque Vénus l'aura
détrônée, et je ne pense pas nécessaire d'épiloguer.
A ce moment, notre planète, malgré sa gravité plus forte que celle de Mars, aura perdu la
plus grande partie de son atmosphère et de son eau et, bombardée par les météorites
prendra l'aspect lunaire décelé par la sonde Américaine sur Mars.
Comme, après Mars, se placent les multiples astéroïdes, restes possibles d'une planète
explosée à la suite de quelque cataclysme naturel ou non, on peut penser que les cratères
Martiens sont le résultat d'un bombardement interplanétaire, soit directement par missiles,
soit par les projections des astéroïdes lors de l'explosion de la planète Cérès.
Que ce pitoyable exemple serve de leçon aux Terriens si cela est encore possible,ce dont
je doute.
LES ASTEROIDES
Le cinquième élément de notre système solaire se présente dans son état àctuel sous la
forme très particulière d'un anneau de microplanètes et de poussières cosmiques, dont
l'ensemble occupe une zone que la loi de Bode situe entre les orbites Martiennes et
Joviennes.
La masse principale de cet ensemble est donc pratiquement annulaire, mais de nombreux
planétoïdes ayant même origine décrivent les orbites les plus diverses entre Saturne et
Mercure.
Il est difficile de ne pas concevoir que cet ensemble soit le résidu fragmentaire d'une
planète normale, qui a éclaté sous une influence cataclysmique ou explosé sous l'action
de forces internes ou externes atomiques.
Or si les astronomes s'accordent pour n'attribuer à l'ensemble de ces astéroïdes qu'une
masse dérisoire, il est logique, si nous considérons que le volume des planètes croît de
Mercure à Jupiter puis décroît jusqu'à Pluton, de penser que l'ensemble des poussières qui
manifeste sa réalité par des effets saisonniers, doit représenter une entité planétaire bien
plus importante.
Il faut aussi envisager que l'explosion d'une planète sur sa trajectoire, détermine une
accélération pour la moitié de sa masse et une décélération pour l'autre moitié.
De plus en ce qui concerne les projections perpendiculaires à sa trajectoire, c'est une
chute vers le Soleil ou une éjection vers Pluton et au-delà qui en seront les conséquences.
De toute façon, les orbites des résidus fragmentaires occuperont balistiquement toutes
sortes de trajectoires anormales et, c'est ce que constatent les astronomes, tout au moins
sur les éléments suffisamment important visibles au télescope.
Quelle peut être la nature de la désagrégation de cette planète ou de son explosion ? Nous
en sommes réduits bien entendu à des hypothèses, mais en fonction de nos vues sur la
diminution de la pression spatiale suivant l'éloignement au Soleil, je suis porté à admettre
comme logique que Cérès pour des raisons peut-être particulières, a pu exploser comme
le fait un ballon d'hydrogène s'élevant dans de hautes altitudes, les pressions internes
n'étant plus compensées par la pression gravitonique ou atmosphérique.
Mais alors, comment les planètes Joviennes ont-elles résisté tout en augmentant leur
volume aux dépens de leur densité ? Je pense qu'il s'agit d'un rapport de stabilité /
instabilité en fonction de la masse.
Peut-être même que la planète dans une période critique a été percutée par un météore,
mésaventure que son ex-voisine et aînée Jupiter a évité au cours de son évolution.
Que ces mécanismes cataclysmiques, ne fassent pas toutefois oublier la possibilité d'une
désintégration atomique sous des influences techniques belliqueuses entre deux
civilisations concurrentes maintenant disparues dans le néant du temps et de l'espace,
civilisations qui semblent avoir laissé quelques vestiges.
JUPITER
Nous trouvons, avec cette planète, le plus volumineux des corps célestes de notre système
solaire, mais si son volume est très considérable, sa densité est par contre très voisine de
celle du Soleil générateur puisqu'elle n'est que de 1,36 ?
Si de nombreux satellites l'accompagnent, sa surface présente par contre un aspect
purement gazeux, et sa température moyenne en surface est de –140°C.
PLUTON
Cette planète de découverte récente semblerait ne pas obéir à la loi générale de
diminution de densité, mais sur ce point les astrophysiciens ne semblent pas d'accord, et
de toute façon à ce stade ultime de désintégration planétaire, il doit s'agir du noyau, seul
vestige d'une ancienne planète ayant subi au cours de sa vie le cycle complet des
transformations que nous présente l'état actuel du système solaire.
LA LOI DE BODE
Les lois de Kepler sont trop connues pour les énoncer, nous retiendrons toutefois que la
vitesse orbitale d'une planète est proportionnelle à l'inverse du carré de sa distance au
Soleil.
La loi de Bode n'est pas très exacte, mais c'est seulement une relation approchée qui
s'obtient. en ajoutant, à chaque terme d'une progression géométrique de raison 2 et
commençant par 3, le chiffre 4. Elle donne approximativement ces distances sauf pour
celles de Neptune et Pluton.
Soit :
0 3 6 12 24 48 96 192 384
4 7 10 16 28 52 100 196 388
Ces valeurs divisées par 10 et le troisième terme donnant un, c'est~à-dire l'unité comme
MASSE ET DENSITE
S'il est relativement facile de déterminer la masse des planètes en fonction de la loi de
Newton, leur densité théorique résulte du quotient de la masse et du volume.
Il est un point toutefois qui n'a jamais été envisagé et qui demande d'être précisé.
Si selon les vues classiques une planète est en équilibre sur son orbite en fonction de
l'attraction ( ? ) gravifique solaire compensée par l'effet centrifuge, il faut en raison de nos
vues sur la densité énergétique de l'espace, faire intervenir un effet archimédien
complexe, que j'ai défini lors de plusieurs exposés.
Si nous admettons, ce que j'essaie de démontrer depuis plusieurs années, que les corps
célestes baignent dans une atmosphère énergétique douée de masse, ils doivent perdre par
refoulement de ce milieu et suivant leur constitution, moléculaire et atomique, une
«masse» équivalente à celle qu'ils déplacent (je dis bien une masse).
J'ai expliqué la perte de masse atomique par un tel processus qui se retrouve à l'échelle
astronomique.
C'est ainsi qu'un mètre cube d'Osmium perd une masse de près de 200 kg-masse.
Cet effet est la résultante de
1. Le déplacement du milieu énergétique par le volume matériel de la masse considérée.
2. Le refoulement du champ gravitationnel par le champ électromagnétique qui
accompagne cette masse.
Ce qui est vrai à l'échelle atomique peut être extrapolé à l'échelle astronomique.
Prenons l'exemple de la Terre
Celle-ci reçoit de tous les points de l'espace des rayonnements gravitationnels ou des
gravitons, mais par effet d'écran particulaire, elle ne laisse passer qu'une partie de ces
derniers, c'est-à-dire que s'il existe en un point de l'espace un gradient d'énergie isodyne
omnidirectionnel, il n'en sera pas de même autour d'une masse planétaire, qui se trouvera
entourée d'un très relatif vide dégressif de gravitons en fonction de l'éloignement en
raison de 1/d2 (Fig 21).
Fig. 21
Ce vide gravitationnel relatif qui conditionne un aspect des phénomènes gravitationnels
détermine aussi une sorte de sphère de densité énergétique légèrement moindre et par
conséquent un effet archimédien dans le milieu cosmique.
Il faudrait donc pour calculer exactement la masse d'une planète, retrancher de sa masse
matérielle, la masse de l'énergie cosmique gravitationnelle déplacée par effet d'écran et
donc provoquant des effets archimédiens.
Il existe toutefois une différence fondamentale entre les effets hydrostatiques et
gravitationnels, les premiers agissant uniquement par pression sur la surface des corps et
les seconds à la fois sur chaque atome constitutif de ce corps, et sur le champ
d'environnement.
Soit en effet une masse M compacte de poids P, avec laquelle nous réalisons une sphère
creuse de rayon progressivement croissant.
Il est évident que l'effet d'écran va agir sur un volume d'espace de plus en plus important,
c'est-à-dire que la quantité d'énergie spatiale refoulée va augmenter selon une fonction
cubique alors que la surface ne croîtra qu'au carré.
Bien entendu, pour une même masse de matière, l'épaisseur active d'écran diminuera,
mais dans un tel système, il est possible d'augmenter électro-magnétiquement l'effet
d'écran et par conséquent la résultante dégravitationnelle.
Ces données ne seraient-elles pas applicables pour définir la constitution de Phobos et ses
anomalies de trajectoires ?
Il existe toutefois une analogie certaine entre ce procédé et celui de la pompe
pneumatique que j'ai exposé en son temps.
Si nous prenons un corps de pompe et qu'en tirant sur le piston nous fassions un vide dans
le cylindre, il va de soi que le système subira de la part de l'air un effet antipondéral
archimédien correspondant au poids de l'air expulsé.
Mais si le travail d'expulsion est fonction de la longueur du corps de pompe, il n'est pas
exclu que pour une longueur donnée le poids de l'air équilibre le poids du système.
Toutefois, ce résultat obtenu, la force qui sera nécessaire pour maintenir le piston à
l'extrémité de sa course sera la même quelle que soit la longueur du cylindre, principe qui
peut donc être appliqué à notre sphère.
Nous retiendrons en matière de conclusion que les masses actuellement admises
intéressant les planètes, ne correspondent donc pas à la réalité physique, ce qui oblige à
les modifier ainsi que certaines lois.
que leur dissymétrie de forme les fixent sur leur rayon de giration soit autour du Soleil,
soit autour de la Terre, à l'instar d'une balle maintenue en rotation autour d'un axe par un
fil.
Par contre les planètes transmercuriennes présentent toutes un pivotement dont la vitesse
angulaire croît puis décroît, mais donne une vitesse périphérique équatoriale qu'aucune
loi ne semble définir avec exactitude.
Si les conceptions relativistes de cette mécanique n'en donnent pas la raison, celle-ci
devient très naturelle dès l'instant que l'on admet la présence d'un milieu ayant des
caractéristiques quasi matérielles.
Fig. 22
Fig. 23
Il devient évident, puisque nous admettons que l'atmosphère énergétique solaire présente
une densité décroissante en fonction de l'éloignement, qu'un corps planétaire entraîné par
ce milieu subisse un effet de frein du côté de sa zone éclairée et un effet pratiquement
accélérateur dans sa zone obscure, d'où mise en rotation dans le même sens que le Soleil
et son atmosphère du moins pour les planètes gravitant jusqu'à la distance d'Uranus.
Le renversement de cette planète et le fait que les transuraniennes tournent en sens
CONCLUSION
Cette rapide perspective sur le système Solaire et sa mécanique semble imposer la
présence non pas du vide des relativistes, mais bien celle d'un milieu énergétique doué de
masse et de «viscosité» ( ? ) assimilable à une atmosphère complexe faite à la fois
d'éléments atomiques, tels le vent Solaire, et d'éléments énergétiques gravitoniques.
Les récentes précisions fournies par l'astronautique naissante ont déjà apporté bien des
confirmations à ces vues, et cela demande une sérieuse révision des données, si
déchirantes qu'elles puissent être, Pour des scientifiques nourris dans le respect de la
Relativité.
En nous résumant, nous sommes obligés d'admettre que le Soleil occupe le centre d'une
zone de condensation gravitonique surcomprimée à son niveau qui détermine la
matérialisation d'un plasma.
Autour de ce Soleil gravitent des éléments énergétiques entraînés à des vitesses fonctions
d'un certain équilibre entre la pression de gravitation cosmique et des effets centrifuges
dus à la masse de leur énergie.
Ce milieu entraîne des masses planétaires issues du Soleil selon un cycle perpétuel et qui
s'en éloignent, décrivant des spirales.
L'évolution de chaque planète passera donc d'une manière continue par différents stades,
dont celles actuellement sur orbite donnent une image parfaitement définie.
Leur évolution part d'un gaz de plasma qui se liquéfie et se solidifie sous forme des
éléments chimiques connus, puis la planète occupant des zones de moindre pression
énergétique en s'éloignant du Soleil et se refroidissant, les gaz occlus dans sa masse vont
se libérer et l'entourer d'une atmosphère complexe contenant la plupart des corps
chimiquement organisés suivant leurs affinités, tels le gaz carbonique, la vapeur d'eau et
les dérivés organiques.
Le refroidissement progressif va entraîner la condensation de la vapeur d'eau de
constitution, sous forme de masses océaniques puis la végétation primaire va apparaître,
qui, se nourrissant de gaz carbonique, va donner d'un côté l'oxygène et de l'autre des
dépôts de carbone et d'hydrocarbures.
Cet oxygène va déterminer la venue de la vie animale qui consommant l'oxygène et
rendant du gaz carbonique, créera un certain équilibre entre les deux règnes végétal et
animal.
De cet équilibre, va surgir l'ère de l'intelligence avec l'apparition des hominiens,
intelligence que certains considèrent comme la nature prenant conscience d'elle-même
(Elisée Reclus).
La Terre est actuellement à ce stade et les conditions de vie seraient paradisiaques si des
hystéries politiques destructrices n'amenaient rapidement avec la dégénérescence, l'échec
de tout le processus évolutif.
Peut-on invoquer la loi de la sélection naturelle des espèces, je ne le crois pas, tout au
d'en sortir.
Ces vues peuvent paraître du domaine de la Science Fiction mais il n'y a que la Science
Fiction qui vaille, il n'y a que la Science de demain, toujours accessible à condition que
les hommes veuillent bien s'arrêter sur le chemin de l'autodestruction sur lequel ils se sont
engagés malgré les avertissements !
Antigravitation 1972
Quinze ans ont donc passé dans l'attente d'une collaboration financière de l'état ou privée.
Mais sur Terre, la grande majorité est uniquement préoccupée par ses problèmes
d'enrichissement égoïste et stérile. Et la suppression de la pesanteur n'intéresse que des
laboratoires étrangers dans des buts avant tout militaires.
Je n'ai plus de nouvelles de Burkhart Heim. Le CERG de Rome, après confirmation des
résultats positifs expérimentaux de mes théories, semble en sommeil, et le gouvernement
Italien ne semble pas intéressé.
Quant aux travaux Soviétiques, il apparaît que les recherches sont orientées vers
l'antimatière dans l'espoir que cet élément se trouve en état naturel d'antigravité dans
notre champ de gravitation.
Personne dans le monde ne s'est encore avisé qu'il n'était pas nécessaire de fabriquer un
produit aussi dangereux, car notre type d'électron négatif, s'il possède une masse inerte
positiue, se trouve lui aussi en état d'antigravité archimédienne naturelle dans notre
gradient énergétique, sa densité spécifique étant inférieure à celle de l'énergie spatiale
cosmique.
Ce sera là une nouvelle base de possibilités accompagnée de quelques dispositifs
originaux permettant la manoeuvrabilité d'engins cosmiques, et le sujet des
développements qui vont suivre.
Du côté Américain, le centre ANTI«G» de la General Electric de New Boston et
Schenectady travaille dans le secret, mais selon certains renseignements rien de positif
n'est encore réalisé.
En France, c'est bien autre chose avec les recherches d'Olivier Costa de Beauregard dont
l'effet inertiel de spin est monté en épingle par le CNRS alors qu'il ne se manifeste que vu
au microscope.
Science & Vie déclare à ce propos : (n° 600 septembre 67 page 54).
«Dans ce domaine particulier (l’antigravité) les physiciens Français ont plusieurs années
d'avance sur leurs collègues étrangers»… toutefois quelques lignes qui précèdent notent à
propos de l'effet Costa Goillot :
«Pour l'instant l'effet est microscopique et sa mise en évidence a exigé des prodiges
d'ingéniosité expérimentale».
Si j'ai repris ces lignes, ce n'est certes pas dans le but de minimiser les travaux de
physiciens hautement qualifiés, mais pour montrer que le problème à résoudre paraît très
simple à la lumière de la logique, alors que les physiciens du monde entier explorent dans
toutes sortes de directions et de recherches, parce que, encore une fois des théoriciens
déformés par l'enseignement officiel ont perdu de vue la simplicité fondamentale de la
nature physique et psychique. Ce n'est pas sans raison que j'emploie ce dernier mot, car
nous verrons plus tard son immense portée pratique.
Dois-je rappeler que je suis fondamentalement médecin psychiâtre et qu'à ce titre je suis
Il existe pourtant un sens que nous a donné la nature : le sens kinesthésique qui aurait dû
depuis longtemps nous renseigner sur l'origine de la pesanteur, flux traversant la matière
et agissant respectivement sur chaque atome de l'individu.
Ce flux est polydirectionnel mais il n'est dissymétrique que dans le sens vertical, le flux
centripète étant plus important que le flux centrifuge modifié par l'effet d'écran de la terre.
La puissance de ces flux combinés est fantastiquement élevée, l'effet de pesanteur n'étant
dû qu'à la différence d'énergie entre le flux centrifuge et centripète, relativement faible.
Ainsi si nous ressentons directement l'effet du vent, il est plus difficile d'interpréter celui
de la gravitation, parce que tout comme pour la pression atmosphérique que nous ne
ressentons pratiquement pas, la pression interne de la gravitation ne se manifeste que dans
des cas particuliers d'accélération.
Nous pouvons donc avoir une idée de ce que représente l'inertie, c'est-à-dire l'effet
produit par le déplacement d'un corps dans le milieu gravitationnel.
On a coutume d'exprimer que l'effet de pesanteur est une inertie, et nous voyons tout de
suite que le mécanisme de la gravitation consiste en une différence d'énergie entre deux
flux. Mais pour un corps qui se déplace l'analogie est frappante car si la vitesse des flux
antagonistes est théoriquement la même sur une même trajectoire virtuelle pour un corps
au repos, le déplacement de ce corps sur la trajectoire va faire que la vitesse s'ajoutant ou
se retranchant de celle des flux, nous nous trouvons pratiquement en présence d'un
mécanisme identique.
L'inertie apparaît donc comme uniquement due à la perturbation apportée dans le champ
énergétique gravitationnel par la mise en mouvement par rapport à ce milieu d'une masse
quelconque dont la présence provoque un effet d'écran polydirectionnel.
L'analyse plus complète du phénomène démontre une modification de l'état cinétique
ondulatoire du milieu dont nous analyserons ultérieurement la constitution, car il est
probable que si l'énergie spatiale cosmique est, entre autres, électro magnétique, elle doit
être constituée de particules et d'ondes.
LE CHAMP D'ENERGIE
Nous avons vu dans les derniers chapitres que l'origine de notre système Solaire, cas
particulier des 50 millions de systèmes identiques constituant la Galaxie, peut être
expliquée par la condensation en un point de l'espace vide de particules dispersées dans
l'immensité du Cosmos et dont, dans l'état actuel de nos connaissances, il est difficile de
préciser l'origine.
Cette notion d'espace vide dépasse les possibilités de conceptualisation de la conscience
de l'homme de 1972, car cela ne peut être le néant.
Et pourtant peut-on dire que le temps peut exister dans quelque chose qui n'existe pas ? Et
nous entrons là, je le suppose, dans le domaine métaphysique pur, et peut-être dans
l'espace métaphysique, celui de l'esprit créateur.
Cet espace ne saurait donc étant immatériel avoir un commencement et une fin, et c'est la
définition même de Dieu de dire qu'il est éternel c'est-à-dire qu'il a toujours existé et
existera toujours, ce qui revient au même, le négatif ou le positif d'un cliché n'étant que
deux aspects d'une même chose.
Dans cet espace virtuel indéfinissable, ont donc suinté des particules ou quelque chose
qui se différenciait du néant, du vide et il est intéressant en relisant la Genèse de constater
que les Ecritures expriment comme création du premier jour les ondes.
La traduction exacte de l'expression biblique ne peut certainement évoquer les ondes
liquides, mais les ondes électro-magnétiques, celles de l'espace, puisque les luminaires
viennent le quatrième jour.
Cet aspect primaire de la création mérite attention du fait de la logique scientifique du
développement, aussi je respecte le texte même de la Genèse.
Il est dit et cela dans les textes les plus anciens :
Au commencement la terre était informe et vide, il y avait des ténèbres à la surface de
l'abîme et l’Esprit de Dieu se mouvait au dessus des eaux.
Dieu dit : que la lumière soit ! Et la lumière fut, et il sépara la lumière d'avec les ténèbres.
Dieu dit ensuite :
Qu'il y ait une étendue entre les eaux et qu'elle sépare les eaux d'avec les eaux.
Puis : Que les eaux qui sont au dessous du Ciel se rassemblent en un seul lieu et que le
sec paraisse.
Enfin le quatrième jour :
Qu'il y ait des luminaires dans l'étendue du ciel.
L'intérêt de ce texte est évident si l'on traduit les termes ésotériques en termes modernes.
Ainsi le néant de l'abîme fait localement place à des ondes, c'est-à-dire les particules de
base et, par la suite, leurs ondes d'accompagnement.
Il faut bien noter que le texte biblique marque une étendue séparant les ondes
énergétiques de l'espace, des ondes matérialisées des constituants chimiques ;
Enfin les luminaires ce qui montrerait qu'il n'y a aucune confusion possible entre les
ondes énergétiques du début et l'apparition des luminaires, c'est-à-dire au moment de la
condensation de l'énergie cosmique,créant le Soleil.
Scientifiquement, je conçois donc cet aspect local de la création de notre système Solaire,
processus d'ailleurs identique mais en d'autres points de l'espace, aux autres systèmes
galactiques, comme la condensation d'ultramicroparticules c'est-à-dire sous forme d'une
énergie tournant sur elle-même.
Dans mes textes précédents, j'appelais ces particules des photons, mais depuis et pour
éviter toute confusion nous les dénommerons gravitons, selon la terminologie
actuellement adoptée (M. M. Doligez).
Le photon devient donc pour la suite du texte un groupe de particules accompagnées de
leurs ondes, fonction de leur énergie.
Quand le texte de la Genèse parle de l'abîme incréé il faut lire l'espace vide localement
destiné à loger le Système Solaire.
Mais comme nous le verrons ultérieurement je crois que l'Univers a toujours existé, la
notion de temps étant anthropomorphique. Je pense que le Cosmos a toujours été plus ou
moins peuplé de particules le traversant à des vitesses infiniment grandes dans les espaces
vides d'énergie spatiale cosmique condensée.
Si l'on s'engage dans l'étude de la gravitation, il faut en premier lieu se libérer du concept
de l'attraction.
Certes il s'agit bien là d'une interprétation primaire et l'expérience de tous les jours nous
démontre que nous paraissons attirés par le sol terrestre, et que toute masse abandonnée
dans l'espace tombe.
Toutefois dans un autre domaine nous constatons que si le piston d'une pompe à eau
semble attirer le liquide, cet effet cesse au delà d'une hauteur de 10 mètres, et à l'analyse
on comprend qu'il ne s'agit pas d'une attraction, mais du refoulement à la base de l'eau par
la pression atmosphérique, cette dernière ne pouvant contrebalancer le poids de la
colonne d'eau que pour un équilibre entre pression atmosphérique et poids de l'eau.
L'effet d'attraction par ailleurs et dans tous ses aspects doit donc être ramené à celui d'une
pression extérieure qui se manifeste par suite d'un déséquilibre entre cette pression
extérieure et celle qui est diminuée par un mécanisme quelconque,entre l'objet qui semble
attiré et celui qui l'attire.
En ce qui concerne le poids des corps, il apparaît donc qu'il provient d'une pression de
l'espace agissant sur les atomes du corps humain du fait d'une sous-pression locale
énergétique.
En définitive, les atomes du corps faisant obstacle, on peut penser à un effet d'écran.
Nous avons pleinement conscience qu'un vent violent nous pousse dans le sens de sa
direction bien que ce vent soit normalement invisible à nos yeux. Cette sensation nous est
donnée par la pression du vent, sa température et parfois à cause de la poussière qu'il
entraîne.
Nous réalisons ainsi l'existence de l'élément air, nous lui octroyons un certain degré
d'énergie cinétique et thermique, pour nous sa réalité physique ne fait aucun doute.
Il en serait de même si étant debout sur une trémie métallique nous nous trouvions sous
un puissant ventilateur projetant un flux d'air vertical vers le sol.
Debout sur une balance notre poids serait de ce fait augmenté par la pression de l'air.
Transposant ce mécanisme à la gravitation nous voyons que l'attraction ne peut
s'expliquer logiquement que par un flux d'énergie venant de l'infini et de direction
centripète à la planète, notre corps faisant écran à sa propagation.
Nous sommes évidemment bien loin des concepts de la relativité.
Certes, depuis longtemps les physiciens ont envisagé le processus, mais il a fallu les
spéculations relativistes pour faire d'une chose très simple une conception irrationnelle,
bientôt adoptée, l'esprit humain ayant tendance à admirer ce qu'il ne comprend pas.
Et pourtant, si le vent et donc l'atmosphère ne se manifestent à nous qu'indirectement,
n'en est-il pas de même de l'énergie de l'espace dont l'effet de pesanteur est une
manifestation indiscutable ?
Les gravitons épars bombardés de toutes parts se sont donc condensés en un point
privilégié, c'est-à-dire le nuage qui devait donner naissance au Soleil.
Les gravitons au commencement n'avaient aucune énergie propre en dehors d'une énergie
spinique, mais sous l'influence combinée de la pression qui les condensait et des chocs
provenant des apports énergétiques des particules cosmiques, il s'est donc formé une sorte
d'atmosphère d'ultra-microparticules présentant des oscillations browniennes exactement
similaires, mais à une échelle infiniment réduite, à celle d'un gaz atomique.
Le rayon actuel de ce nuage peut être évalué à 100 milliards de km. Il faudrait donc
environ 300 heures pour le traverser à la vitesse de la lumière, telle qu'elle est
officiellement admise. Nous verrons par la suite que ceci n'est pas tout à fait exact.
Un tel nuage peut être sphérique ou ellipsoïdal. La pression des rayonnements
particulaires qui le bombardent en provenance de toutes les régions du cosmos doit
augmenter en fonction inverse du carré de la distance au centre de gravité, ce qui
s'explique mathématiquement par le fait que la surface des sphères ou ellipsoïdes
concentriques diminue en fonction de l'inverse carré de la distance au centre.
De ce fait, si la pression cosmique externe peut être relativement faible, elle va croître
considérablement au centre de gravité, la densité du gaz gravitonique augmentant dans le
même rapport, suivant les lois qui régissent les gaz parfaits.
Nous aurons donc en tous points de cette atmosphère une pression et une température
locale qui me paraît correspondre au 0 absolu Kelvin, qui ne serait en définitive que la
température de l'espace énergétique et non la limite inférieure des températures.
Il est à noter que si ce 0 Kelvin correspond, à notre échelle physique, à l'arrêt des
oscillations moléculaires ou atomiques, cette température ne saurait modifier la texture
propre de l'atome dont les électrons continueraient à ceinturer le noyau.
Le 0 absolu est ainsi la frontière entre les températures au niveau quantique et une
nouvelle graduation à partir du niveau subquantique.
Il était essentiel de préciser que la notion de température concerne uniquement l'énergie
oscillatoire, et que le 0 absolu correspond au silence moléculaire.
Bien entendu on ne saurait entrer dans le monde physique subquantique sans préciser ses
dimensions.
Soit en effet les particules de dimension en 10-28 cm et une masse planétaire d'ordre
moyen 1030 tonnes.
La masse du graviton serait de 10-60 à 10-80 g-masse, ce qui veut dire que la masse des
particules est placée en moyenne entre une masse planétaire et une masse gravitonique,
c'est-à-dire sous une autre forme, que le graviton est à la particule ce que la particule est à
une planète.
Il est bien évident que la physique de l'atmosphère gravitonique doit être aussi différente
de la physique atomique que celle-ci l'est de l'astronomie et dans ce domaine tout est à
découvrir et mesurer.
On peut toutefois estimer certaines caractéristiques qui découlent de l'aspect
morphologique.
La densité et la température croissant à mesure que l'on se rapproche du centre, il doit
donc exister à ce niveau un maximum du gradient de l'ordre de plusieurs milliards de
degrés suivant notre échelle.
Imaginons toutefois une sphère de gaz contenu dans un ballon par exemple du CO2
sphère que nous allons comprimer symétriquement en plaçant ce ballon dans de l'eau dont
on augmentera la pression.
Pour une certaine pression et température le gaz CO2 va se liquéfier en abandonnant de la
chaleur.
Qui ne voit donc dans ce mécanisme le processus de création du Soleil et partant de là de
tous les Soleils cosmiques, c'est-à-dire une sorte de liquéfaction de l'énergie gravitonique
au centre de gravité du nuage avec émission de chaleur électromagnétique.
Les astronomes trouvent normal de considérer qu'un astre qui émet à chaque seconde des
milliers de kg de sa substance sous forme d'énergie radiante conserve depuis des milliards
d'années son volume et son énergie, la paléogéologie en faisant foi.
La seule explication valable est qu'il existe un seuil entre le volume solaire et le volume
de l'atmosphère énergétique qui établit un équilibre constant entre les deux états,
maintenant ainsi la substance matérialisée de l'énergie.
Certes, les physiciens, et cela a valu à l'un d'eux un prix Nobel, considèrent que l'énergie
Solaire est due à la transformation de l'hydrogène en hélium (cycle de Bethe).
Je suis navré d'opposer ma conception du phénomène à un prix Nobel, mais je
démontrerai ultérieurement que l'énergie de fusion est très exactement l'énergie de
l'espace refoulée par les effets de cavitation, la molécule d'hélium occupant un volume
d'espace plus grand que la molécule d'hydrogène, et sur ce point j'ai l'accord d'autorités
scientifiques indiscutables.
C'est dire que bien des idées actuellement à la mode en physique ont grand besoin d'être
reconsidérées.
Fig. 24
Fig. 25
Sur ce point j'invite le lecteur à se procurer un de ces gadgets consistant en une lampe
chauffant un complexe isodense de deux substances placées dans un tube et constituant
un mobile.
A froid l'élément visible est plaqué au fond du tube, mais chauffé il se présente comme un
ballon que l'on gonfle par sa base c'est-à-dire sous forme de poire.
Petit à petit l'aspect piriforme se transforme en une sphère maintenue à la base par un
étirement qui se rompt brusquement.
Cette rupture qui détache la sphère, devenue parfaite, de sa base crée un phénomène
extrêmement instructif sous la forme d'une deuxième sphère beaucoup plus petite qui s'est
agglomérée par la réunion de la substance de l'étirement.
Il me paraît que cela pourrait expliquer la formation de satellites comme la Lune.
Pourquoi les deux sphères se détachent-elles de la base ? Cela est clair la chaleur
spécifique des deux substances étant différente
quoique leur densité soit la même à froid, il est clair que chauffées l'une des deux doit
devenir moins dense donc plus légère et s'élever par effet archimédien.
Si nous transposons ce mécanisme au niveau du Soleil, il paraît logique de le considérer
comme expliquant sans faille la naissance d'une planète et d'un ou plusieurs satellites.
Ainsi, une planète nait d'une expulsion de substance solaire, entraînée par la rotation du
Soleil et de son atmosphère baignant dans un milieu de densité voisine de la sienne.
De ce fait il est nécessaire de modifier bien des caractéristiques à propos de l'intensité de
la pesanteur au niveau des astres et planètes et en particulier les vitesses de libération
qui nécessitent l'introduction des facteurs archimédiens.
Si les planètes, satellites solaires, sont ainsi entraînées dans la rotation d'ensemble du
système, ce n'est donc pas uniquement l'équilibre entre l'attraction Solaire et la force
centrifuge de leur rotation qui détermine leur trajectoire. Celle-ci devient donc un
complexe entre ces forces auxquelles il faut ajouter l'entraînement du milieu et les effets
archimédiens entre la densité des planètes et celle du milieu qui diminue en fonction de
l'éloignement.
CRITIQUE DE LA RELATIVITE
S'il est une théorie qui a profondément influé le développement des idées en physique,
c'est bien la relativité.
Certes très critiquée dans ses débuts, un certain nombre de semi-vérifications
expérimentales ayant retourné l'opinion, la Relativité est maintenant admise comme vérité
d'évangile dans les milieux scientifiques universitaires.
Et pourtant il n'y a rien de plus controversé à l'heure actuelle, car les fameuses
démonstrations à propos des anomalies du périhélie de Mercure, ou la courbure des
rayons lumineux au voisinage d'un corps céleste, même la trop célèbre formule W = MC2
trouvent des explications dans la logique scientifique d'avant Einstein.
Cette théorie est en effet basée sur l'expérience de Michelson dont l'interprétation
erronnée a orienté la physique dans une voie étrangement logique mais en dehors des
réalités matérielles.
C'est ainsi qu'Einstein a posé comme postulat que la vitesse de la lumière était la limite
infranchissable de toutes les vitesses dans l'Univers, commettant l'erreur monumentale de
poser pour principe que l'espace était uniformément vide et identique à lui-même en tous
points du Cosmos, en dehors des étoiles et des planètes.
S'il n'est pas niable que la Relativité présente un certain nombre de vérités, elles ne sont
valables que dans un gradient énergétique déterminé et de toute façon peuvent s'expliquer
par la constitution même de l'espace en opposition formelle avec les vues relativistes.
Nous reviendrons en détail sur tous ces aspects, mais puisque l'origine de cette
conception se trouve dans l'expérience de Michelson il importe de déterminer les causes
d'erreur qui ont été introduites.
En effet, si un observateur court vers une source lumineuse en traversant le milieu qui
porte les vibrations, il est clair que la vitesse relative résultante augmente, étant égale à la
vitesse des ondes plus celle de l'observateur mobile.
De ce fait l'observateur est atteint par un nombre de vibrations à la seconde plus grand
que celui qu'il aurait reçu en état de repos.
La condition de traverser le milieu vibrant est essentielle. En effet si cet observateur se
déplaçait en même temps que le milieu, la vitesse (relative) de la lumière demeurerait
constante.
Dans le cas contraire, si l'observateur s'éloigne de la source lumineuse toujours en se
déplaçant au sein du milieu vibrant la vitesse relative de la lumière diminue, et il est
touché par un nombre de vibrations plus petit qu'il n'aurait reçu immobile.
A la limite si sa vitesse était la même que celle des ondes lumineuses il ne les verrait plus
puisque se déplaçant en même temps qu'elles.
On peut dire que pour ce dernier observateur la vitesse de la lumière est nulle.
Que pourrait-il arriver s'il dépassait cette vitesse ?
Il semble en une première approximation que cela permettrait un retour dans le temps,
mais sous certaines réserves.
En dehors d'une vitesse largement supérieure à deux fois celle de la lumière, la vision du
passé ne pourrait se comprendre qu'en fonction d'un arrêt permettant aux ondes de
rattraper l'observateur, car son ralentissement progressif le ferait rejoindre par des ondes
de longueur décroissantes représentant donc le passé sous un aspect difficilement
concevable.
Ces mécanismes se présentent avec une parfaite analogie dans les phénomènes
acoustiques, et plus particulièrement à propos des avions supersoniques dont les ondes
sonores peuvent être en avant ou en arrière de l'appareil suivant qu'il vole en régime
subsonique ou supersonique, ce qui démontre une fois de plus l'identité des processus
sonores et lumineux contrairement aux assertions et postulats relativistes.
Partant de ces données expérimentales, raisonnons logiquement et résumons-nous:
Si l'observateur s'approche de la source lumineuse ou sonore, la fréquence du
rayonnement ou du son augmente en même temps que la vitesse relative de la lumière ou
du son.
Inversement, si l'observateur s'éloigne, la fréquence diminue en même temps que la
vitesse relative.
Si l'observateur s'éloigne à la même vitesse que les ondes la fréquence s'annule en même
temps que la vitesse relative.
Enfin pour une vitesse très largement supérieure à celle des ondes et suivant le processus
indiqué, il serait possible de remonter le temps, dans certaines limites toutefois, car entre
aussi bien dans leurs dimensions réelles que de la façon de les compter en années lumière.
Quitte à déflorer le sujet je crois pouvoir affirmer que si la sortie du champ solaire peut
demander quelques heures à la vitesse maximale réalisable, les traversées inter
galactiques sont hors du temps.
Les bases mêmes de la Relativité étant erronnées, personne ne peut admettre sans
réticence les conclusions qui en découlent et dont la critique essentielle est qu'elles sont
formulées dans un esprit de vérité absolue indiscutable et qui ont fait écrire par un
membre éminent du CNRS que:
«Toute communication ne faisant pas état de la relativité sera jetée au panier sans le
moindre examen».
Pourquoi tant d'absolu ?
Il semble en effet que les résultats expérimentaux confirment suffisamment les calculs
théoriques pour que la Relativité soit reconnue comme scientifiquement valable mais de
récentes et nouvelles conceptions sont venues depuis le Congrès relativiste de New York
apporter d'autres processus explicatifs aussi séduisants et parfaitement conformes au bon
sens cartésien.
Je ne nie pas qu'en électromagnétisme les relations de Maxwell aient eu besoin du coup
de pouce relativiste, mais il ne saurait exister dans le monde physique aucune action à
distance instantanée, tout au moins dans un champ d'énergie, et il faut donc introduire la
vitesse du facteur de transmission soit la vitesse dans notre gradient énergétique des
ondes électromagnétiques.
En ce qui concerne la rotation de l'ellipse de Mercure qui avait fait en son temps
triompher la théorie, on s'est aperçu qu'elle pouvait provenir d'une anomalie solaire
n'ayant rien à voir avec la relativité.
Quant à la déviation d'un rayon lumineux au voisinage d'un champ de gravitation, cela
tombe sous le sens puisqu'il s'agit d'un espace anisotrope.
Pour ce qui intéresse le déplacement des raies spectrales des nébuleuses, autre triomphe
de la théorie, nous verrons par la suite qu'aussi bien la théorie de l'expansion que toutes
les autres relatives aux vitesses cosmiques sont à revoir à 100% ...
Reste donc l'équivalence masse-énergie et là encore cela est évident. L'énergie étant
construite sur le modèle d'un gaz de particules de dimensions infiniment petites mais
réelles, est donc matérielle. D'autre part les particules élémentaires étant créées par
l'enroulement sur elles-mêmes d'un rayonnement constitué d'une micro-particule et de son
onde, on comprend parfaitement l'énergie atomique qui se déclenche par un processus en
chaîne de désenroulement, par éclatement.
Quant à la gravitation, réalité présente s'il en fut, elle a été transformée par Einstein en
courbures d'un espace virtuel dont la matérialité est niée par son auteur et j'ai toujours été
surpris et profondément étonné d'entendre cette invraisemblance affirmée ex cathedra par
d'éminents physiciens.
Reste encore à examiner les propositions relativistes du temps, intimement lié selon
Einstein à l'espace et à la matière.
Quitte à revenir une fois de plus sur le caractère purement abstractif du temps, il semble
difficile de trouver à ce concept une réalité physique en dehors du cadran d'une horloge
ou de la fréquence d'une oscillation atomique d'ailleurs variable.
Certes, si la relativité a éveillé l'esprit au concept de la mécanique de l'irréel c'est bien à
propos du temps chose éminément relative, aussi sur ce point je lui concéderai une
certaine valeur. Mais, encore une fois, la critique que je fais à cette théorie c'est de n'être
approximativement valable que dans un champ d'énergie, c'est-à-dire l'atmosphère
énergétique du soleil support des ondes et de leur vitesse locale fonction de la densité
Une fois de plus, nous définirons le système solaire ou n'importe quel système stellaire
comme résultant de la condensation de l'énergie spatiale en son centre de gravité ou de
pression maximale, les effets de gravitation étant complexes, dépendant de la pression
cosmique qui refoule énergie et matière vers le Soleil. Cette pression augmente
proportionnellement à l'inverse de la surface, ce qui revient à dire que l'attraction
résultante est fonction de l'inverse carré de la distance au centre de gravité et bien entendu
proportionnellement à la masse.
En tous points de cet espace on constate que la direction des forces de pression est
centripète.
On pourrait objecter que dans un gaz enfermé dans une sphère et sous pression, celle-ci
est constante et identique en tous points.
Comment donc expliquer cette anomalie de texture qui fait que la pression augmente en
même temps que la densité, ce qui est obligatoire ?
Expliquer cet état par l'attraction mutuelle des particules satisferait les rares partisans
actuels de l'attraction, il faut donc voir le problème sous son aspect cosmique et non
purement local.
Nous avons vu dans un chapitre précédent et d'ailleurs nous y reviendrons étant donné
son importance que la relation de de Broglie C2 = C'C" signifiait qu'un rayon
électromagnétique de fréquence quelconque pouvait présenter deux caractères bien
distincts, c'est-à-dire, la vitesse de la particule et celle de son onde d'accompagnement.
Il est évident que la vitesse de l'une tendant vers 0 celle de l'autre tend vers l'infini.
Mais alors que la particule matérielle, tout comme un avion supersonique, ne va pas à la
même vitesse que le son qu'il engendre dans un milieu aérien, ou comme la fusée qui en
dehors de l'atmosphère ne saurait être accompagnée d'ondes acoustiques, mais
uniquement d'ondes électromagnétiques, l'onde d'accompagnement ne peut exister en
dehors d'un support, c'est-à-dire le milieu subquantique ou éther des anciens.
Sa vitesse sera donc fonction de la pression et de la densité du milieu.
Nous devons donc en conclure que avant de pénétrer dans un champ gravitationnel les
particules photons arrivent à une vitesse qui pourrait être théoriquement proche de l'infini
c'est-à-dire avec une énergie extrêmement élevée.
Ainsi injectée dans l'énergie spatiale condensée cette vitesse va diminuer au profit de
celle de l'onde qui va apparaître et qui va devenir de plus en plus grande à mesure que
s'approchant du centre, le Soleil, la pression énergétique va augmenter, ce qui est
conforme aux lois relatives aux vitesses des ondes.
Le champ gravitationnel cosmique de notre système solaire est donc perpétuellement
bombardé par ces photons, particules en provenance de l'infini de l'Univers, photons
n'ayant pas le caractère d'onde électromagnétique mais uniquement de projectile.
C'est ce bombardement qui crée l'énergie de translation des gravitons et en conséquence
les champs, car contrairement à la paroi d'une sphère qui n'est qu'un réflecteur de
l'énergie d'un gaz, le ralentissement des photons particules se fait petit à petit dans toute
l'épaisseur de la sphère de gravitons ainsi comprimés progressivement.
Qui ne voit dans ce mécanisme l'explication des rayons cosmiques et la nécessité de
modifier toutes les perspectives de l'astronomie physique !
La conséquence immédiate de ce point de vue est donc que notre physique (y compris
sous son aspect relativiste) n'est approximativement valable que dans notre gradient
énergétique, c'est-à-dire pour la terre 150 millions de km, sa distance au Soleil, et un peu
en deçà de Jupiter, à 777 millions de km.
Au delà de la nouvelle planète que l'on croit avoir identifiée, l'aspect physique de l'espace
doit être variable, ainsi que l'exactitude des distancés de la Terre jusqu'à Pluton. Et si
Pluton est théoriquement distante de 6 milliards de km de la Terre, la limite à la présence
de gravitons doit être de 100 milliards de km. (calcul basé sur la décroissance à l'inverse
carré des distances au Soleil).
Il est à noter que cette distance est franchie en 100 heures environ à la vitesse de la
lumière des relativistes. La distance théorique du Soleil le plus proche, Alpha du
Centaure, exigeant quatre années lumière avant d'entrer dans l'atmosphère énergétique de
cet autre soleil notre... voisin, cela nous donne un aspect de la distance qui sépare ces
deux systèmes.
Fort heureusement il n'existe entre ces deux mondes que le vide, le (relatif) vide
énergétique dans lequel il ne saurait y avoir de limite absolue de la vitesse. De même une
fusée qui continue à être accélérée après son passage à une vitesse relativement réduite
dans l'atmosphère, pourrait s'élancer à des vitesses très voisines de celle de la lumière
dans le «vide» interplanétaire.
Cet aspect du problème de l'astronautique de demain nous permet donc d'espérer toute
possibilité d'expansion dans l'Univers visible et invisible.
incomplet.
Nous devons donc envisager un calcul plus complexe, basé sur une pensée d'Henri
Poincaré qui estimait que :
«La stabilité des particules atomiques ne pouvait s'expliquer qu'en fonction d'une
pression extérieure de l'espace».
Cette pression centripète faisant compensation à celle centrifuge
due à la rotation de l'énergie de la particule. Les physiciens l'ont appelée force
électrostatique, ce qui rend son mécanisme ésotérique, alors qu'il est très simple.
Très simple aussi les FORCES DE LIAISON, bien mal connues des atomistes, qui
consistent dans le refoulement des éléments énergétiques de l'espace.
Il faut en effet bien concevoir le mécanisme créateur d'une particule issue d'un
rayonnement énergétique.
Un photon de 1 MeV environ c'est-à-dire une particule photonique accompagnée de son
onde, arrivant sur un obstacle électromagnétique, tout comme un courant d'eau heurtant
un obstacle crée deux tourbillons symétriques mais de sens contraires, créera lui-même
deux tourbillons dans l'espace, de sens inverse.
On sait d'autre part qu'un rayonnement électromagnétique est constitué par l'oscillation
d'un champ électrique, créant une onde synchrone du champ magnétique qui lui est
perpendiculaire.
Dans ces conditions on comprend que le champ électrique ondulant se mette en rotation
autour d'un axe alors que le champ magnétique devient une oscillation perpendiculaire au
plan de rotation de la charge.
Pour conserver l'image des deux tourbillons d'eau, nous assistons à la création d'une
particule et d'une antiparticule la première restant stable, et c'est l'électron, la seconde
ayant une vie très brève, et c'est l'anti-électron.
S'il est admis que la vitesse de l'onde est constante dans le gradient qui nous intéresse,
l'énergie du photon est donc uniquement due à sa fréquence, et en conséquence cette
fréquence nous indiquera le nombre de rotations par seconde de la particule ainsi créée.
Sa stabilité sera donc établie lorsque la force centrifuge fournie par la rotation trouvera un
rayon équilibrant, la pression centripète de l'espace. Cette relation doit donc déterminer la
dimension théorique des particules de toutes natures, actuellement recensées dans les
laboratoires des atomistes. Je rappelle qu'en atomistique un photon de + 1,02 MeV donne
un positon et un négaton comme je viens de l'exprimer, le positon étant instable. Une
énergie supérieure, de + 931 MeV, donnera un ELECTRON et un PROTON.
A partir des rayons calculés de l'électron et du proton, il nous sera donc facile de
déterminer le gradient de cette pression de l'énergie spatiale à notre niveau cosmique.
Fig. 26
Fig. 27
I1 importe toutefois de faire une remarque et ceci nous oblige à reprendre le problème
dans ses bases essentielles.
Nous avons vu qu'un rayonnement peut s'enrouler autour de lui-même selon un processus
droit ou gauche, et dans ces conditions l'élément particulaire que je confonds avec le
complexe «Charge» possède un spin.
Ce spin obéissant aux lois de la cinématique doit obligatoirement être un axe
perpendiculaire sur le plan de rotation ou plus exactement sur le plan du champ
électrique, et dans ces conditions suivant le sens du champ magnétique cette rotation est
droite ou gauche.
Nous avons vu précédement que l'on peut assimiler, cette disposition à une sorte d'Effet
Magnus aérodynamique, dont la résultante sera centripète ou centrifuge. Les particules
engendrées seront donc soit des expansions soit des condensations du milieu
gravitonique.
Bien entendu tous ces processus sont quantifiés et permettent donc la création de
particules d'énergies et de dimensions très variées, ce qui est actuellement prouvé.
Fig. 28
Quelle est donc la valeur exacte de la pression de l'espace ?
En toute logique elle doit être la moyenne entre celle calculée par rapport aux dimensions
de l'électron et du proton puisque dans un cas il y a expansion et dans l'autre contraction
de l'espace particulaire.
Soit P égal, au maximum, à 1035 baryes, pour un rayon du proton égal au minimum à 10-
13 cm. Donc en densité énergétique w, on a:
Nous verrons dans le prochain chapitre qu'en ce qui concerne le magnétisme, les
mécanismes d'attraction ou de répulsion sont statistiquement aussi probables les uns que
les autres, mais il faut remarquer que l'action attractive croît en fonction de son processus
alors que l'action répulsive décroît. C'est la raison pour laquelle le processus attractif
prédomine sur le processus répulsif et pour laquelle les atomes s'agglutinent au lieu de se
repousser.
Cette remarque portée sur le plan de la particulogenèse pourrait peut-être expliquer
certains aspects de la gravitation et le fait que si le magnétisme est bipolaire, la
gravitation est, expérimentalement, monopolaire, bien que rien n'empêche d'imaginer un
domaine répulsif dans certaines conditions.
Nous nous trouvons ainsi en présence de particules ayant des polarités magnétiques, mais
les unes moins denses que le milieu et les autres plus denses.
Pourquoi celles de même type se repoussent alors que celles de type différent s'attirent ?
Il est admis que deux électrons ou deux protons très proches se bombardent alors à coup
de photons, ce qui produit leur répulsion (travaux de M. M. Doligez).
Certes, cette hypothèse exige l'émission d'énergie de part et d'autre, énergie qui peut être
récupérée à la réception, ce qui revient à admettre que les électrons et les protons sont
puissants et possèdent une fréquence vibratoire propre soit :
pour l'électron = 1,5 . 1023 hertz ( = le rapport C / 2r )
Toutefois cette fréquence est probablement de résonance car la fréquence de rotation du
champ électrique et de son homologue le champ magnétique est de :
3 . 1010 / 2 π r = 0,5 . 1023 hertz
Nous retiendrons que l'ordre de grandeur de cette fréquence correspond à la valeur
admise comme réaction de rayonnement compte tenu du fait que la vitesse C = c sqrt K .
µ
K étant le pouvoir inducteur spécifique.
µ le coefficient de perméabilité du milieu.
Il est à noter que cette réaction de rayonnement est dissipée dans l'espace, et dans ces
conditions étant donné que l'électron ne saurait perdre de l'énergie sans disparaître, je
présume que son énergie est entretenue par celle de l'espace.
A la réflexion il est bien étrange que les particules formées de rayonnements circulaires
maintiennent leur individualité pratiquement indéfiniment sans que cette pérennité ne soit
modifiée par des forces d'environnement.
En somme la structure énergétique de l'électron comme des autres particules stables est
identique à celle d'un atome ou d'une molécule gazeuse dont la température est maintenue
par celle des éléments qui l'entourent.
On peut envisager que l'on pourrait tirer indéfiniment de l'énergie, d'un électron ou d'un
proton, cette énergie lui étant restituée par l'énergie cosmique pratiquement inépuisable.
Revenons toutefois au problème qui nous intéresse, c'est-à-dire l'antigravité
archimédienne de l'électron.
Il est bien entendu que la mécanique répulsive attractive entre protons et électrons ne
saurait exister en dehors d'un champ d'énergie, ces réactions étant archimédiennes et
fonction de l'état de densité locale de l'énergie.
Ainsi une balle de liège ou de plomb ont une masse positive. Mais introduites dans un
milieu liquide, la masse du plomb reste positive mais apparaît comme négative pour le
liège, puisque dans un champ de gravitation la réaction de la première est centripète, celle
de la seconde centrifuge.
Il en est donc de même pour l'électron et le proton dont les masses sont positives dans un
milieu isotrope, mais qui réagissent en sens inverse dans un champ électrique. En
conséquence la densité de l'électron est inférieure à celle du champ gravitationnel dans un
champ de ce type.
Certes, m'objectera-t-on, les expériences de Millikan, destinées à la détermination de la
charge, n'ont-elles pas montré de différence quand le champ électrique du condensateur
était inversé.
Je me permets de renvoyer le lecteur au calcul du rapport d'action entre un champ
électrique et gravitationnel à propos de l'hydrogène, rapport de l'ordre de 1036 .
Bien entendu, cet effet ne pouvait donc apparaître au cours de ces expériences et pour une
seule charge, mais il en est autrement pour une charge importante comme nous l'avons
démontré.
Avant d'entreprendre l'étude du condensateur, dégravité grâce justement aux effets
combinés de l'allègement par la présence d'électrons et du vide énergétique qui se
manifeste entre électrons et protons, revenons une fois encore sur la particulogenèse.
Je peux en effet affirmer et cela est visible sur de nombreux clichés (montrant une
trajectoire d'électron et de positons partant du même point) que le proton résulte de la
transformation de l'électron positif, à partir d'une quantité d'énergie suffisante et localisée,
et cela parce que la particule génératrice que les physiciens ont appelé jusqu'ici la charge
tourne dans un sens pour l'électron et en sens inverse pour le proton.
Ce mécanisme produisant un effet Magnus électromagnétique centrifuge pour le premier
et centripète pour le second donnera donc pour une même énergie un trou dans l'espace
ou un plein, et c'est ainsi que pour une même charge nous aurons deux particules
totalement différentes au point de vue de leur masse (apparente) et de leurs réactions
électro-magnétiques.
Il en résulte que les rayons de ces deux particules, c'est-à-dire les rayons de rotation de la
charge, que l'on considère actuellement comme identiques, après avoir admis à juste
raison que celui de l'électron était le double de celui du proton, doivent effectivement être
différents. Et c'est la raison pour laquelle un calcul de densité effectué logiquement doit
donner pour l'électron une densité, au cm3, de 33000 tonnes et pour le proton de 400 000
000 de tonnes.
A la rigueur si en première approximation la densité de l'électron est de 33 000 tonnes au
cm3 , celle du proton pour un même volume devrait être 1 800 fois plus élevée soit de 60
000 000 de tonnes au cm3, mais les volumes sont différents du fait du mécanisme
d'expansion contraction.
Une conclusion s'impose, c'est que la masse des particules est donc essentiellement
fonction d'une part de l'énergie interne, laquelle serait due à une onde prisonnière, en
phase, déterminant un spin, et, d'autre part, de la «masse d'espace» qui est entraînée soit
en expansion pour l'électron soit en contraction pour le proton.
Nous voyons donc que suivant le sens de rotation d'une particule quelconque à sa
création, nous obtiendrons soit une particule de densité inférieure à celle du milieu soit au
contraire une particule de densité supérieure, et c'est la base de toute particulogenèse.
L'analyse des champs prouve toutefois que si mathématiquement on attribue un volume
théorique à la particule son champ n'a aucune limite et c'est la raison pour laquelle un
groupe d'électrons ou de protons créent un environnement expansif ou contractif de
l'espace autour d'eux, ce qui devient en définitive le champ électrique, lequel quoique
obéissant à la loi de l'inverse carré, n'a pas de limite absolue.
Reste à élucider le problème de l'inertie.
La masse paraît être la résultante directe de la densité locale de l'énergie du milieu et de
celle des particules. Il s'ensuit que l'inertie doit en être une conséquence puisque
l'accélération d'un électron dans un champ est infiniment plus facile que celle d'un proton,
alors que l'énergie de base des deux particules est la même c'est-à-dire celle du photon
générateur divisé par deux (contrairement à l'opinion des atomistes !).
La dégravitation archimédienne, s'accompagnant d'une diminution de l'inertie, rentre bien
dans les conceptions de la mécanique confondant gravitation et inertie, et nous en
concluons qu'un système dégravité doit donc voir diminuer son inertie suivant une
proportionalité directe.
Peut-on envisager une masse réellement négative et une inertie négative ? Ceci est du
domaine des spéculations mathématiques pures mais est peut être possible dans le
domaine des réalités physiques, ce qui expliquerait bien des choses.
L'effet archimédien de l'eau ne pénètre pas les atomes du corps allégé, il ne modifie donc
pas l'inertie de ce corps.
Le problème parait d'une toute autre nature au niveau du gaz gravitonique, car l'effet de
surface qui est un écran dans des milieux gazeux ou liquides n'existe plus vis-à-vis du
fluide énergétique pour qui la matière réduite au champ des particules (lesquelles
n'occupent qu'un volume dérisoire par rapport à celui de la matière) est presque
parfaitement perméable.
Ce n'est donc plus la trainée aérodynamique qui est en jeu mais les simples interactions
entre les champs oscillants des particules et ceux des gravitons.
Il semble donc que nous soyons en présence d'un milieu hyperfluide, les champs étant
parfaitement malléables et déformables.
On peut dans ces conditions se faire une idée sur l'énergie cinétique qui ne serait en
définitive qu'une déformation permanente plus ou moins importante des champs
particulaires et atomiques en translation dans l'énergie.
Il faut donc voir dans l'effet archimédien une réaction démassifiante dans toutes les
directions.
On a en effet coutume de ne voir l'effet d'Archimède que dans le sens vertical appliqué à
la pesanteur, mais toute anisotropie du champ énergétique doit déterminer un effet
identique donc éventuellement une accélération et c'est ainsi que cela se passe pour un
électron ou un proton dans un champ électrique dont la texture est une anisobarye de la
pression spatiale.
Fig. 29
Il faut d'autre part voir dans l'espace ce qui se produit lorsqu'une particule ou un ensemble
de particules se déplace dans le champ d'énergie.
Le champ oscillant émis par toute particule irradie autour d'elle par progression
sphérique. Mais en cas de déplacement dans le milieu, ce dernier étant fixe ou au repos, il
est évident que les ondes émises vont devenir ovoïdes et que leur fréquence relative en
aval sera plus élevée que leur fréquence en amont jusqu'à ce que (la vitesse de la particule
étant la même que celle de la propagation de l'onde) la fréquence en aval soit infinie et
celle en amont nulle (Fig. 29).
C'est ainsi que je crois pouvoir représenter la contraction de Lorentz et le principe
relativiste qui veut qu'il faille une énergie infinie pour atteindre la vitesse de la lumière
En réalité, ce mécanisme est beaucoup plus complexe et aucun atomiste de par le monde
ne l'a encore défini.
Il s'agit bien de démassification, du moins apparente, l'électron et le proton ayant en soi
une masse positive, mais là où le problème se complique et nécessite des calculs très
précis, c'est à propos de l'effet archimédien dans l'énergie complexe de l'effet gravitato-
pondéral du proton et de l'effet dégravitatif antipondéral de l'électron dont la densité est
inférieure à celle du milieu qu'il déplace.
Tout le problème de l'antigravité réside dans ce complexe dont je laisse aux
mathématiciens le soin de calculer les valeurs et les relations.
Nous venons de voir que l'électron étant plus léger que le même volume occupé par
l'énergie spatiale, il se trouve en état de dégravitation archimédienne. Il peut donc être
repoussé par la gravitation astrale alors que le proton plus dense est attiré.
Cet effet est faible comparé aux effets coulombiens et c'est la raison pour laquelle
l'électron reste prisonnier des protons.
Il semble toutefois qu'un certain nombre d'entre eux aient pu échapper à cette attraction et
que l'on puisse interpréter les ceintures de Van Allen comme le refuge cosmique du gaz
électron qui ferait ainsi suite à l'atmosphère d'hydrogène des hautes altitudes.
Cette zone serait donc le lieu d'équilibre entre des attractions coulombiennes terrestres et
des effets archimédiens sur l'électron.
En quoi consistent donc les effets coulombiens ?
Ils sont répulsifs entre particules de même densité et attractifs entre particules de densités
respectives, l'une supérieure, l'autre inférieure, à celle du milieu.
Il semble donc qu'il y ait là un mécanisme d'équilibration, la somme algébrique des
densités des masses relatives tendant à équilibrer la densité locale du milieu.
Ce mécanisme complexe peut être rapproché de l'expérience des ballons de gaz
carbonique et d'hydrogène dans une enceinte pleine d'air dans laquelle est injectée une
forte énergie vibratoire.
On voit en effet les ballons de gaz carbonique s'attirer alors que ceux d'hydrogène se
repoussent.
Toutefois deux ballons, l'un de gaz carbonique l'autre d'hydrogène s'attirent ou se
repoussent suivant que la masse de l'un est plus importante que celle de l'autre.
Ainsi donc attraction et répulsion seraient fonctions du volume et de la densité des
éléments en présence lorsque ces éléments baignent dans un milieu énergétique de densité
intermédiaire.
Il est bien précisé que dans l'expérience des ballons de densité supérieure ou inférieure à
celle du milieu énergétique en vibration les éléments plus légers se repoussent, les plus
lourds s'attirent.
Toutefois entre un élément lourd et l'autre léger l'attraction ou la répulsion est fonction de
la quantité de l'un ou de l'autre, c'est-à-dire qu'il y aura attraction si la masse de CO2 est
plus importante que celle de H et répulsion dans le cas contraire.
Or s'il est bien reconnu que les électrons se repoussent, il ne semble pas parfaitement
prouvé que les protons en fassent de même, et dans ces conditions il paraît logique
d'assimiler l'attraction entre proton et électron au fait que la masse du proton est
pratiquement 1800 fois plus importante que celle de l'électron.
Si ce processus explique la répulsion entre électrons, il ne saurait expliquer la répulsion
entre masses protoniques, il faut donc analyser ce mécanisme dans un autre esprit que
celui des physiciens classiques.
Il nous faut donc revenir à la particulogenèse à partir du photon générateur.
DEMASSIFICATION ELECTRONIQUE
Il est toutefois possible d'avoir une idée générale des effets démassifiants donc
antipondérants en comparant les effets produits par la présence des électrons ou des
atomes renfermant des électrons dans les synthèses atomiques.
Le problème est des plus complexes parce que les physiciens l'ayant mal compris et ayant
décidé de négliger la masse de l'électron tous les calculs utilisant les données postulées ne
sont qu'approximatifs.
Reprenons ce calcul déjà exposé en prenant les valeurs officielles puisées dans
Heisenberg. Reprenons ce calcul de façon plus précise.
Masse atomique théorique :
Proton 1,00758
Electron 0,000548
Hydrogène = 1,008128 soit 1,00813
Mais la densité de l'hydrogène est de : 0,06947 ce qui devrait donner comme masse
atomique :
0,06947 / 14,4 = 1,000368
Il existe donc une différence :
1,00813 - 1,000368 = 0,007762
La masse atomique de l'hydrogène présente donc une perte de masse dont l'électron est
responsable, à la fois par sa densité inférieure à celle de l'énergie et par sa rotation autour
du proton qui crée une cavitation, donc effet archimédien.
Nous savons certes que la densité de l'hydrogène est la somme de celle des trois
composants protium-deutérium-tritiura mais leur proportion respective étant de :
protium 999,8 pour mille
deutérium 0,2 pour mille
tritium 0,000 000 007 pour mille
la présence du tritium ne saurait modifier les calculs, ni même celle
du deutérium.
Il s'agit donc d'une perte de masse pour le protium uniquement due à l'action complexe de
l'électron.
Comparons la masse atomique H théorique et la masse expérimentale soit :
1,00813 - 1,000368 = 0,007762
c'est-à-dire :
0,07001 - 0,06947 = 0,00054
valeurs comparatives des densités théoriques et réelles.
Il est assez étrange que cette différence de densité corresponde à la masse atomique de
l'électron ?
Nous venons de faire ce calcul en nous basant sur des valeurs variables suivant les
auteurs, et les théories qui les ont inspirées, mais je crois être en droit de considérer que
l'action de l'électron donne une perte de masse, que l'on attribue aux forces de liaison et
que je rattache à l’antigravité naturelle de l'électron et à sa cinématique autour du noyau.
LE CONDENSATEUR DEGRAVITANT
Nous avons estimé, en accord avec la théorie de de Broglie et en le calculant par deux
autres méthodes différentes, que le gradient énergétique dans notre espace de voisinage
était de l'ordre de 1027 joules au cm3 , soit traduit en masse :
10 000 000 de tonnes masse au cm3
Or l'éthérohydrodynamique obéissant à des lois identiques à celles de l'hydrodynamique,
il est évident que dans un champ de gravitation de densité 1027 tonnes au cm3 un «trou»
de un cm3 donnera un effet dégravitatif de 10 000 000 de tonnes, force dirigée contre la
pesanteur.
Le problème de l'antigravité envisagé sur le plan de l'éthérostation homologue de
l'aérostation consistera donc à créer dans le milieu énergétique une zone de moindre
densité pouvant éventuellement être nulle.
Le problème semble a priori très difficile à résoudre. Toutefois étant donné la similitude
d'action entre ces deux milieux, voyons par quel moyen il est possible d'obtenir dans l'air
ou dans l'eau une zone de vide relatif.
Soit un cylindre dans lequel sont placés deux pistons, il est bien évident que si par le
moyen de tiges on écarte ces deux pistons, il va se créer un vide d'air ou d'eau.
Cette opération exigera un travail correspondant au volume expulsé multiplié par la
pression, et il faudra maintenir l'écartement que cette pression extérieure tendrait à
réduire.
Toutefois le travail effectué, la contention n'exigera qu'un dispositif de verrouillage ne
dépensant aucun travail.
Mais le poids du fluide air ou eau éjecté, va créer un effet archimédien contrapondéral sur
le système et pour un volume suffisant le dispositif s'élèvera contre la pesanteur, aussi
haut que la densité du milieu le permettra autrement dit indéfiniment si sa hauteur est
infinie et sa densité toujours suffisante.
Si nous transposons ce mécanisme à l'électrodynamique, nous voyons tout de suite qu'il
existe un dispositif analogue dans deux disques chargés en opposition de charge donc en
attraction.
Certes, il n'existe pas de cylindre pour limiter l'effet et suivant la distance, entre disques,
l'attraction augmente ou diminue en fonctions de l'inverse carré de la distance.
Nous constatons donc qu'un excès d'électrons sur un disque et un défaut d'électrons sur un
autre détermine une sorte de vide qui tend à être comblé par la poussée extérieure de
l'espace sur les disques.
Certes, la force dégravitative obtenue par ce procédé est faible et correspond au poids de
l'énergie qui est chassée, elle est donc théoriquement de :
10-13 gramme-poids pour un condensateur de un joule.
Il est toutefois intéressant de réaliser l'expérience avec un condensateur à air constitué de
deux disques de 2 dm2 distants de 15 cm.
Pour une charge de 50 à 100 kW, l'effet d'allègement est infiniment supérieur à l'effet
théorique puisqu'il atteint, dans certaines conditions, cinq grammes.
Bien entendu depuis que j'ai publié en 1957-1958 cette théorie, de multiples expériences
ont été réalisées un peu partout dans le monde avec le même succès, et différents
dispositifs expérimentés qui donnent de meilleurs résultats.
En pratique le meilleur résultat a été obtenu avec deux disques horizontaux, le plus large
à la base et le plus étroit au sommet, ce dernier étant chargé négativement.
Un effet encore plus marqué se produit si le disque inférieur est mis à la terre par un
conducteur fin.
L'analyse du mécanisme d'allègement est complexe, et cela se conçoit puisque les
résultats sont en définitive bien plus importants que ne le prévoit la théorie.
L'abbé Nolet en 1750 avait déjà observé que des éléments métalliques très légers et
chargés se maintenaient en équilibre dans l'air semblant défier la pesanteur, et il en fait
état dans ses mémoires.
C'est donc vers l'allègement par effet dégravitatif archimédien des électrons qu'il faut
chercher l'explication de l'excédent d'efficacité.
Ainsi un corps chargé négativement doit être plus léger qu'un corps présentant un défaut
d'électrons.
Cela est facile à vérifier sur une balance portant des disques à l'extrémité d'un fléau
isolant.
Toutefois il ne faut pas oublier qu'une charge induit toujours dans son voisinage un
champ de signe contraire déterminant une attraction et c'est la raison pour laquelle dans
l'expérience du condensateur horizontal dissymétrique, le plateau près du sol étant
neutralisé l'effet dégravitatif de la charge est optimal et de l'ordre de CINQ grammes pour
150 à 200 kW suivant le condensateur.
Bien entendu s'il était possible de maintenir la charge sans perte, l'effet serait permanent
et la dégravitation gratuite tout comme un aérostat à hydrogène possédant une enveloppe
parfaitement hermétique resterait dégravité indéfiniment dans l'air.
Il en serait de même avec l'air chaud et une enveloppe anti-thermique, mais le problème
pratique serait plus complexe.
Au niveau de l'atmosphère énergétique, la solution peut être parfaitement calquée sur le
mécanisme aérodynamique. On peut injecter une charge à base d'énergons ou gravitons
accélérés cinétiquement, ce qui serait l'équivalent de l'air chaud. On peut aussi utiliser des
éléments oscillants de masse moindre mais d'énergie équivalente, c'est-à-dire l'homologue
du gaz hydrogène ou hélium.
Certes, le graviton ayant une masse infime de l'ordre de l0-60 g-masse à 10-80 g-masse, il
parait difficile de lui substituer un élément encore plus léger (encore que nous ignorons la
composition exacte du milieu énergogravitonique). Mais s'il est possible de gonfler dans
l'atmosphère aérienne un ballon avec un gaz lourd comme le dioxyde de carbone porté à
haute température, de même il paraît logique d'utiliser l'élément le plus léger connu à ce
jour c'est-à-dire l'électron, comme gaz dégravitant archimédien.
Il ne faut pas oublier que, selon notre conception des particules de base, l'électron est une
expansion de l'éther, c'est-à-dire un trou dans l'énergie gravitationnelle.
La densité de l'électron étant de 30 000 tonnes cm3 alors que le même volume d'énergie
pèse 10 000 000 de tonnes, il est évident qu'un cm3 d'électrons doit donner un effet
dégravitatif de 9 970 000 tonnes c'est-à-dire le poids du volume qu'il déplace moins son
poids propre.
Ceci est théorique mais voyons ce que donne le calcul :
La masse d'un électron étant de 9 . 10-28 grammes, il y a dans 30 000 tonnes d'électrons,
ou 1 cm3 d’électrons : 0,33 . 1038 électrons.
Or un ampère étant équivalent à un courant de 6,2 . 1018 électrons par seconde, soit la
charge de 1 coulomb par seconde, cela donne :
5,3 . 1018 coulombs ou ampères-secondes.
Cette charge, du point de vue du strict processus archimédien, devrait donc donner un
effet dégravitatif de :
10 000 000 de tonnes - 30 000 soit 9 970 000 tonnes.
Pour simplifier le calcul, étant donné les incertitudes des données, admettons qu'une
charge de :
5,3 . 1018 coulombs par seconde ou ampères donne 10 000 000 de tonnes d'effet
dégravitatif archimédien.
Soit 530 milliards de coulombs ou d'ampères pour UNE tonne.
Ce calcul semble donc décevant a priori, mais si nous avons jusqu'ici raisonné sur un état
statique archimédien, il ne faut pas pour autant oublier qu'il existe une autre façon de
créer un trou dans un fluide.
Qu'est-ce, en effet, qu'un tourbillon, sinon une mise en.autorotation d'une partie d'un
fluide, lequel du fait des forces centrifuges simples ou composées, va déterminer une
dépression au niveau du centre de gyration pouvant aller jusqu'au vide local.
Conséquemment à cette application, faisons tourner une charge autour d'un axe de
manière à l'amener au plus près de la vitesse de la lumière, et nous savons que les
électrons l'atteignent facilement pour une différence de potentiel d'accélération
relativement faible.
Soit un tore dans lequel nous avons fait le vide atmosphérique et dans lequel nous faisons
tourner une charge.
Reprenons l'exemple précédent c'est-à-dire une charge de 5,3 . 1018 coulombs qui, à l'état
statique, donnerait un effet dégravitatif archimédien de 10 000 000 de tonnes.
Soit 530 milliards de coulombs pour une tonne d'allègement.
En temps normal, une charge de un coulomb par seconde donnant un courant de un
ampère produira un courant de :
5 millions d'ampères dans un tore de 10 mètres de circonférence à une vitesse proche de
celle de la lumière.
Or nous avons vu que du point de vue relativiste, l'effet dégravitatif dans le condensateur
tournant est représenté par
M, une fois dégravité =
forces centrifuges colossales et donc déterminer une dépression torique autour du cercle
générateur du tore.
Nous retrouvons ainsi, transposé dans le domaine macroscopique le processus qui
engendre l'électron. Mais une remarque s'impose.
En effet si le tore électronique est construit sur la base de l'enroulement du beam de
particules électriques autour de l'axe d'un champ magnétique, lequel possède son spin, il
importe que le sens de ce spin par rapport à celui, commun, des particules soit générateur
d'un effet Magnus répulsif. Sinon, l'effet produit étant contractif, nous obtiendrons
l'homologue du proton donc un effet surgravitant.
Ce que nous ne chercherions que dans le cas possible d'une surgravitation dans un champ
de gravitation faible (Fig. 30).
En résumé il est possible de réaliser un effet anti-gravitationnel en faisant tourner à ultra
grande vitesse un beam d'électrons ou de protons, dont les éléments doivent être
convenablement polarisés quant à l'orientation du sens de rotation de leur spin.
Il est en effet très probable que pour un sens donné de rotation les spins déterminent un
effet Magnus contractif, il faut donc faire tourner les particules dans le bon sens grâce à
un champ magnétique auxiliaire directeur.
Fig. 30
Les schémas ci-joints donneront une image parfaitement claire de ce mécanisme.
Comme je l'ai écrit, l'électron donne une expansion locale de l'espace qui est le champ
électrique, mais cette déformation ne se localise pas uniquement au niveau de la particule,
elle s'étend bien au-delà.
Par contre le proton, condensation de l'espace entraîne une contraction de son
environnement, et c'est le champ mésonique.
Ces deux particules émettent du fait de leur constitution pulsante des ondes en phase
provoquant une répulsion entre particules de même polarité. (Ce que l'on exprime en
disant que ces particules se bombardent à coups de photons).
Elles se trouvent individuellement dans un champ de gradient identique.
Par contre entre le champ expansé de l'électron et le champ contracté du proton qui
baignent eux-mêmes dans le champ énergétique de gradient intermédiaire, il est tout à fait
normal que la tendance à l'équilibre fasse qu'il y ait attraction, les sommes positives et
négatives de leurs énergies devant donner la neutralité des champs, c'est-à-dire leur
équilibre avec le milieu et c'est le cas du neutron ou de l'hydrogène.
Ainsi une charge négative électronique doit être démassifiante par effet archimédien donc
dégravitative, alors qu'une charge positive protonique est surmassifiante donc
surgravitative.
Un condensateur contenant des charges positives et négatives ne devrait pas montrer de
modification de sa masse. Mais, suivant la domination de l'une ou l'autre charge, on doit
observer une augmentation ou une diminution de poids.
Ce fait est expérimentalement vérifié, mais il faut étudier le problème sous un autre
aspect, celui du diélectrique.
Dans un condensateur à armature et diélectrique air, il n'y a que trois états possibles de la
charge.
1° Les deux armatures sont chargées d'électrons, c'est-à-dire baignent dans un champ
électrique de densité inférieure au champ énergétique externe.
Dans ce cas on a un allégement.
2° Les deux armatures sont dépouillées d'électrons, et l'on dit qu'elles sont chargées
positivement.
Dans ce cas il y a augmentation pondérale, car prédomine le champ mésonique plus
(lourd» que le champ extérieur.
3° Une armature a un excès d'électrons et l'autre un défaut.
Dans ce cas il y a égalité des deux charges simplement dissociées de leur combinaison
neutralisante.
Expérimentalement on assiste à un allégement du système.
Nous, nous trouvons donc, dans ce dernier cas, en présence d'un champ hyperdense et
d'un champ hypodense, et nous comprenons que l'énergie spatiale externe tende à
combler cette dissymétrie.
Il va donc se produire une attraction, c'est-à-dire un vide énergétique local, entre les deux
charges que la pression extérieure de l'espace pousse à se joindre pour se neutraliser.
Ce vide reste donc lié au système et nous devrons constater un allègement correspondant
à la masse de l'énergie refoulée.
C'est ainsi que se présentent les démonstrations expérimentales effectuées depuis des
années dans divers laboratoires.
Bien entendu nous avons systématiquement éliminé les effets coulombiens, c'est-à-dire
les réactions de ces charges induisant des charges dans l'environnement, charges de
signes opposés donc attractives. Aussi ces expériences doivent-elles être menées loin de
toute masse matérielle conductrice ou isolante.
Divers systèmes d'isolants électrostatiques ont été essayés. En particulier en ce qui
Fig. 31
C'est ce montage qui donne les meilleurs résultats pour une charge électronique du
plateau supérieur (Fig. 31).
Des critiques m'ont été présentées dès le début, les techniciens du CNRS ayant pensé que
l'effet dégravitatif archimédien était dû à la dilatation de l'air du diélectrique sous
l'influence de l'ionisation négative des molécules de l'air.
Certes l'objection était intéressante. Lors d'une réunion du comité d'étude du CNRS un
crédit de 5 millions légers avait été pressenti, sans d'ailleurs qu'une suite fut donnée à ce
projet.
On envisageait en effet de déplacer un caisson d'une station de recherche pour y installer
un condensateur dans le vide.
Il m'est apparu beaucoup plus simple de réaliser un condensateur cylindrique de grande
capacité pouvant contenir 40 litres d'air, et dont les bases étaient métalliques, alors que le
corps du cylindre était en matière isolante hermétiquement close sauf en un point d'où
sortait un tube de nylon plongeant dans une éprouvette pleine d'eau (Fig. 32).
Fig. 32
Les deux bases étant chargées soit en continu soit en alternatif, à l'étonnement de tous, on
n'a constaté aucune modification du volume du diélectrique, alors qu'il aurait du s'écouler
une grande quantité d'air devant nos yeux.
Il est bien connu d'autre part qu'entre les armatures d'un condensateur chargé il existe un
vide qui se manifeste par l'aspiration de tout corps qui lui est présenté.
On aurait pu envisager une aspiration de l'eau, mais aucune modification n'est apparue
dans un sens ni dans l'autre et si cinq grammes d'allégement représentent près de cinq
litres d'air il est évident que la critique ne pouvait être maintenue et qu'il fallait chercher
ailleurs l'explication de l'allégement.
Quoiqu'il en soit la formule d'allégement par charge statique d'électrons ne me parait
justiciable qu'à partir d'experiences préliminaires car si la relation mathématique donne :
M dégravitée = M0 - C V2 / 2c2
toute application numérique montre qu'il faut envisager des capacités et des voltages
énormes pour obtenir un effet sensible.
Certes, si la valeur numérique de la charge correspond à celle du double du carré de la
vitesse de la lumière, il est évident que la dégravitation correspondra à C que multiplie le
voltage. Dans cette direction il paraît intéressant d'affecter chaque atome de matière d'un
ou plusieurs électrons supplémentaires, autrement dit de créer un gigantesque ion négatif.
Le problème ne semble pas a priori insoluble et, si toute charge électrique se place
automatiquement en dehors des conducteurs ou diélectriques, et hors bien entendu des
courants interatomiques, il est toujours possible d'injecter un électron supplémentaire
autour d'un noyau atomique en le maintenant par un champ magnétique auxiliaire de
puissance.
On sait qu'un électron accéléré par une certaine tension V acquiert une énergie eV
calculée en électron-volt.
Ainsi dans un condensateur, un électron qui va d'un plateau à l'autre sous une tension de
100 V bombarde le plateau positif avec une énergie de 100 électrons volts.
Certes, ce n'est pas considérable, puisqu'il faut 640 milliards d'eV pour faire un erg, mais
il ne faut pas oublier que les électrons vont toujours par groupes importants et l'énergie
emmagasinée par un gramme d'électrons sous 10 000 volts équivaut à celle de 400
paquebots de 50 000 tonnes filant à 50 km/h !
En ce qui concerne la force d'attraction qui s'exerce sur un milliard d'électrons dans un
champ E de 1 000 V/cm elle vaut 16 milligrammes force suivant la relation
force = eE = e V/L cm
On sait d'autre part que la vitesse v acquise par l'électron dans un champ électrique est :
v2 = 2eV/m soit en unités pratiques
Vitesse = 600 km/s . sqroot Vvolts
A titre d'exemple 60 000 km/s pour un champ de 10 000 V.
Injectons cet électron accéléré dans un champ magnétique qui, n'étant qu'une polarisation
de l'espace, ne saurait modifier cette vitesse.
On sait que cette polarisation entraîne, par effet Magnus électro-magnétique, la mise en
rotation de l'électron autour de l'axe du champ magnétique.
Le calcul de cette trajectoire se déduit de la relation
Force magnétomotrice = Hev, soit pour un milliard d'électrons accélérés sous 100 volts
(vitesse = 6 000 km/s) et une induction magnétique de 1 tesla (ou 104 gauss) une force de
un gramme force.
Cette force s'exerçant normalement au champ et à la trajectoire de l'électron va faire
dévier cette trajectoire et la transformer en cercle, processus étudié précédemment.
On calcule le rayon R de ce cercle en écrivant que la force électromagnétique (effet
Magnus) et la force centrifuge se font équilibre soit :
Hev= Mv2 / R d'où R = mv / He
auxiliaire, en état de polarisation magnétique. C'est-à-dire que toutes les orbites seront
contenues dans des plans parallèles.
Nous avons d'autre part calculé qu'un électron injecté tournait suivant des fréquences
électromagnétiques normalement utilisées dans les laboratoires soit :
f = 1011, c'est-à-dire longueur d'onde = 3 mm.
On peut donc maintenir le synchronisme des électrons en rotation en injectant un champ
oscillant électromagnétique en onde millimétriques.
Mais l'éventail des caractéristiques physiques à mettre en oeuvre peut être largement
développé dans un sens comme dans l'autre.
Il est très probable toutefois que cette technique doit dégager des résidus coulombiens
attractifs, sans toutefois que l'effet de miroir soit important.
Nous pourrons donc assister, vis-à-vis de l'atome d'hydrogène suractivé, à des
phénomènes d'ionisation avec émission de fréquences dans les gammes lumineuses et
thermiques.
Or il apparaît que les OVNIS émettent surabondammment ces types de radiations.
Calculons l'effet dégravitatif possible, sachant que l'électron est en état d'antigravité
archimédienne dans l'énergie, et pour cela il importe de revenir sur des considérations
théoriques une fois de plus.
Electron et proton semblent issus d'un même photon qui se scinde en deux en même
temps que l'élément chargé qui n'est en définitive qu'une particule génératrice et son onde
associée.
Tout comme dans un tourbillon hydrodynamique ce photon donne en s'enroulant sur lui-
même un tourbillon droit et un tourbillon gauche, mais le champ magnétique reste de
même sens toujours perpendiculaire au plan d'enroulement rotatoire.
Un photon est un quantum d'action, c'est-à-dire une portion de longueur d'onde d'environ
300 cm de long, ce qui signifie que l'enroulement se fait en un cent millionième de
seconde.
Comme je l'ai démontré, selon que le spin de la charge est parallèle ou antiparallèle,
l'effet réactif Magnus électromagnétique donne une contraction de l'espace (Proton) ou
une expansion (Electron), mais au moment de la scission du photon l'élément droit a la
même masse électromagnétique que le gauche.
La différence de masse entre proton et électron proviendrait donc uniquement de la
quantité d'espace condensé pour le proton et la quantité d'espace expansé pour l'électron.
Nous supposerons donc qu'il y a identité de masse au début, avant les effets archimédiens
respectifs sur les volumes une fois établis.
Il importe toutefois de signaler l'extrême diversité des valeurs admises en ce qui concerne
les données officielles.
Appliqué au neutron le même raisonnement démontre que le proton injecté à l'intérieur
de l'électron, occupant une partie du vide intraélectronique, l'effet archimédien se trouve
diminué et le neutron est donc plus lourd de 0, 0081 µM.
Nous devons préciser ici que la loi d'équivalence énergie - matière, E = mc2 , semblerait
alors être vérifiée, synthétiquement, pour les masses mesurées, ou apparentes, c'est-à-dire
une fois incluses et établies dans le milieu subquantique, et non pas séparées
abstraitement de ce milieu.
Un de mes amis, Philippe Tournier, propose une possibilité de calcul de la masse réelle
commune (de départ) de l'électron et du proton ainsi que de la densité de l'énergie spatiale
(près de la Terre). Il aboutit à une masse de départ un peu supérieure à celle, mesurée, du
proton et, c'est ce qui est important, à une densité énergétique spatiale du même ordre de
grandeur que celle déjà estimée auparavant, soit comprise entre 1027 J/cm3 et 1028 J/cm3.
A noter qu'on admet, ici, pour ces particules des formes équivalentes sphériques, dans
leurs états fondamentaux respectifs. Ce, même pour l'électron qui, très expansif, pourrait
par ailleurs prendre des formes «toriques», par exemple dans ses états dits «orbitaux»,
ceci permettant d'ailleurs par là même de parvenir à des «orbites quantifiées » lors des
absorptions d'ondes électromagnétiques de fréquences appropriées.
Voici son calcul :
- chaque masse mesurée est alors égale à la masse réelle moins sa masse «allégée».
Soit pour l'électron
Me = Mr – Ve . d
et pour le proton
Mp = Mr – Vp . d
Avec les valeurs mesurées suivantes,
Me # = 0,91 . 10-27 g
Re # = 1,9 . 10-13 cm
Mp # = 1640. 10-27 g
Rp# = 1 . 10-13 cm
D'où, en retranchant membre à membre
On obtient donc :
d = 6,5 . 1013 g / cm3
Ce qui équivaut (en multipliant par c2 à une densité énergétique :
d = 5,85 . 1034 ergs/ cm3 = 5,85. 1021 J / cm3
donc une densité énergétique subquantique comprise entre
1027 J / cm3 et 1028 J / cm3.
-la masse «réelle» commune, non «allégée», serait alors de
Mr = Mp + Vp . d
Mr = 1 640. 10-27 g + 4/3 π .10-39 x 6,5 .1013 g
Mr = 640 . 10-27 g + 273. 10-27 g
Mr = 1913 . 10-21 g
- pour ce qui est de l'électron, dont le volume est environ 7 fois celui du proton,
« l'allègement » archimédien est beaucoup plus important et la masse mesurée, ou
apparente, de l'électron est bien d'environ 0,91 . 10-27 g et positive. D'après ce calcul
l'électron garde une masse et un poids apparents certes très faibles mais positifs.
En fonction de ces données nous pouvons affirmer que tout mouvement rotatif dans
l'espace énergétique détermine un effet de cavitation fonction de sa vitesse angulaire
donnant une démassification, ce qui en définitive est riche de conséquence.
Si nous admettons provisoirement le bien fondé de certaines vues relativistes,
l'augmentation de masse des particules en mouvement rectiligne ou de grande amplitude,
les effets de rotation donnent inversement, à cause des effets archimédiens conséquents,
une diminution de masse. On peut même atteindre alors une masse nulle et passer à une
masse négative lorsque l'effet archimédien donne une résultante inversant celle
d'attraction dans un champ électromagnétique ou de gravitation.
Dans un espace champ isotrope, c'est-à-dire non coulombien ou gravitatif ou mésonique,
nous pourrons donc considérer qu'il peut exister des masses positives ou négatives ou
neutres selon que leur densité archimédienne sera supérieure, inférieure ou égale à celle
du milieu.
Toutefois l'espace n'étant pas de gradient énergétique identique en tous points du cosmos,
ces polarités positives neutres ou négatives seront variables en fonction des
caractéristiques spatiales.
Les effets archimédiens dans l'espace deviennent ainsi un effet général polydirectionnel
agissant uniquement sur la masse qui n'est plus un élément caractéristique de la matière,
mais un aspect éminemment variable de l'inertie.
Nous reviendrons sur la définition de l'inertie ultérieurement.
Reprenant l'exemple de l'atome d'hydrogène, nous nous résumerons ainsi :
Le proton et l'électron issus de la matérialisation par rotation symétrique du photon,
particule et onde, ont originellement la même masse, mais la condensation de l'un et
l'expansion de l'autre créant le proton lourd et l'électron léger donnent deux particules
l'une de densité supérieure à celle de l'espace, l'autre de densité inférieure, ce qui explique
que dans un champ les directions prises par ces deux types de particules soient en
opposition. Ceci, quel que soit le type des champs qui se distinguent d'ailleurs entre eux
par une différence de densité de l'énergie.
L'électron ayant une masse originelle positive et étant plus léger que le milieu, donne une
masse négative. C'est le contraire pour le proton.
Nous noterons donc que l'électron est (massiquement) négatif uniquement parce qu'il
baigne dans un milieu de plus forte densité, mais il serait théoriquement positif dans un
milieu de moindre densité s'il y gardait le même volume.
Du fait de ces conditions, l'électron étant une onde tournant autour d'un axe de spin à la
vitesse de la lumière, l'effet de cavitation est considérable et il perd la presque totalité de
sa masse EM celle-ci étant, au départ, la même que celle du proton brut (soit non allégé
lui aussi).
Par contre dans sa rotation autour du proton de l'hydrogène, sa vitesse n'étant
théoriquement que de 2000 km/s son effet de rotation donne bien une cavitation, mais de
valeur bien moindre et ce sont ces deux aspects de la cinétique électronique qui donnent
les effets de démassification de l'atome d'hydrogène.
On pourrait certes envisager un processus démassifiant obtenu par accélération de
l'électron dans l'hydrogène ou de tous les électrons dans n'importe quel édifice atomique,
et cela mérite de s'y attarder.
Pourquoi direz-vous, avoir envisagé précédemment l'injection d'électrons sur des orbites
auxiliaires, alors qu'il était peut-être plus simple d'exciter directement l'électron unique de
l'atome d'hydrogène.
Le moment est donc venu de faire un retour en arrière et de replonger dans les données de
la physique, données qui en dépit d'erreurs importantes sur la constitution des champs
apportent sur la mécanique quantique et ondulatoire des précisions dont on ne saurait nier
la valeur.
J'insiste pour prétendre que l'énergie du photon se scinde en deux, mais que les deux
particules électron et proton quoique ayant même charge génératrice déterminent en
raison de l'effet Magnus électromagnétique de la charge (contractif pour le proton et
expansif pour l'électron) deux particules de masses différant de 1836 fois ou 1840 selon
les auteurs.
Le calcul montrant que si ces masses sont positives dans le vide absolu, en admettant
qu'elles y restent stables, elles deviennent positive et négative dans un fluide de densité
intermédiaire, c'est-à-dire celle de l'énergie spatiale dans notre gradient.
En conséquence si le proton part dans une direction dans un champ anisotrope
gravitationnel ou électrique, l'électron doit partir en sens inverse tout comme la balle de
plomb ou de liège dans l'eau.
Le proton est donc la particule lourde entraînant la matière vers la matière, et l'électron la
particule répulsive soit dégravitée et dégravitante.
Le calcul des masses des électrons présentant pour les physiciens et chimistes des
difficultés insurmontables, et sur ce point je comprends mal que ces techniciens ne se
soient jamais avisé que deux particules de masses et de volume si différents puissent
avoir la même charge électrique, mystère d'ailleurs jamais encore élucidé.
Mon hypothèse me paraît sur ce point très claire. La charge électrique neutre dans le
photon générateur, n'étant en définitive que la particule du photon, particule
originalement double et d'ensemble neutre ou particule se scindant en deux particules
simples et entraînant en rotation chacune la moitié de l'énergie de l'onde
d'accompagnement.
Or physiciens et chimistes, pour simplifier leurs calculs, ont décidé de ne s'intéresser
qu'aux noyaux des atomes, abandonnant toute la mécanique électronique.
Si l'on ajoute que pour comble de complexité, la base des masses atomiques a été choisie
comme le 1/16ème de celle de l'oxygène au lieu de prendre comme unité celle du proton,
on voit dans quelles inextricables complications se trouvent les calculateurs.
Certes, on a bien essayé de déterminer les masses exactes des protons et électrons en
fonction de leurs déviations dans un champ électrique, mais le calcul de base a consisté à
déduire la masse du proton de celle de l'hydrogène, après avoir déduit celle de l'électron.
Je tiens donc pour acquis que la masse d'un atome est en réalité celle des protons, masse
corrigée, dont on a soustrait celle des électrons, ces derniers étant eux-mêmes alourdis de
leur énergie de rotation, sans oublier les neutrons corrigés eux aussi !
Nous sommes donc loin des valeurs officiellement admises.
Dans une étude sur l'antigravité, il me paraît utile de revenir sur les lois essentielles qui
régissent la mécanique électronique autour des noyaux.
Ce qui caractérise un atome est le nombre Z de protons, nombre identique à celui des
électrons qui entourent le noyau.
Quant au nombre de neutrons, très variable et donnant les isotopes, il semble que leur
présence à l'intérieur du noyau complexe soit nécessaire pour maintenir sa cohésion,
l'atome d'hydrogène (protium) étant le seul noyau connu sans neutron.
Toutefois cette présence ne fait sur le plan électrique ou gravitationnel qu'augmenter la
masse et le poids.
Le neutron est en effet considéré comme un électron renfermant un proton, c'est-à-dire
une balle de liège chargée en son centre d'une balle de plomb.
Il est donc normal que la présence du proton dans le vide de l'électron diminue son
volume expansif et dans ces conditions la masse de l'ensemble doit être plus importante,
ce qui est vérifié expérimentalement ;
Un élément d'allégement consisterait donc à éliminer les neutrons des noyaux atomiques,
accéléré par ce champ en sens inverse du proton dit pour cette raison positif, doit recevoir
une accélération de sens inverse de celle du proton dans un champ de gravitation.
Champ de gravitation et champ électrique sont dus à l'anisotropie de l'espace, déformé
soit par un effet d'écran pour la gravitation, soit par un effet répulsif ou contractif pour
l'électricité, cette anisotropie présentant un aspect hydrostatique vis-à-vis d'éléments de
densités différentes de celle du milieu.
duquel (environ à 50 mètres) tourne une minuscule balle de ping-pong de deux à quatre
millimètres de diamètre.
Pour bien comprendre le mécanisme il faut envisager que cet ensemble tourne sur son axe
propre pour le grain de plomb et sur un rayon pour la minuscule balle creuse dans un
milieu hyperfluide.
Quant à la vitesse de rotation de l'électron ping-pong, si elle est de 2 000 kilomètres/
seconde au niveau de l'atome réel, elle devrait être de trois millions de milliards de km/s à
cette échelle macroscopique, ce qui évidemment est difficile à concevoir.
Pour en revenir à une réalité indiscutable le rayon de la sphérule électronique de l'atome
d'hydrogène est de :
0,55.10-8 cm soit 0,55 Ä à 4,95 Ä selon que l'atome est à l'état d'énergie minimale ou
excité.
Il est toutefois nécessaire de préciser que le rayon de la particule électron est
normalement calculé par les auteurs à la valeur de 1,9 . 10 -13 et qu'en conséquence le
rayon de giration autour du proton est plus de 10 000 fois plus grand que le rayon propre
de la particule électron.
Mais si les physiciens donnent une valeur numérique aux rayons des particules, il ne peut
s'agir que d'une quantité théorique, car dans sa réalité et de même que l'on ne peut donner
une valeur au rayon du champ de gravitation terrestre, qui théoriquement est illimité, ce
champ des particules est illimité.
J'ai tout lieu de penser que le proton est un élément de condensation de l'espace, alors que
l'électron est un facteur d'expansion dont les frontières illimitées en principe se touchent
en s'imbriquant, donnant ainsi des effets répulsifs et attractifs archimédiens.
Pour bien comprendre ces mécanismes, il faut toujours reprendre l'exemple des ballons de
gaz carbonique ou d'hydrogène dans l'air.
L'expérience prouve que, soumis à un champ vibratoire intense ou à des effets
tourbillonnaires, les ballons de CO2 se rapprochent alors que les ballons d'hydrogène se
repoussent, mais il en va tout autrement si le générateur de vibration est à l'intérieur des
ballons. Dans ce cas tous les ballons contenant le même élément se repoussent mais par
contre ils s'attirent entre éléments de nature différente.
J'ai tout lieu de penser que c'est ce qui se passe dans les niveaux atomiques et
subquantiques à une échelle subatomique, entre particules vibrant en phase ou en
opposition de phase. On sait en effet que deux diapasons accordés et dont l'un est excité,
se mettent automatiquement à vibrer en phase s'ils sont rapprochés l'un de l'autre, mais
cette vibration les fait se repousser.
Revenons toutefois à la structure atomique des orbites électroniques.
On sait que l'analyse spectroscopique des rayonnements a permis de se faire une idée très
exacte des mécanismes et de la constitution de ces structures.
Cette analyse a conduit les auteurs à la théorie des quantas dont les applications et
conclusions étaient seules à même d'expliquer la mécanique intime des particules.
Si la nature macroscopique semble faire apparaître dans les phénomènes une continuité, il
en va différemment au niveau des atomes, où elle semble devenir discontinue et se
modifier par quantités successives, fonction de nombres entiers, c'est-à-dire par quantas.
C'est ainsi que les noyaux atomiques obéissent à des lois quantiques, mais c'est surtout
dans le domaine des électrons que leur mécanismes en sont la plus évidente
démonstration.
Il serait peut être intéressant d'étudier les noyaux puisque ce sont eux les grands
responsables du «poids» et de l'inertie de la matière. On peut considérer que le champ
Mais nous pouvons encore tenir compte du quatrième nombre r qui peut prendre deux
valeurs, et il faut donc multiplier ce total par 2.
Soit : 32 électrons possibles pour la couche N, qui sera ainsi complète ou saturée.
Il était important de faire ce calcul qui nous amène à la découverte d'un des principes les
plus importants de tous ceux qui régissent le monde atomique, c'est-à-dire :
Le principe d'exclusion de Pauli et qui s'exprime comme suit :
Jamais deux électrons ne peuvent avoir leur quatre nombres quantiques égaux en même
temps.
On peut ainsi dire que ce qui attire ce sont les systèmes de nombres quantiques différents
et que ce qui repousse ce sont des systèmes de nombres quantiques identiques.
Ce principe explique tout simplement le fait que la matière est impénétrable, tout au
moins la matière solide. C'est en effet, un mystère bien étrange qui régit la cinématique
photonique, dont on constate la parfaite indifférence de chacun des photons vis-à-vis des
autres alors qu'ils s'entrecroisent à des vitesses fantastiquement élevées à notre échelle.
Certes de même qu'un électron libre en translation rectiligne possède une cinématique
particulière, étant accompagné de son onde, il en est de même pour n'importe quel atome.
Mais en rotation autour d'un axe quelconque ce mécanisme change du tout au tout, et c'est
ainsi que les électrons péri-atomiques tournent à des vitesses considérables sans se
heurter le moins du monde protégés par leur champ électro-magnétique.
Tout comme les atomes d'un gaz quelconque, les électrons en groupe, en dehors de foyers
de giration, obéissent aux mêmes lois.
Les électrons sont soumis aux forces de gravitation qui les attirent. Mais les forces de
répulsion dues aux émissions de photons ou plus exactement les fréquences
électromagnétiques qu'ils émettent les font se repousser.
Les mathématiciens diront qu'ils se repoussent parce que les nombres quantiques de
chaque électron sont les mêmes, ce que je traduis en disant que leurs ondes
électromagnétiques sont en phase et de ce fait augmentent l'énergie au niveau des
intervalles de voisinage.
On se trouve donc en présence de répulsions contenues par la pression statistiquement
résultante (Boltzmann) déterminant des chocs à des fréquences de l'ordre de 10 milliards
par seconde.
On sait que la pression d'un gaz est due à l'impulsion, représentée par le produit de la
masse M par la vitesse V échangée avec un cm2 de la paroi réelle ou virtuelle qui entoure
le gaz. Toutefois, s'il est nécessaire pour contenir un gaz, de l'emprisonner dans une paroi
imperméable à ses molécules, c'est le milieu énergétique gravitonique qui sert de paroi
pour l'électron en rotation. Et ceci est très important pour notre projet, L’INERTIE en
étant la conséquence.
Il faut toutefois reconnaitre une énorme différence entre la cinématique des atomes
neutres dans un gaz, et entre celle existant dans les gaz ionisés positivement ou
négativement, et celle d'un gaz d'électrons ou de protons.
Au niveau d'un gaz les chocs sont évidemment élastiques puisque ne dégageant aucune
chaleur, ni aucune lumière pour des niveaux énergétiques ne permettant pas l'ionisation.
Il s'agit de simples chocs matériels comme cela se produit entre des balles de caoutchouc,
mais les électrons ou protons présentent des charges électriques c'est-à-dire des
déformations de la texture spatiale encore une fois expansive ou contractive. Cette
structure est entretenue par les ondes propres à ces particules et qui les font se repousser,
ces ondes étant en phase entre particules de même signe et en opposition entre particules
de signes différents.
Il existe donc des facteurs quantifiés au niveau de ces particules identiques pour chacune
d'entre elles, mais différentes pour l'électron et le proton ce qui entraîne la répulsion et
l'attraction suivant le principe de Pauli.
Certes, pour de Broglie les particules de même signe se repoussent parce qu'elles se
bombardent à coup de photons. Si je cite cette image c'est parce qu'elle exprime, sous une
autre forme, cette mécanique répulsive opposée à la grande loi de la gravitation attractive
générations à venir.
Ainsi donc il est logique de penser que Mercure possède un éventail de corps simples
plus large que notre planète, et que sur Mars bien des Uraniens et transuraniens ont déjà
disparu.
Revenons toutefois sur Terre pour constater qu'à la simple echelle des électrons
atomiques on assiste à des mécanismes minimes de décomposition des atomes c'est-à-dire
à leur ionisation positive ou négative à divers degrés.
Certes, il existe des corps comme l'aluminium qui abandonnent volontiers leurs électrons
et d'autres comme le soufre qui sont des pièges à électrons. Il était donc logique de penser
comme je l'avais fait il y a plusieurs années que l'on pouvait baser sur ce mécanisme un
type inédit d'accumulateur, et en vérité à l'époque ou la voiture électrique s'impose, il était
normal que la Société Ford expérimente cette formule qui donne une capacité au kg, près
de cent fois supérieure à celle des accumulateurs au plomb.
L'avenir technique se présente donc sous des aspects très prometteurs dans des domaines
jusqu'ici à peine explorés.
L'ionisation, simplement utilisée en galvanoplastie dans les piles et éclairage parait devoir
passer bientôt au premier rang des applications pratiques, car ses possibilités sont
illimitées.
Supposons que nous voulions arracher un électron à tous les atomes contenus dans un
gramme d'argent, le travail à dépenser est le même que celui qui permettrait de soulever à
un mètre de hauteur un wagon-restaurant, et pourtant les énergies d'ionisation sont
infimes à côté de celles des désintégrations et transmutations. Mais il y a plus.
En effet l'introduction d'un électron étranger dans un nuage atomique tantôt coùte
l'énergie et tantôt en rapporte.
Ce dernier cas est réalisé pour les halogènes, et, par exemple, l'entrée d'un électron
supplémentaire dans l'atome de chlore dégage une énergie de 3 électrons-volts.
Pour en revenir à l'exemple de l'argent, il faut noter qu'un gramme de ce métal renferme :
5 623 milliards de milliards d'atomes entourés de 47 électrons, ce qui représente,
puisqu'un coulomb égale :
6 240 millions de milliards d'électrons.
Soit pour un gramme d'argent entièrement ionisé une charge positive de :
40 000 coulombs !
Connaissant les effets électrostatiques d'une telle charge il est facile de concevoir toutes
les applications possibles contre la gravitation.
Quel est donc l'étrange mécanisme qui fait que certains atomes abandonnent leurs
électrons alors que d'autres les captent ?
L'aluminium se présente comme un atome à trois couches électroniques la première
possédant deux électrons, la seconde huit et la troisième trois.
Le soufre, par contre, a une texture similaire, mais alors que la couche M est occupée par
trois électrons pour l'aluminium elle en présente six pour le soufre.
Or on sait que les électrons ont une tendance très marquée à s'assembler par couches de
huit, bien que la saturation pour la couche M soit de 18 électrons.
Dans l'aluminium cette couche M ne présente que trois électrons,
c'est dire que ce nombre est plus voisin de 0 que de 8. Par contre dans le soufre ce
nombre de six est plus voisin de 8 que de 0, ce qui entraîne une tendance au relachement
pour l'aluminium qui abandonne volontiers ses électrons, et une tendance à la
concentration pour le soufre qui non seulement retient fortement les siens mais est apte à
capter d'autres électrons jusqu'à saturation.
Le même mécanisme se retrouve à tous les niveaux électroniques dans tous les atomes, et
nous explique les aspects si différents existant entre métaux et métalloïdes, les premiers
abandonnant facilement leurs électrons périphériques à faible densité de population, alors
que les seconds les retiennent, ces derniers constituant les isolants.
Nous en savons actuellement suffisamment en ce qui concerne la structure statique des
électrons atomiques, mais il est infiniment plus important d'en connaître la structure
dynamique.
Alors que jusqu'ici les problèmes étaient relativement simples, c'est à propos de la
cinématique rotatoire électronique que les choses se compliquent. Car, s'il est facile de
dire que l'électron tourne autour du rayon de l'orbite K de l'hydrogène à la vitesse de 2
000 kilomètres / seconde, le rayon ayant pour valeur 0,55.10-8 cm, valeur calculée d'après
la relation
Mv2 / a = e2/ a2
on doit considérer théoriquement que la force centrifuge est compensée à la distance a =
R par l'attraction électrostatique. On fait donc appel aux données classiques de la
physique parlant de la force électrostatique qui n'est qu'un mot pour définir ce que l'on ne
conçoit pas dans sa structure intime.
Personnellement je pense qu'une force électrostatique est due à la modification structurale
du milieu énergétique en présence de particules en vibrations à ultra fréquences, qui font
qu'un milieu primitivement isodense du point de vue énergétique devient anisotrope
prenant la forme d'un champ «d'attraction». Ce qui explique que les particules plus denses
que le milieu sur le plan énergétique sont attirées ou repoussées, alors que les moins
denses sont inversement repoussées ou attirées.
La relation mv2 = e2 / R devient alors non plus un effet d'attraction, mais au contraire un
effet de répulsion de l'électron en rotation par la matérialité énergétique de l'espace
environnant.
Il faut s'en référer à l'aspect aérodynamique ou hydrodynamique d'une sphère tournant
autour d'un centre de giration (extérieur à la sphère).
Sa rotation entraîne un mouvement d'eau centrifuge qui crée une sorte de cavitation dont
le rayon d'action est d'autant plus limité par la réaction du milieu si la sphère n'est pas
affectée, dans le même temps, d'une rotation autour d'un axe perpendiculaire au rayon de
giration
Mais il peut se présenter deux cas si la sphère tourne rapidement sur elle-même suivant
que rotation et spin sont en sens direct ou que les deux soient en sens inverse l'un de
l'autre. Dans le premier cas nous aurons contraction et dans le second cas expansion.
Nous revenons ainsi à ma théorie de la particulogenèse.
Le sens de rotation de la particule, et celui de son spin qui lui est associé aura donc à
l'échelle atomique des effets ou surgravitatifs ou dégravitatifs et dans ce qui va suivre il
faudra toujours considérer ces effets comme essentiels.
Il est donc admis que l'électron possède une vitesse de rotation bien définie autour du
noyau, et que son énergie cinétique est la plus faible au niveau de la couche K. Alors
qu'excité et occupant une des couches quantifiées supérieures, son énergie est plus grande
de N photons.
Reste à élucider l'épineux problème de l'onde d'accompagnement considérée par les uns
comme une vue mathématique probabiliste et par d'autres comme une réalité physique.
De Broglie après quelques tâtonnements a fini par admettre cette réalité et en fait les
physiciens reconnaissent que les orbites électroniques sont constituées par des ondes
stationnaires renfermant l'électron.
Il est indiscutable que ces vues obligent à abandonner les aspects tangibles de la
Fig. 33
Il en est forcément de même au niveau du milieu subquantique.
Nous avons démontré que la densité énergétique de l'éther était de 10 000 000 tonnes
énergétiques par centimètre cube d'espace.
Dans ces conditions un vide énergétique de un cm3 doit donner dans l'espace
gravitationnel un effet archimédien d'allégement de 10 000 000 tonnes. En conséquence
aussi bien l'électron, qui est un trou dans l'espace, que les ventres des ondes stationnaires,
doivent donner un effet dégravitatif correspondant à la masse énergétique refoulée par
leurs mécanismes.
Ces deux effets doivent se retrouver au niveau des atomes et correspondre aux pertes de
masse attribuées à défaut de compréhension par les physiciens aux forces de liaison.
Le moment d'ailleurs me paraît venu de dire quelques mots sur la théorie de Dirac, que
l'on m'a opposée à l'occasion d'une de mes conférences.
Pour Dirac, dont la théorie a été un moment intéressante, l'espace serait constitué
d'électrons positifs c'est-à-dire possédant l'énergie -mc2; il suffit donc d'injecter à un de
ces électrons une énergie de +mc2 pour en faire un électron négatif, lequel sortirait de son
espace en laissant un trou à sa place.
Cette théorie voulait expliquer la réalité des deux types d'électrons. Mais, s'il s'est avéré
qu'il s'agit là encore de vues de mathématiciens, je retiens que Dirac considère l'espace
comme une réalité physique matérielle et non comme une vue de l'esprit à l'instar des
relativistes.
Combien plus simple me paraît être l'aspect énergétique positif gravitonique de l'espace
occupé par des éléments plus denses ou moins denses que sa substance ; ce qui explique à
la fois le champ de gravitation et les effets électriques, c'est-à-dire les réactions de ces
mêmes particules dans des champs anisotropes orientés en dehors des lignes de force du
champ de gravitation.
Quant au champ magnétique, il s'agit bien d'une rotation de l'espace entraînant la
polarisation des spins des gravitons.
Ces vues, maintes fois présentées dans ce travail me paraissent expliquer tous les aspects
de la physique avec une telle simplicité qu'elles ont acquis l'accord formel de bien des
physiciens dégagés des contraintes officielles.
Il est inutile, je pense, de préciser que l'esprit de cet ouvrage étant de démontrer les
possibilités de l'antigravitation ou plus exactement de la gravitation antipondérale, et ceci
dans l'intention d'être compris du plus grand nombre, j'ai évité tout développement
mathématique relatif à la mécanique ondulatoire dans ses aspects formalistes, en ne citant
pour mémoire que les équations de Schrödinger et même les relations classiques de
Maxwell. Cet aspect technique reste du ressort de la physique enseignée dans les
universités.
Il importe pour le moment de reconnaître que tout ce qui détermine un effet répulsif sur
l'énergie subquantitque de l'espace est un élément contrabarique suivant l'expression de
Heim et antigravitationnel archimédien suivant ma terminologie.
Il est raisonnable étant donné que la plupart des atomes présentent des niveaux
électroniques incomplets, d'essayer d'injecter sur ces orbites le plus grand nombre
possible d'électrons secondaires et cela à tous les niveaux de la matière. Dans les
conditions de quantifications «sine qua non» le processus est rationnel, les électrons ainsi
injectés agissant et par leur présence dégravitante, puisque leur densité est inférieure à
celle de l'espace, et que les ventres de leurs ondes d'accompagnement stationnaires
déterminent de leur côté un facteur répulsif pour le milieu cosmique.
Comment obtenir techniquement ce résultat ?
Je cite pour mémoire les procédés utilisés par les premiers électriciens et consistant à
frotter certains éléments le soufre par exemple avec une peau de chat ou les machines
électrostatiques mettant en jeu les différences de structure électronique entre l'argent et
l'étain, métaux de constitution respective (2-8-18-17-2) et (2-8-18-18-4).
Dans un premier cas, celui du soufre, on obtenait des ions négatifs et dans le second des
ions positifs, c'est-à-dire que la peau de chat que l'on aurait pu remplacer par de
l'aluminium cédait des électrons, alors que le contraire se produisait entre argent et étain,
leur couche 0 étant différement occupée.
Dans cet ordre d'idée, les structures électroniques atomiques de tous les éléments connus
se prêtent à de multiples expériences, aidées de la théorie pour un meilleur rendement.
Toutefois, les charges électroniques supplémentaires ainsi obtenues se placent
naturellement sur la surface des corps dits électrisés et dont la capacité est dérisoire
quoique démonstrative de l'exactitude de la théorie, ainsi que le prouve l'allégement des
condensateurs à air dont il a été maintes fois question.
Nous avons bien démontré qu'une charge de 200 kV sur un condensateur à air de deux m2
d'armatures placées à la distance limite du court-circuit, dans l'air comme diélectrique,
arrivait à donner un allégement de cinq grammes.
Cette expérience réalisée un peu partout dans le monde depuis que je l'ai décrite en 1957,
a été confirmée au Palais de la Découverte à Paris en présence de nombreux techniciens,
mais discutée comme il convient puisque la théorie ne correspondait pas à celle qui est
enseignée dans les Universités sur l'énergie d'un condensateur.
L'effet Hall magnétique n'est toutefois pas le seul mécanisme susceptible de concentrer
les ions, en dehors des électrodes ionisantes, car il reste la possibilité de disposer un
champ électrique perpendiculaire à celui des électrodes et en dehors du milieu.
L'ionisation peut se faire à l'intérieur d'un liquide neutre, mais il s'agit plus d'électrolyse
d'un milieu en fusion que d'une dissolution.
La technique de dissociation ionique étant ainsi définie, peut-on envisager de créer des
corps uniquement constitués d'ions négatifs.
Un exemple peut être pris comme modèle, il s'agit de l'eau de Barrège qui renferme des
ions soufre négatifs.
On sait que l'adjonction d'un acide fait précipiter du soufre à l'état normal, ce dernier
ayant perdu ses électrons complémentaires.
Peut-on par évaporation obtenir du soufre ionisé négativement et stable ?
L'expérience reste à faire qui permettrait une vérification, mais rien n'a été fait dans ce
sens.
Il faut donc reprendre le problème sur un plan physique et non plus chimique et au niveau
même de certains métaux, bien que ces derniers soient plus des donneurs que des
capteurs.
Des solutions complexes mixtes utilisant des composés chimiques peuvent être étudiés.
Mais ne disposant pas des immenses ressources du CNRS, je ne peux insister sur mes
possibilités expérimentales.
Nous avons déjà envisagé la solution, mais devant l'évidence de cette technique, il m'a
paru nécessaire d'exposer toutes les autres possibilités pour montrer leurs défauts.
On sait qu'un électron accéléré par un champ électrique et entrant dans les lignes de force
d'un champ magnétique se met à tourbillonner indéfiniment.
J'ai certes expliqué que, dans l'atome, pour des raisons de symétrie des réactions du
champ électronique en rotation sur l'espace énergétique, la trajectoire doit être confondue
avec l'axe du spin électronique, tout comme un obus en rotation sur lui-même confond
son axe de giration, avec la direction de sa trajectoire.
Un tel obus se retournant en vol doit déterminer un effet Magnus aérodynamique le
faisant dévier de sa trajectoire.
Dans un champ magnétique, l'axe du spin électronique devient par redressement
magnétique perpendiculaire à sa trajectoire. C'est par le même mécanisme que l'effet
Magnus électromagnétique, dû à la réaction de sa rotation sur le milieu énergétique
cosmique, transforme sa trajectoire rectiligne en une courbe donnant un cercle si le
champ est assez étendu.
Voici le texte extrait d'un ouvrage d'un éminent professeur, texte qui est le parfait
exemple des propositions des physiciens officiels et qui ne veulent absolument rien dire
parce qu'aucun d'eux n'a compris la structure du phénomène.
«Un aimant n'exerce aucune action sur une charge électrique immobile (tout comme
l'atmosphère sur un obus immobile) mais pour une charge en mouvement, c'est une autre
affaire et puisque un aimant ne peut fournir aucune énergie, il ne pourra pas modifier sa
vitesse et se bornera à dévier sa trajectoire.
Il n'empêche que les mathématiciens intervenant ont élaboré des calculs extrêmement
compliqués dans les ouvrages spécialisés et qui se réduisent en définitive à une formule
plus ou moins empirique donnant le rayon de giration en fonction de la vitesse des
électrons et de l'intensité du champ.
Cette formule f = 108 H / 36, avec H en gauss, démontre que le nombre de tours par
seconde est indépendant de la vitesse v et proportionnel au champ H, la vitesse étant de
son côté donnée par la relation v = 600 sqroot Vv étant dans ce cas exprimé en milliers de
km/s et V en volts.
La vitesse de 2 000 km/s qui est celle de l'électron K de l'hydrogène serait donc donnée
par un voltage accélérateur de seulement 10 à 11 volts.
Par contre la fréquence de rotation avec un rayon atomique de 0,55.10-8 cm est de l'ordre
de 1015 à 1016 , c'est-à-dire celle des radiations visibles depuis l'infra-rouge jusqu'aux
rayons X.
Il est donc possible grâce à un dispositif genre laser de pomper les atomes en les mettant
en phase et, comme ces fréquences sont maximales par rapport à celles des autres orbites
péri-atomiques, il me paraît très justificatif de mettre en parallèle ce résultat du calcul
avec les émissions lumineuses multicolores qui de l'avis de tous les observateurs sont
émises par les OVNIS.
Il paraît que par l'intermédiaire de micro-ondes électromagnétiques lumineuses en phase,
une charge électronique injectée dans un milieu atomique peut être intégrée en rotation
dans les nuages électroniques, mais le processus doit être complété par l'adjonction d'un
champ magnétique par ultra-conducteur.
D'après ce qui a été exposé il est bien évident que nous ne cherchons pas à accélérer les
électrons des couches basses mais à injecter des électrons sur les couches supérieures et
en plus grand nombre possible comme le permet le calcul. Ce même calcul démontre que
l'on peut obtenir cet effet avec des champs de 200 000 à 2 000 000 gauss.
Or, de même que les radiations lumineuses émises par les OVNIS trouvent une
explication logique en fonction de l'effet laser sur des fréquences du spectre lumineux ou
infra-rouge, le deuxième aspect largement constaté par les observateurs de la présence
d'un puissant champ magnétique semble bien prouver qu'une conception du processus
dégravitatif des OVNIS trouve une explication rationnelle dans la technique que je
propose.
Nous exposerons dans ce qui va suivre plusieurs autres techniques dégravitatives toujours
basées sur l'action de champs électromagnétiques chassant le champ gravitationnel, et
dont le processus de base est calqué sur l'effet archimédien d'un gaz chaud ou plus léger
que l'air dans l'atmosphère. Mais pour conclure le chapitre il est essentiel de retenir que
l'action répulsive contrôlée par le complexe champ électrique et champ magnétique des
électrons a pour effet de refouler le champ gravitationnel.
Toutefois ce champ ayant trois dimensions il sera nécessaire que le dispositif utilisé ait lui
aussi trois dimensions et nous allons en exposer la technique (Fig. 34).
Fig. 34
Nous avons vu dans l'étude des quantifications atomiques que les orbites électroniques
occupaient presque toutes les directions de l'espace de manière à ce que le nuage
électronique soit pratiquement presque sphérique. En conséquence, pour que le champ
électromagnétique tel que nous l'avons défini puisse intéresser tous les électrons, il faut
qu'il occupe les trois directions de l'espace à 90° les unes par rapport aux autres.
C'est, je crois, la condition essentielle pour que la technique soit efficace.
De plus si le champ magnétique complexe est fixe, on peut envisager un champ pulsant
de fréquence telle qu'il constitue un champ magnétique tournant triphasé, mais alors que
le champ triphasé classique est dans un plan, ce champ très spécial doit déterminer une
rotation presque sphérique.
Je pense que le lecteur comprendra ma pensée sans le secours d'une mathématique
complexe, mais il s'agit là d'une technique parfaitement inédite et que j'ai expérimentée à
des fréquences basses.
La théorie étant ainsi définie, il est nécessaire d'exposer les moyens de son application
dans le domaine pratique.
En ce qui concerne l'effet laser de pompage au niveau des populations, suivant le terme
admis pour les atomes, il est évident qu'en premier lieu il importera d'utiliser un métal ou
métalloïde parfaitement purifié d'impuretés et d'isotopes.
Comme l'énergie à injecter paraît être faible sur le plan voltage et probablement
importante sur le plan intensité, l'emploi de matériaux type transistor convenablement
disposés dans la masse assureront les hyperfréquences nécessaires d'excitation.
Quant aux hyperchamps magnétiques les techniques de la supraconduction actuellement à
l'étude sont pour le moment les seules possibilités à envisager.
Nous sommes donc pratiquement à même de faire des essais techniques sur divers
matériaux placés dans ces champs électromagnétiques pour en déterminer les réactions et
l'efficacité.
Quant aux charges électroniques, il est évident qu'elles ne pourront être extraites du
milieu, mais de l'extérieur, et sur ce point après avoir rappelé que les effets lumineux et
magnétiques constatés à propos des OVNIS peuvent être intégralement reproduits par
cette technique, les antennes bien souvent décrites par les observateurs me paraissent être
des organes soit de décharges protoniques soit de charges électroniques.
Au sujet du champ électrique oscillant, le problème est plus simple puisqu'il est possible
de créer trois plans d'oscillations perpendiculaires les uns aux autres. Il sera alors
nécessaire de disposer d'oscillateurs accordés sur les fréquences rotatoires des orbites
créant les ondes stationnaires nécessaires pour éviter les pertes énergétiques.
Les émetteurs laser devront donc être multiples et accordés sur les longueurs d'ondes
efficaces, étant entendu que si les fréquences sont multiples et harmonieuses, chaque
électron placé sur l'une ou l'autre des orbites auxiliaires saura trouver sa fréquence propre
de résonance, ce qui en électronique est une chose parfaitement connue.
Je ne puis m'étendre plus longuement sur cette technique, espérant simplement m'être fait
comprendre, malgré la complexité du processus, qui par ailleurs semble devoir expliquer
la totalité des phénomènes magnétiques et lumineux des OVNIS.
LE TORE DEGRAVITANT
Lors de la rédaction du texte de mon brevet de 1960 sur un projet d'engin cosmique,
l'ingénieur conseil Lemonnier, qui s'en est occupé, en a fourni une description traduite
dans diverses langues, mais, dans le fond, assez sybilline afin d'éviter les plagiats.
Je me vois donc contraint de reprendre ce projet sous une forme beaucoup plus claire.
En définitive, ce brevet ne fait qu'extrapoler sur le plan macroscopique la technique
atomique précédemment décrite.
L'idée maîtresse consiste à créer soit un électron géant soit un atome d'hydrogène
hyperexcité, en fonction de l'évidence que l'électron est un trou dans l'espace et, que la
rotation de ce satellite autour du noyau donne un effet démassifiant donc dégravitatif.
C'est ainsi que j'ai décrit une sphère métallique incluse dans un ellipsoïde de révolution,
plus ou moins plat, en matériau isolant, dans lequel on a fait le vide d'air.
La sphère métallique possède en son équateur une zone chaude émettant des électrons et
constituée par un métal, le baryum ou un autre, émettant facilement les particules
extraites de sa substance.
Si la sphère est métallique l'ellipsoïde est parfaitement isolant, mais peut être renforcé
entièrement par une couverture métallique faite de trois secteurs branchés sur les phases
d'un circuit triphasé, donnant un champ électro-magnétique tournant.
Bien entendu ce champ H doit être à très haute fréquence.
Si nous chauffons la sphère centrale grâce à un processus incorporé, elle va émettre des
électrons. Si nous mettons les éléments triphasés en charge alternative à très haute
fréquence les électrons vont être entraînés en rotation à des vitesses fonction de la
fréquence et pouvant théoriquement atteindre la vitesse c, locale, de la lumière.
Ces électrons ainsi entraînés vont obéir à une force centrifuge mécanique compensée par
l'attraction de la sphère devenue positive par manque d'électrons, et nous nous trouvons
ipso facto en présence d'un atome d'hydrogène géant.
Dans un tel dispositif, la force d'attraction du beam par la sphère doit être une fonction
continue, c'est-à-dire que plus le nombre d'électrons émis est grand et plus la différence
de potentiel entre le beam et la sphère augmente, sans qu'il puisse exister un retour par
arc. Cette attraction étant due à la cavitation de l'énergie de l'espace, l'effet archimédien
obtenu doit être considérable et fonction de l'énergie mise en jeu.
Or, on sait que l'énergie emmagasinée dans un gramme d'électrons accélérés sous 10 000
volts par exemple est équivalente à celle de 370 paquebots de 50 000 tonnes filant à 50
km/h, ceci devant donner une idée de l'énergie du système.
Bien entendu, il faudra fournir cette énergie au beam, et sur ce point j'ai envisagé dans
mon brevet de 1960 qu'elle soit injectée au sol, très exactement comme on injecte
l'énergie hydrogène au sol à un aérostat.
Le problème pour l'aérostat est de conserver l'hydrogène extrêmement diffusible,
problème qui n'est pas insoluble, certaines résines ayant d'étranges possibilités, ou
certains plastiques métallisés.
Pour l'énergie du beam, c'est une autre affaire. Mon brevet a été largement discuté par les
Allemands et les Américains car on sait qu'un beam d'électrons en rotation subit des
pertes énergétiques du fait des accélérations centripètes.
Il semble au premier abord qu'il faille s'en référer à la nature, les beams électroniques au
niveau de l'atome ne perdant pas normalement d'énergie.
L'explication en a été donnée par les physiciens du début du siècle qui ont admis avec
juste raison que l'électron tournant ne pouvait perdre de l'énergie si son onde
d'accompagnement était stationnaire.
Il nous faudra donc trouver une fréquence de rotation donnant des ondes stationnaires soit
normales soit harmoniques qui seront fonction du rayon du beam et de la vitesse.
Le beam doit être accompagné d'une onde dont la longueur est définie par la relation :
λ = h / mv , h étant bien entendu la constante de Planck, m la masse du beam et v sa
vitesse.
h étant une constante la longueur d'onde sera d'autant plus grande que mv sera petit, et le
calcul du rayon du beam idéal sera donc fonction de sa quantité de mouvement, d'où la
électromagnétique de rotation.
Son noyau possède en effet une masse atomique de 200, son nombre atomique est 80 et
sa densité est de 13,6.
Il est liquide à la température ordinaire.
Sa tension de vapeur est faible, et son énergie d'ionisation est de 10,4 volts.
Le rapport ω / π de ses neutrons sur les protons est de 1,5 à 1,55 suivant ses isotopes,
c'est-à-dire qu'il est à la limite des radioactifs.
Sa charge électronique étant 2-8-18-32-18-2 en fait un donneur d'électrons.
L'efficacité de ce support est donc 150 000 fois supérieure à celle du beam d'électrons ce
qui permet une vitesse de rotation nettement inférieure donc un meilleur rendement
énergétique.
Quoiqu'il en soit du choix de cet élément, il est bien entendu que n'importe quel noyau
lourd vaporisé peut être utilisé, l'or par exemple, ou les éléments lourds gazeux comme le
xénon dont la structure atomique est :
2-8-18-19-9-2 soit 54 protons et 76 neutrons.
Certes, la vitesse nécessaire pour obtenir alors le même effet de 10 tonnes antigravitatifs
sera fonction de la racine carrée du rapport des masses soit 5 000 x 1,3 soit environ 1/3 de
plus, soit 6 à 7 000 km/s.
Le xénon, malgré sa rareté, a l'avantage d'être chimiquement neutre, mais rien n'empêche
d'utiliser le plomb ionisé dont la densité est plus grande que celle du mercure et dont le
point de fusion est très bas.
Il est facile de calculer la fréquence du champ électromagnétique tournant nécessaire pour
entraîner soit le mercure soit le plomb à la vitesse de 5 000 km/s autour d'un cercle de 5
mètres de rayon soit une circonférence de 30 mètres environ.
Le champ, sans tenir compte du glissement devra donc avoir une fréquence de 5 000 000/
30 = 160 kHz c'est-à-dire du domaine radio-métrique. Ces fréquences sont compatibles
avec des dispositifs oscillateurs de dimensions appropriées avec des engins de 10 mètres
de diamètre donc utilisables pour la cosmonautique.
Quant à l'énergie d'un beam de protons (50 g) à la vitesse de 5 000 km/s, elle est de 170
000 kWh soit l'énergie fournie en 10 heures par un moteur de 23 000 CV environ, en
comptant un rendement relativement faible en raison des pertes énergétiques, ce qui est
tout de même une fois de plus compatible avec les possibilités techniques du moment.
Il n'est pas d'ailleurs exclu en utilisant des noyaux radioactifs d'obtenir une énergie
utilisable par fission contrôlée de ce beam, ce qui simplifierait à 95 % la complexité de
réalisation de l'engin.
En dehors de cette solution gratuite, il est évident que, pour l'instant, seule l'utilisation de
l'énergie atomique comme générateur d'énergie de croisière est à envisager, et il existe
des possibilités techniques actuellement bien au point, sans parler de celles de demain
tendant à l'utilisation directe de l'énergie de l'espace dont le gradient comme nous l'avons
maintes fois exprimé est au moins de 1027 joules au cm3.
DIRECTIVITE DE L'ENGIN
Les effets archimédiens ne peuvent, cela se conçoit, donner que des accélérations
centripètes ou centrifuges sur une verticale et il importe de pouvoir modifier cette
direction.
Il n'est pas impossible, dans une atmosphère gazeuse, d'obtenir cet effet par réaction
directe sur l'atmosphère aérienne par des effets aérodynamiques, mais, comme je l'ai dit,
Fig. 35
Un tore de fer ou de nickel non magnétisé présentera une structure cristalline, dont tous
les éléments atomiques auront des directions différentes. Par contre un même tore
magnétisé aura une structure telle que tous ses atomes se constitueront en chaîne
circulaire orientée tangentiellement au tore.
On ne peut pas dire qu'il y a un courant magnétique, mais un simple état de polarisation
qui ne saurait donner de l'énergie.
Bien entendu si le tore est sectionné, seuls les gravitons de l'espace et éventuellement le
gaz inclus dans la section seront polarisés.
Il en va tout autrement dans un tore ultraconducteur qui est parcouru indéfiniment par un
flux d'électrons.
L'image du courant électrique torique donnant un tore magnétique dont la tangente est
perpendiculaire à son plan et pour lesquels on parle de courant électrique et de courants
magnétiques est donc une vue de l'esprit.
Le magnétisme est une structure, le champ électrique est une énergie, mais il est aussi
faux de dire que la magnétisation est gratuite, car la polarisation de l'espace implique une
dépense énergétique certes faible en raison de l'inertie minime des gravitons, mais réelle.
QUELQUES DEFINITIONS
OERSTED : Unité définissant un champ qui exerce une force de une dyne sur un pôle
placé dans ce champ et ayant une intensité de une unité CGS.
TESLA (unité MKS) : Induction magnétique uniforme qui répartie normalement sur une
surface de 1 mètre-carré produit à travers cette surface un flux magnétique de 1 weber.
On a aussi : 1 tesla = 104 gauss (unité CGS).
WEBER (unité MKS) : Flux magnétique qui traversant un circuit d'une seule spire y
produit une force électronique de 1 volt si on l'amène à 0 en une seconde par décroissance
uniforme.
Reprenons sous une autre forme la définition du gauss.
Etant donné l'équation de définition B gauss = µH dans laquelle µ est un coefficient
représentant la perméabilité magnétique d'un corps (égale à 1 par convention dans l'air),
B représente l'induction magnétique c'est-à-dire le nombre de lignes de force par cm2 du
Mais ne peut-on admettre que les gravitons existent de toute éternité, le mystère de leur
origine étant un pseudo problème, Je donne personnellement l'explication suivante qui,
pour si étrange qu'elle puisse paraître, est bien dans le style relativiste qui veut que
quelque chose d'inexistant c'est-à-dire l'espace vide puisse avoir des courbures.
Je prends la définition du point mathématique d'espace, c'est-à-dire pratiquement RIEN
suivant nos conceptions, et je lui imprime par la pensée une vitesse de rotation
extrêmement élevée.
Dans ces conditions tout comme un jet gazeux sans consistance qui fuse à très grande
vitesse d'une tuyère prend les caractères d'un solide, je dis que ce point d'espace devient
un graviton.
Et le monde devient ainsi créé à partir du néant, apparemment du moins.
Les rapports entre ce que nous considérons, d'ailleurs à tort, comme le temps et le passage
de ce «néant» à la particule de base sont peut-être la chose la plus simple qui soit.
On pourrait pareillement supposer aussi que les gravitons soient des «bulles» dynamiques
infimes, et non pas des «pleins», dans un «super-éther» ou un milieu «sub-subquantique».
Certes l'hypothèse de l'atome primitif et de l'univers en expansion serait donc aussi
logique que celle du graviton, lui-même primitif.
Ces gravitons étant l'élément primaire constitutif de toute matérialité, sont-ils uniquement
de l'énergie psychique en rotation ? Cela n'est pas impossible car le champ cosmique
étant dans sa majorité le vide apparemment absolu, c'est-à-dire le «néant», peut être
considéré comme étant le champ psychique de concept divin et, ce, suivant l'intuition de
tous les êtres doués de conscience plus ou moins évoluée.
L'Homo sapiens qu'il faut, en tout logique, traduire l'homme savant et non l'homme sage,
a tout naturellement deux concepts de base : la présence de génies, c'est-à-dire de forces
de la nature intelligentes favorables ou défavorables par anthropomorphisme, et l'idée
d'une éternité.
Abandonnons ces idées philosophiques pour en revenir à des vues physiques, c'est-à-dire
à la texture du milieu subquantique.
Ces gravitons baignant dans le vide apparemment absolu, ne sauraient donc obéir à des
lois physiques inhérentes à un autre milieu que le leur, contrairement par exemple aux
atomes qui baignant dans le milieu gravitonique obéissent aux champs de celui-ci.
Il s'agit donc d'un milieu peut-être pur et dans ces conditions le champ engendré par le
spin du graviton ne saurait être comparé au champ magnétique de l'électron qui entraîne
des attractions répulsions entre les particules atomiques.
Les gravitons oscillent et se heurtent entre eux comme des billes électriquement et
magnétiquement neutres, même s'ils sont des tourbillons élémentaires dans un super-
éther.
La cinématique dynamique de ces particules diffère donc de celle des électrons qui tirent
leurs propriétés de ce milieu gravitonique, ou subquantique, ou éthérique, et se trouve
donc être parfaitement symétrique de celle des gaz dits «parfaits» (Doligez).
Il doit ainsi exister au niveau des gaz en rotation des effets analogues à une polarisation,
les atomes gazeux devant rendre parallèles à l'axe de rotation leur axe spinique, et cela,
plus ou moins, suivant leur degré d'énergie cinétique rotationnelle éminemment variable
selon chaque atome du fait que leurs interactions de choc, ou de translation, se
transforment en énergie rotatoire ou oscillatoire.
Certes, les expériences de Barnett sur le gyromagnétisme ont nettement prouvé cet effet,
mais il ne semble pas que les physiciens aient suffisamment étudié ces mécanismes, ne
serait-ce que pour la dissociation des atomes diatomiques. En effet une gyration
d'ensemble ne se contente pas de disposer les spins en faisceaux parallèles, mais elle doit
aussi placer les sens de gyration de tous les atomes soit en sens direct soit en sens
indirect. De toute façon le sens priviligié doit être le même au niveau de la particule
isolée qu'au niveau de ce qui entraîne l'ensemble, et le système solaire en donne une
image assez parfaite.
C'est donc cette mécanique aérodynamique qui doit être extrapolée à l'échelle
subquantique.
Le champ magnétique se révèle donc être comme une polarisation des spins
gravitoniques, ces derniers étant entrainés en rotation par le jeu des spins électroniques.
Ceci veut dire que les oscillations en tous sens des gravitons en rotation ne modifient pas
leur énergie oscillatoire, quoiqu'une énergie supplémentaire cinétique rotatoire leur soit
ajoutée, mais qu'il se produit une tendance de plus en plus marquée, par suite de
brassages répétés par la matière, à ce qu'une population de plus en plus grande de
gravitons placent leur spin parallèlement à la trajectoire de ou des électrons. Ceci
détermine l'intensité du champ magnétique qui doit normalement avoir une limite locale
lorsque la totalité des gravitons est polarisée, la limite d'action spatiale à distance étant
bien entendu pratiquement illimitée.
Ainsi un champ magnétique peut avoir une étendue considérable alors que localement il
peut être saturé.
Cet aspect du champ n'est jusqu'ici décrit nulle part, sa constitution n'ayant pas à ma
connaissante été expliquée.
Il a pourtant des retombées sur le plan théorique et pratique importants et l'effet Magnus
électromagnétique qui explique la force de Laplace en est une démonstration primordiale.
Le champ magnétique se manifeste de trois façons bien distinctes.
Tout d'abord par des attractions répulsions suivant les pôles en présence.
En second lieu, en modifiant les trajectoires des électrons des protons ou des ions.
Un troisième aspect beaucoup moins important est l'effet Zeemann.
En ce qui concerne les actions attractives répulsives on peut les attribuer aux effets du
rotationnel, c'est-à-dire tourbillonnaires du champ, ainsi qu'aux différences de densité
(voir l'expérience, déjà citée, des ballons d’H2 et de CO2 mis en forte vibration dans l'air).
Il est expérimentalement démontré que deux tourbillons sur des plans parallèles et d'axes
suffisamment proches, s'attirent s'ils sont de même sens et se repoussent s'ils sont de sens
contraire. Par ailleurs, on peut noter que deux tourbillons tournant dans le même sens et
dont les plans équatoriaux sont pratiquement confondus, créent alors des entraînements
de milieu fluidique environnant qui se contrarient dans la partie où ils sont en vis-à-vis,
d'où un effet répulsif réciproque. Mais il faut envisager aussi pour le graviton une rotation
et une pulsation de son axe de spin.
Il est évident que pour deux particules pulsantes et en phase, un effet attractif ou répulsif
se manifestera si les pôles en présence sont en opposition de phase ou en phase.
Il semble donc qu'entre gravitons et électrons il existe une similitude d'action au niveau
de deux mondes, le graviton ayant vis-à-vis de l'électron un rapport de masse équivalent à
celui qui existe entre l'électron et une masse astronomique.
La seule différence vient du fait que la mécanique gravitonique est pure d'éléments
inertiels autre que ceux des gravitons eux-mêmes, puisque baignant dans le néant du vide
véritable, alors que la mécanique électronique se meut dans un milieu déjà occupé par les
gravitons.
Une question se pose toutefois à leurs propos, car si attraction et répulsion entre électrons
ou protons s'expliquent par les effets des vides ou des pleins du milieu gravitonique on se
demande s'il existe des effets identiques entre gravitons.
C'est un problème qui demande réflexion et nous admettrons gratuitement qu'au niveau
subquantique gravitonique il n'existe que des effets de choc (de translation), de rotation et
d'oscillation.
Le «gaz» de graviton est donc un gaz neutre identique à un gaz diatomique c'est-à-dire ni
magnétique ni para ni diamagnétique. Les effets magnétiques et électriques n'apparaissent
qu'au niveau électronique et ils sont la conséquence soit d'une polarisation des gravitons
soit, et nous le verrons à propos du champ électrique, d'une modification de l'état de
densité ou de pression locale du «gaz» parfaitement analogue au champ de gravitation et
dont la loi d'action reste tributaire de l'inverse carré de la distance, ce qui en démontre la
similitude.
Il est parfaitement justifié de reconnaître qu'il doit en être autrement pour l'action
dipolaire du champ magnétique qui obéit à une règle différente puisque sa loi d'action est
alors proportionnelle à l'inverse cubique de la distance.
Le champ magnétique étant ainsi clarifié quant à sa structure, il importe de savoir si le
rotationnel du champ est matériel, c'est-à-dire qu'il consisterait en une rotation réelle des
gravitons, ou s'il est uniquement ondulatoire, c'est-à-dire qu'il serait dû uniquement à
l'onde de l'électron en rotation qui déterminerait ainsi la polarisation du champ.
On peut toujours imaginer qu'il y ait à la fois rotation de l'onde et entraînement du milieu
avec ou sans glissement, tout comme pour les photons.
Ceci est assez important car pour un tore solénoïdal vide, le flux magnétique en rotation
torique devrait alors, dans son plan, exercer sur le milieu énergétique spatial une force
fonction de son intensité, et nous aurions donc une formule qui expliquerait la
morphologie d'un type OVNI, avec possibilité d'effets archimédiens et répulsifs.
Il ne s'agit pas à vrai dire de l'effet Magnus électromagnétique, mais d'une variante dont il
sera question par la suite.
Sans vouloir définir à nouveau cet effet, il est clair que, sur sa seule lancée, un projectile
en translation et en rotation sur un axe, ne peut poursuivre longtemps sa trajectoire dans
un fluide qu'à condition que son axe de rotation soit confondu avec sa trajectoire.
Dans le cas où l'axe est perpendiculaire à la trajectoire dans le fluide il apparaît une
résultante Magnus lui donnant une courbure, parce que les vitesses relatives composées
des points de la surface du projectile en rotation sont plus grandes d'un côté que de l'autre.
Mais, dans notre atmosphère, cet effet est dû à la réaction des molécules d'air et si la
trajectoire est courbée, il existe une répulsion de l'air à l'extérieur de la courbure.
Transposée au niveau de l'électron ou du proton en rotation translation, la courbure de
leur trajectoire dans la traversée d'un champ magnétique, qui redresse leur spin, ne saurait
se produire sans que le milieu soit lui-même repoussé par effet réactif.
L'expérience prouve qu'il en est ainsi, toutefois si l'inertie du milieu est très faible. Il n'en
résulte pas moins mathématiquement que la relation mV = Mv de la particule et de la
masse du milieu doit rester vérifiée.
On connaît les valeurs de M et v pour la particule, mais il est difficile de dissocier m et V
pour les gravitons.
Je pense donc et l'effet Haas-Einstein le prouve, puisqu'un aimant traversé par un courant
se met en rotation, que la réaction de l'effet Magnus électromagnétique se fait par
répulsion du milieu subquantique.
Il est bon de préciser quel est le rôle de l'intensité du champ, puisque la courbure est
fonction directe de cette intensité et fonction inverse de la vitesse.
L'effet magnus aérodynamique ne tient pas compte des directions des spins moléculaires
qui du fait des oscillations en tous sens ne pourraient donner de résultante.
Par contre, et le schéma le prouve, l'action serait certainement plus importante si les spins
Fig. 36
Il devient donc possible de modifier l'assiette d'un engin en mettant en charge l'une ou
l'autre de ces bobines dans un sens ou dans l'autre, ou de créer une accélération générale
soit gravitationnelle positive ou négative soit de translation horizontale ou dans une
direction quelconque.
La commande d'un tel système étant des plus simples grâce à un contrôle agissant soit
latéralement pour règler l'intensité individuelle dans les bobines soit dans son axe pour
agir en parallèle ou en série sur l'ensemble des trois bobines.
On ne peut imaginer technique plus simple de pilotage.
Fig. 37
Le champ électrique étant arrêté, l'habitacle fera office de cage de Faraday.
Le champ magnétique étant lui-même dévié par effet d'écran, la substance de la sphère-
habitacle sera réalisée en matériaux ultraperméables.
L'effet répulsif du beam et le vide énergétique réalisé entre la sphère et le beam
détermineraient un vide énergétique local matérialisé par l'attraction électrique existant
entre la sphère et le beam en état de déséquilibre électronique ou protonique, ce vide
déterminerait, dans un champ gravitationnel ou électrique, un effet archimédien
accélérateur.
La propulsion verticale se trouve ainsi automatiquement réalisée, ainsi que, par utilisation
d'effet Magnus, la directibilité et la translation, ce, même en milieu isotrope, c'est-à-dire
loin d'un champ gravitationnel. L'utilisation d'effet Magnus peut être réalisé par la
modification des directions spiniques des particules en rotation.
Bien entendu et tant que l'énergie de l'espace ne sera pas utilisable, problème dont je
donnerai la solution, on peut envisager provisoirement un générateur atomique. Mais il
n'est pas exclus que l'on puisse arriver à l'utilisation de la désintégration des éléments du
beam et en conséquence l'autorégénération de l'énergie, la captation d'électrons ou de
protons ou d'ions étant facilement réalisable par antennes ou simple contact au niveau
d'une atmosphère planétaire ou des particules essaimées dans les espaces cosmiques.
L'AVIATION ULTRASONIQUE
De nombreux observateurs techniquement organisés en plusieurs points de France ont
noté des ultrasons comme «ondes d'accompagnement des OVNIS ? »
Ces ultra sons résultent-ils d'un processus dégravitant accélérateur ou sont-ils issus d'un
mécanisme électro-magnétique propre à ces engins ? C'est-à-dire, sont-ils cause ou effet ?
Les travaux de Bjerknes et Bouasse sur l'aérodynamique ondulatoire ont prouvé que les
ondes sonores étaient capables de reproduire presque tous les phénomènes
électromagnétiques. Seul le milieu était de nature différente quoique cette différence
n'existe qu'en fonction du rapport de masse de 1040 à 1050 entre une molécule d'air et un
élément gravitonique.
Un son peut être polarisé comme l'ont démontré en 1946 Fireston et Frédérik pour qui
toute la gamme des phénomènes de polarisation lumineuse pouvait être reproduite à partir
d'authentiques ondes élastiques longitudinales.
Il n'était nullement nécessaire de donner à l'onde un caractère transversal pour obtenir sa
dissymétrie par rapport au rayon, il suffisait simplement que la source émettrice fut
animée d'un mouvement ayant une composante transversale à la direction de propagation.
Cette découverte était appelée à remettre l'éther en bonne place parmi les hypothèses
fécondes de la science et démontrait la très grande similitude, à l'échelle près, entre
l'atmosphère gazeuse aérienne et l'atmosphère énergétique subquantique.
Il faut bien reconnaître que la pression énergétique de ce milieu de 1021 joules cm3, soit
10 000 000 de tonnes énergie au cm3 , explique parfaitement la différence de vitesses
constatée dans la propagation des ébranlements.
Quant à la fluidité elle découle de l'infinie petitesse de ses constituants gravitonique, soit
des dimensions de l'ordre de 10-49 cm d'après les travaux de M.M. Doligez, qui fait que
tous les édifices atomiques, constitués en presque totalité de vide, sont traversés par ces
éléments comme une toile métallique par un courant d'air.
La trainée aérodynamique ne peut se manifester que sur des surfaces entourant les corps,
soit par la pression directe en aval du mouvement soit par effet de vide en amont. La
trainée éthéro-dynamique doit donc différer de la première dans le rapport minimal de
1/1040 , c'est-à-dire que pour un mobile matériel, elle n'est pas perceptible et son effet de
freinage pratiquement nul. Et c'est ce rapport, infime mais néanmoins fondamental, qui a
échappé à Michelson, à Einstein, aux relativistes, …
Il est donc possible de transposer un processus réactif du niveau subquantique au nivau
sonore, et cela en vertu du fait que l'effet réactif Mv = mV est d'autant plus efficace que la
masse est importante et la vitesse faible.
Nous aurons donc intérêt en disposant d'une énergie W donnée, à utiliser l'effet réactif de
l'émetteur d'une onde sonore sur l'air.
Or ce que nous désirons c'est obtenir un effet réactif analogue à celui de la poudre dans
une fusée, en utilisant la matérialité de l'énergie pour repousser une masse selon la
relation des quantités de mouvement.
Ce problème exige quelques formulations mathématiques élémentaires et pour bien le
préciser extrapolons en donnant la relation entre la pression de radiation réactive, la
densité δ du milieu, la fréquence vibratoire (ω) et l'amplitude de l'onde A.
soit : Pression de radiation = Densité x Fréquence au carré x Amplitude au carré.
P = δ 0 ω2 A 2
Les éléments de la solution sont donc très clairs. Etant donné que nous ne pouvons rien
sur la densité locale de l'air, il faut utiliser des fréquences élevées avec le maximum
d'amplitude, donc des ultra-sons de puissance.
Par définition la gamme de ces ultra-sons se situe entre les
fréquences audibles soit entre environ 20 000 hertz et des fréquences de 100 millions soit
108 Hz.
Au delà et même depuis 108 Hz nous sommes dans le domaine radio et il suffit d'un
quartz pour passer du domaine aérien au domaine électromagnétique. Mais encore une
fois sur le plan du rendement énergétique nous n'avons pas intérêt à utiliser ce domaine
de fréquences radio tant que nous opérerons dans un gaz c'est-à-dire dans l'atmosphère
aérienne. Après quoi seul le domaine électromagnétique, utilisant le processus analogue
de la pression de radiation des ondes EM sur le milieu subquantique, sera seul à
envisager, en dehors bien entendu de tous procédés émissifs de particules ou d'ions
accélérés.
On pourrait considérer qu'un engin OVNI peut être à double action, électromagnétique
dans l'espace énergétique et ultrasonique dans l'espace aérien, ce pour des raisons de
rendement.
Et curieusement l'analyse du procédé nous amène à des conclusions qui pourraient
expliquer les phénomènes observés sur ces engins plus particulièrement lors
d'atterrissages.
La structure des OVNIS paraît généralement discoïdale, ce qui offre une importante
surface réactive.
Un disque de 10 mètres de diamètre a une surface de 75 m2 soit 50 m2 en retranchant la
surface inactive de l'habitacle.
Or nous connaissons actuellement des porcelaines ferroélectriques susceptibles de
dissiper quinze watts au centimètre carré soit 150 kW au m2 c'est-à-dire une puissance de
200 CV au m2 . Et le calcul donne une résultante réactive de plusieurs centaines de kg.
Il est donc possible de distribuer cette énergie sur de grandes zones et d'utiliser par
réflexion le ferro-électrique sur ses deux faces, l'élément vibrant étant inclus dans un
résonateur et sa surface dressée suivant des courbures appropriées (Fig. 38).
Fig. 38
Ce rendement réactif paraît suffisant pour soutenir dans l'air un engin, l'effet
correspondant au poids des moteurs et générateurs surtout s'ils sont atomiques. Mais on
peut envisager des matériaux ou des dispositifs encore plus fiables permettant des
dissipations d'énergie plus importantes sur des fréquences plus élevées, passant par la
transformation de fréquences électromagnétiques en des fréquences suprasoniques dans
une atmosphère donnée, le rendement étant d'autant meilleur que la vitesse du son y est
plus faible pour une densité gazeuse donnée.
Ceci expliquerait peut-être les irisations multicolores constatées par les observateurs
autour des OVNIS, car on sait que les ultra-sons ont une action diffractante sur un rayon
lumineux du même ordre que celle du prisme.
Quant à l'absence du «Bang» supersonique, il est possible que le phénomène de cavitation
créé par les U.S. autour de l'engin élimine les réactions de l'air sur les surfaces.
Certes, si la cavitation est surtout un phénomène visible dans les liquides, il existe
forcément au niveau d'un gaz. Et les physiciens connaissent l'effet de répulsion produit
par les ultra-sons, phénomène dû à l'absorption de l'énergie par le milieu qui fait que la
pression de radiation étant plus forte près des émetteurs qu'à une certaine distance, il se
produit un courant gazeux tendant à créer un vide, et c'est ce vide qui semble protéger les
parois émettrices du contact de l'atmosphère, créant une sorte d'effet de mirage qui, vu
dans la journée, rendrait flou les contours des engins.
Que penser de cette formule d'OVNI facilement réalisable sur terre, à condition que l'on
veuille bien s'éloigner des formules d'avions classiques.
Peut-être peut-on invoquer le faible rendement soit 2000 CV pour trois tonnes d'effet
sustentateur propulseur, mais en définitive, sur ce point on peut établir un certain
parallélisme entre cette formule et l'aérodynamique classique, tout en reconnaissant que
l'aviation à ultra-sons, si les OVNIS sont ainsi conçus, a des avantages indiscutables, les
US étant inaudibles.
L'énergie ultrasonore possède des propriétés physico-chimiques bien connues et le
déssèchement de la végétation et du sol, le couchage des herbes au niveau des
atterrissages est parfaitement explicable par des US de très grande puissance.
En définitive je ne serais pas étonné que l'une des techniques de sustentation propulsion
des OVNIS soit une application de ce phénomène physique. Il faudrait alors admettre que
ces engins seraient les homologues des LEMS américains, c'est-à-dire utilisables pour
l'exploration des planètes possédant une atmosphère, et dans ce cas il existerait un
astronef porteur évoluant à une certaine altitude par antigravité électromagnétique.
Certes, cette formule ferait peut-être perdre beaucoup de mystère au phénomène OVNI
mais se rapprocherait sérieusement de nos possibilités techniques. Quant à admettre que
ces formules seraient d'origine terrestres je ne verrais rien qui puisse éliminer cette
hypothèse, n'importe quel aviateur inspiré étant à même de réaliser demain un prototype
expérimental.
Fig. 39
Nous allons assister en vertu des forces de Laplace à une concentration d'électrons sur
l'une des faces et d'ions positifs sur l'autre face puisque les ions seront repoussés d'un côté
et les électrons de l'autre.
Il suffira donc de charger le disque convenablement pour qu'il soit, par exemple étant
chargé négativement, attiré par les ions positifs et repoussé par les ions négatifs.
L'effet complexe donnera en définitive une résultante de sustentation propulsion assez
analogue à un effet archimédien, mais dont la puissance sera beaucoup plus intense et
réversible.
Quant aux effets constatés par les observateurs, une fois encore ils correspondront à ceux
que démontrent la réalité des phénomènes OVNIS.
On aura ainsi un puissant champ magnétique tournant, cette rotation pouvant ainsi
s'expliquer par celle du champ entraîné par les éléments magnétisants du disque si celui ci
est lui-même mis en rotation par quelque dispositif réactif, c'est-à-dire des tuyères
émettant des gaz, ce qui a été constaté.
Quant aux phénomènes électrostatiques et lumineux, il est normal qu'ils se manifestent
dans ce cas.
D'autre part il est prouvé qu'un mobile supersonique chargé électriquement modifie
considérablement le «Bang» ce qui expliquerait le silence des engins, le générateur étant
à turbine insonorisée ou un complexe à base d'énergie atomique.
Bien des projets utilisant les forces électrostatiques ont été brevetés, mais le sol terrestre
étant électriquement neutre il n'est pas possible, en dehors d'une ionisation, d'espérer des
effets répulsifs. Il est en effet bien connu qu'une sphère chargée donnant une image
électrique de signe contraire au sol, toute charge doit entraîner une attraction, sauf si elle
est alternative.
J'ai toutefois bien décrit au début de cet ouvrage une intéressante expérience utilisant un
plateau ou une sphère chargée, mais avec interposition entre la charge et le sol d'un
ECRAN électrique avec un dispositif de décharge par points.
Il est en effet regrettable qu'on ne puisse accumuler des charges négatives sur le sol, car
l'effet antigravitationnel répulsif pourrait atteindre des valeurs fantastiques.
Le calcul démontre que 2 kilogrammes d'électrons placés aux deux pôles de la terre, soit
à 12 000 km de distance se repousseraient avec une force de 200 000 milliards de tonnes !
Il est vraiment dommage qu'une telle puissance ne soit pas encore utilisable puisqu'un
kilo d'électrons se trouve normalement inclus dans deux tonnes d'une matière
quelconque ! Et que dire de deux charges de 1 kg placées seulement à quelques mètres ou
km de distance, la répulsion ne diminuant qu'en fonction du carré de la distance, comme
pour la pesanteur.
Certes de telles forces seront certainement asservies grâce aux progrès des techniques, et
je crois en avoir donné les bases en injectant des électrons supplémentaires au niveau des
orbites incomplètes des nuages atomiques. Si ces hypothèses de travail peuvent encore
faire sursauter d'incrédulité certains physiciens il serait grand temps de les soumettre à
l'expérimentation.
Pour en terminer avec ce chapitre, peut-on expliquer les curieux effets sur les sols et la
végétation constatés lors des atterrissages d'OVNIS ?
Nous avons envisagé la présence simultanée de champs ionisants et de champs tournants
magnétiques.
Or nous savons que le sol terrestre est d'autant plus conducteur qu'il est humide, et en
conséquence un champ magnétique tournant doit engendrer des courants telluriques
intenses échauffant la masse du sol. Il n'est donc pas étonnant que les racines des
végétaux soient brûlées et le sol desséché, ce qui est constaté avec régularité. Quant aux
plantes si leur feuilles ne le sont pas c'est que la conductivité de l'air ionisé est moins
importante. Les effets électrostatiques peuvent être invoqués pour ce qui est de coucher
les plantes par répulsion.
Comme ces effets n'ont rien à voir avec la radioactivité, il est encore normal que rien ne
soit décelable dans ce domaine.
En conclusion, il est permis de s'étonner que face à tant de phénomènes parfaitement
explicables en fonction des lois physiques que nous connaissons, phénomènes qui ouvrent
l'esprit et les portes de nouvelles techniques à tant de physiciens, il puisse exister tant de
réticences, tant d'obstruction de la part des milieux scientifiques responsables.
Certes, je ne vois qu'une explication, qui démontre que de tous temps les hommes qui
tirent de substantiels et égoïstes bénéfices des techniques du moment voient toujours d'un
très mauvais oeil toutes les nouveautés qui risqueraient soit de perturber leurs industries
rétrogrades, soit de les rejeter complétement des circuits industrialisés.
Il est infiniment pénible de penser qu'ayant depuis plus de trente années envisagé ces
techniques j'en sois réduit à l'impuissance la plus absolue par la mauvaise foi de ces
individus qui se disent des savants et qui ne sont que des malfaiteurs du progrès. Et quel
progrès ! Celui dont je parle ici nous délivrerait des pestilences fécaloïdes d'une terre qui
jusqu'ici, comme les chats, avait soigneusement enterré ses propres déjections ! Je parle
du pétrole.
Quant à prétendre que les Extra-Terrestres aient mis au point des techniques
transcendantes, je dois bien avouer que tout ce qui est actuellement décrit comme
inexplicable de la part des OVNIS me semble rentrer dans les lois les plus
élémentairement connues. A condition bien entendu de se libérer de monumentales
erreurs, issues des courtes vues des relativistes et des rationalistes, aveuglés par le
Mathématicisme, considéré par eux comme source unique de toute vérité.
Je me permets d'extraire d'un travail d'un physicien, Philippe Tournier, le texte suivant :
«On sait que l'on peut mathématiquement ou schématiquement rendre compte des
mécanismes du système solaire en prenant la Terre pour centre. Cela est extrêmement
complexe (système de Ptolémée), mais cela peut «marcher» suffisamment pour
«éventuellement» faire «croire» que c'est là une bonne solution (et peut-être même la
Fig. 40
Ces rayons cosmiques uniquement constitués de particules photon stabilisent leur course
et s'entourent des ondes d'accompagnement en pertubant le milieu subquantique
énergétique.
Viennent ensuite, condensés par la pression énergétique, les éléments planétaires avec les
différents états plasmatique-solide-liquide-gazeux et enfin le soleil, centre hyperdense et
hyperpressuré ou se liquéfie l'énergie gravitonique en émettant des rayonnements.
Ainsi donc, contrairement aux vues d'Einstein, le vide spatial, s'il existe en dehors de
l'atmosphère énergétique qui constitue un des multiples systèmes solaires, n'est occupé
que par les éléments particulaires de la lumière. Mais la vitesse de ces éléments est
théoriquement infinie suivant la relation de de Broglie.
Par contre l'espace d'Einstein, celui de la relativité avec ses erreurs, est bien celui des
ondes électromagnétiques créées par la pénétration à une très grande vitesse des photons
particules qui se freinent dans ce milieu en s'entourant, comme tout corps se déplaçant
dans un fluide, d'un sillage, c'est-à-dire d'ondes d'accompagnement. Et c'est ainsi que face
aux dimensions du cosmos vide l'étroite limite (100 milliards de km) de l'atmosphère
solaire dans laquelle baigne la terre est occupée par des ondes dont la relation entre la
vitesse de la particule et celle de l'onde est définie par
C soit c2 = C'C’’
C’est donc une constante uniquement locale, et qui représente le carré de la vitesse c dite
de la lumière. Dans ce domaine tout est à revoir, les théories actuelles sont à réviser
entièrement. La vitesse de l'onde étant toujours supérieure à celle du photon.
En effet lors des expériences qui sont faites sur un rayon lumineux, il existe bien des
protons particules et leurs ondes. Si l'on peut admettre que le rayonnement d'une flamme
présente un certain synchronisme entre les photons et leurs ondes, il est très malaisé de
reconnaître dans un rayonnement qui nous vient d'une étoile si ce synchronisme existe et
quel est son décalage, tout au moins sur le plan expérimental, le calcul en fonction de la
relation de de Broglie permet d'indiquer l'avance ou le retard.
Nous en arrivons donc à la conclusion absolument logique que dans un champ de
gravitation, c'est-à-dire dans un champ d'énergie gravitonique dont la densité et la
pression croissent à mesure que l'on se rapproche du centre solaire, le photon particule
provenant de mondes lointains arrive à des vitesses théoriquement illimitées et fonction
de l'intensité du processus inverse qui le projette dans le milieu tout d'abord de densité
négligeable puis croissante. Ce milieu le freine alors et son onde d'accompagnement se
charge de son énergie.
Par contre arrivée au soleil la particule peut être théoriquement ralentie jusqu'à
l'immobilité alors que l'onde atteint sa vitesse maximale.
Et cela est logique puisque la vitesse de l'onde est fonction de la pression.
Par contre un photon émis par le Soleil s'accélèrera dans la traversée du nuage
énergétique puisqu'il traverse des zones de moins en moins denses jusqu'à atteindre une
vitesse infinie.
Le même mécanisme fera que l'onde ne trouvant plus de support à mesure de
l'éloignement solaire va ralentir et disparaître.
Il y a donc lieu de penser qu'il existe une énergie dans un photon, énergie cinétique qu'il
cède au photon particule et inversement, et ceci oblige encore une fois à revoir toutes les
idées sur la lumière (Fig. 41).
Quant à la mécanique réelle du processus, elle dépasse je le pense toute possibilité
mathématique, tant le problème est complexe et la relativité risque une fois de plus de s'y
perdre.
Fig. 41
Nous retiendrons toutefois et ceci est très important qu'il existe un processus naturel
faisant qu'une onde peut se matérialiser en étant propulsée par son émetteur. Cela peut
en effet amener à réfléchir sur la création d'une réalité matérielle à partir de ce qu'il est
convenu d'appeler le néant.
Ainsi que nous le concevons le photon particule traverse des espaces immenses à des
vitesses infiniment plus grandes que celles des ondes lumineuses dans notre atmosphère
énergétique, et l'on peut se demander quelle est la nature du phénomène qui détermine la
fréquence et par conséquent l'énergie d'une radiation.
Tout d'abord quel peut être l'aspect d'un photon particule qui donnera dans notre gradient
une radiation rouge et dont la radiation sera sensible à notre oeil et aux instruments.
Il ne me semble pas encore possible d'émettre une autre hypothèse qu'une des deux
suivantes.
Ou bien ces photons ont une masse inerte différente, ou bien ils sont pulsants à des
fréquences différentes.
Il semble bien toutefois que l'énergie cinétique du photon particule, considérable dans le
vide absolu, se transforme en énergie ondulatoire et encore une fois si nos appareils de
mesure ne peuvent déterminer que la vitesse de l'onde et sa fréquence, il ne semble pas
expérimentalement possible de déterminer la vitesse de la particule.
Revenons à l'analogie entre la propagation du son dans l'air et de la lumière dans le milieu
gravitonique.
Certes, une onde sonore a une vitesse de propagation, mais elle diffère de la vitesse des
oscillations des molécules du gaz, qui est une vitesse sinusoïdale c'est-à-dire passant par
un maximum et un minimum. On peut donc dire que dans un gaz c'est sa substance même
qui donne une pression sinusoïdale un certain nombre de fois par seconde, la génération
de l'onde étant la conséquence d'une perturbation en un point du gaz.
Il est bien évident que s'il était possible de déterminer une zone d'attraction qui
comprimerait un gaz au lieu de le pomper dans un réservoir, nous aurions une sphère sans
limite précise, et si nous projetions dans cette sphère du sable nous aurions l'image exacte
de ce qui se passe dans un système solaire.
Certes les physiciens souriront peut-être de la transposition de ce mécanisme au niveau
des photons, mais si l'on veut bien considérer que pour le spectrophysicien cela ne change
rien dans notre gradient, rien ne s'oppose à ce que l'on imagine qu'à des distances
considérables du centre de notre système, les phénomènes physiques soient très
différents, contrairement aux affirmations relativistes.
Ceci expliquerait que les bombardements perpétuels qui compriment notre atmosphère
solaire pourraient mener à la création permanente de nouveaux atomes, en particulier
l'hydrogène et peut-être même des édifices plus complexes puisqu'il est prouvé que les
espaces interplanétaires sont riches d'éléments atomiques isolés et dont l'origine reste
mystérieuse.
Un grand problème se pose toutefois.
L'oeil humain est sensible à des fréquences ondulatoires accompagnant un système de
particules. Mais que deviendra la vision dans un milieu de particules animées de
supravitesses ? Et la vie pourra-t-elle se maintenir au centre d'un tel bombardement, sans
écran protecteur, et déjà tellement important en dehors de l'atmosphère ?
Il apparaît bien évident et le calcul le prouve que la densité des planètes du système
solaire diminue dans de larges mesures en raison de l'éloignement soit de 6,2 pour
Mercure à 0,7 pour Saturne, en passant par une allure générale de la fonction 1/d2.
Cette diminution de densité peut être due soit à une texture physicochimique différente,
ce que le spectroscope ne révèle pas, soit à une diminution de pression qui détermine une
expansion des constituants atomiques.
En fonction de l'éloignement, cette pression doit tendre vers de faibles valeurs comme
nous l'avons exprimé maintes fois et cela parce que l'atmosphère énergétique solaire obéit
à des lois proches de celles qui régissent l'atmosphère aérienne planétaire.
Il est donc plus que probable que la vitesse de la lumière dans un tel milieu dont la
pression diminue doit elle-même diminuer et nous retombons dans nos prévisions.
Jusqu'ici la vitesse de la lumière a été mesurée dans la banlieue solaire et au plus loin à
propos de l'occultation des satellites Joviens, mais Neptune est plus de sept fois plus
lointain que Jupiter.
Les astronomes n'ont-ils pas déjà constaté que les rayonnements étaient plus rapides entre
la Terre et Vénus qu'entre la Terre et Mars, et n'ont-ils pas modifié les distances en
conséquence plutôt que de reconnaître que le sacro-saint principe de l'invariance de la
vitesse de la lumière était en défaut ?
Une grande conséquence pratique de cette constatation oblige en toute logique à modifier
les distances des corps stellaires dont les fantastiques durées en années lumières sont un
défi au bon sens.
Les physiciens, les astronomes annoncent sans la moindre autocritique que des
ondulations de l'éther se propagent sans amortissement depuis des dizaines de milliards
d'années.
Pour donner un aspect infiniment plus logique du mécanisme du transport des
rayonnements galactiques ou stellaires supposons un rayon émis par un photon solaire et
qui se propage en fonction de la relation C soit c2 = C’C’’.
Le photon particule éjecté en même temps que son onde se dirige vers un autre système,
alpha centauri par exemple dont la distance officielle est de 4 années-lumière soit 9 . 1012
km soit 9 mille milliards de km.
Nous estimons la traversée de l'atmosphère solaire à 100 milliards de km ( 1011 ) soit
approximativement une semaine de notre temps si la vitesse croît exponentiellement, soit
de 100 à 200 heures, la route est ensuite libre et la vitesse est à son maximum, c'est-à-dire
fonction de l'accélération donc du gradient énergétique du système solaire.
Si la vitesse devenait presque infinie ou immensément élevée cette partie du trajet serait
hors du temps, c'est-à-dire dans une autre dimension, et à l'entrée dans le système d'alpha
centauri, le même mécanisme se reproduirait, à l'envers, dans une phase de freinage.
Ce qui se passe pour un photon peut être extrapolé pour un engin cosmique, c'est-à-dire
que le trajet aller-retour pour alpha-centauri ne demanderait théoriquement que quelques
jours et non pas huit années comme le voudraient les astronomes, qui bien entendu
tablent sur cette impossibilité pour nier l'évidence des OVNIS, alors qu'elle est
aveuglante !
Pour un tel système le temps n'existe pas en soi, il n'est qu'une virtualité.
imposition des mains ou simple présence sont capables de soulager un grand nombre
d'égrottants ?
C'est évidemment l'expression même du «miracle», et si l'auto-suggestion dans ce
domaine ne peut-être sous-estimée, l'action momificatrice due à l'imposition des mains
est une réalité que j'ai bien souvent vérifiée avec le plus strict contrôle.
L'exemple le plus extraordinaire, m'a été présenté en Vendée ou un magnétiseur de
parfaite bonne foi, était capable de rendre un foie de veau parfaitement incorruptible et
deux ans après son imposition des mains ce foie restait souple, sain, inodore.
S'il est donc possible à un être humain d'obtenir de tels résultats, il n'est pas scientifique
de refuser, comme l'ont fait un certain nombre de membres de l'ordre des médecins,
d'effectuer des expériences sincères et largement contrôlées !
Mais il importe avant tout pour L’ORDRE que seuls les médecins diplômés aient le droit
de guérir ou plus exactement de soigner leur malades. Et, dans ce domaine, si beaucoup
d'esprits étroits sont parfaitement convaincus que tous les guérisseurs sont des charlatans
(et je ne nie pas, malgré tout, que le pourcentage de ceux qui sont fiables et de ceux qui
croient l'être est assez restreint) il en existe cependant un grand nombre en France et
partout dans le monde qui sont très efficaces.
Bien entendu les séries d'expériences que j'avais entreprises à ce propos, me déplaçant un
peu partout en France où l'on me signalait des cas intéressants, eurent vite fait d'attirer sur
mon imprudence les foudres de l'ordre bourgeois des médecins, lesquels m'interdirent ces
recherches au nom de la dignité médicale, et je n'ai pu les poursuivre qu'après avoir
démissionné de l'Ordre !
Qu'à cela ne tienne, ces MM. m'ont alors assigné à plusieurs reprises en justice pour
exercice illégal de la médecine et collusion avec des... rebouteux !
C'est ainsi que l'on encourage la recherche dans notre belle France, plus préoccupée de
profits que de recherche scientifique.
Et pourtant quelle aberration de croire que la biophysique ne relève que de la chimie,
alors qu'on ignore ou, pire, que l'on nie systématiquement ce qu'est la force vitale et la
force psychique, celle qui régit la conscience et son potentiel créatif. On trouve toujours
de bonnes raisons de ne pas avoir ce, qu'a priori, on a décidé de ne pas voir.
Certes pour le médecin qui ne connaît pas l'existence de cette énergie cosmique de
gradient fantastiquement élevé dans laquelle nous baignons, énergie massiquement
équivalente à 10 000 000 de tonnes au cm3, au même titre que notre atmosphère aérienne
si nécessaire pour la vie, le guérisseur ignorant, mais inspiré, qui parle naïvement de
l'énergie cosmique est pris pour un dangereux fumiste. Et pourtant c'est lui qui a raison
face à la prétention du praticien diplômé, vu l'ignorance réelle de celui-ci dans ce
domaine fondamental.
De mes recherches sur les syntonisations biochimiques, j'avais conclus une nouvelle
technique de diagnostic doublée automatiquement du remède à prescrire, c'est-à-dire la
spectrothérapie.
Cette méthode consistait à relever, grâce à un spectrographe à infrarouge, le spectre
émissif d'un organisme vivant sain ou malade et, en déterminant les modifications de
l'émission, d'introduire un élément émissif ou absorbant rendant au spectre ses
caractéristiques normales.
A titre d'exemple, l'état fébrile, qui pour le vulgaire n'est qu'une augmentation de la
température, correspondrait pour le spectro-thérapeute à une modification de certaines
longueurs d'ondes émises par le malade. L'acide acétylsalicylique a, en particulier, la
propriété de les rétablir dans la normale par syntonisation.
Le spectre d'émission peut être contrôlé par un spectre d'absorption, en irradiant le sujet
d'épreuve avec une émission ultra-infrarouge appropriée.
Si j'insiste sur cette étude que j'ai été obligé d'abandonner, c'est pour, une fois de plus,
montrer la courte vue de certains, que l'on honore pourtant des plus hautes distinctions
universitaires.
Que penser de l'existence d'ondes psychiques ? Celle que nous connaissons, les ondes
alpha et beta, sont bien des ondes électromagnétiques issues de phénomènes physico
chimiques, mais on ne saurait leur attribuer une valeur dynamisante importante à
distance.
Et pourtant les récentes expériences de télépathie mises au service de l'espionnage
militaire par certaines nations, semblent bien montrer qu'il s'agissait d'une réalité
psychophysique. Il est donc probable que des forces de cette nature agissant à des milliers
de km ont une puissance spécifique mais subtile, qui ne saurait être appréciée forcément
en watts.
L'ingénieur général Cordonnier du CNRS m'avait dans le temps confié une
communication au sujet des lévitations des saints, puisque c'était son département au
CNRS, communication qui m'a d'ailleurs été subtilisée par un espion soviétique.
Ce technicien estimait en effet que les lévitations étant, quoique généralisées dans le
monde, plus spécialement l'apanage de mystiques animés d'une foi ardente vers l'au-delà,
pouvaient être dues à une polarisation des atomes et molécules, justement sous l'effet de
ces aspirations célestes, qui les auraient donc orientés dans le sens vertical, phénomène
assimilable à une réalisation d'antigravité.
Quelle que soit l'explication, il est évident que cet aspect parascientifique, peut-être plus
métaphysique que physique, est la clef de la libération de l'homme. Mais il est intéressant
de savoir que sur le plan de la physique électromagnétique de notre époque les vues que
j'ai exposées tout au long de cet ouvrage doivent en donner les solutions, solutions ou
strictement physiques ou mixtes c'est-à-dire psychoélectromagnétiques.
Par un cruel destin près de 90 % de mes amis et supporters qui depuis, plus de quinze ans
s'étaient passionnés pour ces problèmes et m'avaient soutenus dans mes propres travaux
ont disparu les uns après les autres avec une cadence dont la régularité est étrange, et il ne
me semble pas qu'ils soient remplacés. Je cite l'ingénieur Professeur Prunier, René Hardy
secrétaire général de la Société métapsychique de Paris et ex-ingénieur en chef de la
société MATRA et aujourd'hui Marc Thirouin le premier à avoir créé en France un
comité d'étude OURANOS des OVNIS, sans parler des moins connus Dohmen,
Waveney, Gervan et bien d'autres emportés vers l'au-delà de leurs aspirations par je ne
sais quel destin.
Par qui les remplacer ? Je sais bien que l'heure de l’antigravité approche, du moins si je
m'en rapporte aux travaux d'amis, cités en début de cet ouvrage, et permettant de pré-
situer, dans le temps historique, les innovations, même les plus novatrices, de l'humanité.
Nous avons noté que, d'après ces travaux, la maîtrise de la gravité, par l'humanité, serait
réalisée pratiquement (et reconnue) vers 1982-84.
Le projet ci-après peut paraître au premier abord utopique, mais une analyse plus poussée
n'autorise pas à le repousser sans examen.
L'idée de base étant que la gravitation apparaît comme la résultante d'une différence de
pression entre les radiations centripètes et centrifuges des masses, radiations de
fréquences en rapport avec l'extrême petitesse de la masse des gravitons, la pression reste
par contre équilibrée dans un plan horizontal.
Il est bien évident que si la possibilité physique nous était donnée de capter une partie de
ces ondes latérales pour compenser le déficit des ondes centrifuges, non seulement il
serait possible de neutraliser la gravitation, mais d'en inverser les résultantes dans des
proportions considérables si toute l'énergie radiale était utilisée (Fig. 42).
Fig. 42
Par la même occasion il suffirait de modifier la perméabilité du milieu d'un côté ou de
l'autre pour résoudre tous les problèmes de translation non seulement dans un champ
gravitationnel anisotrope mais dans n'importe quel champ et de n'importe quel gradient.
La difficulté provient uniquement de l'extrême perméabilité de la matière aux ultramicro-
ondes. On sait en effet que dans l'atome le volume des particules est dérisoire par rapport
à l'espace vide qui les sépare.
Une première solution toute hypothétique serait de réaliser un matériau dans un alliage
fait uniquement par fusion de deux métaux de densité différente, mais possédant un
certain degré de mixibilité.
Cet alliage serait réalisé en fondant les métaux plus lourds et en répandant sur la surface
de fusion le métal le plus léger.
Il se produirait ainsi pour une cuisson, peut-être sous champ magnétique, une
interpénétration des atomes lourds dans les atomes légers à condition d'éviter tout
brassage et par refroidissement on pourrait espérer un alliage de densité croissante.
Comment agirait la gravitation dans un tel milieu, cela reste du domaine de l'hypothèse,
mais l'expérience mériterait d'être faite et peut être que cette technique pourrait avoir des
applications en dehors de celles de l'antigravité.
A part cette solution expérimentable avec des métaux ultra lourds et ultra légers, on peut
envisager encore un procédé dérivé des tubes de lumière.
On sait en effet que des faisceaux de fils de verre sont à même de courber la lumière et de
présenter des images transmises à travers les méandres les plus fantaisistes du tube à
lumière.
Ainsi donc une substance appropriée filamenteuse pourrait peut-être diriger les ondes
gravitationnelles à 90° et équilibrer le défaut d'énergie centrifuge à partir des énergies
radiales.
Cette opération est facilement réalisable avec des lentilles de verre convenablement
taillées et éclairées latéralement, le faisceau lumineux horizontal se projetant
verticalement dans une direction unique.
Certes, nous connaissons en radiotechnique les tubes d'ondes par lesquels on transmet les
rayonnements ultracourts, et ce sont donc des types de tubes de cette nature qu'il faudrait
mettre au point.
Nous arrivons ainsi à courber des radiations de quelques centimètres jusqu'à des
fréquences de 1018 , au-delà desquelles les rayons X se propagent linéairement tout en
étant encore diffractés. Il ne faut pas oublier que les fréquences gravitationnelles sont
d'un ordre infiniment supérieur, aussi je ne vois guère que des influences
ultramagnétiques ou électromagnétiques capables de réaliser cet effet.
Et l'influence psychique me direz-vous, n'en serait elle pas capable, car le mécanisme des
lévitations somatiques spontanées n'est pas encore expliqué ?
Ce type d'explications permettrait donc d'envisager que la conduction des ondes
gravitationnelles pourrait être influencée par un mécanisme cérébral démontrant ainsi que
les forces psychiques sont plus puissantes que les forces physiques et cela nous ferait
entrer tout droit dans la métaphysique ou dans le domaine ainsi qualifié.
Pour en revenir à notre exemple, à propos de la lumière visible, il est un fait qu'un prisme
de verre courbe la lumière et qu'un empilement de dioptres de réfringence croissante ou
décroissante pourrait faire tourner indéfiniment la lumière sur elle-même.
En matière de gravitation, ne pourrait-on envisager que des couches monoatomiques
orientées magnétiquement, empilées avec des couches diamagnétiques constituant un
piège à ondes gravitationnelles, bien que de très hautes fréquences, les obligeant à être
déviées de leur course rectiligne.
Et que penser alors de systèmes créant des interférences entre ces ondes, ou les rendant
stationnaires pour les neutraliser ou inverser le sens de leur propagation.
Toutes ces techniques sont théoriquement fiables, mais encore faut-il les expérimenter
dans tous les domaines et dans toutes les hypothèses, les dispositifs statiques permettant
l'antigravité gratuite et la propulsion, ce qui sera l'ultime technique de l'avenir, nous
donnant par la même occasion la clef de l'inépuisable énergie cosmique. Après quoi
l'imagination, au premier abord du moins, ne voit rien d'encore plus fantastiquement
possible.
Fig. 43
Fig. 44
Le poids du capteur est évidemment à soustraire du bilan au rendement du système, mais
l'opération est largement bénéficiaire.
On sait que le permalloy (et un certain nombre d'alliages réalisés en particulier aux
aciéries d'Imphy) est un corps ultra-perméable c'est-à-dire qu'un barreau de ce métal
placé parallèlement aux lignes de force du champ terrestre offre une moindre résistance
ou réluctance que le vide et en conséquence, le spectre magnétique le montre, une
concentration. On voit en effet les lignes de force du champ terrestre s'infléchir au
voisinage pour passer à l'intérieur du barreau.
Il s'agit donc d'un condenseur de champ, dont le gradient passe ainsi de 0,5 gauss à 10
000, tout au moins en théorie car l'expérience m'a prouvé que le résultat pratique était
notablement inférieur.
L'action du permalloy étant de capter les lignes de force, son effet de concentration au
milieu d'un barreau sera optimal pour une longueur de 10 à 100 fois sa section, et en
conséquence notre courant circulaire opérant par exemple de droite à gauche au niveau de
la section agira sur un champ 2 000 à 10 000 fois supérieur au champ terrestre.
Par contre un cylindre de permalloy entourant le courant dans son sens de gauche à droite
fera qu'il circulera pratiquement dans un espace non magnétique.
Cette technique que j'avais expérimenté il y a plus de trente ans m'avait donné des
résultats très encourageants. Le seul ennui est que le champ terrestre perd de son intensité
en fonction de la racine cubique de la distance au sol. Toutefois, comme l'intensité de la
pesanteur diminue en fonction de la racine carrée il s'établit une certaine proportionalité
qui permet une fiablité largement suffisante pour être opérationnelle.
Il est de la plus grande facilité de vérifier la technique, car il suffit de dérouler le ruban
d'aluminium d'un petit condensateur. de radiotechnique, de l'étendre dans la direction est-
ouest et d'injecter soit un courant de décharge d'un fort condensateur, soit celui d'un
accumulateur.
Pour une intensité convenable, mais à la limite de la fusion on voit le ruban s'élever
brusquement tirant sur ses deux extrémités. Toutefois si la flèche primitive a été trop
importante par rapport à sa longueur la partie centrale du ruban se retourne sur elle-même
le résultat étant une sorte de gamma. En effet tout dans la nature fait que les forces
attractives dominent sur les forces répulsives, parce que l'action d'une force attractive
augmente en fonction de la diminution de la distance d'action, alors que pour la force
répulsive c'est le contraire (Fig. 45).
Fig. 45
Il s'agit là d'un processus général qui doit être pensé aussi bien sur le plan physique que
philosophique, et qui prouve que toutes les actions positives ou négatives, ou attractives
ou répulsives, existent dans la nature tout comme les pôles d'un aimant qui ont les deux
fonctions, mais c'est ce grand principe qui est à l'origine de la cohésion du cosmos et à la
rigueur de sa création.
Le moment est peut-être choisi pour exprimer combien j'estime parfaitement dénué de
logique physique, pour bien la différencier, la logique mathématique qui voudrait que
matière et antimatière soient en état répulsif l'une vis-à-vis de l'autre.
La différentiation entre matière et antimatière réside dans l'inversion du sens de rotation
pour une même disposition des polarités. Si par le jeu des attractions polaires deux
atomes peuvent se réunir il y a aussi bien pour la matière que pour l'antimatière
engrènement des rotations donc attraction. Par contre pour les particules matière et
antimatière ces rotations sont en opposition et il est normal que leur contact déterminent
l'explosion dématérialisante. Pour les attractions-répulsions voir aussi l'expérience, citée
plus haut, des ballons d'H2 et de CO2 mis en forte vibration dans l'air.
Il est donc vain d'espérer, malgré les fantastiques dépenses de certains gouvernements,
celui d'URSS par exemple, réaliser l'antigravité par l'antimatière ou la dégravitation par
gel mésonique au 0 absolu.
D'ailleurs de récentes expériences au CERN de Genève l'ont bien prouvé et c'est un
aspect des erreurs des théoriciens qui cherchent vainement dans les mathématiques des
solutions qui par ailleurs tombent sous le sens de la logique.
Fig. 46
Anatomie d'un LASER :
Un laser est essentiellement constitué d'un milieu liquide gazeux ou solide renfermant des
atomes en état d'excitation, que l'on trie en fonction du pompage de manière à avoir des
concentrations d'atomes dans le même état d'excitation.
Cet état est instable et revient spontanément à la normale en émettant un flux de lumière
en phase, dont la direction est fonction du dispositif.
Il existe plusieurs types de lasers utilisant diverses substances dont les atomes à l'état
gazeux liquide ou solide ont des fréquences d'oscillations désordonnées et, tout comme le
magnétisme ne se manifeste pratiquement pas dans la plupart des corps chimiques parce
que la résultante de tous les champs atomiques ou moléculaires est nulle du fait de leurs
orientations dans toutes les directions de l'espace, l'état oscillatoire d'une substance
quelconque semble ne donner aucune résultante pour la même raison.
Il apparaît que la mise en phase de tous les atomes devrait donner un état particulier de la
L'EFFET RAMAN
Cet effet se manifeste au sein d'un corps parfaitement pur et limpide, quand il s'agit d'un
liquide et qu'on illumine ce corps au moyen d'un faisceau monochromatique de fréquence
F.
Il doit en être de même au sein d'un solide traversé par des ondes électromagnétiques.
Dans ces conditions, on constate un rayonnement diffus donc en tous sens, mais dont les
fréquences sont inférieures à celles du rayonnement parce qu'il y a eu absorption par les
molécules du milieu d'une certaine quantité d'énergie. Cette quantité d'énergie pouvant
être ensuite restituée au milieu ambiant sous forme de photons de fréquences visibles ou
non.
APPLICATION A L'ANTIGRAVITE
Toutes les théories qui précèdent n'ont évidemment pour but que d'essayer d'expliquer le
fonctionnement des OVNIS en fonction des observations de ces mystérieux astronefs.
Or, de l'avis général ces engins émettent de la lumière sur toute leur surface visible,
lumière d'ailleurs éblouissante, diversement colorée plus particulièrement dans le rouge,
et je suis amené à penser que cette lumière pourrait provenir de la transformation en
ondes électromagnétiques et lumineuses des ondes de gravitation plus particulièrement
de mouvement.
Tout d'abord si nous éclairons un prisme de verre par des rayons lumineux ou un prisme
de graphite par des ondes électromagnétiques, nous constatons que la déviation des
rayons à la sortie du prisme fait un angle avec la direction du rayonnement incident.
De ce fait, il doit forcément exister une résultante dont nous reparlerons.
Mais là où le principe de Descartes est en défaut, c'est à propos de la mise en rotation
d'atomes ou de particules ou de molécules dans un milieu soumis à l'influence d'un
rayonnement.
En effet si l'action de ce rayonnement détermine des oscillations des éléments, leur action
tangentielle détermine des rotations.
La quantité de mouvement introduite dans le système entraine donc une résultante
linéaire. Mais une partie diffuse dans la masse sous forme de rotations et de ce fait, si Mv
= (v + rot.), la relation ne sera apparemment pas vérifiée.
En conséquence, si les rayonnements gravitatifs augmentent l'énergie cinétique des spins
particulaires, il se produit une dissymétrie des réactions par effet Magnus complexe dont
le schéma ci-joint donne une image parfaitement compréhensible (Fig. 47).
Soit en effet une particule ou molécule dont le spin est horizontal et qui reçoit à droite et à
gauche les effets tangentiels des rayonnements gravitatifs, rayonnements de haute énergie
dans le sens centripète et de moindre énergie dans le sens centrifuge.
Fig. 47
L'effet Magnus, tendant à repousser l'élément en rotation, étant la somme algébrique des
poussées centripètes et centrifuges, l'effet centripète sera prédominant et la résultante se
trouvera être une répulsion horizontale de droite à gauche.
Dans ces conditions une partie de l'énergie verticale sera déviée au profit d'une translation
horizontale, translation qui augmentera l'effet du processus.
Il y aura donc diminution de l'effet gravitatif centripète vertical.
Quant aux particules ou atomes ainsi excités, ils se déchargeront de leur excès d'énergie
en émettant des photons, et nous nous retrouvons devant le même processus qui fait que
plus fiables pour qui connait les réactions d'un milieu supraconducteur dans un champ
magnétique.
Certes, la supraconduction exige tout un matériel frigorigène mais des travaux sont
actuellement entrepris par la General Electric pour trouver la formule de
1'ultraconductivité à température relativement élevée, peut être même avec des plastiques
à la température normale. Il n'est pas exclu qu'avec de tels matériaux on ne découvre par
la même occasion des effets antigravitatifs insoupçonnés.
Le principe d'un tel dispositif consisterait donc à engendrer au sol par un puissant
dispositif, des courants de haute fréquence en régime supraconducteur, des courants
telluriques alors induits donnant des effets répulsifs. A ce propos certaines traces laissées
par les OVNIS ayant atterris auraient tendance à prouver cette réalité.
Lors de ces phénomènes le sol est en général desséché et les racines végétales brûlées,
alors que la tige souvent couchée en désordre ne présente pas de traces de brûlure. Ceci
prouverait la présence de courants uniquement telluriques, engendrés par self-induction et
certainement une ionisation profonde par des rayonnements très pénétrants.
Le champ inducteur magnétique peut avoir une puissance considérable du fait de la
supraconduction et l'expérience prouve qu'il s'étend dans un volume d'espace
extrêmement étendu. Dans ces conditions et en admettant qu'en même temps que se
produit le champ haute fréquence inducteur il existe un champ ionisant, il se manifestera
autour de l'OVNI un vide d'air assurant la possibilité de se déplacer à des vitesses
suprasoniques sans aucun bruit, puisque l'engin évoluerait dans une bulle de vide relatif
absorbant le son.
Il n'est pas exclu de penser que ce vide s'étende au milieu énergétique gravitonique. Les
manifestations aériennes ne seraient en définitive que les conséquences de ce vide.
Ceci expliquerait l'aspect généralement flou des OVNIS qui semblent entourés d'une sorte
de brouillard dont l'origine serait le fait de la réfringence du milieu spatial de texture ainsi
perturbée. La lumière serait déviée au contact des engins et les contourneraient ce qui les
cacheraient à la vue et aux rayons des radars !
premier générateur de toute substance et ce sont ces gravitons qui par un mécanisme de
condensation coagulation sous l'influence du bombardement photonique et aussi des
gravitons entre eux vont déterminer un nuage dont la densité croît en fonction de leur
approche du centre de gravité, les gravitons ayant alors une énergie cinétique
essentiellement de rotation et vibration et de moins en moins de translation.
En même temps que la densité croît la pression croît, jusqu'au moment où un mécanisme
analogue à la liquéfaction des gaz se produit qui engendre un soleil.
Tout comme la liquéfaction d'un gaz s'accompagne d'un dégagement de chaleur, celle du
gaz graviton devenu soleil dégage de la chaleur et toutes sortes de radiations, selon un
processus d'équilibre entre le gaz et le liquide. Ainsi, bien qu'il perde chaque seconde des
millions de tonnes d'énergie électro-magnétique, le volume du Soleil reste constant
depuis des milliards d'années.
Le champ gravitationnel de base est donc cette atmosphère de gravitons en agitation
cinétique désordonnée, tant qu'ils ne sont pas inclus dans les particules dont ils
deviennent alors les constituants (ce sont alors les «matérions», uniquement spiniques, de
M. M. Doligez).
D'après le calcul, la vitesse quadratique de ces particules est très certainement supérieure
à celle de la lumière, en fonction de la similitude avec les gaz d'atomes, dans lesquels
cette vitesse moyenne d'oscillation est toujours supérieure à la vitesse du son dans le
milieu gazeux considéré.
L'effet pondéral caractéristique du champ de gravitation ne saurait être attribué, et les
expériences de M. Allais l'ont prouvé, qu'à un effet d'écran entre deux masses matérielles
absorbant une partie de l'énergie ou plus exactement la déviant dans d'autres directions
que celle reliant les centres de gravité des masses en présence.
CHAMP ELECTRIQUE
La définition du champ électrique est relativement simple suivant cette conception, car il
s'agit de surpression ou dépression locales du champ de gravitons.
Certes en matière de gaz on ne conçoit guère une surpression et une dépression que pour
des volumes inclus dans des récipients hermétiquement clos. En effet toute
communication avec le milieu extérieur entraînerait des fuites ramenant la pression à sa
valeur moyenne, aussi est-il nécessaire de préciser qu'en matière de gaz gravitonique une
surpression locale ou une dépression sont entretenues par la présence de charges
négatives ou positives.
Nous avons vu dans un chapitre précédent que l'on pouvait considérer l'électron comme
une expansion de l'espace en raison de son énergie de rotation polarisée centrifuge et le
proton comme une condensation de l'espace de même origine, mais polarisée centripète.
Or ces deux actions ne se limitent pas à l'anatomie de la particule. En raison des photons
qu'elles émettent, elles repoussent l'espace ambiant pour les charges négatives et le
condensent pour les charges positives, lesquelles ne sont en définitive dues en pratique
qu'à une absence de charge négatives.
Les attractions entre charges positives et négatives, ne sont donc que des effets de
compensation analogues par exemple à ce qui se passe dans un réservoir d'air lorsque
deux cylindres l'un en surpression l'autre en sous pression sont mis en communication
avec le milieu.
CHAMP MAGNETIQUE
Nous avons longuement écrit sur l'anatomie de ce champ qui s'explique pourtant très
simplement pour un mécanicien.
Un champ magnétique est réalisé lorsque l'espace gravitonique est mis en rotation du fait
par exemple de son entraînement par les spins électroniques d'un courant.
Un mécanicien sait parfaitement qu'une toupie ne peut tourner aisément autour d'un axe
secondaire que si on place son axe de rotation parallèlement à cet axe secondaire.
Ainsi donc alors que normalement les spins gravitoniques sont orientés dans leurs
oscillations en tous sens, le fait de la rotation les oblige à s'aligner suivant ce qu'il est
convenu d'appeler les alignements du spectre magnétique.
Ce spectre de limaille n'est en définitive que la matérialisation du spectre gravitonique
invisible.
Un champ magnétique n'est donc en fait qu'une polarisation rotatoire de l'espace.
Quant à son intensité, elle est fonction de l'effet statistique des populations gravitoniques
plus ou moins polarisées.
On peut donc affirmer qu'en fonction de l'énergie locale du gaz de graviton, un champ
magnétique doit avoir une limite, lorsque tous les gravitons seront polarisés. Nous savons
étant donné le gradient énergétique de l'espace que cette valeur doit être extrêmement
élevée.
CHAMP MESONIQUE
Ce type de champ créé par les atomistes pour expliquer la cohésion du noyau et que
certains physiciens considèrent comme étant à l'origine des phénomènes gravitationnels,
n'a rien de mystérieux.
Il paraît être la conséquence des phénomènes rotatoires spiniques ou autres qui se
manifestent au niveau de l'atome et qui créent une cavitation dans le milieu énergétique
gravitonique.
Il est bien évident, que, suivant l'énergie de la particule en rotation ou en vibration, le
«trou» ainsi formé sera plus ou moins important et qu'il pourra ne pas être totalement
vide, présentant même des zones d'expansion et d'autres de contraction. Ce sera le cas par
exemple du neutron dont le noyau formé d'un proton est inclus dans un électron.
Il est donc bien démontré que la nature est infiniment plus simple que celle que nous
présente les mathématiciens et la formule du champ unitaire d’Einstein se résume en une
relation de même type que celle décrivant une atmosphère sous pression, qui donne
diverses déformations locales sous l'influence des particules. D'où soit un champ
gravitationnel, aussi bien au niveau macroscopique qu'au niveau mésonique ou niveau
nucléaire soit des champs électriques quand les particules sont polarisées.
C'est donc à nouveau le procès de la physique mathématique que je présente, dans son
aspect relativiste, car cette conception des choses si elle semble donner ce que j'appelerais
le squelette de la physique universelle, est loin d'en préciser les formes harmonieuses et
toute l'admirable construction qui existe autour de ce squelette.
Que les Einsteiniens se défendent en estimant que la Relativité a permis de préciser
quantités d'aspects physiques ce que la physique newtonnienne et cartésienne était
incapable de faire, c'est évidemment normal. Mais un seul exemple me paraît infiniment
plus éloquent que toute discussion et il se rapporte à la variation de vitesse constatée lors
de réflexions radars sur Vénus et Mars. La discordance avec le sacro-saint principe de
l'invariance de la vitesse de la lumière, qui s'est révélée dans ces expériences aller plus
Fig. 48
Partant de ces données et du fait démontré par les expériences de M. Allais estimant les
modifications du flux gravitatif lors d'une éclipse comme dus à un effet d'écran, je pense
que l'effet de poids est essentiellement dû à la différence qui existe entre le flux gravitatif
centripète par rapport au centre de la terre, flux qui possède une énergie maximale, et le
contre flux centrifuge dont l'énergie est diminuée du fait de la traversée de l'écran
terrestre de 12 000 km.
Le poids étant dû à la résultante des pressions verticales, le seul moyen mécanique
permettant de le supprimer serait donc réalisable en augmentant la force du flux
centrifuge et en diminuant celle du flux centripète.
A priori, ce problème semble du domaine de l'improbable, et pourtant il existe une
formule qui répond à cet effet, et qui n'a rien de commun avec la cavorite si souvent
considérée comme une utopie.
Fig. 49
Considérons en effet une masse taillée en parallélépipède, il est bien évident, comme le
montre la figure 49, qu'au repos, ce volume subit l'action des rayons gravitatifs, de
manière homogène, C'est-à-dire que les rayons centripètes ou centrifuges traversent la
même épaisseur de la masse, mais il en va tout autrement si nous déplaçons à très grande
vitesse le corps en expérience, car en fonction de la durée non instantanée de la traversée
de la masse par les gravitons et de son déplacement, nous devons arriver pour une vitesse
de translation horizontale à faire que les rayons centripètes gravitants ne traversent le
corps que dans sa plus petite dimension, alors que les rayons centrifuges dégravitants la
traverseront suivant son maximum d'épaisseur.
Bien entendu la vitesse de translation doit être forcément très grande, et je me pose la
question de savoir si elle n'a pas quelque rapport avec la vitesse de satellisation, mais il
est un autre paramètre qui permet d'augmenter le rendement, à savoir l'augmentation de la
largeur de la pale aux dépens de son épaisseur.
Fig. 50
Nous en arrivons donc à une solution théorique du problème de l'équilibration des forces
gravitopondérales, soit par un déplacement horizontal forcément courbe suivant le rayon
de la terre soit par une rotation d'un ensemble de masses ainsi constituées autour d'un axe
vertical.
Je propose donc la réalisation expérimentale d'une hélice antipondérale basée sur cet
effet, tout en faisant remarquer ce qui est a priori curieux, que l'inclinaison des pales
d'une telle hélice est à l'inverse de celle qui donne dans l'air des effets sustentateurs, les
éléments théoriques de base étant bien entendu tout à fait différents.
J'ai soumis le problème à divers techniciens qui ne semblent pas avoir trouvé un point
faible (à part les difficultés non insurmontables des effets centrifuges) et je serais
reconnaissant que l'on veuille bien me démontrer une erreur de raisonnement.
est variable et beaucoup moins constante que le voulait Einstein. De plus, dans la
traversée des masses matérielles, celles-ci font écran à la propagation des gravitons et
c'est la raison unique de l'attraction, attraction qui n'est pas universelle, mais seulement
réelle dans le gaz gravitonique, puisque les Galaxies semblent plutôt en état de répulsion
universelle, phénomène possible mais discutable.
Il semble donc que les effets attractifs ne puissent se manifester qu'en fonction d'une
direction liant les centres de gravité de deux masses en présence.
Ainsi sur la Terre la seule direction permettant d'utiliser l'attraction est la verticale et dans
ces conditions l'effet est très localisé, car l'arrivée au sol d'un tel processus l'arrête
définitivement.
On m'objectera avec raison que dans certains cas la nature transforme cette énergie en
plus ou moins horizontale comme dans le cas d'un cours d'eau animant la roue à aube d'un
moulin.
Ce cas bien entendu se ramène plus ou moins à un effet vertical mais nous amène à
penser que si sur terre cette direction est privilégiée il existe des forces horizontales de la
gravitation. Mais elles sont équilibrées.
Cela ne veut pas dire que l'on ne peut pas les utiliser.
Un condensateur électrique à air voit ses armatures attirées par le flux gravitationnel en
vertu du principe qu'un champ électrique ou magnétique chasse l'atmosphère gravitonique
existant entre ses armatures, ce qui crée une diminution de la pression locale donc une
attraction.
On peut toutefois interpréter le mécanisme de l'interaction des charges par une
explication probabiliste c'est-à-dire en émettant l'hypothèse que les ondes électroniques et
protoniques sont en opposition de phase ce qui détermine une neutralisation de leurs
énergies radiantes. Autrement dit la probabilité de présence de leurs photons est nulle ou
tout au moins très restreinte.
Il semble que deux champs électriques, de polarité différente, en présence augmentent
l'effet d'écran cause de l'attraction, mais le mécanisme reste à préciser.
Il est une réalité c'est que l'effet archimédien résultant semble plus important pour un
condensateur à armatures horizontales que pour le même condensateur à armatures
verticales.
Ce sont là des effets qui amènent comme nous l'avons vu à des conceptions
antigravitationnelles.
Nous voudrions obtenir, à partir des effets pondéraux de la gravitation, des résultantes
énergétiques horizontales donc utilisables comme source d'énergie permanente. L'idée de
miroirs qui comme pour la lumière permettrait la réflexion à 90° des ondes de la
gravitation, vient à l'esprit.
Malheureusement les possibilités de réflexion des ondes E.M. s'arrêtent à la limite des
rayons X mous de l'ordre de 0,03 Ä. Après quoi les rayonnements traversent la matière
sans autre possibilité de réflexion que la texture cristalline, phénomène qui est loin d'être
négligeable pour nos applications.
Certains auteurs dont Burkhart Heim ont cru déceler des fréquences extrêmement basses
de l'ordre de 30 hertz commes ondes gravitationnelles, d'autres les ont plaçées dans des
gammes de 1600 hertz.
Ce sont là des ondes de résonance mais les fréquences dans un gaz sont étroitement liées
aux vitesses de propagation des ondes matérielles et celles-ci à l'inertie des éléments
atomiques constitutifs.
En conséquence, si dans un gaz ces fréquences sont fonction des masses atomiques de
l'ordre de 10-28 pour les particules et 10-23 pour les atomes, il est évident que dans un gaz
de gravitons de masse 10-60 g-masse à l0-80 g-masse ces fréquences seront théoriquement
d'un ordre 1040 fois plus élevé. C'est-à-dire que les vitesses quadratiques des gravitons
seront beaucoup plus importantes que celle de la lumière. D'ailleurs dans les gaz les
vitesses quadratiques sont toujours plus élevées que celles du son en fonction de la
pression.
Ces ondes devraient donc avoir des fréquences d'un ordre de grandeur indécelables dans
l'état actuel de nos techniques.
Bien des auteurs estiment d'ailleurs que la gravitation se transmet à des vitesses bien
supérieures à celle de la lumière dans notre gradient d'énergie (1 000 fois plus grandes et
plus d'après certains auteurs).
Il est certainement erroné d'utiliser les formules relatives aux vitesses quadratiques des
molécules d'un gaz atomique pour exprimer mathématiquement le comportement du gaz
gravitonique, mais on peut en avoir une idée approximative.
Rappelons que la température d'un gaz est le quotient par la constante 3R/2 de l'énergie
cinétique désordonnée de translation contenue dans une molécule gramme de gaz.
Nous connaissons la valeur de cette énergie cinétique.
Quant à la vitesse quadratique, c'est-à-dire la vitesse dont le carré égale le carré moyen de
toutes les vitesses, elle est représentée pour les gaz par la relation :
C2 = 3 kT . k / m étant une constante et m la masse d'une molécule soit 10-60 g-masse
pour le gaz de gravitons.
Le calcul, très approximatif parce que nous ignorons la température du vide énergétique
qui n'a rien de commun avec le 0 Kelvin, donne une valeur fantastiquement élevée pour
la vitesse d'oscillation des gravitons.
Je laisse donc aux physiciens mathématiciens le soin de déterminer ces valeurs.
Nous conclurons provisoirement que l'espace renferme une énergie prodigieusement
élevée et que les forces de gravitation, dues uniquement aux effets d'écran des matières
traversées, ne représentent qu'un résidu absolument dérisoire de ces forces qui, asservies,
seraient à même de doter l'homme d'une puissance prodigieuse.
Comment l'utiliser ?
L'énergie cosmique apparaît ainsi comme douée d'un potentiel considérable, qui ne
provient pas de la masse de sa matérialité mais des vitesses qui l'animent, et c'est la raison
qui a toujours troublé les physiciens de l'éther, pour lesquels ce milieu était infiniment
plus dur que l'acier en même temps qu'infiniment fluide.
Et cela se comprend :
On sait qu'un courant de gaz sortant d'une tuyère sous une pression considérable est aussi
«dur» qu'un fil d'acier, et il n'est pourtant formé que de molécules sans cohésion autres
que celle que lui donne la pression.
Ce même courant gazeux s'il est mis en rotation dans une sphère devient de la même
façon aussi dur que de la matière. C'est donc la vitesse qui transforme pratiquement un
fluide en solide. Or il existe en physique une règle qui veut que le maximum de
rendement soit obtenu grâce à des mécanismes équilibrés.
Par exemple un avion sera d'autant mieux soutenu dans l'air avec le minimum de
consommation d'énergie si la masse d'air qui le porte est la plus grande possible pour la
plus petite vitesse. C'est la formule du planeur.
Par contre, une fusée atomique expulsant des particules à des vitesses considérables exige
une consommation d'énergie sans commune mesure avec l'effet réactif obtenu.
Puisque la puissance du moteur cosmique est fonction de vitesse, toute transformation en
énergie utilisable doit être basée sur des éléments identiques donc sur des mécanismes
utilisant le maximum de vitesse connue dans notre gradient, c'est-à-dire la vitesse C des
ondes déterminant comme nous l'avons vu l'électron et les protons.
On peut certes envisager de se servir des vitesses de rotation des électrons autour des
protons mais comme elles sont de l'ordre de 2 000 km/s, le rendement sera moins
intéressant.
Nous avons d'autre part longuement défini l'effet Magnus électromagnétique c'est-à-dire
l'homologue dans les champs, de l'effet aérodynamique bien connu.
Soit un électron dont l'axe de spin est horizontal c'est-à-dire perpendiculaire à la direction
de la gravitation pondérale.
Cet électron tourne sur son axe de spin à la vitesse de la lumière, nécessaire pour
maintenir sa matérialité ou plus exactement le vide relatif énergétique qui est sa
substance.
Il reçoit donc dans des plans verticaux deux types d'ondes dont il subit les effets de
radiation ou de contact. Les radiations centripètes par rapport à la terre et les centrifuges
ayant perdu une part de leur énergie dans leur traversée de la Terre.
Dans ces conditions la somme des effets Magnus d'un côté et de l'autre est fonction de la
puissance des radiations.
On sait que l'effet Magnus donne une résultante perpendiculaire à l'action du flux et dans
ces conditions l'électron subira une poussée horizontale résultante des poussées latérales,
c'est-à-dire que le flux gravitationnel vertical va être, en partie, pratiquement dévié à 90°
donc devenir horizontal.
Un disque réalisé avec des électrons radialement polarisés devrait donc entrer en rotation
avec la même force que s'il était soumis aux flux gravitationnels normaux (voir figure
47).
Mais ce n'est pas tout. Dans ce mouvement de rotation le flux fauché, disons à droite et à
gauche de l'électron, va augmenter l'effet en raison de la vitesse jusqu'à une certaine
limite où l'équilibre sera rétabli.
Je pense que dans ces conditions le disque doit perdre du poids jusqu'à s'alléger
complètement. Cette constatation amène à considérer que ce mécanisme peut être à la
base de certains OVNIS, engins dont il est patent que le système de fonctionnement est
loin d'être unique.
Bien des observateurs décrivent en effet ces engins comme mis en rotation rapide au
moment de l'envol et en cours d'envol, ce qui expliquerait encore une fois les
modifications du champ sous les engins.
Fig. 51
Une remarque à propos du gyroscope toupie :
Certes cet appareil constitué par un volant lourd tournant dans une cage et dont l'axe
repose sur deux paliers ce qui leur permet toute liberté de mouvement, présente vis-à-vis
de la gravitation des aspects insolites, qui ont été mathématiquement étudiés par Coriolis.
Un volant est fait de protons et d'électrons assemblés dans tous les azimuts et tournant
dans tous les sens ce qui neutralise les effets. Mais il est assez curieux de constater qu'un
tel appareil dont l'axe se tient normalement pour une certaine vitesse parfaitement
vertical, se met à tourner autour de son point de support de telle façon que le sens de
gyration semble déterminer une réaction Magnus contre la chute tendant à amener l'axe
de rotation dans un plan horizontal.
Ce mécanisme qui semble régir presque toute la cinématique des solides et des particules
en rotation est extrêmement instructif quant aux réactions spontanées de la nature contre
tout ce qui détruit son équilibre.
L'observation du phénomène de la rotation du volant autour d'un axe pratiquement
perpendiculaire à son axe propre de rotation permet la constatation suivante :
Les flux centripètes et centrifuges gravitationnels traversent les masses droite et gauche
du volant, mais rencontrent d'un côté des masses centrifuges et de l'autre des masses
centripètes. Mais les flux n'étant pas équilibrés, on peut penser que cette dissymétrie rend
le volant plus lourd d'un côté que de l'autre, ce qui provoque une résultante horizontale de
droite vers la gauche.
Certes, de multiples interprétations se font jour qui nécessiteraient de nombreuses
expériences. En particulier il faudrait placer une balance au-dessus ou en dessous d'un
volant en rotation et vérifier ses réactions.
De même on pourrait vérifier à la balance de torsion, si l'effet gravitatif est modifié d'un
côté ou de l'autre d'une sphère en rotation, tous éléments étant nécessaires pour certaines
vérifications.
Il est entendu que le jour où il sera possible de tirer directement et indéfiniment de
l'énergie de l'espace, une ère nouvelle, celle de l'âge d'or sera ouverte.
extrêmement éloignées.
On conçoit donc facilement que dans un espace de type gazeux tel l'éther la propagation
se fasse par ondes c'est-à-dire ébranlement du milieu, à condition que cette propagation
soit limitée.
Par contre dans un espace vide de toute matérialité énergétique ou autre, on ne saurait
concevoir la présence d'ondes en l'absence de support, mais on accepte parfaitement la
propagation de particules photoniques, dont rien ne viendrait modifier la trajectoire et
l'énergie.
Puisque nous admettons que l'éther est une atmosphère, pourquoi ne pas raisonner de la
même façon que pour le son dans une atmosphère aérienne ou gazeuse atomique.
Soit un avion venu du vide spatial et qui pénètre tous réacteurs ou moteurs en action dans
l'atmosphère.
En raison de la propagation à vitesse limitée du son, nous percevrons le bruit des
réacteurs soit avant le passage de l'avion si sa vitesse est subsonique, soit après le passage
de l'avion s'il est en régime supersonique, sans présumer du double bang traditionnel.
Il me paraît que le mécanisme de la lumière cosmique doit obéir à des données similaires,
c'est-à-dire que dans les espaces intergalactique ou interstellaires, où règne le vide
énergétique, la lumière se propage uniquement par des particules, dont les vitesses sont
peut-être différentes si ces particules possèdent des énergies vibratoires différentes au
départ des astres émetteurs.
Par contre quand elles pénètrent dans les champs énergétiques, c'est-à-dire les
atmosphères stellaires ou champ de gravitation ces particules sont freinées et
s'accompagnent des ondes dues à la perturbation du milieu.
Il faut revoir tous ces problèmes de propagation que les relativistes ont complètement
oubliés, pensant que le milieu interstellaire ou intergalactique était uniformément vide et,
comble d'incohérence que les ondes s'y propageaient sans support.
Il est donc normal qu'il n'y ait pas synchronisme entre la vitesse des ondes et celles des
photons particules, tout comme il n'y a pas synchronisme entre l'avion et le train d'ondes
qui l'accompagne.
Il doit en être de même en présence de tout rayonnement mais la difficulté restera
toujours de constater le déphasage entre onde et particule.
En effet pour une onde émise par une ampoule électrique, il y a de fortes chances pour un
observateur que ce déphasage soit inexistant. Mais en ce qui concerne les radiations
venues des galaxies et qui se propagent de toute éternité, il n'est pas possible de savoir si
les photons et leurs ondes sont en synchronisme.
Certes, l'effet Dopler nous permet de différencier l'approche de la fuite, mais pour un
train d'avions se suivant les uns derrière les autres la différenciation est difficile si ce n'est
grâce à des interférences possibles, mais indécelables. En effet voyant venir un rayon
lumineux nous ne pouvons le voir s'éloigner sans un appareillage mettant en cause lui-
même la vitesse de propagation.
En définitive seule la relation c2 = C'C" qui relie la vitesse de l'onde et celle de la
particule, semble mathématiquement la plus apte à expliquer la propagation des ondes
électromagnétiques mais encore faut-il convenir que c2 peut être influencée par la densité
et la pression du milieu.
Je suis ainsi amené à considérer que dans les espaces interstellaires ou galactiques, la
lumière se propage dans le vide sous forme de photons de vitesse variable suivant leur
fréquence lumineuse ou suivant leur fréquence propre elle-même individualisée existant
au départ de l'astre émetteur.
Dans ces conditions si nous faisons passer un courant, dans le premier cas, l'entraînement
du sub vac va se faire dans le sens du courant, alors que les ondes électromagnétiques du
courant tournent autour de l'anneau.
Une différence essentielle va se produire dans le régime de ces deux vitesses, l'une étant
déterminée par la vitesse de déplacement des électrons dans le conducteur, c'est-à-dire
très lente, l'autre résultant de la vitesse de rotation des ondes électroniques, les électrons
ayant tous leur spin tangents au grand cercle du tore.
Certes, dans un tore creux vide d'air dans lequel les électrons tourneraient à la vitesse de
la lumière le sub vac ambiant décrirait par entraînement une trochoïde. En effet, de même
que les gravitons sont entraînés par la matière, celle-ci peut être entraînée par le gaz
gravitonique en rotation complexe, mais cet entraînement est à la fois matériel et
ondulatoire (Fig. 52).
Fig. 52
Le même processus appliqué à l'enroulement des courants dans le modèle de l'anneau de
Gramme doit donner des effets analogues.
Ces effets ne sauraient être qu'archimédiens dans le cas du tore seul. Mais il en ira tout
autrement si nous plaçons le tore concentriquement avec un plateau, car le courant du gaz
gravitonique en rotation devra traverser la masse du plateau et donner un effet pondéral.
Cet effet sera d'autant plus important que la matière du plateau sera moins perméable au
flux, et un plateau constitué par du bismuth diamagnétique alors que le centre du tore est
soit libre soit constitué d'un ultra perméable genre permaloy devrait donner des effets
antipondéraux dans le champ de gravitation.
Fig. 53
Il est non moins évident qu'un tel engin discoïdal se manifesterait par un puissant champ
magnétique et une émission de photons de diverses couleurs suivant leur énergie, c'est-à-
dire, au moins en partie, comme se présentent certains OVNIS.
De plus l'effet répulsif par ionisation de l'atmosphère, ferait que l'engin se déplacerait
dessus de sa tête pour déceler une éventuelle ficelle. En vain, le corps de cet homme flotte
réellement dans l'air, sans contact aucun avec quoique ce soit de solide exactement
comme un ballon.
Le phénomène dure plusieurs secondes ou plusieurs dizaines de secondes et même
beaucoup plus. Après quoi, comme il était monté, cet homme un instant soustrait à la plus
vieille, à la plus constante des lois physiques, la pesanteur, redescend lentement et
reprend contact avec le sol. En même temps la rigidité du corps disparaît, la respiration
redevient normale, les yeux reprennent leur mobilité les témoins ont de nouveau devant
eux un homme comme les autres et qui souvent ne se souvient de rien».
De pareils faits relativement nombreux ont été contrôlés surtout à propos du médium
Home par d'éminentes personnalités politiques et scientifiques et parmi ces derniers
Pierre et Marie Curie, Henri Bergson, Lombroso, Edison et bien d'autres.
Certes,il s'agit d'un phénomène exceptionnel qu'aucune technique ne permet encore de
reproduire à volonté ou d'observer de façon continue ou suffisamment fréquente.
Il existe toutefois deux séries de faits biologiques et physiques.
A propos des phénomènes physiques du mysticisme on constate que la physiologie de
ceux qui manifestent ces prodiges présente des constantes.
On observe chez eux les mêmes accidents pathologiques, les mêmes épisodes
psychologiques ou psychopathologiques.
Sur le plan de la physique on note aussi d'étranges constantes.
Y-a-t-il en effet égalité entre la masse inertielle et la masse pesante comme le voudraient
les relativistes ?
En fait la preuve n'en a jamais été donnée, et il est intéressant d'écouter sur ce point
Thérèse d'Avila, la plus célèbre,des lévitantes :
Selon ses récits elle précise qu'elle n'était pas seulement soulevée en l'air comme par une
force antagoniste à celle de son poids, mais bien qu'elle avait l'impression de perdre une
grande partie de sa masse, qu'elle se sentait légère comme une plume.
Une autre lévitante fut vue dans cet état emportée par l'infime courant d'air produit par le
déplacement d'une personne voisine, prouvant ainsi que dans un cas comme dans l'autre
elles perdaient une partie de leur masse (apparente).
L'histoire décrit d'autre part une extraordinaire lévitation d'un être enlevé comme une
flèche jusqu'à la voûte d'une église sur laquelle les assistants pensaient qu'il s'était écrasé,
alors qu'il n'avait pas subi le moindre dommage.
Cette constatation traduite mathématiquement donne que la force vive 1/2 mv2 devait être
nulle, la masse étant nulle du moins apparemment.
Du point de vue relativiste, on pourrait admettre que ce phénomène soit dû à une
déformation spatiale autour du lévitant avec, en conséquence un courant d'air. C'est
manifestement ce qui a lieu selon les récits, tous d'accord sur ce point, mais là ne
résiderait encore qu'une description mathématique et non pas une explication vraiment
physique.
Très souvent d'autre part la lévitation s'accompagne de phénomènes lumineux, ce qui
implique des échanges entre niveaux électroniques des atomes, confirmant ainsi que le
phénomène a lieu dans les niveaux subquantiques.
Enfin, dernière constatation, la manifestation de phénomènes thermiques, le lévitant étant
glacé ainsi que le courant d'air qui l'entoure, démontrerait une absorption d'énergie.
Que penser devant de telles manifestations naturelles qui seraient incroyables si elles
n'étaient confirmées par de si éminentes personnalités scientifiques, et comment ne pas
reconnaître certains aspects classiquement décrits des OVNIS.
L'essentiel des observations résidant dans l'absence d'inertie aussi bien pour l'engin que
pour les occupants, cette absence expliquant et la perte de poids et les accélérations
décélérations foudroyantes.
Quant aux aspects secondaires, l'intense luminosité et cette sorte d'aspiration de la
poussière et de la végétation qui correspond au courant d'air contrôlé chez les lévitants,
tout cela semble confirmer une parfaite analogie de fonctionnement grâce à des
techniques naturelles puisqu'elles sont subconscientes chez les lévitants et généralement
étrangères à leur volonté.
Certes, j'ai essayé en fonction de nos faibles connaissances actuelles en physique
d'élaborer ces techniques, mais au prix de la mise en oeuvre d'énergies considérables. Et
devant la simplicité du phénomène de lévitation spontanée, on se demande quelle est la
valeur de notre science en 1972 qui ne sait encore enfoncer un bouchon qu'avec un
marteau pilon !
Il apparaît en effet, à propos de ces mystérieux phénomènes, que nous ignorons tout des
forces psychiques qui semblent en définitive prédominantes sur les forces physiques les
plus connues (tout au moins à propos de ces manifestations).
Vivons-nous à côté d'un univers parallèle dont la texture est totalement différente de celle
de notre univers matériel, c'est la question que se sont posés jusqu'ici les théologiens puis
les philosophes, et que les physiciens rationalistes devront se poser quelque jour prochain.
Tant de phénomènes mystérieux restent inexpliqués et de ce fait niés par la courte vue des
rationalistes, au point qu'il semble parfois que notre science, dont ils sont si
orgueilleusement fiers, ne soit que vanité.
Certes, le mépris officiel qu'ils manifestent vis-à-vis de ceux qui croient à autre chose que
ce que leur révèle uniquement leurs cinq sens, parce qu'au fond ils ont l'intuition que le
monde ne saurait s'arrêter à cette ultime simplification sensorielle qui permet à un être de
se propulser et de se nourrir, est la marque scientifique officielle.
Je pose donc la question à ces supercerveaux et les prie de m'expliquer scientifiquement
le cas suivant qui a été contrôlé bien souvent par une personne de ma famille.
Il s'agit du cas de Madeleine Lhome, nom assez curieux si l'on se souvient du fameux
Médium Home et qui demeurait dans la Seine-Maritime à Ofranville.
Cette personne douée d'un sens très aigu de divination par prémonition était capable de
repousser n'importe quel meuble ou objet par la seule force de sa pensée, créant autour
d'elle une atmosphère inquiétante pour ses proches.
Bien entendu toute idée de supercherie est à exclure car elle était à même en n'importe
quel lieu d'exercer son don de télékinésie.
Ce cas est loin d'être unique, et je suis persuadé ne serait ce que par effet réactif sur le sol
qu'elle aurait pu manifester une autolévitation, expérience qui ne lui est probablement pas
venu à l'esprit.
J'ignore où se trouve actuellement ce médium, dont les activités contrôlées se situaient
aux environs de 1924.
Bien malin sera le rationaliste qui me donnera une explication relativiste du phénomène,
car ni les champs électriques ni les champs magnétiques ne peuvent être invoqués, et seul
le champ de gravitation semble logiquement être en cause, tout au moins au niveau de ses
composantes horizontales.
L'homme de science objectif se trouve donc ainsi placé devant un phénomène
inexplicable par les données techniques du moment et
est bien obligé de considérer qu'il existe des forces encore inconnues, sous la dépendance
du système nerveux humain lequel peut être à même de réaliser l'impensable.
J'ai eu bien souvent la chance lors des congrès internationaux d'échanger des opinions
avec le mathématicien physicien allemand Burkhart Heim avec qui nous partageons les
mêmes opinions, sur la gravitation et l'antigravité, et je ne trahirai pas sa pensée,
puisqu'elle a fait l'objet de communications lors de nos réunions, en révélant ses travaux
sur certains aspects des ondes cérébrales.
Heim qui a sur moi l'avantage d'être financé par son gouvernement, alors qu'en France
j'en suis réduit à mes propres possibilités, expérimente, grâce à un groupe
d'encéphalographes dont le moindre coûte plusieurs millions, sur la syntonisation des
ondes cérébrales entre plusieurs sujets humains groupés à cette occasion.
Certes, il a ainsi découvert un synchronisme des ondes alpha et beta et déduit qu'il existait
un groupe d'ondes gravitationnelle de fréquence basse de l'ordre de 30 hertz.
Les Américains ont trouvé un autre groupe vers 1800 hertz, mais je présume qu'il faut
chercher dans des fréquences infiniment plus élevées le secret des ondes de gravitation et
sans confondre les causes et les effets, les théorèmes et leurs réciproques.
Contrairement aux ondes électromagnétiques des radiocommunications qui sont, en
général, émises en phase, ces ondes gravitationnelles sont émises par la matière en
désordre tout comme les ondes lumineuses, qui viennent seulement d'être synchronisées
grâce au laser maser. Mais il n'est pas impossible de les obtenir sous forme de faisceaux
ordonnés et de les annuler par un faisceau émissif en opposition de phase ce qui créerait
ipso facto une possibilité de plus de réaliser un processus dégravitatif.
Dans cet ordre d'idées je ne citerai pour mémoire que deux autres procédés que j'avais
envisagés pour neutraliser l'effet des ondes centripètes au profit des ondes centrifuges,
c'est-à-dire les effets de polarisation et ceux de 1'uniconductivité de la matière, au même
titre qu'un courant alternatif se manifeste par le passage d'une seule phase dans un
semiconducteur.
La polarisation de la lumière consiste dans le filtrage de l'onde électromagnétique qui
semble laminée dans la traversée de certains corps polarisants, lesquels laisseront passer
la lumière ou l'arrêteront suivant leurs angles de présentation.
Comment appliquer ce principe pour neutraliser les ondes de gravitation ?
La réponse est immédiate, il faut placer cet écran sur le corps à dégraviter.
Dans ces conditions, les ondes centripètes étant détruites par interférence et seules les
ondes centrifuges antigravitationnelles restant en jeu, le corps doit être dégravité.
Quant au semiconducteur d'ondes, j'avance l'analogie qui pourrait exister avec les glaces
sans tain qui sont opaques d'un côté et transparentes de l'autre.
Ces glaces doivent donc subir la pression de réflexion radiation d'un côté mais pas de
l'autre. La difficulté reste donc d'appliquer le procédé aux ultra-fréqijences de la
gravitation.
Ce chapitre est écrit en 1972. Les réponses à ces questions ne seront trouvées que dans de
nombreuses années, mais il est réconfortant de penser que la nature est loin d'avoir livré
tous ses secrets et que l'avenir scientifique des hommes reste plein de promesses.
approximativement placé entre ces deux extrêmes, et pourquoi dans ces conditions ne pas
extrapoler sur le plan de l'intelligence ?
Chaque particule, chaque atome s'assemblent intelligemment pour créer un niveau
supérieur d'organisation. Ils paraissent donc doués de certaines facultés. En définitive
l'homme, c'est la nature prenant conscience d'elle même.
Pourquoi ne pas utiliser cette échelle pour essayer d'apprécier la puissance de
l'intelligence cosmique en fonction de la grandeur de l'Univers. C'est la raison pour
laquelle j'ai dénommé Espace psychique l'immensité de l'espace quasiment vide de
matière au-delà des champs gravitationnels.
L'intelligence universelle que toutes les religions reconnaissent avec plus ou moins
d'intuition serait donc le facteur d'organisation c'est-à-dire L‘ENERGIE PSYCHIQUE
dont l'aspect échappe à l'analyse du physicien matérialiste, mais qui n'en est pas moins
une réalité indiscutable.
Trop de phénomènes, lévitations spontanées-télépathie-lectures parapsychiques-facultés
thaumaturgiques etc. prouvent surabondamment que tout ne s'arrête pas avec le monde dit
physique et qu'au-delà se manifestent des forces nouvelles dont nous n'avons encore que
peu d'idées représentatives.
Certes, le monde physique commence avec le graviton ou le neutrino, et la question qui
se pose est de connaÎtre l'origine de cette, ou de ces, particule (s) de base.
Est-elle en dehors du temps comme l'Univers ou est-elle la matérialisation d'un «point»
d'espace mis en rotation ultra rapide ? Ce sont là des problèmes que seuls des «mutants»
seraient à même de résoudre.
Or qu'est-ce qu'un mutant ? A notre échelle d'anthropoïdes le mutant doit être une
créature dont le rapport de développement intellectuel vis-à-vis de l'homosapiens doit être
du même ordre que celui de ce dernier par rapport au singe. Mais ce mutant n'est encore
qu'un échelon entre notre intelligence de la nature et l'intelligence suprême, c'est dire que
l'évolution de l'esprit est loin d'être achevée.
Si l'on considère d'autre part que le nombre de Galaxies est incalculable et que dans
chaque galaxie comme la nôtre existe une moyenne de 50 millions de planètes possédant
une civilisation, donc une intelligence, cela représente une force psychique universelle
considérable.
Or tout comme un être humain n'est en définitive qu'une cellule composant le grand corps
d'une humanité, ne peut-on penser que la somme de toutes les intelligences de l'Univers
ne détermine pas un potentiel assimilable à la Divinité ?
Un mutant a une parfaite conception de racine carrée de moins un, soit de la projection
consciente et efficace de l'imaginaire sur le réel, de l'analogie sur la logique, et les notions
d'infinité lui sont perceptibles alors que pour nous elles consistent à se poser indéfiniment
la question - «Et après ? ? ? » aussi bien pour le temps que pour l'espace.
En ce qui concerne l'espace, actuellement les relativistes le considèrent comme fermé,
c'est-à-dire que l'infini, pour eux, est une sorte de sphère sur laquelle un marcheur peut se
déplacer indéfiniment sans rencontrer jamais une limite infranchissable.
Cette notion est évidemment un progrès dans la réponse mais elle ne satisfait pas
entièrement.
Quant au temps, je l'exprime personnellement par un cercle représentant en tous points
l'origine de toute chose, son développement et sa terminaison, et cela indéfiniment, tout
naissant, vivant et disparaissant pendant que d'autres évolutions semblables se
reproduisent sans cesse indéfiniment en d'autres points de la courbe.
Ainsi donc dans l'éternité des réalités physiques, il se produit dans toutes les échelles de
grandeur les mêmes cycles.
Fig. 54
Le problème est de savoir si l'énergie radiante photonique émise par le Soleil et répandue
dans le cosmos est compensée par celle qui lui vient des étoiles.
Et là se pose le problème de savoir si la vie du Soleil est éternelle ou si lui-même a une
fin, son énergie étant à nouveau distribuée à d'autres systèmes, fin inéluctable ayant eu un
commencement.
Il apparait que cette dernière hypothèse est plus probable parce que l'univers est en
perpétuelle mutation.
Quel est dans ce processus le devenir et la raison d'être de l'homme ? C'est là de toute
évidence NOTRE problème.
L'homme est-il un accident de parcours dans l'immense cortège des mutations ou sa
présence est-elle «voulue» et nécessaire dans la chaîne de l'évolution.
Il est évident que si la vie des planètes est un cycle passant par le Soleil jusqu'à la
dissolution finale, et qu'elles passent chacune à tour de rôle dans la zone biologique,
c’est-à-dire celle où les conditions biophysiques sont idéales pour la vie animale, alors le
processus de l'évolution, à partir de la création probable d'acides aminés devant aboutir à
des formules de vie, a déjà dû se produire sur chaque planète au-delà de la Terre.
Il est bien évident que l'état actuel de Vénus paraît bien être celui que la paléontologie
reconnaît comme ayant été celui de la Terre il y a quelques milliards d'années. Quant à
l'aspect de Mars comparé à celui de la Lune vers lequel il tend, la logique veut qu'il soit
celui de la Terre dans d'autres milliards d'années.
Or, si la vie n'est pas possible à l'heure actuelle sur Vénus, il y a de fortes chances pour
qu'il n'en reste que des vestiges végétaux sur Mars et même pour que les ruines
puissance considérable lui permettant d'asservir la nature, mais d'un autre côté cette
puissance est mise au service du bien et du mal.
On serait donc en droit de penser que l'avertissement Divin mettait l'homme en garde
contre le développement scientifique qui, effectivement, s'il crée du confort, détermine
aussi des nuisances accélérant la fin de l'équilibre écologique naturel.
Il existe toutefois une contradiction en fonction de certaines réalités, parce que l'on peut
alors se demander pour quelle raison la nature des choses a été comme «organisée» pour
faciliter cette évolution scientifique.
Il est évident que le charbon, le pétrole et actuellement l'énergie cosmique (je passe sous
silence l'énergie atomique qui n'en est qu'un aspect), ont été les éléments du progrès
scientifique de notre évolution biologique.
L'énergie cosmique va très bientôt nous permettre d'évoluer dans l'Univers et peut-être de
porter à notre tour un message à des civilisations qui n'en sont qu'à leur début, ceci grâce
à l'antigravité, le milieu énergétique cosmique servant d'accélérateur de puissance
illimitée pour nos futurs voyages interstellaires.
Comment concilier ces deux aspects du problème philosophique du destin de l'homme ?
Le scientifique voudrait bien trouver la réponse à la malédiction qui a suivi la
désobéissance :
Tu gagneras ton pain à la sueur de ton front est-il écrit, c'est-à-dire que tu retrouveras le
bonheur grâce à ton intelligence et à ton travail.
C'est je crois ainsi qu'il faut terminer cet essai.
L'homme étant fait pour connaître le bonheur, c'est sa désobéissance qui l'a privé de ce
bonheur primitif naturel. Condamné à le gagner grâce à son intelligence pour retrouver
l'âge d'or, c'est donc philosophiquement vers cette finalité qu'il tend et l'on peut espérer
sur Terre la fin de cette ère douloureuse dans laquelle l'humanité se débat.
Certes, nos visiteurs éventuels ne peuvent nous aider parce que la malédiction, et aussi la
logique même, exige que le rachat de l'homme soit son propre fait pour qu'il puisse
l'utiliser pleinement. Et n'est-ce pas là la raison pour laquelle les extra-terrestres ne
prennent pas de contacts, et ne nous livrent pas leurs secrets ? Mais ne l'ont-ils pas déjà
fait dans le temps ?
L'ère du Christ et sa venue sur terre peut donc être considérée comme une aide
providentielle, mais on sait ce qu'il en est advenu.
On sait peut être moins qu'actuellement des ordres sont donnés par certains militaires
pour TIRER A VUE sur tout engin non identifié, et ceci permet tristement d'apprécier que
l'homme de 1972 n'a pas tellement évolué en 1972 années.
Et pourtant les études de prospective, à la fois quantitative et qualitative, que nous avons
déjà citées, estiment que le début de l'ère de l'antigravitation peut être attendue pour les
alentours de 1985 !
Souhaitons que d'ici là, l'humanité ait enfin compris quel est son destin.
Perpignan, le 9/11/72
APPROCHE
D'UNE EXPERIENCE QUI
POURRAIT CORROBORER
LE BIEN-FONDE DES IDEES
DU DOCTEUR PAGES
SUR L'ANTIGRAVITATION
I. - Nous connaissons bien maintenant les idées que M. le Docteur Pagès a été le premier
à émettre. L'espace physique est masse et énergie ; les variations de masse par unité de
volume (densité) sont l'origine d'effets spatiaux archimédiens : on dit qu'on est en
présence d'un champ gravifique ; dans ce champ, on constate des forces et des
mouvements. L'équivalence E = mc2 , vérifiée expérimentalement d'une manière directe,
a un domaine général de validité. On peut donc parler indifféremment de champ
énergétique, en particulier de champ électromagnétique, de densité ou de gradient
d'énergie, comme on le fait dans le domaine gravifique. Cet équivalent peut être même
identique.
Les attractions et répulsions électrostatiques s'expliquent alors. Des expériences récentes
rejoindraient plus ou moins cette idée fondamentale, sous un autre nom, avec des effets
très petits.
Nous allons chercher à voir si l'on n'a pas déjà des raisons de croire à l'effet archimédien
de M. Pagès, et à réfléchir aux moyens expérimentaux de les montrer indiscutablement.
Nous établirons d'abord une sorte d'hydrodynamique de ce fluide d'espace physique puis
nous en déduirons la possibilité d'une sorte d'hydrostatique toutes réserves faites sur le
langage employé - et enfin nous conclurons aussi sur le gradient archimédien.
II. - C'est d'abord essentiellement de l'espace physique électromagnétique que nous vous
entretiendrons (*).
(*)Pour faciliter peut-être la lecture, nous avons préféré garder les notations ci-dessous au lieu des notations
vectorielles plus concentrées.
Soient G1 , G2 , G3 les composantes suivant trois axes de coordonnées rectangulaires 0, x,
y, z de la vitesse d'un élément de ce milieu ou, si l'on veut, de la quantité de mouvement
d'une masse-énergie prise pour unité, p la «pression» que l'élément considéré supporte de
la part des autres éléments, T la demi-force vive. Appelons L, M, N le double des
composantes de la rotation instantanée, ou du rotationnel :
forme :
t étant, bien entendu, le temps ; la fonction ϕ sera à déterminer n'y insistons pas ici; la
forme (3) est l'une des formes, avec (2) des équations classiques hydrodynamiques. Or,
les six relations de (1) et (3) sont les mêmes que celles qui existent en électromagnétisme
entre les vecteurs magnétiques L, M, N, le produit par c du vecteur électrique X, Y, Z, le
potentiel vecteur G1 , G2 , G3, et le produit par c du potentiel scalaire H.
Bien entendu, on peut, de ces relations, déduire les équations classiques aussi, et
antérieures, de Maxwell. Par exemple, en éliminant H par dérivation et soustraction dans
le groupe (3), on trouve :
car la divergence du vecteur vitesse G1 , G2 , G3 , (la somme des trois dérivées partielles)
représente la vitesse de variation du volume élémentaire ω divisée par ce volume
1 / ω . dω / dt
Mais nous pensons qu'il n'est pas nécessaire d'insister beaucoup plus.
IV - Et s'il en est ainsi pour «l'espace physique électromagnétique», il doit être compris
que c'est une propriété de l'espace physique tout court, donc de l'espace gravifique. Cela
justifie pleinement à mes yeux M. le Docteur Pagès.
Mais si le fait électrostatique est évident, le fait gravifique reste à prouver
expérimentalement, puis à exploiter. C'est de quoi il faudra s'occuper ; les effets seront
bien plus difficiles à déceler, car les forces gravifiques sont, relativement, beaucoup plus
petites : certains disent même qu'elles sont un «résidu» des forces électriques contraires
qui ne se compensent pas tout à fait.
F. PRUNIER.