Vous êtes sur la page 1sur 94

Cosmologie

I. Introduction

II. Les observations

II.1. L’univers

La structure de l’univers ; L’univers observable

II.2. L’expansion des galaxies

Mesure des distances ; Parallaxe ; Mesure des intensités ; Céphéides ; Supernovae ; Effet Doppler ; Mouvement des galaxies ; La lumière fatiguée

II.3. Le rayonnement fossile

Découverte du rayonnement fossile ; Rayonnement thermique ; Un rayonnement isotrope et homogène ; Dissymétrie globale ; Fluctuations

II.4. La composition de l’univers

Composition chimique ; Evolution des structures

II.5. Le principe cosmologique

Distribution des galaxies et amas ; Expansion

III. Les théories III.1. Electromagnétisme

Les ondes ; Ondes électromagnétiques ; Spectre ; Autres effets

III.2. La thermodynamique

Les grandeurs ; Equation d’état ; Premier principe ; Second principe ; Physique statistique

III.3. La relativité générale

Repères ; La relativité restreinte ; Relativité générale ; De la relativité restreinte à la relativité générale ; La courbure de l’espace- temps ; Les ondes gravitationnelles

III.4. Physique des particules

Les particules ; Les interactions ; Les particules vecteurs ; Les familles ; Les quarks ; Antimatière

III.5. La physique atomique

Structure des atomes ; Propriétés des atomes ; Propriétés électromagnétiques ; Propriétés chimiques

III.6. La physique nucléaire

Structure du noyau ; Stabilité ; Fusion

IV. Le Modèle Standard de la cosmologie IV.1. Le début

Point de départ ; Pourquoi pas plus tôt

IV.2. Les modèles d’univers

Modèles en relativité générale ; Solutions ; Trois géométries ; Topologie ; Observations ; Matière noire ; Modèle statique ; Autres possibilités ; Modèles non isotropes ; Age de l’univers

IV.3. Inflation

Le problème de l’horizon ; Le problème de la platitude ; Inflation ; Les fluctuations ; Causes physiques

IV.4. La soupe de quarks

L’interaction forte ; Confinement ; Hautes énergies ; Etat de la matière ; Expansion

IV.5. La disparition de l’antimatière

Annihilation ; Répartition matière antimatière ; Où est passée l’antimatière ? ; Conditions de Sakharov ; Répartition initiale

IV.6. La formation des nucléons

Que reste-t-il ? ; Formation des nucléons ; Situation à la fin de cette étape

IV.7. Formation des noyaux

Diminution du nombre de neutrons ; Nucléosynthèse ; Abondance des éléments

IV.8. Formation des atomes

Situation après la nucléosynthèse ; Naissance du rayonnement fossile ; Fluctuations ; Décalage vers le rouge ; Age sombre

IV.9. Formation des grandes structures

Effondrement gravitationnel ; Formation des premières étoiles ; Ionisation du gaz ; Formation des galaxies ; Evolution des galaxies ; Et après ? ; Simulations

IV.10. L’accélération de l’univers

Mesure de l’évolution de la constante de Hubble ; L’accélération de l’expansion ; Modèles de la relativité générale ; Origine de l’accélération

IV.11. Limites du modèle

Les limites de notre univers ; Des points à comprendre ; Perspectives

V. Références

I. Introduction

La cosmologie est l’étude de l’évolution de l’univers dans son ensemble. L’univers étant par définition l’ensemble de tout ce qui existe mais que la cosmologie limite essentiellement aux étoiles, aux galaxies et autres objets peuplant le cosmos, l’évolution d’objets plus précis faisant partie d’autres branches de la science (l’évolution des étoiles fait partie de l’astrophysique, l’évolution des espèces de biologie de l’évolution, etc.)

Le mystère de l’origine du Monde a toujours fasciné les hommes. Ce besoin de comprendre, ajouté aux maigres connaissances de l’humanité et aux croyances, a donné naissance à de nombreux mythes et religions. Ce serait un vaste sujet d’étude à lui seul.

Mais ce n’est que récemment que la cosmologie est devenue une science. L’approche scientifique de l’astronomie est fort ancienne. C’est-à-dire une approche basée sur l’observation ou l’expérience et le raisonnement. Par l’étude du mouvement des corps célestes, de plus en plus précis, les savants se sont forgé une image de plus en plus complète du cosmos.

C’est toujours par l’amélioration des mesures que les modèles décrivant le cosmos ont pu évoluer. Ainsi, le modèle géocentrique de Ptolémée (la Terre au centre du système solaire, tout tournant au tour) dû subir des améliorations successives au fur et à mesure que les relevés astronomiques devenaient plus précis. C’est aussi par ces améliorations que ses insuffisances furent mise en évidence donnant naissance au modèle héliocentrique de Copernic (le Soleil au centre du système solaire). Et une des clefs fondamentales de l’astronomie, la mesure des distances, permis de dégager les lois du mouvement de planètes.

La naissance des théories scientifiques modernes, comme la loi de l’attraction universelle (gravitation) de Newton, permit aussi de grandes avancées.

Pourtant, malgré ces avancées souvent spectaculaires, l’origine du cosmos restait hors de portée de la science. Ce n’est qu’au vingtième siècle, grâce aux avancées scientifiques et aux observations devenues très précises, que l’on commença à comprendre qu’une description de l’univers dans son ensemble et de son évolution devenait possible.

C’est le but de cette petite étude de donner une description de cette évolution. Nous ne suivrons pas une approche historique mais une approche descriptive :

Nous commencerons par décrire ce que nous pouvons observer. Que savons-nous de l’univers ? Quelles sont les certitudes ?

Nous décrirons ensuite les théories scientifiques qui servent d’outil à la construction de modèles cosmologiques.

Nous passerons enfin à la description de ce que l’on nomme le Modèle Standard de la Cosmologie.

Vous l’aurez compris, nous tenons à rester dans la description du modèle le plus communément accepté par les scientifiques qui est aussi le plus complet et celui qui s’accord au mieux aux observations. Cela ne veut pas dire qu’il est parfait et nous aurons l’occasion d’en citer les limites. Il reste beaucoup de travail pour nos successeurs.

Notons qu’aucune connaissance préalable du sujet n’est nécessaire si ce n’est une curiosité et une passion pour ce type d’interrogation. Nous resterons dans un cadre vulgarisé sans recours aux outils mathématiques élaborés sans lesquels une science rigoureuse, précise et quantitative ne peut se faire.

II. Les observations

Toute construction d’un modèle commence par l’observation de ce que l’on souhaite modéliser. Il s’agit donc de bien décrire ici l’univers, ce que nous savons sur lui et en particulier les éléments utiles au modèle.

II.1. L’univers

La structure de l’univers

Lorsque l’on regarde le ciel une nuit claire, on peut apercevoir une myriade d’étoiles à l’œil nu. Mais les seules étoiles visibles à l’œil nu sont les étoiles suffisamment lumineuses. La grande majorité des corps célestes visibles à l’œil nu sont des étoiles proches (il y a aussi quelques planètes et quelques galaxies).

Mais avant de continuer, qu’entendons-nous par proche ? Nous avons besoin pour cela d’unités pour mesurer les distances. Celles-ci étant gigantesques, le kilomètre n’est pas vraiment l’unité la plus adapté (qui s’amuserait à mesurer la longueur d’une autoroute en millimètres ?) Une unité très usitée en astronomie est l’année-lumière. Ce n’est pas une durée comme semble l’indiquer son nom mais bien une distance. C’est la distance parcourue par la lumière dans le vide en un an. La lumière se déplaçant dans le vide de 300000 kilomètres par seconde, une année-lumière vaut 9467 milliards

de kilomètres. Pour donner une idée, Proxima du Centaure, l’étoile la plus proche du Soleil, est située

à quatre années-lumière.

Ainsi, à l’œil nu, nous ne pouvons guère voire d’étoiles au-delà de quelques centaines d’années- lumière. Mais depuis Galilée, premier utilisateur de la lunette astronomique, nous disposons de nombreux télescopes scrutant le ciel. Ces télescopes de grandes tailles, parfois regroupés pour constituer un seul « super télescope », peuvent voir des objets extrêmement peu lumineux et situés très loin. On dispose aussi d’appareil scrutant le ciel dans des domaines des ondes électromagnétiques (la lumière, les ondes radios) situés hors du domaine visible : radiotélescopes, télescopes infrarouges, ultraviolets, à rayons X, à rayons gammas. Ces derniers sont généralement situés dans l’espace car notre atmosphère n’est transparente qu’à une petite partie du spectre électromagnétique (la lumière visible et quelques « fenêtres » dans le domaine des ondes radios).

Ces instruments nombreux et puissants nous offrent une vue très complète de l’univers.

A la base, il y a les étoiles. Le Soleil est une de ces étoiles, assez particulière puisque c’est la nôtre ! Comme beaucoup d’étoiles, le Soleil est entouré d’un cortège planétaire.

Les étoiles sont regroupées sous forme de galaxies. Ces galaxies contiennent typiquement une centaine de milliards d’étoiles ou plus. Elles peuvent prendre toutes sortes de formes : spirales, elliptiques, lenticulaires, irrégulières,… On rencontre aussi de petits amas appelés amas globulaires ainsi que des galaxies naines.

Pour fixer les idées, notre galaxie s’appelle la Voie Lactée (nom qu’elle doit à la trainée brillante d’étoiles traversant le ciel et visible par des nuits avec un ciel particulièrement pur, ce n’est rien d’autre que notre galaxie vue par la tranche). C’est une galaxie spirale d’environ 200 milliards d’étoiles. Elle fait 100000 années-lumière de long pour environ 20000 années lumières de large et

quelque milliers d’année lumières d’épaisseur. Le Soleil est situé presque à l’extrémité d’un des bras de la galaxie. Notre plus proche voisine s’appelle la galaxie d’Andromède, une galaxie fort semblable

à la nôtre. Andromède se dirige vers nous et traversera la voie lactée dans environ un milliards

d’années. Il ne faut pas s’en inquiéter : les galaxies c’est surtout du vide et les étoiles se croiseront sans dommage.

Nous avons aussi autour de notre galaxie quelques galaxies naines en orbite comme les nuages de Magellan.

Les galaxies elles-mêmes ne sont pas isolées et sont regroupées en groupes, amas et superamas, plus ou moins structurés, de taille croissante et liés par la gravitation. Le Groupe Local auquel fait partie notre galaxie fait 5 millions d’années-lumière contenant une trentaine de galaxies, presque toutes naines, regroupées autour de la Voie Lactée et de Andromède. Sa masse totale est environ 700

milliards de fois celle du Soleil et sa luminosité 60 milliards de fois celle du Soleil. Le groupe le plus proche se trouve à 2.4 millions d’années-lumière du nôtre et contient six grandes galaxies. L’amas de galaxies le plus proche est celui de la Vierge situé à 12 millions d’années-lumière avec une centaine

de galaxies regroupées dans un rayon de 2.7 millions d’années-lumière. L’amas de Comas situé à 85

millions d’années-lumière contient plusieurs milliers de galaxies dans un rayon de 5 millions d’années-lumière.

On observe aussi entre les amas des structures appelés « murs » ou « filaments » et qui sont constitués simplement de galaxies. Le nombre total de galaxies visibles se chiffre en une bonne centaine de milliards.

Ces chiffres donnent le vertige.

80 à 90% des galaxies sont dans des amas, et le reste sont des galaxies isolées.

Aux étoiles et leurs regroupements il faut aussi ajouter les nuages de gaz (ou de gaz et de

poussières). Ces nuages sont constitués essentiellement d’hydrogène et d’hélium. On les trouve sous forme plus ou moins dense un peu partout dans et hors des galaxies. Ce sont ces nuages qui forment

les étoiles lorsqu’ils s’effondrent sous leur propre poids.

Malgré tous ces chiffres gigantesques, l’univers contient surtout beaucoup de vide. La densité

moyenne de la matière visible est d’environ

indique le nombre de zéros,

extrêmement faible (même en laboratoire avec les meilleures pompes à vide on ne sait pas atteindre un chiffre aussi faible).

gramme par centimètre cube (l’exposant est égal à 0.001). C’est une densité

est égal à 1000 et

L’univers observable

L’ensemble de tout cela forme l’univers observable. Nous ne voyons en effet que jusqu’à une certaine distance, environ une bonne dizaine de milliards d’années-lumière (sauf le rayonnement fossile, bous y reviendrons). Quelques objets ont été observés au-delà mais peu, la principale difficulté étant la très faible lumière qui nous parvient de ces régions lointaines.

Il existe de toute façon une autre limite, encore plus fondamentale. La lumière ayant une vitesse finie, elle met un certain temps pour parvenir jusqu’à nous. Ainsi, lorsque étoile brille à dix années- lumière, sa lumière met dix ans pour parvenir jusqu’à nous et nous la voyons telle qu’elle était il y a

dix ans. C’est à la fois bien pratique et gênant.

C’est gênant car nous ne pouvons pas avoir une image « instantanée » de l’univers tel qu’il est maintenant. Mais c’est aussi bien pratique car nous pouvons voir l’univers tel qu’il était il y a de nombreuses années. Plus on regarde loin, plus on voit ces objets tels qu’ils étaient il y a longtemps. Ainsi, si l’on voit une étoile exploser à un milliard d’années-lumière, nous savons que cette explosion s’est en fait déroulée il y a un milliard d’années. On peut dire que « voir loin c’est voir vieux ».

Mais cela a une autre conséquence. Supposons que l’univers n’existe que depuis N années. Alors, il devient impossible de voir plus loin que N années-lumière. En effet, prenons un événement qui se produit à N+1 années-lumière. Alors, pour le voir, il faut que sa lumière voyage jusque nous pour pouvoir l’observer. A cette distance, il faut N+1 années pour que la lumière arrive jusqu’à nous. Mais si l’univers n’existe que depuis N années, la lumière n’a tout simplement pas encore eut le temps de nous parvenir.

Nous verrons que l’univers, tel que nous le voyons, existe depuis 13.8 milliards d’années. Il est donc impossible de voir plus loin que 13.8 milliards d’années-lumière. C’est ce que l’on appelle l’horizon cosmologique.

En fait, on est même limité à13.76 milliards d’années-lumière car il y a plus de13.76 milliards d’années, nous verrons que l’univers était opaque.

II.2. L’expansion des galaxies

Mesure des distances

La mesure des distances est un aspect clef de l’astronomie et de la cosmologie.

La connaissance des distances est importante pour décrire l’univers, sa structure et bien d’autres de ses aspects. Comment pourrait-on en effet savoir que les galaxies s’organisent en amas et superamas si l’on était incapable de dire si deux galaxies proches sur la voûte céleste sont à même distance ou à des distances complètement différentes.

Déterminer la position d’un objet sur la voute céleste est en effet assez facile puisqu’il suffit de mesurer la direction et la hauteur. Par contre déterminer la distance est difficile car on manque de références. Lorsque vous observez une photo, vous voyez la position de chaque objet mais pas sa distance car la photo est plane, à deux dimensions, il lui manque la profondeur. Mais sur une photo du quotidien cela ne pose généralement pas de difficultés car on possède des références, par exemple la taille des individus (s’il est grand sur la photo c’est qu’il était proche, s’il apparait comme une petite fourmi c’est qu’il est très éloigné). Mais rien de tel n’est disponible avec les étoiles qui n’apparaissent que comme des points lumineux.

Donc, attardons-nous un peu sur la mesure des distances.

Parallaxe La parallaxe est le phénomène où un objet est vu sous des angles différents selon la position où on le regarde. On peut déjà le constaté avec les objets du quotidiens en les observant en fermant un œil puis l’autre.

Ce phénomène est aussi exploitable en astronomie grâce au mouvement de la Terre.

Lorsque la Terre se trouve de part et d’autre de son orbite autour du Soleil

Lorsque la Terre se trouve de part et d’autre de son orbite autour du Soleil (tous les six mois), la

direction dans laquelle on voit une étoile varie légèrement de l’angle

dit angle de parallaxe.

Le dessin n’est pas à l’échelle car les étoiles sont vraiment très éloignées. L’angle est donné par la trigonométrie comme le rapport de la distance à l’étoile au diamètre de l’orbite terrestre. Ainsi, l’étoile la plus proche est vue sous un angle de 1 seconde (1’’). On divise le cercle en 360 degrés, chaque degré est divisé en 60 minutes d’arc, et chaque minute est divisée en 60 secondes. Un tour complet fait donc 360 degrés ou 21600 minutes ou encore 1296000 secondes. 1’’ d’arc, c’est donc vraiment très peu.

Une fois connu l’angle de parallaxe, la distance s’obtient en multipliant l’angle (mesuré en radians) fois le diamètre de l’orbite terrestre qui fait 298 millions de kilomètres. La distance correspondant à 1’’ est appelée le parsec et elle vaut environ 3.6 années-lumière.

Plus les étoiles sont éloignées et plus l’angle est petit. Une étoile située à cent années-lumière ne produit un angle de parallaxe que de 0.036 seconde. Il faut donc une très grande précision pour mesurer ces angles.

Sur Terre, cette méthode est d’usage assez limité et ne permet de mesurer les distances que des étoiles les plus proches avec une précision relativement correcte. Deux facteurs limitent la précision :

Comme on le voit sur le dessin, les périodes où la Terre est à six mois d’intervalle et où on peut observer l’étoile correspondent à l’aube et à l’aurore. Ce n’est pas l’idéal et seules les étoiles les plus lumineuses sont visibles. Il vaut mieux les observer de nuit (quand la Terre est à droite de l’image) mais dans ce cas l’angle de parallaxe est fort limité.

L’atmosphère perturbe le trajet des rayons lumineux. L’image de l’étoile est un peu floue, scintille et a une position légèrement perturbée.

On s’affranchit de ces deux difficultés en effectuant les mesures depuis l’espace. Un satellite peut ainsi se trouver coté nuit de la Terre et effectuer les mesures lorsque la Terre est dans les positions indiquées. De plus, l’absence d’atmosphère rend la mesure très précise.

Avec le satellite Hyparcos dédié à ces mesures, on a pu ainsi cartographier avec une très grande précision la position de nombreuses étoiles proches (plusieurs centaines) dont certaines Céphéides (voir plus bas).

Mesure des intensités

Une information importante que nous communique une étoile est sa luminosité. Deux grandeurs peuvent la caractériser.

La magnitude absolue donne la quantité de lumière réellement émise par une étoile ou une galaxie.

La magnitude relative donne la quantité de lumière reçue, c’est-à-dire observée depuis la Terre.

La quantité de lumière reçue dépend de la distance on se trouve de la source lumineuse.

dépend de la distance on se trouve de la source lumineuse. Si la lumière est émise

Si la lumière est émise dans toutes les directions (ce qui est le cas pour presque toutes les sources lumineuses), alors la relation est simple. Si la distance est deux fois plus grande, alors la quantité de lumière reçue est divisée par quatre.

C’est quelque chose qu’on peut aisément constater en observant une lampe routière située tout près ou située à plusieurs kilomètres. Mais pour vérifier la loi de décroissance en « carré de la distance », il faut bien entendu utiliser des instruments mesurant avec précision la quantité de lumière reçue.

Pour mesurer les distances, cette méthode est très pratique. Si vous connaissez la magnitude absolue et la magnitude relative, alors vous pouvez en déduire la distance grâce à la règle précédente.

Toutefois, il y a un problème. Si la magnitude relative est facile à mesurer, c’est celle que l’on observe, la magnitude absolue dépend de la quantité de lumière émise par l’objet et on ne sait pas a priori quelle quantité de lumière émet tel ou tel type d’objet. Même de simples étoiles peuvent avoir des luminosités différentes d’un facteur de plusieurs milliers de fois.

Une solution consiste à mesurer la moyenne des luminosités sur des catégories d’objets, par exemple des étoiles d’une certaine couleur ou des galaxies de certaines formes. Ainsi, on peut avoir une idée de la luminosité de ce type d’objets.

Mais cette méthode n’est pas très précise. La luminosité des objets varie beaucoup et pour mesurer une distance, la luminosité moyenne est insuffisante. Il faut connaitre la luminosité exacte de l’objet. Cette méthode ne donne donc que des évaluations grossières, des estimations des distances qui peuvent toutefois s’avérer pratiques en un premier temps.

Céphéides Une solution vient de certaines catégories d’objets dont la luminosité est bien précise. C’est le cas des étoiles dites Céphéides. Ces étoiles voient leur luminosité varier périodiquement au cours du temps. Et l’in a pu montrer en étudiant de nombreuses Céphéides que la période de variation (qui peut varier de quelques jours à quelques mois) dépend de sa luminosité totale.

jours à quelques mois) dépend de sa luminosité totale. La relation reliant la luminosité à la

La relation reliant la luminosité à la période est très précise. Les Céphéides sont ainsi très utiles pour mesurer la distance. Il suffit de mesurer sa période pour avoir sa magnitude absolue, et en mesurant sa magnitude relative, on trouve la distance.

Toutefois, la loi reliant la luminosité à la période est reliée à la mécanique complexe de fonctionnement des étoiles. Seule l’observation permet de déterminer avec précision la relation entre période et magnitude absolue. Et pour cela il faut avoir une autre méthode pour mesurer les magnitudes absolues.

Heureusement, cette méthode, nous l’avons, c’est la méthode de la parallaxe. Les mesures depuis le sol avaient déjà pu repérer les distances de quelques Céphéides. Hyparcos a permis d’augmenter ces résultats de nombreuses Céphéides avec de surcroit des distances très précises. Grâce à cela, et à la mesure de leur magnitude relative, on a pu en déduire la magnitude absolue et de là connaitre avec précision la loi reliant la magnitude absolue à la période. On peut ensuite établir des tables faciles à utiliser avec pour entrées la magnitude relative et la période et pour sortie la distance de la Céphéide. C’est ce qu’on appelle le calibrage de la méthode. Une méthode couramment utilisée.

Supernovae Mais pour mesurer les distances des Céphéides, encore faut-il les repérer. Cela est possible pour les étoiles de notre galaxie et pour celles des galaxies voisines. Mais au-delà, ce n’est plus possible. Les galaxies deviennent vite trop lointaines et elles apparaissent comme de simples masses lumineuses où il devient impossible de distinguer les étoiles individuelles.

Avons-nous une autre méthode précise pour les grandes distances ? La réponse est oui, ce sont les supernovae de type Ia.

Les supernovae sont simplement des étoiles qui explosent. Il en existe deux grande catégories.

Les supernovae de type II concernent les étoiles massives en fin de vie. Lorsqu’elles ont brûlé tout leur carburant, leur cœur s’effondre et leur enveloppe explose.

Les supernovae de type I concernent les étoiles de faible masse (comme notre Soleil) qui terminent leur vie sous forme de naine blanche, une petite étoile très compacte, qui se refroidit très doucement.

Si d’aventure l’étoile a un compagnon tel qu’une géante rouge (une phase de la vie de toutes les étoiles où celle-ci grossit démesurément) fort proche, la naine blanche peut aspirer la

matière de son compagnon. L’accumulation de gaz frais à la surface de la naine blanche peut provoquer son explosion.

Quels que soient leur type, les supernovae sont aussi brillantes qu’une galaxie entière pendant quelques jours. Elles sont donc facilement observables.

Les supernovae de type Ia, facilement reconnaissables, ont une courbe de luminosité bien particulière.

ont une courbe de luminosité bien particulière. Le mécanisme de leur explosion est remarquablement

Le mécanisme de leur explosion est remarquablement identique dans tous les cas, seule la masse de la naine blanche joue un jeu. De fait, comme pour les Céphéides, l’intensité lumineuse est exactement reliée à la durée de la luminosité.

Ces supernovae peuvent donc être d’excellentes chandelles standards.

Il y a mieux. Comme ces supernovae sont extrêmement brillantes, autant qu’une galaxie, on peut facilement les observer même très loin dans l’univers. Nous avons notre méthode de mesure des distances pour des distances très grandes.

Mais là aussi il faut calibrer la méthode. Il faut connaitre la relation entre intensité lumineuse et durée. Et cela ne peut se faire qu’en observant des supernovae et en mesurant leur distance et leur luminosité. Il faut donc un moyen initial de déterminer leur distance.

Malheureusement les supernovae sont rares. Il y en a une en moyenne par siècle et par galaxie. C’est peu. On a eu la chance d’en observer une dans un des nuages de Magellan, donc fort proche, mais ce genre de cas est rare.

Heureusement, nous avons les Céphéides. Et cette méthode marche pour les galaxies proches. On a donc observé un grand nombre de galaxies proches, dot on savait mesurer la distance, et on a recherché les supernovae de type Ia dans ces galaxies. Après en avoir observé un nombre suffisant, la méthode a pu être calibrée avec précision.

Effet Doppler

Imaginons des vagues dans l’eau. Celles-ci forment des rides qui se propagent à la surface de l’eau. Si on regarde les vagues par le coté, on peut les représenter comme suit :

vagues par le coté, on peut les représenter comme suit : Elles forment ce qu’on appelle

Elles forment ce qu’on appelle une onde. Elle est caractérisée par plusieurs grandeurs :

La longueur d’onde est la distance qui sépare deux crêtes successives. On la note habituellement .

La vitesse V de l’onde est la vitesse à laquelle défilent les crêtes des vagues.

La fréquence, notée

, est la fréquence à laquelle passent les crêtes. Si je suis en un point et

que je vois passer une crête toutes les dix secondes, on que la fréquence est de 1/10 = 0.1 Hertz (c’est l’unité de fréquence qui peut se mesurer aussi en « par seconde »).

On a la relation très simple remarquable

.

L’amplitude est l’intensité de l’onde, ici pour une vague c’est la hauteur des crêtes qui est représentée ci-dessus par la hauteur des ondulations.

Toutes les ondes sont des phénomènes périodiques qui se propagent. L’intensité de l’onde ne correspond pas nécessairement à une hauteur. Par exemple, une onde de chaleur est une variation de la température qui se propage. L’intensité est alors la valeur de la température. On peut encore représenter l’onde par une ondulation comme ci-dessus mais la hauteur des ondulations représentent alors une autre grandeur qu’une position : la température, la pression, etc.

Supposons la situation suivante :

alors une autre grandeur qu’une position : la température, la pression, etc. Supposons la situation suivante

Un observateur A immobile voit arriver les vagues avec une fréquence égale à 0.1. Les vagues se déplacement disons de 1 mètre par seconde.

Considérons maintenant un observateur B qui s’avance à la rencontre des vagues, comme lorsque l’on s’avance dans l’eau dans une mer agitée. Disons qu’il se déplace aussi à 1 mètre par seconde mais dans l’autre sens. Comme il va à la rencontre des vagues, il les rencontre plus vite. Il est facile de voir qu’ici il va rencontrer une vague toutes les cinq secondes, soit une fréquence égale à 0.2.

Pour l’observateur en mouvement, la fréquence de l’onde « vague » est donc différente. Ce phénomène fort simple s’appelle l’effet Doppler (ou Doppler-Fizeau).

Il se constate lorsque l’on est en mouvement, mais si l’onde est produite par une source vibrant à une certaine fréquence et que la source se déplace, on observe aussi une variation de la fréquence (et ici de la longueur d’onde). On peut constater ce phénomène avec le son. Le son est une vibration de l’air (ou d’un autre matériau) qui se propage. La grandeur qui varie est la pression de l’air et la vitesse de l’ordre de 300 mètres par seconde dans l’air sec à pression atmosphérique et température ordinaire (dans l’acier le son se propage de plusieurs kilomètres par seconde). La longueur d’onde est typiquement de l’ordre du millimètre. On peut parfois observer cette longueur d’onde dans des rides de poussière qui remuent à la surface d’un haut-parleur de grande puissance.

Plus la longueur d’onde du son est longue et plus le son perçu est grave. Lorsque la source émettant le son se déplace, on entend une variation de la longueur d’onde. Ainsi, le son d’une sirène d’ambulance est plus aigu lorsqu’elle se rapproche et plus grave lorsque l’ambulance s’éloigne. On peut aussi remarquer ce phénomène avec le simple bruit des moteurs lorsque l’on est sur une aire de repos d’autoroute ou lorsque l’on assiste à une course automobile (tous les enfants qui jouent en mimant le bruit des voitures reproduisent instinctivement cette variation du son lorsque le véhicule passe à notre hauteur).

La lumière est une onde électromagnétique, c’est-à-dire une variation périodique des champs électriques et magnétiques. Elle se propage dans le vide à la vitesse constante et identique pour tout observateur de 300000 kilomètres par seconde. Ici l’effet Doppler ne dépend pas du fait que c’est la source ou le récepteur qui est en mouvement, c’est une conséquence de la relativité d’Einstein. La vitesse étant constante et le produit de la longueur d’onde et de la fréquence étant égal à la vitesse, une variation de fréquence implique automatiquement une variation de longueur d’onde, quel que soient les circonstances.

La longueur d’onde de la lumière est reliée à sa couleur. Les grandes longueurs d’onde correspondent au rouge et les courtes au bleu. Nous aurons l’occasion d’y revenir plus en détail.

On peut donc aussi constater l’effet Doppler avec la couleur de la lumière.

Il y a toutefois une différence importante avec les vagues et le son : la lumière se propage extrêmement vite. Pour avoir un effet observable, il faut que la source ou le récepteur se déplacent à des vitesses notables. Par exemple, si la source se déplace à 1% de la vitesse de la lumière, on peut observer le phénomène. Mais 1% de la vitesse de la lumière, cela fait encore dix millions de kilomètres par heure ! Il est donc exclu de le constater dans la vie courante.

Par contre, dans l’espace, il est assez courant de rencontrer des objets se déplaçant extrêmement vite. De plus, les instruments utilisés par les astronomes sont très précis, beaucoup plus que nos yeux.

On appelle spectre de la lumière, la répartition de l’intensité en fonction de la longueur d’onde. Une étoile rouge émet beaucoup de grandes longueurs d’onde tandis qu’une étoile bleue en émet de plus courtes. Les atomes absorbent ou émettent de la lumière à des longueurs d’onde très précises. Par exemple, le sodium émet, lorsqu’il est chauffé, une lumière jaune orangé très vive. Ces longueurs d’onde sont très caractéristiques des atomes, comme des empreintes digitales. Elles forment ce qu’on appelle des « raies » d’absorption ou d’émission (dans un diagramme représentant l’intensité en fonction de la longueur d’onde, on a des raies correspondant aux longueurs d’onde précises de ces atomes).

aux longueurs d’onde précises de ces atomes). Ces raies peuvent être mesurées avec une grande précision

Ces raies peuvent être mesurées avec une grande précision en laboratoire en utilisant les atomes concernés, par exemple l’hydrogène très abondant dans l’univers et donc très utile.

Ces raies sont tellement précises que c’est de cette manière que fut découvert l’hélium. C’est en observant le spectre du Soleil que les physiciens découvrirent les raies d’un nouvel atome inconnu jusqu’à alors et qu’ils nommèrent hélium (du grec hélios = soleil). L’hélium fut découvert sur Terre plus tard.

En observant le spectre et les raies d’un objets lumineux on peut observer avec une très grande précision le décalage des raies en longueur d’onde et en déduire ainsi l’effet Doppler et donc la vitesse de l’objet (sa vitesse dans le sens de l’observateur).

On peut ainsi mesurer la vitesse d’étoiles rapides ou de jets extrêmement rapides émis par certains corps célestes. Par exemple, en 1868, Sir William Huggins montra que l’étoile Capella s’éloignait de 30 kilomètres par seconde. On peut même mesurer de cette manière la vitesse de rotation des anneaux de Saturne.

Mouvement des galaxies

Au dix-neuvième siècle, les galaxies étaient déjà connues mais leur nature restait débattue. La résolution des télescopes restait insuffisante et elles apparaissaient comme des tâches floues appelées nébuleuses. Leur distance restait inconnue et la question était débattue de savoir si c’était des objets inclus dans la Voie Lactée (notre galaxie) où des ensembles d’étoiles plus lointains.

Ce n’est que vers la fin du dix-neuvième siècle que la construction de grands télescopes comme celui du Mont Wilson permis de distinguer les étoiles individuelles dans les galaxies proches. La question était alors résolue : les étoiles se regroupaient en « univers iles » (comme cela fut parfois nommé) contenant un très grand nombre d’étoiles et séparés les uns des autres.

La question de la distance restait posée. Hubble utilisa la technique des Céphéides au début du vingtième siècle au Mont Wilson pour déterminer leur distance. L’effet Doppler permis aussi de déterminer la vitesse de ces galaxies. Hubble constata en 1929 que la majorité des galaxies avaient un « décalage vers le rouge », c’est-à-dire un effet Doppler avec une augmentation de la longueur d’onde due à une vitesse d’éloignement.

Il obtint une courbe de ce style (d’autant plus remarquable qu’à l’époque les mesures restaient encore un peu imprécises et le nombre de galaxies connues assez restreint).

et le nombre de galaxies connues assez restreint). On trace en abscisse la distance de la

On trace en abscisse la distance de la galaxie et en ordonnée la vitesse à laquelle elle s’éloigne, on parle aussi de vitesse de récession ou de vitesse d’expansion.

On constate que les vitesses des galaxies s’alignent approximativement sur une droite appelée loi de Hubble. Les petits écarts sont dû à des mouvements propres des galaxies provoqués par l’attraction gravitationnelle des galaxies entre-elles au sein des amas. Par exemple, la galaxie d’Andromède à une vitesse de récession négative, ce qui veut dire qu’elle se rapproche. Mais globalement, surtout pour les galaxies éloignées, la relation de Hubble est très bien respectée.

Elle a été depuis vérifiée sur de très grandes distances et sur un nombre considérable de galaxies.

La pente de la droite est appelée constante de Hubble, notée H. Elle mesure la vitesse en fonction de la distance, elle se mesure donc en kilomètres par seconde et par mégaparsecs (MPc, c’est-à-dire un million de parsec). Elle vaut environ 70. Ce qui veut dire qu’une galaxie située à un million de parsecs s‘éloigne à environ 70 kilomètres par seconde et une galaxie située à dix millions de parsec s’éloigne à 700 kilomètres par seconde.

Les distances sont mesurées par les Céphéides ou les supernovae, mais aussi plus grossièrement par les luminosités moyennes.

L’univers est donc en expansion. L’ensemble de son contenu se dilate, les objets s’éloignant les uns des autres.

Une fois cette loi établie, elle est aussi fort pratique pour déterminer la distance d’un objet lointain. Il suffit de mesurer le décalage vers le rouge, d’en déduire la vitesse et de diviser par H pour avoir la distance en mégaparsecs.

Une anecdote étonnante concerne les travaux d’Einstein. Celui-ci venait d’élaborer la théorie de la relativité générale de la gravitation et l’avait appliqué à l’univers vu comme un tout. Les solutions obtenues donnaient un univers qui soit se dilatait, soit se contractait. Einstein, persuadé comme nombre de ses contemporains que l’univers devait être statique, globalement immobile, il modifia ses équations (introduction de la constante cosmologique) afin d’obtenir une solution statique.

Outre qu’une telle solution était instable (ce que l’abbé physicien Georges Lemaître montra) la découverte de Hubble peu après montra que la relativité générale avait raison : l’univers se dilate. Einstein venait de rater une prédiction exceptionnelle. Il qualifia l’introduction de sa constante cosmologique de « la plus grande erreur de ma vie ».

La lumière fatiguée

Les adversaires de la théorie cosmologique standard en faveur pour un univers statique devaient trouver une explication à ce décalage vers le rouge. Dans un univers statique, les galaxies ne s’éloignent pas et le décalage vers le rouge ne peut pas être dû à l’effet Doppler.

L’idée qui fut proposée est celle de la « lumière fatiguée ». La lumière lorsqu’elle voyage sur une très grande distance perdrait lentement de son énergie et verrait sa longueur d’onde augmenter.

Notons que cette idée restait purement hypothétique. Du fait des distances envisagées, elle est totalement invérifiable en laboratoire. Mais a contrario, rien dans les théories ou expériences connues ne semblaient indiquer une telle possibilité.

Mais un autre phénomène a permis de trancher.

La durée apparente (celle que l’on voit d’un phénomène) est aussi affectée par la vitesse.

Supposons qu’une galaxie, une étoile ou tout objet s’éloigne de nous à très grande vitesse.

ou tout objet s’éloigne de nous à très grande vitesse. A deux instants donnés l’objet nous

A deux instants donnés l’objet nous envoie des signaux. Ce peut-être le début et la fin d’une explosion d’une supernovae ou le début et la fin d’une oscillation de lumière d’une Céphéide ou tout autre phénomène.

Supposons que le premier signal est envoyé à l’instant

arriver jusqu’à nous, nous observerons ce signal à l’instant

l’instant

. Comme il met un certain temps

pour

. Ensuite, le signal est émis à

, il met cette fois la durée

pour arriver jusqu’à nous, c’est-à-dire qu’on le voit en

La durée du phénomène est

voyons, est le signal reçu. La durée mesurée (apparente) est donc (

(

. Mais ce n’est pas ce que nous observons. Ce que nous

)

(

)

).

Mais entre les deux émissions, l’objet s’est déplacé. Lors du deuxième instant, le signal a une plus

longue distance à parcourir. On aura donc donc plus longue.

(

plus grand que

). La durée observée sera

On appelle cela aussi « dilatation apparente du temps » (cela n’a rien à voir avec la relativité). Notons que cela n’est rien d’autre que l’effet Doppler ! (appliqué ici à deux signaux plutôt qu’à deux crêtes d’une onde).

Puisque les Céphéides et les supernovae dans les galaxies s’éloignent à grande vitesse, il faut tenir compte de ce phénomène. A contrario, cela permet de vérifier que le phénomène est bien dû à une vitesse de récession. En effet, si l’idée de lumière fatiguée était exact, elle affecterait la longueur d’onde de la lumière mais n’aurait aucune raison d’influencer le comportement des Céphéides et des supernovae (et donc leur durée) qui sont dû à des mécanismes physiques précis.

Or c’est ce que montre l’observation : il y a autant de dilatation des durées et de décalage vers le rouge. C’est exactement corrélé.

Pour conserver l’idée de la lumière fatiguée, il faudrait imaginer que par le passé (souvenons-nous que voir loin, c’est voir dans le passé) les Céphéides et les supernovae étaient différentes de celles que l’on connait maintenant et que leur durée était plus grande à luminosité identique.

Là on tombe dans le surréalisme : des effets inconnus, complètements différents, influenceraient des objets différents de la manière exacte pour que la modification des durées avec la distance coïncide parfaitement avec cette fatigue de la lumière lors de son voyage.

Autant dire que ce genre de constat sonna le glas de cette hypothèse. Force est de constater que le décalage vers le rouge est bien le résultat d’une vitesse de récession.

II.3. Le rayonnement fossile

Le rayonnement fossile est un rayonnement d’ondes radios qui baigne tout l’univers.

Découverte du rayonnement fossile

La découverte dut faites par deux ingénieurs de la Bell Téléphones qui cherchaient à régler une grande antenne parabolique de haute précision.

Cette antenne était d’une telle sensibilité que la moindre perturbation pouvait gêner sa réception. Penzias et Wilson firent donc des mesures précises. Ils détectèrent rapidement un bruit de fond, une réception parasite, qui venait se superposer aux signaux utiles qu’ils voulaient capter.

Ce bruit de fond n’était pas sensible à l’orientation de l’antenne. Quelle que soit la direction dans laquelle ils la pointaient, ils mesuraient ce signal gênant. L’analyse du signal montrait que ce signal ne variait pas au cours du temps, qu’il ne provenait pas de notre galaxie et une analyse de l’électronique (en la comparant à une source refroidie à l’hélium liquide) excluait un bruit électronique. Ils pensèrent donc d’abord que cela était dû à un défaut de l’antenne. Ils effectuèrent alors nombre de réglages, de mesures, de contrôles de toutes sortes. Ils allèrent jusqu’à déloger un couple de pigeon qui s’était logé dans l’antenne et nettoyèrent celle-ci de ce qui fut appelé « matière blanche

diélectrique » (pour l’anecdote, ils eurent du mal. Même relâché très loin, les pigeons revenaient et ils durent employer un moyen, disons, plus radical). Mais rien à faire. Quoi qu’ils fassent, ce signal persistait.

Ils durent finalement se rendre à l’évidence. Ce signal ne provenait pas d’un défaut de l’antenne, mais d’un rayonnement « millimétrique » (c’est la longueur d’onde) qui baignait totalement l’environnement.

Parallèlement, à l’époque, quelques théoriciens travaillaient sur la cosmologie. Ce genre de travail n’était pas vraiment bien vu à l’époque. Il ne faisait pas sérieux. Pour les astronomes, s’occuper de ce qu’on voit : des étoiles de toutes sortes, des galaxies,… c’était tout à fait honorable, mais commencer à parler de l’origine de l’univers paraissait fantaisiste.

Il est vrai que ces théoriciens n’avaient pas grand-chose à se mettre sous la dent. Seulement deux choses :

L’expansion de l’univers découverte par Hubble.

La théorie de la relativité générale d’Einstein.

Cette dernière n’était même pas très connue des astronomes. On reconnaissait bien entendu sa validité, elle avait pu être confirmée par plusieurs effets, mais elle était considérée comme peu utile. Sauf dans quelques rares cas exceptionnels, tous les calculs nécessaires pouvaient se faire en ignorant cette théorie. La situation actuelle a bien changé.

Ces théoriciens avaient prédit l’existence d’un tel rayonnement baignant l’univers, vestige fossile de l’origine de l’univers. Nous reviendrons bien sûr sur tout cela.

Le hasard voulu que les résultats de Penzias et Wilson arrive à l’oreille d’un ingénieur connaissant ces travaux. Le choc fut énorme. Ces théoriciens, peut habitués à la pratique expérimentale, pensaient qu’un tel rayonnement fut trop faible pour être détecté avec les moyens connus. Ils se trompaient :

Penzias et Wilson venaient de le découvrir par hasard. Les théoriciens (Dicke, Peebles et ses collègues) et nos ingénieurs publièrent deux articles conjoints dans une revue d’astrophysique. Rapidement, la communauté scientifique fut fascinée par cette découverte. Les théories cosmologiques, curiosité des cabinets de scientifiques plongés dans les équations, venaient de faire l’entrée sur la grande scène des scientifiques effectuant des observations. Ayant gagné ses lettres de noblesse, la cosmologie suscita un intérêt croissant chez les astrophysiciens.

Rayonnement thermique

Le rayonnement thermique est le rayonnement électromagnétique (lumière, infrarouges, …) émis par les corps à cause de leur température. Tout corps chaud émet en effet un tel rayonnement.

Nous sommes assez familiers de quelques cas. Un morceau de métal fortement chauffé rougit, puis devient orange, jaune et blanc. De même, le corps humain à 37 degrés émet surtout des infrarouges que l’on peut capter avec des lunettes appropriées.

Un cas particulier est ce que l’on appelle des corps noirs. Ce sont des corps :

A l’équilibre thermique, c’est-à-dire à température uniforme et constante.

Qui absorbent tout rayonnement qui les touche.

Les corps noirs constituent une bonne approximation dans de nombreux cas. Un morceau de métal chauffé à blanc est un bon corps noir (ne pas se laisser induire en erreur par la couleur !), mais pas un métal à température ordinaire qui a plutôt tendance à réfléchir la lumière. Un corps humain est un bon corps noir dans le domaine des infrarouges (moins dans le visible). Et le Soleil est aussi un très bon corps noir, aussi étonnant que cela paraisse.

On montre facilement (en utilisant les lois de la thermodynamique) qu’un corps noir doit émettre un rayonnement « universel », c’est-à-dire un rayonnement qui ne dépend que de sa température et pas de sa nature. On peut alors tracer le rayonnement émis en donnant l’intensité du rayonnement en fonction de la longueur d’onde :

du rayonnement en fonction de la longueur d’onde : Quelques caractéristiques sont à relever : 

Quelques caractéristiques sont à relever :

Plus la température est élevée et plus l’intensité maximale se déplace vers les courtes longueurs d’onde, c’est-à-dire vers le bleu. C’est cohérent avec le morceau de métal qui est rouge, puis orange puis jaune. A la fin il est blanc car la lumière est intense dans le bleu mais aussi dans toutes les autres couleurs, ce qui donne du bleu.

Plus la température est élevée et plus l’énergie émise augmente. C’est assez logique, et cette augmentation est même très rapide (si l’on mesure la température en Kelvin, voir ci-dessous,

, c’est-à-dire que si la température double, l’énergie est multipliée par 16).

L’intensité maximale augmente aussi avec la température.

l’énergie est en

Notons qu’en physique on mesure les températures se mesurent souvent en Kelvin. C’est les mêmes degrés que les degrés Celsius habituels, mais le 0 du thermomètre est placé à -273 degrés (le 0 de votre thermomètre correspond donc à +273 Kelvins). Le zéro absolu, ou 0 Kelvin, correspond à la température la plus basse (les atomes arrêtent de bouger, aux fluctuations quantiques près).

Le rayonnement fossile découvert par Penzias et Wilson est un rayonnement thermique à 2.7K, c’est- à-dire le même rayonnement qu’un corps à température de 2.7 Kelvin (-272 degrés Celsius, c’est très froid).

A cette température, le rayonnement est essentiellement constitué d’ondes radios du domaine millimétrique (si vous avez l’habitude la radio FM autour des 100 MHz, cela correspond à une onde radio de 300000 MHz).

Pour confirmer qu’il s’agit d’un rayonnement de corps noir, il ne suffit pas de le capter. Il faut aussi le mesurer à plusieurs longueurs d’onde et vérifier qu’il donne une courbe comme ci-dessus. Et là, les difficultés commencent. Ce rayonnement est déjà très faible. Si en plus on se limite seulement à une petite bande de longueurs d’onde, on reçoit encore moins d’énergie. Il faut donc des instruments très sensibles.

De plus, le rayonnement thermique des appareils eux-mêmes peut venir perturber les instruments. Pour avoir des mesures fiables, on doit refroidir l’appareil à moins de 2.7K, ce qui ne peut se faire qu’avec de l’hélium liquide.

Enfin, l’atmosphère est malheureusement opaque à une bonne partie de ces longueurs d’onde.

On a donc utilisé des instruments sur Terre, puis des ballons sondes montant dans la stratosphère (comme les ballons météorologiques) et enfin des satellites.

Les satellites Planck et WMAP ont ainsi pu mesurer le rayonnement fossile avec une grande précision dans toutes les directions et confirmer son caractère thermique à 2.7K.

Un rayonnement isotrope et homogène

Les mesures montrent aussi que le rayonnement est remarquablement isotrope (aux petits écarts près que nous verrons plus loin). C’est-à-dire qu’il est identique dans toutes les directions.

petits écarts près que nous verrons plus loin). C’est -à- dire qu’il est identique dans toutes

Est-ce que cela veut dire que la Terre est au centre de l’univers ? Non, évidemment. Et c’est d’ailleurs le genre d’hypothèse que les physiciens détestent. On a reçu la leçon de Copernic et Galilée et les physiciens ne donnent un rôle privilégié à la Terre que contraint et forcé.

Par quel miracle des sources lointaines, dans des directions différentes, enverraient un tel rayonnement justement vers la Terre ?

Il est plus facile et plus sain de considérer que la Terre n’a pas une position privilégiée dans l’univers et que ce rayonnement est homogène, c’est-à-dire identique en tout lieu. On aurait donc un rayonnement qui balaie l’univers partout et dans tous les sens.

Une telle hypothèse est vérifiable. En effet, l’hypothèse de « la Terre reçoit tout le rayonnement isotrope » comme dans la figure ci-dessus, implique qu’à un autre endroit le rayonnement est beaucoup plus faible (cela se voit sur la figure, en s’éloignant de la Terre, la densité de rayons diminue, les rayons s’écartent) et donc une température plus faible. On peut aussi avoir des hypothèses intermédiaires avec des températures de rayonnement diverses et variées selon les lieux.

Et on peut avoir une idée du rayonnement fossile tel qu’il est reçu en d’autres endroits de l’univers. Cela peut être fait de deux manières :

On peut mesurer la température des nuages de gaz un peu partout. Si ce rayonnement est omniprésent, alors une petite partie doit être absorbée par ces nuages, ce qui les empêche d’avoir une température inférieure à 2.7K.

Il existe bien entendu des nuages de gaz très chaud, par exemple lorsqu’ils sont chauffés par une étoile proche ou en leur sein.

Mais il y a aussi des nuages de gaz très froids, et nulle part on n’en trouve d’une température inférieure à 2.7K.

Ce rayonnement peut être absorbé par des atomes d’hydrogènes qui, une fois excité par ce rayonnement, peuvent eux-mêmes réémettre des rayonnements caractéristiques. Si ce rayonnement réémis était différent de celui qu’on reçoit sur Terre on pourrait aisément le différentier du rayonnement reçu du ciel profond (les endroits où même en regardant loin on ne distingue ni étoile, ni galaxie, ni nuage de gaz). Ce n’est pas le cas.

Ces vérifications sont difficiles et particulièrement imprécises (ce serait comme estimer la température qu’il fait au loin en regardant les gens avec des jumelles en en mesurant la quantité de transpiration).

Elles sont toutefois assez convaincantes pour adopter l’hypothèse du rayonnement totalement homogène et isotrope. Nous reviendrons un peu plus loin sur cette hypothèse dite du Principe Cosmologique.

Notons que le rayonnement observé est aussi constant. Il ne varie pas du tout au cours du temps.

Dissymétrie globale

Le rayonnement fossile est extrêmement isotrope. On observe toutefois de légers écarts qu’il est important d’observer. Ces différences sont extrêmement faible, la température n’étant pas uniformément à 2.7K dans toutes les directions mais présentant des différences de l’ordre du millième de degré. Seule la constance au cours du temps est absolument rigoureuse.

On observe en tout premier lieu une dissymétrie globale.

La grande ellipse représente un planisphère céleste, une représentation plane de l’ensemble de la voûte

La grande ellipse représente un planisphère céleste, une représentation plane de l’ensemble de la voûte céleste. La zone rouge est une zone où le rayonnement est un peu plus froid et la partie bleue une zone où le rayonnement est un peu plus chaud. Cela correspond aussi à un petit déplacement respectivement vers les grandes longueurs d’onde (décalage vers le rouge) et vers les petites longueurs d’onde (décalage vers le bleu) du spectre thermique du rayonnement.

Si le rayonnement était parfaitement isotrope, cette situation correspondrait exactement à ce qui serait observé si l’observateur était en mouvement par rapport à la source de ce rayonnement. Vers l’arrière on a alors un effet Doppler augmentant les longueurs d’onde et vers l’avant un effet Doppler diminuant les longueurs d’onde.

Il est donc naturel de voir ce phénomène comme dû au mouvement de la Terre. Il serait en effet étonnant que la Terre soit strictement immobile par rapport à la source. La Terre tourne autour du Soleil, le Soleil et la Terre tournent ensemble autour de la Voie Lactée et la Voie Lactée est attirée par ses proches voisines dont la galaxie d’Andromède.

On peut donc interpréter cette dissymétrie comme résultant du mouvement global de la Terre par rapport à la source. Cette interprétation est rendue encore plus plausible par la vitesse mesurée. La dissymétrie correspond à un décalage Doppler provoqué par le déplacement d’une source à environ 300 kilomètres par seconde. Or la Terre voyage à 30 kilomètres par seconde autour du Soleil, et le Soleil tourne autour de ,la Voie Lactée à 250 kilomètres par seconde. Le mouvement de la Voie Lactée par rapport à ses voisines est du même ordre (le tout ne s’ajoutant pas strictement, ça dépend des directions du mouvement). L’ordre de grandeur est correct. Ce qui aurait été douteux est de ne trouver aucune dissymétrie (la Terre aurait retrouvé son rôle privilégié « d’immobilité ») ou un décalage correspondant à des milliers de kilomètres par seconde (vu le mouvement relatif des corps qui nous entourent, cela n’aurait pas été plausible).

Comme c’est le rayonnement fossile qui nous intéresse et non le mouvement de la Terre, on soustrait cette dissymétrie de l’image en décalant les longueurs d’onde dans l’autre sens (par un traitement numérique des données).

Fluctuations

Le reste n’est pas encore totalement isotrope. Il y a de petites fluctuations du rayonnement (de sa température) que nous illustrons schématiquement ci-dessous.

-
-

Notons que ces relevés sont extrêmement difficiles à faire puisque en plus des difficultés soulignées plus haut on mesure ici des écarts d’un millième de degré. Il a fallu des prouesses technologiques pour y arriver. D’autant qu’il ne faut évidemment pas mesurer les ondes radios émises par toutes sortes d’astres et qui viennent perturber le relevé. On les mesure donc à part afin de les soustraire de l’image globale. Un travail de fourmi.

Nous n’avons schématisé que quelques fluctuations. Il y en a de toutes les tailles et il y en a des milliers. La structure est très complexe et apparemment aléatoire.

Pour analyser ces fluctuations, on a donc besoin d’une analyse statistique. Celle-ci consiste à mesurer les corrélations. C’est-à-dire que l’on prend un écart fixe donné (par exemple un angle de 10° sur la voûte céleste) et en tout point on mesure si les fluctuations en un point sont semblables à 10° de distance.

On effectue ce calcul pour tous les angles, ce qui nécessite un très gros traitement numérique de l’image. On dresse alors une courbe donnant, en fonction de l’angle, la valeur de la corrélation. Une grande valeur indique qu’une fluctuation en un point est accompagnée d’une fluctuation identique en un autre point (séparé de l’angle correspondant) tandis qu’une faible valeur indique que les fluctuations sont statistiquement indépendantes.

La courbe a globalement l’allure suivante :

La courbe présente l’allure d’un « spectre en puissance ». C’est -à-dire que la valeur

La courbe présente l’allure d’un « spectre en puissance ». C’est-à-dire que la valeur de la corrélation est proportionnelle à l’angle exposant une puissance. La courbe réelle présente des écarts, en particulier à petit angle (les plus difficiles à analyser car il faut mesurer une image du rayonnement fossile avec une bonne résolution), important pour étudier les détails du scénario cosmologique. Ce qui nous importera nous est surtout cette allure de spectre en puissance.

–II.4. La composition de l’univers

Le contenu de l’univers est évidemment important pour la cosmologie. Nous avons déjà décrit comment il se structurait en étoiles, galaxies, amas… Donc, voyons maintenant quelle est sa composition chimique et comment ces structures évoluent au cours du temps.

Composition chimique

Quels éléments chimiques composent l’univers ?

La question doit distinguer deux choses :

Les éléments chimiques qui pourraient éventuellement être là dès le départ.

Les éléments chimiques qui pourraient avoir été créés dans les étoiles.

En effet, les étoiles doivent leur source d’énergie à la fusion thermonucléaire qui modifie les éléments chimiques. Par exemple, la principale réaction qui se produit, est la fusion d’atomes d’hydrogène pour donner des atomes d’hélium.

Ces éléments synthétisés dans les fournaises stellaires sont ensuite dispersés par le vent solaire et, surtout, par l’explosion des vieilles étoiles massives (les supernovae).

La composition chimique superficielle des étoiles est fort bien connue par l’étude de leur spectre électromagnétique. On connait aussi fort bien ce qui ressort des supernovae par l’analyse du spectre des nébuleuses résultant de l’explosion de ces étoiles. On a en outre de très bons modèles de l’évolution interne des étoiles, modèles validés par les millions d’étoiles observées.

Sachant ce qui vient des étoiles, il est donc important d’analyser le spectre de toutes sortes de choses dans l’espace afin d’en connaitre la composition chimique et pouvoir faire la part des différentes sources possibles.

Ce qu’on observe c’est que l’essentiel des nuages de gaz sont constitués d’environ 75% d’hydrogène, 25 % d’hélium ainsi que divers autres éléments en plus petites quantités. Ces éléments supplémentaires variant fortement selon les endroits observés.

On trouve ainsi des nuages de gaz « pollués » (ensemencés serait plus correct) par les explosions supernovae. Ils contiennent de nombreuses poussières et des éléments lourds, jusqu’à l’uranium.

On trouve aussi des nuages très froids, fort isolés et ne contenant aucun élément lourd. On y trouve par contre de petites quantités d’éléments légers tel que le deutérium (hydrogène lourd), l’hélium 3 (des atomes d’hélium dont le noyau contient un neutron de moins), du lithium et des traces de quelques éléments supplémentaires.

En procédant de la sorte on a pu mesurer et dégager une composition « originelle » assez simple et assez précise de la matière qui n’a pas été synthétisée par les étoiles actuellement visibles dans les galaxies.

Evolution des structures

On sait que voir loin, c’est voir dans le passé. La question peut donc se poser : est-ce qu’on observe un changement dans l’univers au cours du temps ?

Globalement, l’univers reste fort semblable : des étoiles, des galaxies, des amas,… Mais on observe tout de même trois choses notables :

On observe de ci de là des galaxies en train de fusionner (le processus prend des centaine de milliers d’années, on observe des « instantanés » à divers stades de la fusion selon les galaxies observées). Ces galaxies s’approchent, se mélangent (leurs étoiles se mélangent pratiquement sans se heurter), leurs trous noirs centraux fusionnent puis forment une seule galaxie.

Comme les étoiles ne se touchent presque pas, on pourrait penser que les galaxies vont

passer l’une à travers l’autre sans se modifier, mais ce n’est pas le cas, pour deux raisons :

o Les galaxies contiennent du gaz. Des forces de frottements visqueux importantes freinent donc les galaxies lorsqu’elles se mélangent.

o Les forces gravitationnelles entrainent des forces de marées qui déforment les galaxies jusqu’à les mélanger par des mécanismes dynamiques. Les grandes quantités de gaz de chaque galaxie se heurtant, cela entraine des perturbations et des effondrements de ces nuages de gaz, ce qui donne d’importantes flambées d’étoiles.

Les galaxies ont donc dû grossir lentement par absorption de petites galaxies naines mais aussi par fusion plus rare de deux grosses galaxies. Ce dernier cas, simulé sur ordinateur montre que la fusion de deux galaxies spirales donne une galaxie elliptique beaucoup plus pauvre en gaz (épuisé en ayant servi à former ces flambées d’étoiles).

On observe en effet une faible mais nette augmentation du nombre de galaxies elliptiques au cours du temps.

Certaines galaxies sont dites actives. Leur trou noir centrale absorbe beaucoup de gaz et d’étoiles et produit un intense rayonnement et de puissants jets de matières.

Si les galaxies initiales étaient plus riches en gaz, on devrait observer plus de galaxies actives. Ces galaxies se calmant ensuite après que le trou noir aie fait le vide autour de lui et ne se réactivant qu’à l’occasion de grosses perturbations comme la fusion de deux galaxies.

C’est effectivement le cas. On observe pendant une période brève et précoce de l’histoire de l’univers un grand nombre de galaxies extrêmement actives appelées quasars. Leur découverte initiale fut une surprise car on ne s’attendait pas à trouver ce genre d’objet au début et ils posaient une énigme. Ils avaient un décalage vers le rouge très élevé. Donc, soit c’était des objets proches mais avec un décalage vers le rouge incompréhensible, soit ils étaient très loin mais avec une luminosité faramineuse (pour être vu presque « au bout de l’univers ») et assez incompréhensible pour l’époque.

L’amélioration des observations a confirmé leur distance élevée (et donc leur ancienneté) et la découverte des trous noirs super massifs au centre des galaxies a fourni un mécanisme élégant à leur orgie d’énergie.

Rappelons-nous les nuages très froids et chauffés par le rayonnement fossile. Ces nuages réémettent un rayonnement caractéristique dont certains aspects furent d’ailleurs mystérieux à une époque.

Cela a permis de constater que la température du rayonnement fossile a baissé au cours du temps. Cette mesure est fort imprécise et ne permet pas un tracé de la courbe de variation de température au cours du temps. Mais ces effets sont suffisants pour constater ce refroidissement.

II.5. Le principe cosmologique

Le principe cosmologique est le principe qui affirme que l’univers est homogène et isotrope à grande échelle. C'est-à-dire que, quel que soit l’endroit où l’on se trouve dans l’univers, le ciel a une apparence semblable à celui que nous pouvons observer depuis la Terre.

Cela revient aussi à dire qu’il n’existe pas d’endroit privilégié dans l’univers, ou qu’il ne possède pas de « centre ».

Distribution des galaxies et amas

On a vu que les galaxies étaient structurés en amas et superamas. On observer ainsi des structures de grandes tailles et rien de particulier ne se dégage à plus grande échelle.

Considérons des volumes suffisamment important, par un cube de dix millions d’années-lumière de côté (ce qui fait un volume de mille milliards de milliards d’années-lumière cube, c’est énorme). Comptons le nombre de galaxies, d’amas, de superamas. Considérons plusieurs cubes ainsi un peu partout dans l’univers. Que trouve-t-on ?

Ce qu’on découvre c’est que le nombre de galaxies, amas, superamas est le même quel que soit l’endroit où l’on regarde (aux fluctuations statistiques près).

On est donc conduit à ce principe cosmologique qui affirme que l’univers est homogène. Cela apporte aussi du grain à moudre au raisonnement qui nous à conduit à affirmer que l’isotropie du rayonnement fossile conduit à son homogénéité.

Evidemment, ce principe n’est vrai qu’à très grande échelle. A petite échelle, la matière est structurée par la gravitation conduisant à la formation d’étoiles, de galaxies, … Si l’univers était parfaitement homogène même à petite échelle, sans aucune irrégularité, parfaitement lisse, nous n’existerions tout simplement pas.

Cette analyse a été confirmée par des relevés systématiques de millions de galaxies permettant de

calculer le degré d’homogénéité selon les dimensions considérées. C’est donc un travail fastidieux heureusement favorisé par les techniques modernes de relevés automatiques et le traitement numérique sur ordinateur. Il faut aussi éviter de comparer des régions proches et des régions trop lointaines, pour deux raisons :

L’univers est en expansion, donc il y a longtemps (donc quand on regarde au loin), il devait être plus dense.

Lorsque l’on regarde très loin, même avec les meilleurs instruments, on ne peut voir que les

objets les plus lumineux. Cela entraîne un biais d’observation qui risque de faire « rater » des galaxies dans le décompte. Heureusement, l’univers évolue suffisamment lentement pour permettre une analyse statistique sur la plus grande partie de l’univers que nous pouvons observer. Confirmant le principe cosmologique avec un haut degré de certitude.

Expansion

Considérons une expansion des galaxies décrite par la loi de Hubble.

Commençons par prendre le point de vue d’un observateur situé sur Terre.

prendre le point de vue d’un observateur situé sur Terre. Considérons une série de galaxies régulièrement

Considérons une série de galaxies régulièrement espacées A, B, etc… La vitesse d’éloignement est

donnée par la loi de Hubble :

s’éloigne deux fois plus vite. On dit que la loi d’expansion est linéaire.

. C’est-à-dire qu’une galaxie située deux fois plus loin

Après un certain temps, les galaxies se sont éloignées et on trouve la deuxième ligne ci-dessus.

Considérons maintenant la galaxie X. On se place de son point de vue, c’est-à-dire le point de vue d’un observateur qui serait situé dans cette galaxie. Dans ce cas on obtient pour les deux instants ci- dessus :

vue d’un observateur qui serait situé dans cette galaxie. Dans ce cas on obtient pour les

La tracé est obtenu à partir du précédent en reprenant les mêmes positions des galaxies mais en gardant fixe la position de l’observateur dans la galaxie X.

Dans ce cas, l’observateur de la galaxie X constate exactement la même chose. Les galaxies le fuient à

la vitesse donnée par la loi de Hubble

. La situation est parfaitement identique.

Cette situation n’est d’ailleurs vraie que si la loi est linéaire. La loi de Hubble est la même partout. L’impression que les galaxies nous fuient et que nous occupons une espèce de centre est donc totalement trompeuse : elles se fuient les unes les autres et tout point de vue est identique.

Il y a une parfaite correspondance :

Loi linéaire et isotrope Espace homogène et isotrope

L’observation de la linéarité de la loi de Hubble et du principe cosmologique sont donc consistants et se renforcent l’un l’autre.

Notons toutefois qu’il y a une limite à ce genre de constatation. N’oublions pas que voir loin c’est voir dans le passé. Quand on observe une série de galaxies de plus en plus éloignées, on ne les voit pas toute telles qu’elles étaient au même moment. Or la loi de Hubble si elle est linéaire, elle n’est pas nécessairement constante au cours du temps. On parle de « constante » de Hubble mais en réalité ce terme est trompeur. On devrait donc constater un écart à la linéarité, les vitesses d’éloignement dépendant non seulement de la distance mais aussi de l’époque observée. Nous y reviendrons car des surprises nous attendent.

III. Les théories

Voilà pour les observations.

Le moment est venu de passer aux théories scientifiques utilisées dans les modèles.

Ces théories ont été largement validées par l’expérience dans un large domaine, et en tout cas dans le domaine où elles sont utilisées dans les modèles. On les considérera donc comme correctes.

La cosmologie utilise à peu près tout ce que la physique lui offre. Le sujet est donc extrêmement vaste et complexe. Des présentations sérieuses et techniques prendraient plusieurs livres à elles- seules. Nous ne ferons donc que les esquisser, en présentant l’essentiel, de manière vulgarisée, afin de comprendre les modèles.

La liste n’est pas exhaustive. Nous faisons l’impasse sur les lois de la mécanique, la mécanique des fluides, la chimie,… Très importants mais dont l’objet est assez évident.

III.1. Electromagnétisme

Nous avons déjà vu certains aspects des ondes électromagnétiques. Nous allons voir cela d’un peu plus près. Malgré-tout, cela ne représente qu’une partie infime de la théorie de l’électromagnétisme.

Les ondes

Une onde est un phénomène étendu, prenant une valeur en tout point et tout instant. Cette valeur varie de manière périodique dans l’espace et le temps.

L’archétype d’une onde est la vague dans l’eau.

On peut caractériser une onde par un certain nombre de grandeurs :

caractériser une onde par un certain nombre de grandeurs : La longueur d’onde est la distance

La longueur d’onde est la distance au bout de laquelle le phénomène se répète, c’est-à-dire la

distance entre le sommet de deux vagues. Elle se note

.

La vitesse de l’onde est la vitesse à laquelle l’onde se propage. C’est la vitesse des vagues. Elle se note v (on met la variable en gras pour indiquer qu’elle a non seulement une grandeur mais aussi une direction, on appelle cela un vecteur), sa grandeur sera notée v ou c (pour célérité).

La fréquence d’une onde est le rythme auquel on voit défiler l’onde en un point, c’est le nombre de

vagues passant par seconde. Elle se mesure en hertz (Hz), ou « par seconde ». Elle se note

.

Enfin, la phase est la distance séparant le sommet d’une bosse (ou d’un creux) d’un point choisi comme référence. Lorsque l’on a deux ondes, on parle de décalage (différence) de phase pour

indiquer la différence entre la phase des deux ondes. On la note

.

Ces grandeurs ne sont pas indépendantes. Par exemple, plus la longueur d’onde est grande et plus le

rythme (la fréquence) auquel on verra passer les bosses est plus petit. Et plus la vitesse est grande,

plus le rythme sera grand. On vérifie facilement que l’on a :

.

D’autres exemples d’ondes sont les vibrations d’une corde ou les ondes sonores.

Ce dernier cas est intéressant. La grandeur qui varie ici est la pression de l’air, ce qui correspond à un déplacement des molécules d’air. Pour les vagues et les cordes, la grandeur qui varie est la hauteur de l’eau et la position de la corde. Dans ces deux cas, le déplacement de l’eau ou de la corde se fait perpendiculairement à la direction dans laquelle l’onde se propage. On parle d’ondes transversales. Dans le cas du son, le déplacement des molécules d’air se fait dans le même sens que la propagation du son, on parle d’ondes longitudinales.

Un autre exemple d’ondes longitudinales est donnée par une série de ressorts boudins attachés les uns aux autres pour former une longue file. Si l’on pousse sur le premier ressort, il va se comprimer et la perturbation va se propager tout du long de la chaîne de ressorts.

Notons que la grandeur qui varie n’est pas nécessairement une vibration ou un déplacement. Par exemple, une onde de chaleur est une variation périodique de la température qui se propage. On continue toutefois à la représenter comme ci-dessus, de même pour une onde longitudinale, l’axe vertical du graphique ne représentant pas nécessairement un déplacement mais seulement la valeur de la grandeur qui varie.

Ondes électromagnétiques

On trouve dans la nature des objets chargés électriquement ainsi que des aimants. Les charges électriques peuvent se classer en charges négatives et en charges positives. Les aimants possèdent un pôle nord et un pôle sud.

Les charges électriques de même signe ainsi que les pôles de même nature se repoussent, tandis que ceux de signes opposés s’attirent.

Ce phénomène se transmet par l’intermédiaire d’un champ, c’est-à-dire une grandeur prenant des valeurs en tout point de l’espace et pouvant varier autant dans l’espace que le temps. Les charges électriques sont la source du champ électrique et les aimants sont la source d’un champ magnétique. On peut aisément visualiser ces champs avec, par exemple, de la limaille de fer.

Ces champs sont caractérisés par une intensité, en chaque point, mais aussi par une direction. Ce qu’on peut représenter par une flèche (vecteur). A titre d’exemple, voici les champs électriques émis par des charges électriques :

Les charges électriques sont également sensibles aux champs électriques, ce qui explique les propriétés

Les charges électriques sont également sensibles aux champs électriques, ce qui explique les propriétés d’attraction et de répulsion. Voici par exemple les champs électriques lorsque l’on a deux charges :

Et voici le champ magnétique émit par un aimant :

Et voici le champ magnétique émit par un aimant :

Et voici le champ magnétique émit par un aimant :

L’important est que ces deux champs ne sont pas indépendants. Ainsi, une charge électrique en mouvement peut être déviée par un champ magnétique. De même, une charge électrique en mouvement crée non seulement un champ électrique mais aussi un champ magnétique.

Mais il y a mieux. Imaginons une charge électrique immobile par rapport à nous. Ce que nous voyons (par diverses mesures) est un champ électrique émit par la charge et pas de champ magnétique.

Maintenant, considérons toujours la même charge dans la même situation, mais c’est nous qui nous déplaçons. Dans ce cas, nous allons observer un champ électrique et un champ magnétique ! La forme du champ électrique ou magnétique dépend autant de sa source que de l’observateur. Cela montre que ces deux champs sont seulement les deux facettes d’un seul et même champ (plus complexe) appelé champ électromagnétique.

Notons en passant que l’on obtient le même résultat avec une charge en mouvement ou avec un observateur en mouvement. Ce qui compte est la vitesse relative entre la charge et l’observateur. C’est une manifestation du principe de relativité.

Notons que puisque ces champs sont caractérisés en chaque point par une intensité et une direction, on les représentes par des vecteurs (respectivement E et B pour les champs électriques et magnétiques) qui prennent une valeur en chaque point.

Le formalisme associant les deux, le champ électromagnétique, est un peu plus compliqué.

Maxwell, au dix-neuvième siècle, réussi à réunir l’ensemble des propriétés et lois décrivant les phénomènes électriques et magnétiques en un tout cohérent et élégant. L’ensemble tient en cinq équations (après les remaniements de ses successeurs dont Heaviside). Quatre équations décrivent les comportements des champs en fonction des sources (charges, aimants,…) et donnent leur variation dans l’espace et le temps et une équation décrit comment une charge électrique est influencée par le champ électromagnétique. Ce sont les quatre premières équations qui vont nous intéresser.

Inutile d’entrer dans le détail ni même de présenter chacune des équations. Les résultats nous suffirons. Disons juste que ces équations sont très largement validées par l’expérience, dans tous les domaines et avec une très grande précision. Elles sont à la base du fonctionnement des télécommunications, des moteurs électriques, des dynamos et alternateurs, des transformateurs et de bien d’autres dispositifs.

Signalons juste qu’on peut séparer les équations en deux groupes :

- Deux équations décrivant comment les champs sont reliés aux sources (charges et courants électriques).

- Deux équations décrivant comment les champs sont liés entre eux, indépendamment des sources.

Les équations de Maxwell admettent des solutions sous forme d’ondes électromagnétiques qui se propagent. Dans ces ondes les champs électriques et magnétiques ont cet aspect :

Spectre La lumière n’est rien d’autre qu’une onde électromagnétique. Il en est de même de

Spectre

La lumière n’est rien d’autre qu’une onde électromagnétique. Il en est de même de bien d’autres phénomènes tel que les ondes radios et les rayons X. La seule différence entre ces ondes est la longueur d’onde (ou la fréquence d’oscillations).

Un point important est à préciser. Contrairement à ce que pourrait laisser croire le dessin

Un point important est à préciser. Contrairement à ce que pourrait laisser croire le dessin de l’onde électromagnétique, il n’y a aucune oscillation latérale de l’onde. Les flèches transversales représentent seulement la direction des champs électriques et magnétiques sur la ligne de propagation de l’onde et l’oscillation qui est représentée est seulement la variation de l’intensité des champs électriques et magnétiques en ces points. Il n’y a donc aucune vibration. L’onde électromagnétique est un champ électromagnétique qui se propage avec des valeurs variant périodiquement des champs électriques et magnétiques.

Autres effets

Rappelons que les ondes électromagnétiques subissent l’effet Doppler. Lorsqu’une source d’ondes électromagnétiques et un récepteur se dirigent l’un vers l’autre, la longueur d’onde mesurée par le récepteur est décalée vers les courtes longueurs d’onde (décalage vers le bleu) et lorsqu’ils s’éloignent, la longueur d’onde est décalée vers les grandes longueurs d’onde (décalage vers le rouge).

Nous avons vu aussi que tout corps chaud émet un rayonnement électromagnétique appelé rayonnement thermique. Il est dû à l’agitation thermique des atomes et molécules constituant ce corps. Le cas idéal est celui du corps noir dont se rapprochent beaucoup d’objets. Le rayonnement fossile est un rayonnement thermique correspondant à un corps noir à 3K.

Enfin, le rayonnement est rarement parfait et il contient des raies plus intenses à certaines longueurs d’onde ou au contraire des raies d’absorption. L’ensemble des longueurs d’ondes constituant ces raies constitue le spectre électromagnétique d’atomes et de molécules et il est semblable à une empreinte digitale. La simple identification de quelques raies permet souvent de savoir quels sont les atomes ou molécules responsables de leur émission ou absorption.

III.2. La thermodynamique

La thermodynamique pourrait être qualifiée de théorie de la chaleur et du travail. C’est la théorie qui permet de décrire la matière dont varient les grandeurs macroscopiques décrivant les corps et les fluides à notre échelle.

Nous ne présentons ici aussi qu’une partie infime de cette théorie.

Les grandeurs

Quatre grandeurs de base interviennent en thermodynamique.

La température. C’est une grandeur caractérisant l’état des corps soumis à des échanges de chaleur. Elle se mesure avec des thermomètres à travers la variation de certaines grandeurs avec la température (par exemple, le mercure se dilate avec la chaleur, ce qui est utilisé dans certains thermomètres du grand public).

On la note T.

L’unité de mesure est le degré Celsius ou Kelvin. On définit une échelle de température à l’aide d’états physiques bien particuliers :

o

La glace fondante pour le zéro degré Celsius (en réalité l’état où cohabite eau, glace et vapeur appelé point triple).

o

Le passage de l’eau à l’état de vapeur (100 degrés Celsius à pression athmosphérique).

o

Le zéro absolu ou zéro Kelvin qui est l’état où toute la chaleur a été enlevée du corps. Il correspond à -273 degrés Celsius.

La pression. C’est une force exercée sur les fluides sur les surfaces. Par exemple la pression atmosphérique est due au poids de la masse d’air au-dessus de nous. Si l’on comprime de l’air avec une pompe, on augmente la pression de l’air.

On la note P.

L’unité de mesure est le Pascal. Il correspond à une force de 1 Newton sur une surface de un mètre carré. Le Newton est l’unité de mesure des forces (une masse de 1 kilogramme a un poids de 10 Newton à la surface de la Terre).

Le volume, noté V, est une grandeur évidente.

La quantité de matière. Cette grandeur est aussi assez évidente.

Il existe plusieurs unités de mesure liées à des grandeurs proches.

La masse, notée M, s’exprime en kilogramme. Il ne faut pas la confondre avec le poids qui est

une force due à l’attraction terrestre.

La densité, notée

, est la masse par unité de volume. L’eau a une densité de 1.

Une autre quantité commune est le « nombre de môles », noté n, et correspond à un nombre bien précis de molécules (très grand appelé nombre d’Avogadro et correspondant à plus de cent mille milliards de milliards de molécules). Elle est très utilisée en chimie.

Une môle d’hydrogène à une masse de deux grammes et une môle de carbone a une masse de 12 grammes, par exemple. A côté de ces grandeurs omniprésentes, on trouve aussi d’autres grandeurs qui peuvent intervenir tel que la charge électrique, des « potentiels chimiques », etc.

Equation d’état

Une substance placés dans un état donné (par exemple de l’eau ou de la vapeur) sera caractérisée par un certains nombres de grandeurs : T, P, V, n,…

Lorsque la substance change d’état (par exemple en faisant bouillir l’eau), ces grandeurs changent aussi.

On appelle équation d’état la relation reliant ces grandeurs entre-elles pour une substance donnée. Elle exprime comment ces grandeurs varient ensembles. Par exemple on écrira :

P = f(n, V, T,…) Pour dire que la pression est une certaine fonction de la quantité de matière, du volume et de la température.

Un cas particulier important est celui des gaz parfaits. Ils obéissent à la relation :

Appelée aussi équation des gaz parfaits. R est une constante universelle appelée constante des gaz parfaits.

Tous les gaz sont proches des gaz parfaits lorsque la pression est assez faible. La plupart des gaz sont des gaz parfaits à pression atmosphérique, ce qui est le cas de l’air.

Cette équation relie entre-elles trois grandeurs. Si deux varient, l’autre varie en suivant la relation. Mais si une seule varie, comment en déduire la variation des deux autres ? Il manque pour cela des informations tel que les échanges d’énergie. Nous allons y venir bien que notre but ne sera pas ici de vous donner les outils pour calculer, par exemple, le fonctionnement d’un moteur thermique !

Mais cette équation est déjà suffisante pour comprendre certains comportements.

Plaçons de la valeur dans une enceinte fermée (ou un peu d’eau portée à ébullition). Si l’on augmente la température en chauffant l’enceinte, la pression augmente.

Cela se voit immédiatement avec la relation ci-dessus car ici V et n sont invariables. Donc lorsque T augmente, P augmente aussi de la même manière.

C’est le principe de la marmite de Papin ou de la cocotte-minute. La pression élevée permet de maintenir une température élevée, supérieure à cent degrés et accélère la cuisson des aliments.

Comprimons de l’air dans un tube avec un piston.

On maintient la température constante à l’aide d’un thermostat.

Ici c’est n et T qui sont invariables. Si V diminue, alors P augmente. C’est le principe des machines à air comprimé.

Notons que si l’on agit très vite, la chaleur n’a pas le temps de s’évacuer et la température augmente. Ici il nous manque des informations pour le calculer précisément. Mais on peut réaliser facilement l’expérience avec une pompe à vélo en poussant fortement le piston tout en bouchant la sorte avec son pouce : on sent la chaleur.

Inversement, lorsque un gaz comprimé se détend (son volume augmente fortement) sa température chute. Expérience encore plus facile à réaliser avec n’importe quelle bombe aérosol.

Premier principe

Le premier principe de la thermodynamique affirme que l’énergie totale d’un système isolé reste constante au cours du temps. L’énergie peut être échangée, transformée mais elle n’est ni créée ni détruite.

L’énergie est une grandeur qui caractérise l’état d’un système. Elle peut exister sous toutes sortes de formes :

L’énergie cinétique est l’énergie associée au mouvement. Pour un corps de masse M et de vitesse v, son énergie cinétique est

L’énergie potentielle est l’énergie associée aux forces conservatrices. C’est-à-dire que la force appliquée au système peut être dérivée d’une énergie potentielle qui ne dépend que de la position. Lorsque le système parcourt un chemin de A à B il gagne ou perd la différence d’énergie potentielle entre ces deux points. Lorsque le système parcourt un chemin fermé et si l’énergie potentielle ne varie pas au cours du temps, alors il ne gagne ni ne perd aucune énergie puisque l’on revient à la même position.

.

Un exemple d’énergie potentielle est l’énergie gravitationnelle. Lorsqu’un objet tombe, il passe d’un lieu avec une grande énergie potentielle de gravitation à un lieu de plus faible énergie. Cette énergie se retrouve sous la forme de la vitesse de chute.

Lorsque l’on parle d’énergie mécanique, il s’agit de l’énergie potentielle plus l’énergie cinétique.

L’énergie thermique est l’énergie emmagasinée sous forme de chaleur. Elle se traduit par une agitation frénétique des atomes et des molécules. A l’échelle microscopique, ce n’est donc que de l’énergie cinétique. Mais à l’échelle macroscopique, si on néglige les détails microscopiques, cela se traduit par un bilan global pour le corps appelé énergie thermique.

L’énergie chimique est une forme d’énergie potentielle stockée dans les liaisons plus ou moins forte entre atomes au sein des molécules.

L’énergie nucléaire est de même associée aux liens entre particules dans le noyau des atomes.

L’énergie propre est l’énergie associée à la masse d’un corps selon la relation d’Einstein :

où c est la vitesse de la lumière dans le vide.

Quand on parle d’énergie interne, il s’agit de toutes les formes d’énergie potentielle à l’intérieur du corps (chimique, nucléaire,…) et de l’énergie thermique.

Cette liste n’est pas exhaustive.

La conservation a d’abord concerné l’énergie mécanique. Elle peut être déduite des lois de la mécanique de Newton. Progressivement, surtout au dix-neuvième et vingtième siècle, on étendit ce principe de conservation en vérifiant sa validité avec les autres formes de l’énergie.

Les échanges d’énergie se font sous deux formes :

Le travail, ou énergie « noble », est l’énergie transférée par l’action des forces. Forces de

pression, forces mécaniques, forces de l’attraction gravitationnelle,…

La chaleur, ou énergie « dégradée », est le transfert d’énergie thermique.

On a découvert que toutes les formes d’énergie étaient reliées à une invariance. Si les lois physiques décrivant l’évolution d’un système ne varient pas au cours du temps, alors l’énergie totale est constante (théorème de Noether).

Second principe

Le second principe traite des phénomènes dits irréversibles. Lorsque qu’un verre tombe, il se brise en mille morceaux. Mais les morceaux ne se rassemblent pas spontanément pour former un verre intact.

L’archétype des phénomènes irréversibles en thermodynamique est donné par les échanges de chaleur. La chaleur est toujours échangée spontanément des milieux chauds vers les milieux froids, jamais l’inverse.

Les physiciens ont traduit cette évolution irréversible à travers une grandeur appelée entropie et notée S.

Cette grandeur possède deux propriétés :

Elle est additive. L’entropie de deux systèmes et la somme de leurs entropies.

Elle est toujours croissante. C’est le second principe. Rien d’étonnant à ça, cette grandeur est justement choisie pour suivre une telle croissance en décrivant les processus irréversibles.

On qualifie parfois l’entropie de « désordre ». Cette appellation à du vrai mais elle est trompeuse car la notion intuitive de désordre peut parfois être en désaccord avec celle d’entropie.

Physique statistique

La physique statistique a pour but de retrouver les lois de la thermodynamique à partir des comportements microscopiques.

En utilisant les lois fondamentales (lois de la mécanique, mécanique quantique) et en faisant le lien entre les grandeurs microscopiques et macroscopiques, on peut reconstruire ces lois.

Elle porte le nom de « statistique » car elle utilise abondamment les probabilités pour gérer le comportement de rassemblements de milliards de milliards d’atomes.

Les liens entre grandeurs microscopiques et macroscopiques sont parfois évident, parfois moins. Voyons en quelques exemples :

La pression est donnée par la force appliquée par le fluide sur une surface. Cette force est due aux particules du fluide qui heurtent cette surface. Chaque choc induit une force appliquée à la surface. La force totale est la pression.

L’énergie thermique n’est rien d’autre, nous l’avons dit, que l’énergie cinétique d’agitation des atomes et molécules de la substance.

L’énergie cinétique moyenne d’une particule est égale à kT (fois le nombre de degrés de liberté, c’est-à-dire toutes les manières indépendantes dont elle peut bouger, vibrer, tourner,…) où T est la température et k une constante universelle appelée constante de Boltzmann.

Lorsque les particules sont dans un certain état : certaines positions, certaines vitesses,… il y correspond un certain état macroscopique : température, pression, volume. Si on change la position d’un seul atome, cela ne va pas modifier ces grandeurs macroscopiques de manière mesurable.

D’une manière générale, pour des valeurs données de T, P, V, il y a des milliards et des milliards de manières de disposer les particules de la substance avec certaines vitesses. Les valeurs T, P, V caractérisent l’état macroscopique et les positions et vitesses de chaque particule caractérisent son état microscopique. Le nombre (très grand) d’états microscopiques correspondant à UN état macroscopique est noté W.

On montre que l’entropie est liée à W. Sans plus expliquer, on a logarithme népérien, une fonction mathématique).

(où ln est le

III.3. La relativité générale

La relativité est la théorie de l’espace et du temps prenant en compte des effets comme l’invariance de la vitesse de la lumière.

Repères

Pour pouvoir faire des mesures, des expériences, des études de phénomènes physiques, il est nécessaire de donner de valeurs numériques précises aux positions et aux instants auxquels se produisent les phénomènes. Cela se fait en utilisant des repères précis par rapport auquel on détermine la position des objets. Un exemple bien connu est le système des latitudes et longitudes qui repèrent les lieux par rapport à la Terre. En plus de repérer les positions, on détermine les instants à l’aide d’horloges.

Considérons deux observateurs A et B, chacun équipés de son horloge. Par facilité, nous considérerons la situation suivante.

Par facilité, nous considérerons la situation suivante. L’observateur A est situé au point O, il utilise

L’observateur A est situé au point O, il utilise trois directions (x, y et z non représenté) pour identifier la position de chaque objet ou événement auquel il attribue ainsi trois coordonnées x, y et z. Il a aussi une horloge indiquant le temps t. Ce système de repérage constitue son repère (K) par rapport auquel il peut donner des coordonnées (position et instant) précis à chaque événement. Nous avons l’habitude de tels repères quand on dit « la colline est à trois kilomètres de ma maison » ou « l’île se situe à 45° de longitude ouest avec le méridien de Greenwich », anciennement on utilisait le méridien de Paris).

De même, l’observateur B est situé au point O’ et utilise les trois directions (axes) x’, y’, et z’ et il dispose d’une horloge indiquant le temps t’. Le repère sera noté K’. Les axes sont disposés comme sur la figure.

L’observateur B est en mouvement par rapport à A à la vitesse V, qui est aussi la vitesse de O’ par rapport à O (ou de O par rapport à O’ avec renversement du sens de la vitesse) ou la vitesse de K’ par rapport à K. Lorsque les points O et O’ coïncident, on choisit les coordonnées du temps telles qu’à cet instant t = t’ = 0 (c’est juste une question de facilité).

Par exemple, A pourrait être immobile sur le quai d’une gare et B pourrait être dans un train où il effectue toutes ses mesures par rapport à sa propre position.

La relativité restreinte

La relativité utilise deux postulats :

Principe de relativité restreinte : tous les repères inertiels sont équivalents. Un repère inertiel est un repère en mouvement à vitesse constante où l’on ne ressent aucune accélération et où les lois classiques de la mécanique (les lois de Newton) sont valides.

Ce principe signifie que les lois physiques décrivant les phénomènes doivent garder la même forme quel que soit le repère utilisé pour les formuler. Cela ne signifie évidemment pas que ces repères sont identiques et que tout ce qui s’y passe aussi. Par exemple, notre observateur A sur voit le train en mouvement tandis que B considère que le train ne bouge pas par rapport à lui.

Ce principe est en fait assez naturel. Il est difficile d’imaginer un repère absolu, spécial, par rapport auquel repérer les événements. Par exemple, on pourrait dire que A a un « meilleur » repère que B car il est immobile tandis que B est dans un train. Mais le repère de A est-il si bon ? Après tout la Terre n’est pas immobile, elle tourne autour du Soleil. Et l’ensemble Terre – Soleil tourne autour de la Galaxie. En réalité, il n’y a pas de repère absolu. Il n’y a que des choix arbitraires, humains. C’est nous qui choisissons de déterminer les positions par rapport à tel ou tel repère. Ce choix n’influence évidemment pas la manière dont les phénomènes physiques se produisent (un passager sur le quai laisse tomber son billet : ce phénomène se produit autant du point de vue de A que de B). Ce choix n’influence que la manière de décrire le phénomène. On souhaite donc que cette description soit la plus universelle possible et ne dépende pas du repère.

Le choix des repères inertiels est un choix restreint, d’où le nom de relativité restreinte. On généralisera plus tard.

La vitesse de la lumière dans le vide, c, est constante et invariante. Cela signifie que cette vitesse ne varie pas au cours du temps et qu’elle est identique pour tout observateur.

Cette vitesse a été mesurée dans de nombreuses circonstances et à l’aide de nombreux moyens. Ce postulat est vérifié expérimentalement avec une précision extrêmement grande (à tel point qu’on se sert maintenant de la vitesse de la lumière pour définir le mètre étalon pour la mesure des longueurs).

La vitesse de la lumière ne dépend pas du mouvement de l’émetteur ni du récepteur. En physique classique, cela peut sembler étrange. En effet, si l’observateur B émet un rayon lumineux vers l’avant du train et que ce rayon se déplace à la vitesse c par rapport à lui, on s‘attend à ce que la vitesse du rayon lumineux mesurée par A soit V + c. Ce n’est pas ce qui

est expérimentalement constaté. De toute évidence, la simple addition des vitesses ne marche pas lorsque l’on envisage des vitesses très élevées comme celle de la lumière. Comme la vitesse n’est rien d’autre qu’une certaine distance parcourue en un certain temps, cela signifie qu’il doit y avoir des changements dans les concepts d’espace et de temps.

Ces changements ne nous concernent qu’indirectement, puisque nous nous intéressons qu’à l’énergie.

La mesure de l’espace peut se faire en utilisant des règles étalons disposées de la manière indiquée pour les repères ci-dessus. La mesure du temps peut se faire en utilisant des horloges.

Il reste un détail important à régler. Comme on a deux observateurs, on a deux horloges. Comment les synchroniser ? En fait, comme les observateurs vont noter des phénomènes se produisant à différents endroits, il faut aussi se poser la question : comment mesurer le temps à un endroit différent de O ou O’ ?

Pour cette deuxième question on peut, au moins par la pensée, disposer des horloges un peu partout de façon à en avoir une à chaque endroit où l’on désire mesurer le temps. Il reste donc la question de synchronisation des horloges. Voici une procédure possible (procédure d’Einstein, plusieurs procédures sont possibles et elles sont équivalentes au prix, éventuellement, d’une redéfinition des coordonnées).

Pour A, on dispose un ensemble d’horloges immobiles par rapport à A. C’est-à-dire que les coordonnées x, y, z de chaque horloge ne varient pas au cours du temps. Ainsi, la distance entre O et chaque horloge peut être mesurée en utilisant le repère et cette valeur ne change pas.

A

synchronise alors toutes ses horloges avec l’horloge H située en O. Pour ce faire, il envoie

des signaux entre les horloges en tenant compte du temps de propagation du signal entre

chaque horloge. S’il utilise la lumière, connaissant la distance entre les horloges et connaissant la vitesse de la lumière, le temps de propagation est facile à calculer. Ainsi, l’ensemble des horloges mesurera un temps t concordant dans l’ensemble du repère K.

B

peut faire de même avec des horloges immobiles par rapport à O’ (donc différentes de

celles utilisées par A même si d’aventure elles peuvent se croiser) et il les synchronise par rapport à son horloge H’ située en O’.

Pour pouvoir comparer les mesures effectuées par A et B, il reste à synchroniser les horloges

H et H’. La définition des repères ci-dessus en donne la clef. Au moment où O et O’ se

croisent, les horloges H et H’ sont situées au même endroit. On peut aisément les synchroniser en réglant t = t’ = 0, puis A et B synchronisent les autres horloges comme expliqué ci-dessus.

Sans entrer dans les détails techniques, notons deux choses importantes :

Il entre dans les différentes relations en relativité, un facteur, appelé « facteur gamma » ( ) qui est environ égal à un pour des vitesses V faibles et qui diverge lorsque V tend vers c. La valeur de gamma ne diffère de un que pour des valeurs notables de V par rapport à la vitesse

de la lumière. Ainsi, même à 100000 km/s, gamma vaut seulement 1.06.

Ainsi, même à 100000 km/s, gamma vaut seulement 1.06.  En général, pour un événement donné

En général, pour un événement donné E, on aura horloges.

, même si l’on a synchronisé les

Relation entre masse et énergie

La relativité montre qu’il existe une relation entre l’énergie et la masse des objets. Pour un objet au repos, c’est-à-dire immobile dans le repère considéré, on a :

Formule célèbre s’il en est.

Pour un objet en mouvement, avec un facteur gamma donné, on a :

Cette énergie croît donc très vite. En fait, même pour un objet au repos, l’énergie propre donnée ci-

dessus est très élevée, à cause du facteur

seconde, il vaut 90000000000000000). Ainsi, l’énergie d’un électron au repos est de 512000 électronvolts, à comparer aux 13.6 de l’ionisation de l’hydrogène.

(carré de la vitesse de la lumière, en mètres par

Il existe dans la nature des particules appelée antimatière qui sont simplement les mêmes particules que celles que nous connaissons mais avec des charges opposés. Ainsi, l’antiélectron, ou positron, est exactement identique à l’électron mais avec une charge électrique positive.

Lorsqu’une particule rencontre une antiparticule correspondante, elles s’annihilent en se transformant en photons. Par exemple, un électron et un positron s’annihilent (par exemple) en donnant deux photons de 512000 électronvolts, ce qui est considérable (rayons gammas).

Relativité générale

La relativité générale est la généralisation de la relativité restreinte à tous les repères, mêmes accélérés et pour des accélérations quelconques, y compris non uniformes.

Elle inclut les effets de la gravitation.

C’est une théorie assez vaste et difficile, autant d’un point de vue conceptuel que par ses outils mathématiques. On ne fera que l’esquisser sans entrer dans le détail des déductions.

De la relativité restreinte à la relativité générale

Considérons un point, ou plus exactement un événement. On peut toujours construire un système de coordonnées tel que dans le voisinage immédiat (autant spatial que temporel) de cet événement, la relativité restreinte s’applique.

Mais cette propriété ne peut pas s’étendre partout. Il est impossible, en général, de trouver un système de coordonnées tel que la relativité restreinte garderait sa forme en tout point.

Plus précisément, la géométrie de l’espace-temps n’est plus décrite par un espace de Minkowski où les droites sont… droites ! L’espace-temps est courbe (pas l’espace tout seul, mais bien l’ensemble). Comme peut l’être une surface :

mais bien l’ensemble). Comme peut l’être une surface : Sauf qu’une surface est à deux dimensions

Sauf qu’une surface est à deux dimensions (deux coordonnées suffisent pour repérer un point sur la surface) tandis que l’on parle ici d’espaces à quatre dimensions (trois coordonnées spatiales et une de temps). Il est clair qu’il est difficile de se représenter de tels objets que l’on appelle aussi des variétés.

En chaque point de cette variété courbe on peut construire un espace-temps tangent (c’est la généralisation d’une droite tangente à une courbe ou d’un plan tangent à une surface courbe). Cet espace-temps tangent n’est autre que l’espace-temps de Minkowski.

Parlons plus physiquement. Le principe d’équivalence affirme que la masse inerte (celle de la loi d’inertie de Newton) est égale à la masse pesante (celle de la loi sur la gravitation). Par conséquent tous les corps tombent à la même vitesse (plus exactement avec la même accélération de pesanteur), pour peu qu’ils soient suffisamment petits (pour avoir une gravité uniforme) et suffisamment légers (pour ne pas eux-mêmes attirer la Terre !). Si l’on est dans un ascenseur qui en chute libre (le câble s’est rompu) alors on est en apesanteur (jusqu’au crash final en bas). Si on lâche son stylo, celui-ci tombant à la même vitesse que nous et l’ascenseur, il va « flotter » à nos côté. Ce type d’expérience est régulièrement mené avec des avions qui coupent leurs moteurs (vols balistiques) pour y effectuer des expériences (courtes) en apesanteur ou pour l’entraînement des astronautes (et même parfois pour filmer des acteurs en apesanteur pour un film).

C’est en utilisant ce type de raisonnement qu’Einstein a montré que le principe d’équivalence impliquait qu’il y avait équivalence locale entre la gravité et un repère accéléré. Plus précisément, si on attache un repère à cet objet en chute libre, il décrit localement un espace-temps de Minkowski, comme expliqué plus haut.

De proche en proche on peut alors construire la variété complète de l’espace-temps, courbe en général en présence d’une gravité non constante et uniforme.

On montre aisément que les trajectoires suivies par les objets en chute libre, c’est-à-dire sans force appliquée sur l’objet (autre que la gravité), sont les géodésiques de la variété. Ces géodésiques sont les généralisations des droites des espaces sans courbure. Les géodésiques sont le chemin le plus court entre deux points (de l’espace-temps).

On peut l’illustrer dans un cas plus simple. Considérons une sphère :

dans un cas plus simple. Considérons une sphère : On peut tracer sur cette sphère des

On peut tracer sur cette sphère des grands cercles, appelés comme ça car ce sont les plus grands cercles que l’on peut tracer sur la sphère. Chacun sépare la sphère en deux parties égales. Des exemples sur Terre sont l’équateur ou les méridiens (mais pas les parallèles autres que l’équateur). Les grands cercles sont les géodésiques de la sphère.

Il est facile de voir que sur une sphère, le chemin le plus court entre deux points est un arc de grand cercle. C’est le chemin généralement suivi par les navires ou les avions sur de grandes distances (à des écarts près liés aux vents, aux courants, aux frontières de pays à risque, à la préférence du vol au- dessus des terres et le respect des couloirs aériens).

Considérons maintenant un observateur de très petite taille placée sur la sphère et observant une route. Par exemple une fourmi ou même un humain en général tant qu’il ne regarde pas trop loin vers l’horizon. Le sol lui parait bien plat et la route bien droite. Mais si on prolonge la route, on finit par faire le tour de la Terre et par tracer un grand cercle. Les géodésiques sont la généralisation naturelle des droites à des espaces courbes.

La courbure de l’espace-temps

La courbure de l’espace-temps est, comme nous l’avons dit, difficile à se représenter.

Nous, humains, qui sommes habitué à l’espace qui nous entoure et qui se représente avec une très bonne approximation par un espace euclidien (l’espace habituel, sans courbure et avec la géométrie que l’on apprend à l’école), nous avons tendance à nous représenter les variétés courbes comme étant plongées dans l’espace ordinaire (ou tout espace avec plus de dimensions que la variété). Par exemple, une courbe tracée sur une feuille, un ballon ou un cylindre posé sur la table devant nous.

Malheureusement, plonger une surface courbe dans un espace plus grand est trompeur, car ce qui nous importe ici est la courbure intrinsèque et non la courbure extrinsèque. Voyons ça d’un peu plus près.

Considérons une ligne droite graduée. Si on la tord, sans l’étirer ni la contracter, par exemple comme avec une ficelle ou un mètre ruban, voici ce qu’on obtient :

une ficelle ou un mètre ruban, voici ce qu’on obtient : La courbure ainsi obtenue de

La courbure ainsi obtenue de la ligne est une courbure extrinsèque. Elle est liée non pas à la ligne elle-même mais à son parcourt dans l’espace où on l’a dessinée. Toute la structure de la ligne elle- même, indépendamment du reste de l’espace, est donnée par les graduations tracées sur la ligne et qui donnent, par exemple, la distance entre deux points en suivant la ligne. Cette distance est indépendante de la manière d’enrouler la ligne. Une ligne n’a jamais de courbure intrinsèque, elle est, de ce point de vue, équivalente à une droite.

Un bon moyen d’étudier la géométrie d’une surface est d’y tracer un triangle (dont les côtés sont des géodésiques). Nous avons tous appris à l’école que la somme des angles aux sommets du triangle est égale à 180°. Traçons un tel triangle à la surface d’une sphère.

Ici nous avons tracé un triangle assez grand, obtenu par exemple avec l’équateur e t

Ici nous avons tracé un triangle assez grand, obtenu par exemple avec l’équateur et deux méridiens à 90°. Les angles au sommet du triangle sont tous des angles droits et la somme des angles vaut 270°.

La différence avec 180° est appelée excès sphérique. Si l’on divise l’excès sphérique par la surface du triangle, on obtient le rayon de courbure qui n’est autre que le rayon de la sphère. Si la courbure n’est pas constante (forme irrégulière) on fait le calcul en prenant des triangles de plus en plus petits pour obtenir la courbure en un point.

Il existe aussi le cas de la géométrie hyperbolique où la courbure est négative (typiquement, le col d’une selle de cheval). Ici on dit que la sphère a une courbure intrinsèque liée à sa géométrie sphérique.

Si l’on fait le même exercice avec la surface arrondie d’un cylindre, on constate que la somme des angles d’un triangle fait toujours 180°. Donc le cylindre n’a pas de courbure intrinsèque ! Il a une courbure extrinsèque et on peut voir qu’il est équivalent à un plan simplement en fendant le cylindre (dans le sens de la longueur) et en le déroulant comme une feuille. Cette opération n’est pas réalisable avec la sphère qui ne peut pas être aplatie sans être déformée ou déchirée en tout point.

En relativité générale, on parle de la courbure intrinsèque de la variété à quatre dimensions. C’est évidemment difficile à visualiser. On peut et on doit faire abstraction d’un hypothétique espace contenant la variété courbe.

A quatre dimensions, la situation est plus complexe et au lieu d’avoir une seule valeur pour la courbure comme pour la sphère, il faut 20 valeurs de courbure. L’objet mathématique rassemblant ces 20 paramètres est appelé tenseur de courbure de Riemann-Christoffel et on en déduit d’autres objets mathématiques tel que le tenseur de Ricci ou la courbure scalaire (analogue au rayon de courbure).

Les paramètres de la courbure peuvent être identifiées avec la déviation géodésique (le fait que deux géodésiques qui se côtoient vont s’écarter progressivement) ou avec les forces de marrées.

La forme exacte de la variété dépend de la distribution de matière et énergie à l’origine de la force gravitationnelle. La relation est donnée par l’équation d’Einstein qui relie la courbure de l’espace- temps à la densité de matière et d’énergie.

Selon la distribution de matière, on obtient des solutions différentes. Par exemple, pour une distribution de matière concentrée et à symétrie sphérique, des solutions possibles sont la géométrie de Schwartzchild (décrivant une variété décrite par une métrique de Schwartzchild, la métrique est la description des relations entre coordonnées) ou la géométrie de Kerr.

Le champ gravitationnel autour du Soleil est assez proche de ce genre de solution.

Les ondes gravitationnelles

Lorsque des corps massifs voient leur état de mouvement changer (c’est-à-dire lorsqu’ils sont accélérés, par exemple deux étoiles massives en orbite l’une autour de l’autre) cela induit une modification de la gravité ressentie à distance.

Cette modification n’est pas instantanée, ce qui serait d’ailleurs contraire à la relativité, mais se propage à une certaine vitesse (en fait, à la vitesse de la lumière). La gravité se manifestant par une courbure de l’espace-temps, cette propagation se fait sous forme d’ondes gravitationnelles, c’est-à- dire des « rides » de l’espace-temps ou plus exactement des variations périodiques de sa courbure.

Les ondes gravitationnelles sont toujours de faible intensité et interagissent peu avec la matière, ce qui rend leur détection difficile. On a toutefois pu les mettre en évidence indirectement en étudiant comment cela affecte le mouvement de deux étoiles massives en rotation l’une autour de l’autre.

Les physiciens cherchent actuellement activement à réussir une observation directe à l’aide de détecteurs appropriés.

III.4. Physique des particules

La physique des particules est une théorie extraordinairement vaste, utilisant la relativité, la mécanique quantique et la théorie des champs.

Nous n’en présenterons qu’un fragment en parlant des particules, de quelques-unes de leurs propriétés et des interactions entre particules.

Les particules

Les particules sont les plus petits composants de la matière. Ce sont des objets, microscopiques, décrits par un nombre limité de propriétés.

Il existe tout d’abord les particules élémentaires. Pour autant que nous le sachions, elles n’ont aucune structure et toute leur identité se limite à ces quelques propriétés.

Ensuite, on a des particules composites. Elles sont formées d’un assemblage de particules élémentaires.

Les propriétés qui nous intéresserons sont :

La masse des particules.

Les charges des particules. La charge la plus connue est la charge électrique. Mais il existe aussi d’autres sortes de charges associées à d’autres interactions.

Le spin. Ce mot anglais signifie « tourner sur soi-même ». Le spin caractérise la propriété de la particule de tourner sur elle-même telle une toupie. Cette description classique est assez imprécise mais c’est la seule possible en langage de tous les jours. Le spin possède en effet quelques propriétés inhabituelles pour une toupie.

Tout d’abord, le spin est un nombre demi-entier. Il existe des particules de spin 0, d’autres de spin ½, d’autres de spin 1, etc.

La particule peut se trouver dans plusieurs états liés à son spin. Le nombre d’états possibles est fini. Par exemple, une particule de spin 0 ne peut avoir qu’un seul état. Mais une particule de spin ½ peut avoir deux états possibles : -½ et +½. Une particule de spin 1 peut avoir trois états : -1, 0 et 1. Etc… Pour les particules n’ayant pas de masse, seules les valeurs extrêmes sont possibles, une particule de spin 1 n’ayant que les états -1 et 1.

Ces différents états correspondent en quelque sorte à l’orientation de l’axe de rotation de la toupie. Mais alors qu’une toupie classique peut avoir un axe orienté dans un nombre infini de directions, les particules subatomiques n’ont qu’un nombre fini d’orientations possibles.

Citons quelques particules parmi les plus connues.

L’électron, de faible masse, a une charge électrique négative (et une charge dite faible). Il a un spin ½. Les électrons sont les vecteurs du courant électrique dans les métaux.

Le proton, mille fois plus massif que l’électron, a une charge électrique positive (identique en grandeur à celle de l’électron) et aussi une charge faible et des propriétés liées aux charges dites de couleur. Il a un spin ½. C’est le constituant des noyaux d’atomes.

Le neutron de masse presque identique au proton (un tout petit peu plus) ne porte aucune charge électrique. C’est le frère du proton, également présent dans les atomes. Il a aussi un spin ½.

Le neutrino. Particule de masse infime, sans charge électrique (mais il a une charge faible). Il

a un spin ½. Cette particule évanescente, présente dans certains processus radioactifs, n’interagit presque pas avec la matière. Le Soleil en émet un très grand nombre et le temps de lire cette description du neutrino plusieurs milliards de neutrinos solaires sont passés à travers votre corps. La majorité traverserons la planète entière sans interagit avec elle.

Le photon est la particule associée au champ électromagnétique. Il ne porte aucune charge et a un spin 1.

En effet, les particules peuvent être décrites par des champs, comme le champ électromagnétique, et les particules sont alors de simples manifestations des excitations du champ.

Cet aspect « excitations des champs » est important car il explique que des particules puissent être créées et détruites. Si l’on a un champ, disons le champ électromagnétique, alors la mécanique

quantique nous apprend qu’il existe des vibrations minimales. A chaque fréquence

vibration minimale d’énergie

Planck. Lorsque l’on excite le champ en le perturbant de diverses manières on peut créer des excitations, des vibrations du champ, comme on exciterait une corde de guitare qui se mettrait à vibrer. Ici on peut créer un nombre quelconque d’excitations élémentaires. Ces excitations élémentaires correspondent à ce que nous appelons photons.

Les interactions

Les différentes particules (les différents champs) peuvent interagir de diverses manières.

correspond une

ou h est une constante universelle appelée constante de

La plus connue de ces interactions et la plus commune est la gravité. Les objets ayant une certaine masse s’attirent les uns les autres.

C’est vrai des particules qui constituent ces objets. Ainsi, un électron se propageant en ligne droite aura tendance à tomber, attiré par la Terre.

En réalité cette interaction est la plus faible de tous. Son importance tient au simple fait qu’elle est toujours attractive et qu’elle finit toujours par être dominante en présence de masses gigantesques comme les planètes ou les étoiles.

Pourtant imaginez combien il est facile de soulever un bout de métal avec un aimant alors que ce même bout de métal est attiré par une planète entière.

De fait de cette extraordinaire faiblesse, l’interaction gravitationnelle est négligeable entre deux particules. Et par conséquent cette interaction n’est pas prise en compte dans la théorie des particules élémentaires. Il faut d’ailleurs bien avouer que personne n’a encore trouvé (ou du moins personne n’a de certitude ou de preuve expérimentale) la manière de marier ensemble les théories décrivant les particules et la gravité, c’est-à-dire la théorie quantique des champs et la relativité générale. C’est un défi mathématique autant qu’expérimental.

Une interaction bien connue aussi et dont nous avons déjà pas mal parlé est l’interaction électromagnétique. Elle est générée par les charges électriques et est responsable de tous les effets électriques et magnétiques.

Elle joue un rôle important avec les particules possédant une charge électrique comme les électrons et les protons.

L’interaction faible tire son nom de sa faiblesse vis-à-vis de l’interaction électromagnétique. Cette faiblesse explique l’aspect fantomatique des neutrinos qui ne sont sensibles qu’à cette interaction (et à la gravitation).

Elle est responsable de certaines désintégrations radioactives, appelées désintégration bêta, où un neutron se transforme en proton en émettant un électron et un neutrino (plus exactement un antineutrino).

L’interaction forte est beaucoup plus forte que l’interaction électromagnétique. Les seules particules qui y sont sensibles sont appelées des hadrons, comme les neutrons et les protons, mais pas les électrons, les neutrinos ou les photons. La charge à l’origine de cette interaction est appelée charge de couleur (rien à voir avec les couleurs ordinaires).

Cette interaction est à l’origine de l’énergie nucléaire dont il est inutile de parler de la puissance.

Les particules vecteurs

En théorie quantique des champs, les interactions sont véhiculées par des particules appelées particules vecteurs, particules vectorielles ou vecteurs des forces.

L’interaction électromagnétique est transportée par le photon.

L’interaction faible est véhiculée par deux particules notées W et Z. Ces particules sont très massives, ce qui implique que l’interaction a une courte portée. Le W porte une charge électrique positive ou négative et le Z est neutre.

L’interaction forte est véhiculée par des particules sans masse nommées gluons. Ces gluons portent eux-mêmes une charge de couleur.

Par exemple, deux électrons portant une charge électrique de même signe, se repoussent par l’intermédiaire de l’échange d’un photon (ou plusieurs).

de l’échange d’un photon (ou plusieurs). Le neutron isolé est une particule instable. Etant un peu

Le neutron isolé est une particule instable. Etant un peu plus massif que le proton il a tendance à se transformer en proton avec émission d’un électron et d’un (anti)neutrino.

avec émission d’un électron et d’un (anti)neutrino. En fait, le processus est plus complexe et se

En fait, le processus est plus complexe et se traduit par l’émission d’un W par un des quarks (voir plus bas) et le W se désintègre en un électron et un neutrino.

C’est la désintégration bêta responsable de certaines formes de radioactivité.

Les familles

Les particules s’organisent en familles. Il existe trois familles.

Chaque famille est plus légère que la précédente. Les particules plus lourdes sont instables et tendent à se désintégrer en les plus légères.

Ainsi on a la famille de l’électron :

Electron.

Muon.

Tau.

Chacune a même charge électrique, même spin, mais des masses de plus en plus grandes.

De même il existe trois sortes de neutrinos, chacun associé à ces trois types de particules.

Les quarks

Les protons et les neutrons sont en réalité des particules composites. Ils sont composés de trois particules appelés quarks. On a le quark u et la quark d.

Le proton est composé de deux quarks u et d’un quark d. Le neutron est composé de deux quarks d et d’un quark u.

Les quarks sont eux-mêmes porteurs d’une charge de couleur et ils s’assemblent pour former une particule de charge zéro (« couleur blanche »).

Là aussi on a trois familles :

Quarks u, d.

Quarks c, s.

Quarks b, t.

Les assemblages entre quarks sont multiples et on a ainsi toute une série de particules selon la composition en quarks : pions, kaons, … etc…

La plus légère est le pion ou méson pi, pouvant être neutre ou avec une charge électrique négative ou positive.

Toutes les particules composées de quarks sont instables sauf le proton.

Antimatière

L’antimatière est simplement les particules avec des charges opposées.

Ainsi l’antiparticule correspondant à l’électron est l’antiélectron ou positron, de charge électrique positive mais de même masse et de même spin.

On a de même des antineutrinos, des antimuons, des antiquarks,… Et de là des antiprotons (de charge négative), des antineutrons,…

La seule exception est le photon qui ne porte aucune charge et est donc sa propre antiparticule.

Les particules et les antiparticules interagissent fortement ensembles pour s’annihiler. Par exemple un électron et un positron s’annihilent pour donner deux ou trois photons.

De même, lors de chocs violents, des antiparticules peuvent être créées si l’énergie est suffisante pour créer un particule de masse M donnée (selon la relation E=Mc²).

III.5. La physique atomique

La physique atomique est la branche qui s’occupe des propriétés des atomes sans s’occuper du noyau de l’atome (objet de la physique nucléaire). Nous inclurons dedans la chimie.

Structure des atomes

L’atome est composé essentiellement de deux choses :

Un noyau, très petit et massif, constitué de protons et de neutrons. Le nombre de protons noté Z caractérise le type d’atome. La charge électrique positive du noyau est Z fois la charge élémentaire d’un proton.

Des électrons disposés autour dans une région de taille considérable par rapport au noyau.

Les charges électriques positives et négatives s’attirant, l’atome a dans son état de base normal autant d’électrons que de protons. Il y a donc Z électrons. La charge totale de l’atome est donc zéro (les charges des protons et des électrons se compensent).

Cette structure se comprend grâce à l’interaction forte. Celle-ci n’agit que sur les protons et les neutrons. Comme elle est très puissante, elle confine ces derniers dans un minuscule volume. La mécanique quantique montre également que des objets massifs peuvent occuper une très petite place.

Les électrons, insensibles à l’interaction forte, ne s’intègrent pas au noyau. La mécanique quantique montre qu’à cause de leur faible masse, ils sont obligatoirement étalés autour de l’atome.

Lorsque l’atome a des électrons en trop ou en moins, il porte le nom d’ion. La charge électrique de l’atome est donnée par l’excès ou le déficit d’électrons.

Les électrons ne se mettent pas n’importe comment autour du noyau. Ils s’organisent en couches ou niveaux.

autour du noyau. Ils s’organisent en couches ou niveaux. Les électrons se répartissent sur une série

Les électrons se répartissent sur une série d’orbites. Le nombre d’électrons qui peuvent occuper chaque orbite est variable. Ainsi, sur la première orbite on peut placer deux électrons. Sur la deuxième orbite on peut mettre six électrons.

On ne peut pas mettre d’électrons entre les orbites et on ne peut pas mettre plus d’électrons que les nombres indiqués. Chaque orbite a une énergie plus grande quand on s’éloigne du noyau.

Cette structure est expliquée par la mécanique quantique et observée par l’expérience. Peu nous importe ici pourquoi. D’ailleurs cette structure n’est pas tout à fait correcte, les électrons se répartissent de manière plus complexe dans des zones appelées orbitales. Mais cette structure simple suffira pour notre propos.

Propriétés des atomes

Propriétés électromagnétiques Les électrons portant une charge électrique, ils interagissent facilement avec les ondes électromagnétiques. Lorsqu’un électron change de niveau, il voit son énergie modifiée et cela permet l’échange d’un photon.

modifiée et cela permet l’échange d’un photon. Dans l’état normal, les électrons sont sur les orbites

Dans l’état normal, les électrons sont sur les orbites les plus basses et l’atome n’émet aucune lumière. Mais on peut exciter les électrons par absorption de lumière, par chocs,… Les électrons passent alors dans des orbites d’énergie plus élevée. En revenant sur leur orbite initiale ils émettent alors un photon, donc de la lumière.

Les énergies des niveaux étant bien précises, il en est également de même des photons qui peuvent être émis ou absorbés. A chaque énergie d’un photon correspond une longueur d’onde précise. Voilà qui explique les raies dans le spectre d’un atome.

De plus, la structure de répartition des électrons dépend de la charge du noyau et chaque specte pour chaque type d’atome est donc différent.

Si suffisamment d’énergie est fournie à l’électron, il peut être arraché, ce qui ionise l’atome et l’électron est libéré. Cela se produit par exemple à très haute température lorsque l’énergie cinétique des atomes devient très grande. Les chocs violents entre atomes les ionise. On obtient un milieu appelé plasma.

Propriétés chimiques Les atomes peuvent être classés en fonction de la valeur de Z.

Pour Z = 1 on a un noyau composé d’un seul proton et un seul électron (sauf ionisation). C’est l’hydrogène.

Pour Z = 2 on a deux protons et deux électrons. C’est l’hélium.

On continue ainsi avec, par exemple, Z = 6 pour le carbone, Z = 8 pour l’oxygène, etc…

L’atome le plus gros dans la nature a Z = 92, c’est l’uranium. Mais on peut aussi en créer de plus gros en laboratoire de physique nucléaire.

Les propriétés chimiques sont dues aux électrons périphériques. Comme il y a un nombre maximum d’électrons sur chaque orbite, et comme l’énergie des orbites augmente avec quand on s’éloigne du noyau, les places vacantes sur la dernière orbite permettent la mise en commun d’électrons entre atomes avec un avantage énergétique. Les deux atomes se lient pour former une molécule avec un dégagement d’énergie. Pour briser la molécule il faut lui fournir autant d’énergie.

Un exemple typique est la liaison d’un atome d’hydrogène et d’oxygène.

est la liaison d’un atome d’hydrogène et d’oxygène. Il y a en fait deux places libres

Il y a en fait deux places libres sur la dernière orbite de l’oxygène. L’atome d’oxygène peut donc se lier à deux atomes d’hydrogène pour donner H2O, c’est-à-dire de l’eau.

On a de même les liaisons carbones oxygènes : CO2 (gaz carbonique), des liaisons entre carbone, oxygène et hydrogène, par exemple C6H12O6 (glucose) et des millions d’autres molécules possibles.

III.6. La physique nucléaire

La physique nucléaire est la branche de la physique qui étudie les propriétés des noyaux des atomes.

Structure du noyau

Le noyau d’un atome est composé de protons et de neutrons appelés nucléons.

La structure interne du noyau a des ressemblances avec la structure des électrons autour de l’atome en ce que les nucléons se disposent aussi sur des niveaux d’énergie différente. Nous n’aurons pas besoin de l’étudier ici et c’est heureux car cette structure est beaucoup plus compliquée et de loin. Quelques généralités nous suffirons.

Du fait de l’intensité élevée de l’interaction forte, les énergies de liaisons entre nucléons sont très grandes. Ceci explique les énergies considérables impliquées dans les armes nucléaires ou dans la fourniture d’énergie par les centrales nucléaires.

Comme nous l’avons vu, le nombre de protons du noyau est Z et cela défini son identité chimique. Le nombre de neutrons est par contre variable. Les différents noyaux avec un nombre différent de neutrons ne diffèrent que par la masse totale et sont appelés des isotopes.

On a l’habitude de noter les atomes comme par exemple :

Pour dire qu’il s’agit d’hélium avec 2 protons et 4 nucléons en tout (donc 4 – 2 = 2 neutrons).

Citons quelques exemples d’isotopes :

L’hydrogène :

o

1 proton. Hydrogène (noté H).

o

1 proton et 1 neutron. Hydrogène lourd ou deutérium (noté D).

o

1 proton et 2 neutrons. Tritium (noté T).

L’hélium :

o

2 protons et 1 neutron. Helium 3 (assez rare).

o

2 protons et 2 neutrons. Helium 4 (ordinaire).

Les propriétés chimiques sont fort peu affectées par la variation de masse. De même les raies spectroscopiques (spectre de raie des électrons est peu affecté. La différence est toutefois mesurable et permet de distinguer les isotopes dans l’étude de la composition des astres.

On trouve en général des quantités variables des isotopes dans la nature. Cela est à inclure à l’étude de la composition de l’univers.

Stabilité

Pour des raisons propres à la nature de l’interaction forte et des propriétés des nucléons, il se fait que la liaison de deux nucléons de nature différente est plus forte que celle de deux nucléons de même nature.

Ainsi, un doublet de deux neutrons ou de deux protons ne se lie pas. Par contre, un proton et un neutron se lient très bien (c’est le deutérium).

De plus, les protons étant chargés positivement, ils se repoussent. Et cette répulsion est d’autant plus forte que les protons sont proches puisque le noyau est minuscule. Les atomes riches en protons ont donc tendance à perdre des protons. En fait, le noyau éjecte plus volontiers des noyaux d’hélium, particulièrement stables. Ils sont appelés particules alpha et c’est une forme de radioactivité.

Plus il y a de neutrons et plus les protons peuvent s’écarter ce qui diminue ce phénomène.

Mais il y a un autre facteur d’instabilité : les neutrons, nous l’avons vu, sont instables. Ils ne restent stable que si leur désintégration nécessiterait une énergie supplémentaire pour substituer un neutron par un proton dans le noyau. Par contre, si le noyau est très riche en neutrons, l’atome devient radioactif et des neutrons peuvent se transformer en protons par radioactivité bêta.

Notons aussi que lorsque le noyau est dans un état excité (suite à un processus radioactif ou des collisions ou de la fusion, voir plus bas) il peut émettre des photons gamma très énergétique (tout comme les électrons excités sauf que l’énergie est ici très grande).

Ainsi, l’hydrogène et le deutérium sont stables, mais le tritium se désintègre en quelques minutes par radioactivité bêta. Le neutron se transformant en proton, on a la réaction :

(ce dernier symbole est utilisé pour le neutrino)

On a ainsi seulement un nombre limité d’isotopes possibles, certains étant radioactifs.

Un autre phénomène encore entre en jeu. L’interaction forte est à très courte portée. Pratiquement, un nucléon ne se lie qu’avec ses voisins dans le noyau. Plus il y a de nucléons et plus il y a de nucléons en « surface » du noyau, avec moins de voisins et moins bien liés. D’autant que, comme pour les électrons, les niveaux se remplissent progressivement et quand il y a beaucoup de nucléons certains ont tendance à être assez éloignés du centre du noyau.

Le résultat net est que l’énergie de liaison par nucléons diminue au fur et à mesure que l’on a des atomes de plus en plus gros.

A partir d’une certaine taille, tous les noyaux sont radioactifs. Et plus ils sont gros, plus vite ils se désintègrent. C’est pour cela que dans la nature on ne trouve pas d’atomes plus lourd que l’uranium. Le plutonium, par exemple, fabriqué dans les centrales nucléaires se désintègre trop vite et le plutonium synthétisé dans les supernovae s’est désintégré depuis longtemps.

Fusion

Il est possible de fusionner des atomes. Pour cela, il faut rapprocher suffisamment les noyaux pour qu’ils n’en forment plus qu’un seul.

Ce processus est appelé fusion thermonucléaire et il dégage beaucoup d’énergie (pour une masse donnée, il dégage même beaucoup plus d’énergie que la fission nucléaire de l’uranium utilisé dans les centrales nucléaires).

Mais pour que cela fonctionne, il faut rapprocher énormément les noyaux, à se toucher, tout simplement parce que l’interaction forte n’agit qu’à très courte portée. Jusqu’à ce que la fusion soit réalisée, on doit donc lutter uniquement contre la répulsion électrostatique entre protons qui est très grande lorsque les noyaux s’approchent.

Pour vaincre cette répulsion il faut fournir une grande énergie. Plusieurs méthodes sont possibles. On peut par exemple comprimer la matière à l’extrême (fusion inertielle par laser où un laser extrêmement puissant est employé pour comprimer des capsules contenant du deutérium et du tritium). On peut aussi envoyer les noyaux les uns contre les autres à l’aide d’accélérateurs de particules très puissants. C’est la méthode utilisée pour fabriquer des noyaux super lourds en envoyant avec une vitesse gigantesque, par exemple, des noyaux de calcium sur des noyaux d’uranium.

Enfin, on peut porter le fluide à très haute température (ce qui a donné le nom thermonucléaire). L’énergie cinétique des particules peut alors être suffisante pour qu’elles s’approchent suffisamment lors d’une collision. Pour un fluide contenant de l’hydrogène il faut atteindre une dizaine de millions de degrés. La température est un peu plus modérée avec du deutérium et du tritium qui sont les isotopes utilisés dans les tentatives actuelles de domestiquer cette forme d’énergie.

Voici quelques exemples de réactions typiques avec des atomes légers : (le symbole gamma est

Voici quelques exemples de réactions typiques avec des atomes légers :

(le symbole gamma est utilisé pour représenter des photons)

La fusion thermonucléaire est la source d’énergie des étoiles mais elle joue aussi un rôle majeur en cosmologie comme on le verra.

IV. Le Modèle Standard de la cosmologie

Le moment est venu de passer à la description de l’évolution de l’univers.

Le modèle décrivant cette évolution s’appelle Modèle Standard de la cosmologie.

Ce modèle est parfois aussi nommé, surtout dans les publications à destination du grand public :

théorie du Big Bang. Ou en français, théorie du grand boum.

Ce nom fut inventé par l’astronome Fred Hoyle qui était un adversaire de cette description, à une époque où il est vrai les observations permettaient encore pas mal de libertés dans leur interprétation. Il lâche ce nom de « grand boum » pour se moquer de cette description sans se rendre compte que « Big Bang » allait avoir un impact important sur le grand public qui aime les appellations simples et frappantes.

Mais en réalité ce nom ‘est bel et bien trompeur pour au moins trois raison :

Le Big Bang n’est pas une explosion à l’origine de l’univers. Même si l’ancienne théorie de Lemaître sur « l’atome primitif » ressemblait à une telle description « explosive ».

La Big Bang n’est pas une théorie de l’origine de l’univers mais simplement de son évolution depuis un certain état dense et chaud jusqu’à sa situation actuelle.

Ce n’est même pas une théorie mais bien un modèle.

Si une théorie s’attache à décrire un certains nombres de lois à caractères très général à partir d’un tout petit nombre d’hypothèses, un modèle est au contraire très particulier (il s’applique à un seul objet ou une classe d’objets) et possède de nombreuses hypothèses qui sont en fait fournies par les observations.

Ici le modèle s’applique à l’univers que nous observons et il contient de nombreux paramètres dit libres (on peut les fixer arbitrairement) que l’on ajuste pour s’adapter aux observations.

C’est une construction descriptive utilisant les données connues et des théories existantes par ailleurs.

Ce modèle n’est certainement pas parfait. Rien ne l’est en science. La Perfection absolue est le domaine de la philosophie ou de la théologie, pas de la science. Nous verrons à la fin des limites de ce modèle.

Mais tout modèle (ou théorie) contient aussi une grand part de vérité puisqu’il s’adapte à ce qui est observé, ce qui est bien son but. Affirmer que le modèle du big bang est faux revient à nier ce qu’il est : des observations. C’est par exemple rejeter ce que nous avons vu : l’expansion, la structure observée de l’univers, etc.

Nous ne souhaitons pas décrire un monde inconnu qui nous serait inspiré par quelque « révélation » mais uniquement ce que nous savons, c’est-à-dire ce que nous pouvons voir, observer, expérimenter, mesurer. Nous suivrons donc la voie de nos prédécesseurs en admettant que ce Modèle Standard est la meilleure description obtenue à ce jour.

Nous le décririons dans l’ordre chronologique, ce qui est certainement le plus facile pour le lecteur. Nous partirons d’un état initiale que nous décrirons et justifierons et nous poursuivrons étape par étape jusqu’à l’époque actuelle :

En utilisant les théories que nous avons présentées.

En faisant le lien avec les résultats expérimentaux ou les observations.

IV.1. Le début

Point de départ

Précisons d’abord un point important : nous ne connaissons par l’origine de l’univers ? Aussi décevant que cela puisse paraitre, la science n’offre pas (au moins actuellement) de réponse au Grand Secret de la Création. Mais elle offre tout de même déjà beaucoup de choses.

Nous savons que l’univers est en expansion. Si l’on remonte le temps, cela veut dire que par le passé les galaxies étaient plus proches les unes des autres. En remontant encore, on doit arriver à un état encore plus dense où tout le gaz actuellement contenu dans les étoiles et les galaxies étaient fortement comprimé et donc très chaud.

On partira donc d’un instant initial :

Constitué d’un gaz (que nous devrons décrire) avec une densité extrême (des milliards de tonnes par centimètre cube) et une température extrême (des milliards de degrés).

L’instant « zéro » de notre scénario est situé dans l’échelle du « temps cosmologique » (voir plus loin) à l’instant T = une fraction de seconde après T = 0.

Cet instant, que nous ne décrivons pas, T = 0, ne doit pas être vu comme une « création », un instant « d’origine »de l’univers mais simplement le début de l’échelle de temps utilisée dans les modèles.

Avons-nous le droit de remonter aussi loin ? A ce stade, impossible de le savoir. C’est juste plausible et ce sont les déductions tirées du modèles et confrontées aux résultats connus qui valideront ce choix.

Pourquoi pas plus tôt

Pourquoi ne pas remonter encore plus loin ? La raison en est que le Modèle sortirait des limites que nous nous imposons, pour trois raisons :

C’est une limite expérimentale. On peut reproduire l’état de la matière dans des conditions extrêmes en laboratoire. Mais pour des densités et des températures supérieures à celle de l’univers lorsque T = quelques secondes, nous sommes démunis.

Les observations ne nous permettent pas de remonter aussi loin.

Les résultats observés (expansion, contenu et structure de l’univers, rayonnement fossile) dépendent tous de phénomènes qui se sont déroulés après cet instant initial.

Ce qui a pu se passer avant n’a que peu ou pas d’influence sur la suite. Nous ne pouvons donc pas trancher entre diverses hypothèses.

Les théories ont toutes un domaine de validité dans lequel elles s’appliquent et où elles ont été vérifiées.

Déjà, à T = une fraction de seconde, nous sommes à la limite de nos théories et il y a pas mal d’incertitudes, que nous verrons.

Encore plus tôt, c’est le drame. Plus aucune de nos théories ne sont valides. Plus exactement, nous aurions besoin de trouver une théorie mariant relativité générale et mécanique quantique, et relativité générale. Et ça, nous ne savons pas comment faire.

Pour être plus précis, nous avons bien des théories effectuant ce mariage. Des théories dont vous avez peut-être entendu parler : théorie des cordes, théorie de la gravitation quantique à boucles, théorie des géométries non commutatives, etc. etc. etc.

Nen déplaise aux théoriciens travaillant dans ces domaines, il faut bien avouer que nous ignorons si ces théories sont exactes car nous n’avons pas encore pu les mettre à l’épreuve expérimentalement.

Ces théories permettent de construire divers modèles de l’univers avant l’instant T = 0. Elles se caractérisent toutes par l’absence d’un instant initial où les densités et températures du gaz, en remontant le temps, deviendraient infinies. Il n’y a pas de singularité initiale. C’est à peu près le seul résultat raisonnablement plausible.

Pour le reste ces modèles bien que théoriquement sérieux restent de la spéculation.

IV.2. Les modèles d’univers

Comment va évoluer l’univers à partir d’un tel état initial. En particulier, on aimerait connaitre l’évolution de sa géométrie, de ses dimensions.

Pour cela, on peut faire appel à la relativité générale, capable de décrire la géométrie de l’univers vu comme un tout.

Modèles en relativité générale

Etant donné le principe cosmologique, on recherche naturellement les solutions de l’équation d’Einstein telle que :

La matière est répandue de manière homogène et isotrope avec, donc, une densité identique en tout point. Initialement, l’univers est remplit d’un gaz très dense et très chaud dont la nature physique reste à préciser.

La courbure de l’espace-temps est également identique en tout point.

Avec ces choix, il devient possible de définir deux choses importantes :

Un repère comobile est un repère attaché à un élément du gaz et qui évolue avec lui. Le gaz

primordial étant supposé homogène et isotrope, peu importe à quel élément du gaz on se réfère puisque tous les points sont équivalents.

Le temps mesuré dans un repère comobile est appelé temps cosmologique. C’est à ce temps là qu’on se réfère quand on parle, par exemple, de l’âge de l’univers. L’expression est cohérente puisque tous les repères comobiles sont équivalents.

Solutions

Les solutions possibles sont assez simples et sont toutes dépendantes d’un paramètre relié à la densité de la matière dans l’univers.

Selon la valeur de ce paramètre, que l’on notera

particulières. Ces solutions sont décrite par ce que l’on appelle la métrique de Robertson-Walker-

Friedman-Lemaître ou RWFL pour faire court.

, on trouve trois types de solutions assez

Considérons la distance reliant deux points attachés à des repères comobiles. Cette distance est bien définie car la courbure est identique partout. Cela revient, par exemple, à prendre le chemin le plus court à la surface d’une sphère, ce qui ne pose pas de difficulté. Il en serait autrement dans un espace complètement déformé et tarabiscoté. La notion de distance peut facilement devenir ambigüe.

On a donc ici une notion de « distance caractéristique » dont on peut calculer l’évolution au cours du temps en fonction des trois types de solution.

On constate que toutes ces solutions commencent en T = 0 avec des distances toutes

On constate que toutes ces solutions commencent en T = 0 avec des distances toutes petites et même de taille nulle. Une telle taille nulle correspond à des densités infinies, températures infinies, etc. C’est ce que l’on appelle une singularité. Nous l’avons dit, la relativité sort de son domaine de validité pour de telles densités de matière. De plus, nous commençons notre scénario avec T petit mais non nul. On peut donc ignorer cette particularité et regarder uniquement la solution de la relativité générale dans le domaine où elle est valide.

Pour

élevée implique une force gravitationnelle élevée qui freine l’expansion. Au bout d’un certain temps, l’expansion s’arrête puis repart en sens inverse. L’univers se contracte jusqu’à atteindre une nouvelle

singularité (ou un état différent) suivi d’un « rebond ». Ce phénomène de contraction est parfois appelé « big crunch ».

, la densité est très élevée et l’expansion lente. C’est tout à fait normal où une densité

Pour

L’expansion dure éternellement, les dimensions devenant de plus en plus grande, sans limite.

, la densité est plus faible et en fait juste assez faible pour que l’expansion ne s’arrête pas.

Pour

, la densité est encore plus faible et l’expansion encore plus marquée.

marque la limite entre les modèles avec big crunch et ceux avec expansion éternelle. Il est obtenu pour une densité particulière dite densité critique.

Trois géométries

Considérons un instant donné T. On peut considérer l’ensemble des points de l’espace-temps correspondant à ce temps cosmologique. On obtient ainsi une « coupe » dans l’espace-temps qui permet de décrire l’espace, l’univers, dans sa globalité à un instant donné.

Pour

triangle formé par ces trois points à une somme des angles supérieure à 180 degrés.

, la géométrie de l’univers est sphérique. En particulier si l’on prend trois point éloignés, le

On peut visualiser alors l’espace comme la surface d’une sphère. Attention, ce n’est qu’une visualisation. L’univers correspond à la surface de la sphère et non à la sphère et son intérieur. L’intérieur de cette sphère servant à représenter l’univers n’a pas de réalité physique. De plus, l’espace est à trois dimensions et non à deux dimensions comme une surface. Mais comme il est difficile de visualiser une boule à quatre dimensions (avec une surface à trois dimensions), on se limite habituellement à deux dimensions.

Notons que dans ce cas l’univers est fini mais non borné. Il est fini (on parle aussi de « variété compacte » ou d’univers fermé) mais non borné. Fini car la distance entre deux points quelconques possède une valeur maximale pour des points diamétralement opposés.

valeur maximale pour des points diamétralement opposés. Cette distance maximale est appelée diamètre de

Cette distance maximale est appelée diamètre de l’univers. Attention, ce n’est pas le diamètre de la boule, utilisée seulement pour visualiser, mais de la distance mesurée dans l’espace, dans l’univers, donc à la surface de la boule. C’est la longueur d’un demi-équateur sur une sphère.

Mais cet univers est non borné car tout voyageur qui parcourrait la sphère en allant « tout droit » (en suivant une géodésique, c’est-à-dire un grand cercle) ne sortirait jamais de la surface de la sphère. Il se contenterait d’en faire le tour.

Cette représentation doit donc être prise avec quelques précautions. Elle est toutefois assez pratique pour visualiser l’univers et son expansion. Même dans les autres cas de géométrie elle a un caractère intuitif indéniable et on l’utilise fréquemment (même si dans les autres cas la géométrie n’est plus celle d’une sphère !)

Le cas géométrie ordinaire : les droites sont bien droites et les triangles ont des

Le cas

géométrie ordinaire : les droites sont bien droites et les triangles ont des angles dont la somme fait 180 degrés.

est le plus simple car dans ce cas l’espace est euclidien, c’est-à-dire décrit par la

Dans ce cas l’univers est illimité dans toutes les directions. En allant toujours tout droit, on continue indéfiniment. Cet univers est infini et non borné.

Enfin, le cas

la géométrie de la selle de cheval. On ne peut représenter dans l’espace ordinaire, même en se limitant à deux dimensions, une surface hyperbolique en tout point : la surface se recoupe elle- même en certains endroits. Les mathématiciens ont construit des objets avec diverses transformations des coordonnées pour représenter de tels objets mais nous n’en auront guère

besoin. Il faut juste savoir que cet univers est également infini et non borné.

correspond à ce que l’on appelle une géométrie hyperbolique. C’est typiquement

Choses étonnante, les parallèles ne sont plus vraiment parallèles dans certaines géométries. Si sur la sphère on trace deux géodésiques initialement parallèles, elles finissent par se croise (tous les grands cercles se coupent en deux points. Par exemple si on prend deux méridiens proches, près de l’équateurs ils sont parallèles car perpendiculaires tous les deux à l’équateur, mais les méridiens se coupent aux pôles. Notons que ce qu’on appelle « parallèles » en cartographie ne correspond pas à des grands cercles, sauf l’équateur). En fait, un mathématicien ne serait pas tout à fait d’accord avec notre description car pour lui les parallèles ne se coupent pas et sur une sphère il n’y a donc jamais deux parallèles. Mais c’est un détail dans la définition de « géodésiques parallèles ».

Dans l’espace euclidien les parallèles restent parallèles.

Dans un espace hyperbolique, les parallèles divergent, elles finissent par s’écarter.

Topologie

La géométrie n’est pas suffisante pour déterminer la forme globale de la variété espace-temps, de l’univers. Il existe encore plusieurs possibilités que la relativité générale ne peut déterminer. Les différentes possibilités font partie du domaine de la topologie qui traite des propriétés globales des objets tel que des espaces. Souvent on choisit la solution la plus simple, celles qui ont été présentées plus haut, mais on ne peut exclure les autres a priori.

Prenons un exemple avec

comme décrit plus haut mais il peut être aussi fini avec une structure assez particulière. Par exemple il peut se comporter comme suite.

, c’est-à-dire un univers « plat », sans courbure. Il peut être infini

un univers « plat », sans courbure. Il peut être infini L’univers est fini. Tout rayon

L’univers est fini. Tout rayon lumineux ou toute trajectoire qui sort par un « bord » revient à son point de départ en « réapparaissant » de l’autre côté. Nous avons mis des guillemets autour de « bord » car ceux-ci sont seulement utilisés pour représenter l’espace. De même il n’y a pas de coupure dans la trajectoire lorsque l’on passe d’un bord à l’autre. Une surface présentant ce genre de propriété (mais avec une courbure) est la surface d’un tore (ou d’un pneu). On a aussi ce genre de comportement dans certains jeux vidéo comme PacMan où lorsque l’on se déplace toujours tout droit on finit par se retrouver au même endroit.

Un individu placé dans un tel univers verrait son image répétée à l’infini.

un tel univers verrait son image répétée à l’infini. Cet univers est fini, mais visuellement il

Cet univers est fini, mais visuellement il semblerait infini, comme lorsque l’on est enfermé dans un palais des glaces.

Notons qu’on a une perte d’isotropie. En effet, le diamètre de l’univers est différent suivant la direction considérée. Mais localement, dans une petite région, on a toujours un espace isotrope. Ce n’est qu’en examinant globalement tout l’univers que l’on peut constater cette anisotropie.

Si l’on applique une telle topologie à l’univers, il faut tenir compte du fait que l’univers est en expansion (le carré voir sa taille augmenter au cours du temps) et le fait qu’un rayon lumineux peut mettre un temps considérable pour parcourir le diamètre de l’univers (si cette durée était de

quelques dizaines d’années, notre personnage se verrait « bébé » dans les autres carrés, et l’univers lui se compte en milliards d’années-lumière).

Les différentes topologies sont assez nombreuses (une bonne dizaine), certaines avec des images inversées par exemple (comme avec des miroirs) ou tête bêche.

On a de même plusieurs possibilités avec les espaces sphériques et un nombre encore plus impressionnant avec les espaces hyperboliques (le classement n’est même pas complet, répertorier toutes les possibilités pouvant être fort compliqué).

Observations

Les observations permettent de confronter ces modèles à l’univers dans lequel nous vivons. Plusieurs éléments peuvent être relevés :

On peut mesurer la densité moyenne en comptabilisant la quantité de matière visible. Pour cela on peut estimer les quantités de masse de gaz, mesurer la masse des étoiles, en déduire la masse des galaxies, etc.

La densité totale trouvée est environ à 30% de la densité critique.

Toutefois, la géométrie observée n’est pas hyperbolique. Il est difficile de mesurer, par exemple, les angles d’un triangle de plusieurs millions d’années-lumière ! Mais on peut confronter le résultat des modèles à d’autres données tel quel la formation des grandes structures, les détails des fluctuations dans le rayonnement fossile et l’évolution de la constante de Hubble au cours du temps.

Les relevés les plus récents sont compatibles avec un univers plat (ou presque plat).

Les effets d’une topologie non triviale peuvent se relever dans un phénomène comme celui de notre petit personnage dont l’image se reflète à l’infini. Même avec les différences d’âges importantes entre les différentes images, on peut calculer que des corrélations doivent être observées selon différentes directions dans la distribution des galaxies ou dans les fluctuations du rayonnement fossile.

En particulier pour ce dernier, on devrait observer des pics dans la courbe de corrélation pour de grands angles. Nous avons vu que la courbe était une courbe en puissance ne présentant pas de tels pics.

On peut donc exclure de telles topologies non triviales, au moins pour ce qui concerne la partie observable de notre univers. Cela n’exclus pas que le diamètre de l’univers, c’est-à- dire la taille d’un carré dans les dessins ci-dessus, soit nettement plus grande que l’univers observable. Dans ce cas, les images répétées seraient trop lointaines pour être observables.

Dans la mesure où on ne peut tirer aucune information de ce qui se situe nettement plus loin que le diamètre de l’univers observable, il ne sert à rien de choisir plutôt tel ou tel modèle topologique. Il est donc préférable d’adopter (avec un grain de sel) les modèles simples tels que décrits plus haut dans la section sur la géométrie.

Il reste que nous avons une contradiction puisque la géométrie globale ne semble pas correspondre à la densité de matière.

Matière noire

Il se peut qu’une partie de la masse échappe à l’observation.

Très vite, les astronomes répertoriant les galaxies voisines (groupe local et amas local) et leur vitesse furent confrontés à un problème. Ces galaxies étaient trop rapides ! Si la seule force liant ces galaxies était la gravitation, induite par leur masse, alors ces vitesses élevées auraient dû disperser rapidement ces galaxies. La seule possibilité pour qu’elles restent regroupées, c’est que l’attraction gravitationnelle soit suffisante (dans ce cas les galaxies suivent des orbites fermées au sein de l’amas). Selon les lois de la gravitation et la quantité de matière observée, il manquait environ 70% de la masse ! C’est un chiffre plutôt considérable. Les physiciens n’aiment pas vraiment qu’une telle quantité échappe à leur sagacité !

Cette proportion de masse influençant les galaxies, cette masse invisible, fut qualifiée de masse manquante ou de matière noire.

En étudiant la vitesse des étoiles dans notre galaxie on fut également confronté à ce problème.

Si l’on mesure la quantité de masse dans la galaxie, on peut dresser un profil de la densité de matière présente au centre de la galaxie et en s’éloignant du centre (courbe bleue).

de la galaxie et en s’éloignant du centre (courbe bleue). En utilisant les lois de la

En utilisant les lois de la gravitation, on peut alors calculer la vitesse des étoiles tournant autour de la galaxie.

On obtient une vitesse croissante en s’éloignant du centre car la masse totale augmente, puis lorsque l’on sort de cette zone dense, la vitesse diminue rapidement puisque la gravitation diminue avec le carré de la distance.

Mais ce n’est pas ce qui est observé :

La vitesse des étoiles augmente en s’éloignant du centre puis reste à peu près constante.

La vitesse des étoiles augmente en s’éloignant du centre puis reste à peu près constante.

On peut déduire de ce profil la quantité de masse engendrant de telles vitesses. Par soustraction avec la masse réellement visible on obtient alors la densité de masse manquante. Le résultat est que la galaxie et son environnement (le halo galactique) sont plongé dans un « nuage » de matière noire de densité relativement constante (un peu plus dense au centre). La masse manquante totale est de l’ordre de 70%.

Ce résultat est consistant avec la vitesse des galaxies.

Un autre effet peut être utilisé pour mesurer les masses. Cet effet dû à la relativité générale est totalement différent des mouvements des objets en orbite. La gravité étant la manifestation de la courbure de l’espace-temps, même un objet sans masse devrait être affecté. En particulier, les rayons lumineux doivent être déviés par les masses. Cette déviation observée en mesurant la position des étoiles près du Soleil lors d’une éclipse solaire fut la première confirmation éclatante de la validité de la relativité générale (pour être exact, la gravité de Newton prévoit aussi une telle déviation, du moins pour une lumière corpusculaire ayant une masse éventuellement infime, mais la déviation calculée est deux fois plus faible).

(le dessin n’est pas à l’échelle et l’effet a été exagéré pour être mieux visible)

(le dessin n’est pas à l’échelle et l’effet a été exagéré pour être mieux visible)

Lorsque le corps qui dévie la lumière est suffisamment massif, la déviation de la lumière peut donner lieu à plusieurs images identiques (ou déformées).

donner lieu à plusieurs images identiques (ou déformées). C’est ce qu’on appelle des mirages gravitationnels et

C’est ce qu’on appelle des mirages gravitationnels et le corps massif constitue une lentille gravitationnelle. On peut parfois avoir de nombreuses images.

Lorsque les masses sont plus faibles, les déviations sont insuffisantes pour créer plusieurs images mais elles sont suffisantes pour amplifier la lumière de l’objet éloigné, comme avec une loupe. Cet effet peut même être utile pour observer un astre lointain autrement trop peu lumineux pour être visible.

Les effets de lentilles gravitationnelles sont utiles pour déterminer la masse du corps massif situé le long de la ligne de visée, par exemple une galaxie. Là aussi le résultat est sans appel : 30% de la masse est visible, 70% reste inconnue.

Lorsque l’on a constaté l’existence de cette masse manquante, de nombreuses hypothèses ont été lancées pour expliquer ce déficit :

La masse manquante pourrait être due aux neutrinos, s’ils étaient massifs, car ceux-ci sont extrêmement nombreux et très difficile à détecter.

La matière noire pourrait être constituée de nuages froids difficiles à détecter.

Cette masse manquante pourrait aussi être due à des corps très massifs mais presque invisibles telque des trous noirs, des étoiles ratées ou des planètes errantes. Ils sont collectivement regroupés sous le nom de MACHOS.

On a aussi imaginer que la gravité pouvait se comporter de manière un peu différente (théorie MOND)ce qui pourrait expliquer les effets observés avec la seule matière visible.

Enfin, on a aussi imaginé que la masse manquante pouvait être composée de particules exotiques stables mais inconnues, interagissant peu avec la matière et restant à découvrir. Plusieurs théories essayant d’aller au-delà des théories actuelles prédisent de telles particules.

La matière noire composée de corps massifs est appelée matière noire froide de même que celle composée de particules très massives (appelées WIMPS) et celle composée de particules très peu massives matière noire chaude (car dans ce cas les particules sont légères et la gravité leur communique des vitesses élevées proche de celle de la vitesse de la lumière).

Plusieurs de ces hypothèses ont pu être écartées.

Les mesures en laboratoire ont confirmé que les neutrinos avaient bien une masse. Mais celle-ci est extrêmement faible et totalement insuffisante pour expliquer la matière noire.

Des chasses systématiques aux MACHOS ont eu lieu, en utilisant le fait qu’en passant devant une étoile ils provoquent une éclipse ou un effet de microlentille. Fort peu d’objets de ce type ont pu être découverts.

Les nuages froids présentent forcément une certaine opacité. Là aussi la recherche a permis de trouver des quantités de gaz inattendues mais totalement insuffisantes pour la masse manquante.

Tout regroupé, ces hypothèses pourraient expliquer au mieux 10% de la masse manquante.

Pour mieux comprendre la nature de la matière noire, on a utilisé les microlentilles pour cartographier finement la répartition de matière noire. Des objections ont parfois été soulevées sur le fait qu’on essaie de cartographier quelque chose dont on ignore même s’il s’agit d’une « matière ». Cela n’a pas d’importance. Ce sont les « anomalies » gravitationnelles qui sont en réalité cartographiées, elles sont bien réelles et ces cartographies peuvent aider à comprendre leur origine, quelle qu’elle soit.

La matière noire est répartie de manière assez uniforme autour des galaxies. C’est logique puisque la masse ordinaire attire la matière noire par gravité. D’une manière générale, les répartitions fort homogènes sont mieux en accord avec une forme de matière noire froide ou une gravité modifiée.

Mais plusieurs phénomènes observés ne semblent pas en faveur d’une gravité modifiée :

On a découvert des galaxies naines particulièrement riches en matière noire. Si la matière noire était une conséquence de la gravité modifiée, elle devrait être proportionnelle à la quantité de masse visible. Ce qui n’est pas toujours le cas.

Lorsque deux galaxies entrent en collision, elles freinent brusquement à cause de la viscosité du gaz qu’elles contiennent.

Mais la matière noire n’interagissant presque pas (autrement que par la gravité), elle ne subit pas cette viscosité. Elle devrait continuer « sur sa lancée », ce qui est impossible pour une gravité modifiée qui doit suivre la répartition de la matière ordinaire.

C’est en effet ce qui est observé : les deux halos de matière noire continuent sur leur lancée et se retrouvent de part et d’autre des galaxies en collision. Avec le temps ces halos doivent ralentir, à cause de l’attraction par les galaxies, revenir, faire quelques aller-retour jusqu’à

former un nouveau halo autour de la nouvelle galaxie issue de la fusion des deux anciennes. Le ralentissement étant dû aux effets de viscosité dynamique induit par la gravité.

Tout semble concorder avec une matière noire composée d’une ou plusieurs particules exotiques très massives. Des campagnes de recherches actives existent pour essayer de les détecter directement avec des détecteurs espérant capter le passage d’une particule de matière noire ou en les créant dans les grands accélérateurs de particules.

Quoi qu’il en soit, la matière noire réconcilie les observations avec les modèles cosmologiques puisque la densité observée, en incluant la matière noire, est de l’ordre de la densité critique. Les

(ou une valeur très proche).

observations sont donc entièrement en accord avec le modèle

Modèle statique

Lorsque Einstein a écrit la relativité générale, il a rapidement tenté de l’utiliser pour décrire l’univers dans sa globalité. Mais il y avait un préjugé tenace à l’époque auquel n’échappait pas Einstein : les scientifiques pensaient que l’univers était globalement statique. C’est-à-dire qu’il restait globalement immuable sans évoluer (autre que l’évolution stellaire).

Dans une telle vision, nulle expansion. Or les équations de la relativité générales restaient rétives à cette idée. Pour y arriver, Einstein a choisi de modifier ses équations pour y introduire une

« constante cosmologique » permettant d’obtenir un tel modèle statique.

Peu de temps après, l’expansion était découverte. Einstein venait de rater une prédiction capitale de

la relativité générale. En outre, modifier les équations de manière arbitraire semblait une hérésie et

pour Einstein un acte contre nature, lui qui professait que les résultats devaient découler de raisonnements partant d’un petit nombre de principe. Il qualifia son geste de « la plus grande erreur

de ma vie ».

Qui plus est, Lemaître montra que ce modèle statique était instable. La moindre « pichenette », la moindre perturbation (et comme l’univers n’est pas strictement homogène à petite échelle, des perturbations, ce n’est pas ce qui manque) et l’univers entre en expansion ou en contraction, au moins dans certaines zones.

L’idée d’Einstein n’était toutefois pas si hérétique que cela. On peut écrire les équations d’Einstein sous une forme très schématisée comme :

G est une quantité appelée tenseur de courbure d’Einstein et qui décrit la géométrie de l’espace- temps (plus exactement, une partie de sa géométrie, le reste devant venir d’autres considérations sur le problème examiné). T est une quantité qui décrit le contenu en matière (on l’appelle « tenseur énergie-impulsion »).

L’équation modifiée s’écrit :

est une grandeur constante appelée constante cosmologique.

Cette forme de l’équation est en fait la forme la plus générale respectant les principes de base de la relativité générale et quelques règles sur la construction de l’équation d’Einstein.

Elle est donc assez plausible, si ce n’est qu’aucune raison physique ne conduise à ce terme. Le terme

G vient de la géométrie, le terme T vient de la matière (et de l’énergie), mais d’où vient la constante

cosmologique ? Rien ne l’indique au moins à ce stade.

Autres possibilités

Einstein avait donné à sa constante cosmologique une valeur négative qui agissait comme un facteur « répulsif » dans la gravité empêchant son effondrement.

Mais, au moins en théorie, la valeur de

valeurs. Cela enrichit les modèles et on peut avoir des solutions d’univers fini avec expansion éternelle ou des univers infini suivi d’un big crunch.

n’est pas imposée et on peut lui donner toutes sortes de

Les descriptions qualitatives des différentes possibilités restent toutefois celles que nous avons données.

Modèles non isotropes

D’autres modèles ont été imaginés, comme des univers ayant une rotation globale. Ces modèles ne donnent pas nécessairement des résultats satisfaisant (par exemple, aussi étonnant que cela paraisse, les équations de la relativité générale montrent qu’un univers en rotation possède des boucles temporelles. Le voyage dans le temps devient possible et c’est la porte ouverte à pleins de contradictions).

Une place à part est à réserver aux modèles non isotropes. Par exemple, en forme d’ellipsoïdes au lieu d’une sphère.

Nous constatons actuellement que l’univers est remarquablement isotrope. Mais rien n’indique que cela a toujours été le cas. L’univers pourrait avoir été anisotrope à ses débuts à condition qu’il devienne isotrope après un certain temps.

Des calculs montrent que de tels univers sont plausibles si des effets de viscosité tendent à rendre l’univers plus isotropes. De tels forces de viscosités existent bien dans la matière aux différents états considérés par la cosmologie. Elles restent toutefois assez modeste et un tel modèle n’est plausible que si l’anisotropie n’est pas initialement trop accentuée.

Age de l’univers

Ces modèles permettent aussi de calculer l’âge de l’univers.

Puisque les galaxies s’éloignent à la vitesse

en contact par le passé. Le temps mis pour atteindre la distance dire l’inverse de la constante de Hubble.

, où D est la distance, cela veut dire qu’elles étaient

est alors simplement

, c’est-à-

Cela donne ainsi une première estimation à l’âge de l’univers.

Toutefois, comme le montrent les courbes des différents modèles, la constante de Hubble varie au cours du temps (elle est constante dans l’espace mais pas dans le temps !). Cela entraîne de petites modifications à l’âge de l’univers.

Rappelons qu’il s’agit ici de l’âge depuis l’instant T = 0 et cela ne préjuge pas d’un état antérieur.

Pour les paramètres de l’univers tels qu’ils sont connus (densité, incluant la matière noire, constante de Hubble), on trouve un âge d’environ 13.8 milliards d’années.

Ce n’est pas si énorme quand on sait que la Terre s’est formée il y a 4.5 milliards d’années.

Evidemment, cet âge ne doit pas être inférieur à celui des plus vieux objets que l’on trouve dans l’univers. Le record est actuellement de vieilles étoiles d’environ 13.6 milliards d’années.

C’est un accord admirable qui n’a d’ailleurs pas toujours été la règle par le passé dans l’étude de la cosmologie, à l’époque où ces paramètres étaient connus avec beaucoup moins de précision.

IV.3. Inflation

Au début, la cosmologie fut confrontée à une série de problèmes épineux.

Le problème de l’horizon

Nous recevons actuellement du rayonnement venant de la matière qui se trouvait à 13.8 milliards d’années-lumière. La matière qui est située plus loin n’a tout simplement pas encore eut le temps de nous envoyer de la lumière.

D’une manière générale, nous ne sommes en interaction, par échange de rayonnement qu’avec la matière située dans une sphère de 13.8 milliards d’années-lumière de rayon. Deux portions de matière plus éloignée ne sont pas en interaction.

Cette distance est le rayon cosmologique. Et plus on remontre dans le temps, plus cette distance diminue. Lorsque l’univers avait seulement 10000 ans, le rayon cosmologique n’était que de 10000 années-lumière.

L’expansion est plus lente que la vitesse de variation de l’horizon. En effet, l’horizon se déplace à la vitesse de la lumière, vitesse à laquelle les rayons lumineux peuvent nous parvenir. Tandis qu’un objet dans l’univers observable se déplace toujours à une vitesse inférieure à la vitesse de la lumière. Considérons deux objets actuellement en interaction (gravitationnelle, rayonnement, échange de particules). En remontant le temps, la distance parcourue par la lumière depuis le début diminue plus vite que la distance entre ces objets.

Il arrive donc toujours une époque où ces deux objets n’avaient pas encore eu de contact depuis le début T = 0.

Même actuellement, on a cette situation puisque deux points situés de part et d’autre de la Terre, chacun à disons 10 milliards d’années-lumière de la Terre, sont séparés l’un de l’autre par 20 milliards d’années-lumière. Ils n’ont donc pas encore pu être en contact.

Comment dans ces circonstances expliquer que l’univers est totalement homogène et isotrope si les différentes parties de l’univers n’ont pas pu être en contact et s’homogénéiser ?

On peut bien sûr supposer que dès le départ l’univers était entièrement uniforme, homogène et isotrope. Même dans le cas d’un univers infini (dans ce cas aussi loin qu’on remonte, l’univers serait toujours infini).

Mais une telle hypothèse semble plutôt ad hoc. Les physiciens préfèrent trouver une cause physique à cette homogénéité. De plus, on sait que l’univers n’est pas strictement homogène au moins à petite échelle aussi bien dans la répartition des galaxies que dans les fluctuations du rayonnement fossile. Les corrélations entre fluctuations largement séparées sont faibles mais non nulles. Si l’homogénéité résultait d’une loi physique l’imposant initialement, on ne pourrait avoir des irrégularités que pour des zones proches entrées en contact bien après le début.

Il y a donc clairement quelque chose que l’on ne comprend pas.

Le problème de la platitude

Nous l’avons vu, l’univers est spatialement plat ou presque plat. Comment évolue la courbure de l’univers au cours du temps ? Considérons une petite zone donnée d’une sphère. Plus la sphère est grande et plus cette zone semblera plate. Plus la sphère grandit et plus l’espace s’aplatit localement (on a l’impression de marcher sur un sol plat sur une grande boule comme la Terre, mais essayez de tenir debout sur un ballon de foot).

Terre, mais essayez de tenir debout sur un ballon de foot). Mais il faut tenir compte

Mais il faut tenir compte de l’univers observable. L’horizon grandit, rapidement, à la vitesse de la lumière et couvre une partie de plus en plus grande de la sphère. Si localement l’espace s’aplatit, pour l’univers observable dans sa totalité, la courbure totale s’agrandit !

A l’inverse, en remontant le temps, la courbure totale observée diminue. Vu que l’univers observable

actuel est proche de la platitude, on en déduit (et on calcule) que l’univers devait être extrêmement

plat au départ. C’est-à-dire que l’on doit avoir

à très peu de chose près, vraiment très peu.

C’est d’autant plus étonnant que l’univers n’est pas strictement homogène à petite échelle. Les

modèles de la relativité générale utilisent un

fluctuations de toutes tailles reviennent au même que de petites fluctuations de considéré.

constant, mais les inhomogénéités et autres

selon l’endroit

Par quel miracle la valeur moyenne est-elle si proche de zéro ?

Inflation

Face à ces problèmes on imagina le principe de l’inflation.

L’inflation est une période précoce et courte de l’univers où son expansion s’est emballée de manière exponentielle avant de revenir à un rythme normal.

Comment cette inflation peut-elle résoudre les problèmes rencontrés ? Tout d’abord, au tout début, seule

Comment cette inflation peut-elle résoudre les problèmes rencontrés ?

Tout d’abord, au tout début, seule des zones minuscules ont eu le temps d’avoir des contacts entre- elles. Mais l’inflation énorme fait que tout l’univers observable actuel correspond à une de ces minuscules zones qui a grandi fortement lors de l’inflation. La petite zone a eu la possibilité de s’homogénéiser et nous sommes actuellement toujours dans cette zone fortement agrandie.

De plus, l’augmentation brutale de la taille de l’univers implique qu’une zone, même grande, s’est

brusquement aplatie. Même avec

d’années l’horizon cosmologique n’a pas encore pu grandit suffisamment que pour révéler une courbure notable dans l’ensemble de l’univers observable. Ce dernier reste une fraction minuscule

d’une sphère (ou une autre géométrie) infiniment plus vaste.

sensiblement différent de zéro et même après 13 milliards

Pour s’accorder avec les données connues, les inflations envisagées dans les modèles ne durent qu’une fraction infime de seconde, au tout début, avec un accroissement des tailles caractéristiques de plusieurs milliards de milliards de milliards de… fois. Une expansion courte mais vraiment brutale !

Les fluctuations

Cette inflation fut initialement postulée. Bien qu’intéressante voir plausible, elle n’en restait pas moins une hypothèse ad hoc.

L’inflation présente-t-elle des conséquences spécifiques observables ? La réponse est oui.

La mécanique montre que les grandeurs physiques des particules (position, vitesse, énergie) n’ont jamais des valeurs infiniment précisés. Cela se traduit par des fluctuations autour de grandeurs moyennes. La théorie donnant les outils appropriés autant pour calculer ces grandeurs moyennes que ces fluctuations.

En pratique ces fluctuations sont toujours minuscules. Elles ne se manifestent pratiquement jamais à l’échelle macroscopique. Mais elles sont détectables. Par exemple, elles se traduisent par certains bruits électroniques ou d’autres phénomènes pouvant même limiter la précision des mesures en physique de très haute précision.

Le milieu dans lequel se trouvait l’univers au début devait aussi être soumis à ces fluctuations quantiques. Même si une zone a eu le temps de s’homogénéiser, des fluctuations aléatoires devaient subsister dans le milieu.

Lors de l’inflation, ces fluctuations ont été amplifiées de manière considérable. Des zones de densité différentes sur des distances de l’ordre du milliardième de mètre se sont retrouvées ensuite avoir une taille se chiffrant en années-lumière.

En grandissant, ces fluctuations « gèlent », se figent, car après avoir grandi les fluctuations microscopiques ne sont plus à même d’effacer ces immenses zones de densités légèrement différentes.

Le résultat est calculable avec précision et on peut également calculer la corrélation entre les différentes fluctuations selon la distance entre deux points.

Le calcul donne un spectre en puissance. Or c’est bien ce qui est observé. L’hypothèse de l’inflation a ainsi pu être confirmée lorsque les mesures du rayonnement fossile sont devenues suffisamment précises.

Causes physiques

Il reste à comprendre ce qui a pu provoquer un tel phénomène.

Dans le cadre de la relativité générale, avec un tenseur énergie-impulsion T « normal », cela ne peut pas se produire. La masse et l’énergie étant toujours attractif, l’expansion ne peut que ralentir, pas accélérer.

Pour cela il faut imaginer un mécanisme répulsif. Plusieurs hypothèses ont été avancées.

Il y a tout d’abord les ruptures de symétrie. La théorie décrivant les interactions entre particules est fort élaborée. On a ainsi pu construire un modèle de l’interaction électromagnétique et de l’interaction faible où ces deux interactions se trouvent unifiées. C’est-à-dire que les deux interactions ont pour origine une seule interaction. Ce modèle a pu être confirmé avec une précision exceptionnelle dans les grands accélérateurs de particules.

Ce modèle présente une particularité. Lorsque les champs sont dans leur état de base, l’état le plus symétrique n’est pas l’état d’énergie le plus bas. On ne parle pas ici d’une symétrie géométrique (comme la réflexion dans un miroir) mais d’une symétrie par rapport à des paramètres internes du modèle. Mais cela importe peu pour nous.

Les systèmes physiques se plaçant toujours dans l’état d’énergie la plus basse, le vide quantique se met dans une situation d’énergie faible mais où cette symétrie n’est plus observée. Un mécanisme simple mais élégant montre alors qu’en combinaison avec un champ particulier (celui des particules de Higgs qui ont beaucoup fait parler d’elles ces derniers temps après leur découverte) cela conduit à une masse différente des particules vecteurs. Les photons restent sans masse mais les bosons W et Z deviennent très massifs.

Cette rupture de la symétrie entraine alors des comportements forts différents des deux composantes de l’interaction unifiée que sont l’interaction électromagnétique et l’interaction faible.

Si l’on n’est plus dans le vide mais dans un état extrêmement chaud et dense, le système ne va pas nécessairement se placer dans l’état d’énergie la plus basse, cette dernière étant suffisamment

abondante. On montre qu’à très haute énergie, le vide doit être symétrie mais qu’il est brisé à plus basse énergie.

Lorsque la densité d’énergie diminue (avec l’expansion) on doit ainsi observer une transition de phase d’un état symétrique vers un état moins symétrique et d’énergie plus faible. C’est analogue à la transition de phase de l’eau vers la glace (qui est moins symétrique que l’eau à cause de sa structure cristalline ordonnée impliquant des directions privilégiées dans l’espace).

La différence dans l’énergie du vide est dégagée lors de ce processus. Tout comme la chaleur latente de la glace est dégagée lorsqu’elle se forme.

Il est plausible que cette libération particulière d’énergie se comporte comme un mécanisme « répulsif » vis-à-vis de la gravitation.

L’inflation serait la conséquence de cette transition de phase.

Les calculs restent difficiles et soumis à plusieurs incertitudes, en particulier pour le lien avec la gravitation. Ce modèle très plausible reste donc spéculatif.

D’autres hypothèses ont été avancées, comme l’existence d’un champ particulier appelé dilaton et qui aurait des propriétés répulsives.

Ce genre d’hypothèse est tout à fait ad hoc et spéculatif mais il a le mérite de permettre de tester différents scénarios et en particulier de calculer les valeurs précises caractérisant ce champ de dilaton.

Il reste donc pas mal de progrès à faire, en particulier du côté théorique, probablement dans le domaine de la gravitation quantique ou de l’étude des effets quantique dans un espace-temps courbe.

IV.4. La soupe de quarks

Nous pouvons passer maintenant à la description de la matière au tout début, disons juste après l’inflation.

Pour cela nous aurons besoin de faire un petit détour par l’interaction forte. ### besoin d’un détour par interaction forte

L’interaction forte

L’interaction entre les quarks est de deux type : électromagnétique (ils portent une charge électrique) et l’interaction forte (ils portent une charge de couleur).

L’interaction forte est véhiculée par l’échange de gluons, de masse nulle et donc de portée théoriquement infinie. Notons que les gluons portent également une charge de couleur.

Mais cette interaction est assez particulière car, contrairement aux autres, sont intensité augmente avec la distance.

A cause de cette particularité il est impossible d’isoler les quarks en les séparant. On

A cause de cette particularité il est impossible d’isoler les quarks en les séparant.

il est impossible d’isoler les quarks en les séparant. On peut essayer de les séparer en

On peut essayer de les séparer en leur communiquant de l’énergie, par exemple en les heurtant avec une particule. Si l’énergie est insuffisante, les quarks vont rester proches mais dans un état excité. Puis ils vont revenir à leur position initiale en émettant un photon gamma.

Si

on fournit plus d’énergie, les quarks vont se séparer plus fortement. Mais l’attraction augmentant,

si

on veut vraiment les séparer il faudra fournir une énergie de plus en plus considérable. A terme,

l’énergie devient suffisante pour créer de nouvelles particules (selon d’avoir deux quarks séparés on a de nombreuses particules dont des quar

Confinement

A cause de ce phénomène, les quarks ne restent séparés que si l’interaction forte est annulée, c’est-

à-dire si la charge de couleur est nulle. Cela peut s’obtenir avec un quark et un antiquark (de charge

opposée) comme dans les mésons ou avec trois quarks de couleurs complémentaires comme dans les nucléons.

). Au final, au lieu

Ce phénomène s’appelle le confinement des quarks. Notons que les gluons étant colorés ils sont également confinés à l’intérieur de ces particules.

Il reste une interaction résiduelle. Les nucléons ne peuvent pas échanger de gluons (confinement) mais ils peuvent échanger des mésons pi (assemblage de deux quarks) ou d’autres mésons plus lourds. Le méson pi étant lui-même assez massif, l’interaction résultante (dite interaction nucléaire) est de très courte portée.

Hautes énergies

Si les quarks sont à très haute énergie, ils peuvent alors s’approcher très près les uns des autres. L’interaction forte devient alors plus faible. Des quarks extrêmement énergétiques et très concentrés se comportent comme s’ils étaient seuls, comme des particules libres.

Cette propriété inhabituelle s’appelle liberté asymptotique.

Etat de la matière

Venons-en à l’état de la matière tout au début.

La densité est alors énorme et la température extrêmement élevée. C’est-à-dire que l’énergie moyenne de chaque particule est très grande. On parle là de températures de plusieurs milliards de degrés et des densités se chiffrant en milliards de tonnes par centimètre cube.

Ces particules extrêmement énergétique peuvent se heurter très violemment ce qui crée facilement toutes sortes de paires particules antiparticules. Ces paires peuvent elles-mêmes s’annihiler pour produire d’autres particules ou des photons.

Il s’instaure un équilibre dynamique où l’on a autant de particules créées que de particules détruites. Il est alors possible de calculer les proportions de chaque particule.

La matière est constituée d’une soupe de quarks, gluons, électrons, neutrinos (et leurs versions plus lourdes) et de nombreux photons.

Les quarks étant soumis à la liberté asymptotique, on s’attend à ce qu’ils se comportent comme des particules indépendantes, formant un gaz parfait.

Cet état de matière a pu être reproduit en laboratoire en envoyant à des vitesses extrêmes des noyaux d’atomes les uns contre les autres, formant un très court instant une boule de quarks et gluons.

Là, on a eut une surprise : l’ensemble ne se comporte pas vraiment comme un gaz parfait mais plutôt comme un superfluide (un fluide sans viscosité comme l’hélium liquide).

Cela montre qu’il est risqué d’extrapoler le comportement d’une paire de particules à des collections d’un grand nombre de particules. Il est vrai que les calculs sont extrêmement complexes. Depuis, les théoriciens ont pu approfondir leurs calculs et vérifier que la théorie est conforme à cet étrange état qui commence à être bien compris autant par la théorie que par l’expérience.

Expansion

Sous l’expansion, ce milieu subit une dilatation correspondant à une baisse rapide de sa densité.

On peut appliquer les lois de la thermodynamique qui indiquent que cela correspond à une diminution rapide de la température et donc de l’énergie cinétique et de la vitesse des particules.

Les collisions deviennent donc de moins en moins violentes.

Pour que ces lois soient applicables il faut que le milieu soit en équilibre thermique. L’expansion étant extrêmement rapide au début (même encore après l’inflation, même si ce n’est pas aussi violent) on peut douter que l’état d’équilibre aie le temps de s’instaurer.

Mais on peut vérifier par calcul que la vitesse des particules est telle que les collisions entre particules permettent de garder l’état d’équilibre thermique (ou quasi équilibre puisque cela évolue avec l’expansion). Les lois calculées donnant la variation des grandeurs avec l’expansion (densité, pression, température,…) sont donc valides.

Notons que les lois déduites dépendent du nombre de sortes de particules en présence et de certaines de leurs propriétés comme le spin. L’équilibre dynamique statistique entre particules dépend en effet étroitement du nombre de sortes de particules pouvant être créées. Heureusement, pour autant que nous le sachions, ces types de particules sont en nombre finis. Au moins pour les conditions physiques de cette époque de la soupe de quarks que nous savons reproduire en laboratoire.

IV.5. La disparition de l’antimatière

Annihilation

Lorsque des particules se heurtent, la collision peut engendrer la création d’une paire particule – antiparticule. Si ces particules sont de masse m, alors la relativité nous dit qu’il faut au moins d’énergie pour les créer, énergie puisée au dépend de l’énergie cinétique des particules qui se heurtent.

Si la vitesse des particules est trop faible, l’énergie disponible le sera aussi et aucune paire particule antiparticule de ce type ne sera créée. Si au contraire les vitesses sont très élevées, cette création ne sera pas difficile.

Nous savons que l’énergie cinétique des particules d’un gaz à température T est donnée par existe donc une température minimale pour laquelle des paires particule antiparticule seront créées.

. Il

C’est l’effet de seuil. Tant que la température est suffisante, on a un équilibre dynamique avec autant de création de paires que d’annihilations. Mais lorsque l’expansion provoque une chute de la température en-dessous du seuil, il n’y a plus de création. Les particules et les antiparticules présentent s’annihilent lorsqu’elles se rencontrent en formant des photons, et ceci de manière irréversible.

Il y a un tel seuil pour chaque masse. On a d’abord une annihilation des particules les plus lourdes (quarks top, quarks beauté) puis des suivantes et ainsi de suite jusqu’aux plus légères. Les dernières à subir cette extermination sont les électrons et les positrons.

Il reste encore les neutrinos, bien plus légers, mais ils interagissent si peu qu’ils échappent à cette autodestruction et dès que la densité a suffisamment diminué leur influence devient totalement négligeable. ation, disparaissent

Répartition matière antimatière

Comment sont initialement réparties les particules ? Quelles quantités de particules et antiparticules avons-nous ? Quelles sont les proportions ?

Les lois de conservation des différentes charges font que la création des particules antiparticules ou leur annihilation se fait par paire. Par exemple, la charge électrique est une quantité parfaitement conservée et un électron de charge négative ne se crée que si un positron de charge positive se crée en même temps.

On a donc toujours une parfaite égalité « nombre de particules » = « nombre d’antiparticules » créées ou annihilées. Mais qu’en est-il initialement ?

Vu que la matière et l’antimatière sont parfaitement symétriques (mais voir plus loin), on s’attend à ce que initialement les quantités soient totalement identiques. Si ce n’était pas le cas, on devrait se demander pourquoi.

Mais si les quantités étaient identiques, au final toute particule devrait s’annihiler avec une antiparticule. Il ne devrait plus rien rester (à part des photons et quelques neutrinos) !!!

C’est manifestement faux. Il y a un résidu de matière, cette matière qui compose les galaxies, les nuages de gaz, les étoiles et votre serviteur.

Nous verrons plus loin que la différence est fable. Un petit écart comme cela est assez désagréable. Soit les quantités sont égales car elles résultent d’une loi physique comme une loi de conservation, soit elles sont très différentes car les quantités de chaque particule ont des origines différentes, indépendantes ou aléatoires.

Mais une petite différence laisse un malaise. On soupçonne une cause physique et on aimerait bien la comprendre.

Où est passée l’antimatière ?

Plusieurs hypothèses ont été imaginées.

Partons de l’hypothèse que les quantités de matière et antimatière étaient initialement identiques.

On peut d’abord imaginer que la répartition de matière et d’antimatière n’était pas strictement homogène. Ainsi, dans certains zones (comme sur Terre) il est resté un excédent de matière mais dans d’autres zones il serait resté un excédent d’antimatière.

On pourrait ainsi avoir certaines zones de notre univers composées de matière et d’autres d’antimatière.

On peut supposer que certaines des zones actuellement observables seraient composées d’antimatière. Ces zones contiendraient des antiétoiles, des antigalaxies, etc. Les propriétés électromagnétiques de l’antimatière étant strictement identiques à celles de la matière, il serait totalement impossible de savoir que ces zones sont composées d’antimatière par la simple observation.

Mais de telles zones sont fortement improbables ou, si elles existent, elles doivent être réduites et peu nombreuses. En effet, l’observation des rayons cosmiques (particules très énergétiques parcourant l’univers) a montré qu’ils étaient composés presque exclusivement de matière. De plus,

matière et antimatière s’annihilant en émettant un puissant rayonnement très caractéristique, la zone de contact entre matière et antimatière serait le siège d’un rayonnement intense très visible, sauf si cette zone était strictement vide. Or on n’observe jamais de zones strictement vides, il y a toujours un peu de gaz. De plus, toutes les masses de gaz étant en mouvement sous l’action de la gravité, une telle zone strictement vide ne le resterait pas longtemps.

On peut aussi imaginer que les hétérogénéités sont de plus grande échelle et que des zones d’antimatière existent mais bien plus loin que la limite de l’univers observable. Dans ce cas, la zone de contact échapperait à notre attention.

Mais il est difficile d’imaginer la raison d’hétérogénéités à une telle échelle. De plus, cela exigerait que des zones immenses soient composées uniquement de matière ou d’antimatière et la raison de l’écart de composition continuerait à se poser pour ces zones.

Enfin, des théories plus spéculatives ont imaginé une ségrégation dans des univers jumeaux ou des univers multiples. Rien dans les observations ou les théories validées ne va dans ce sens.

Il reste une possibilité : que les interactions soient en fait très légèrement en faveur de la matière et que celle-ci ait vu sa quantité augmenter légèrement avant l’annihilation.

Conditions de Sakharov

Le physicien Sakharov a énoncé les trois conditions pour que de telles interactions en faveur de la matière soient possibles.

Il faut qu’il y ait une légère dissymétrie dans certaines interactions. Ces interactions se comportant différemment si l’on est en présence de matière ou d’antimatière.

Une telle dissymétrie existe bien. On a constaté que les interactions faibles faisant intervenir le quark étrange ou le quark beauté favorisaient légèrement la matière.

Cette dissymétrie a été constatée et abondamment étudiée avec les mésons K et B.

Toutefois, cette dissymétrie est insuffisante. Les valeurs mesurées de la dissymétrie et le calcul appliqué aux conditions initiales montrent que cela ne suffit pas (la période avant l’annihilation est beaucoup trop rapide).

Mais c’est une piste (d’autres déséquilibres plus subtils pourraient exister, ce que l’on étudie actuellement par l’analyse de l’antimatière dont les propriétés des antiatomes d’hydrogène).

On peut montrer qu’à l’équilibre thermique il n’y a pas de changement dans le rapport matière – atimatière. Il faut qu’un déséquilibre se produise afin que les réactions favorisant la matière puissent entrer en jeu et augmenter la quantité de matière.

Pourtant, nous avons bien dit que l’expansion était constamment en équilibre thermique !

Il ne reste toutefois pas exclut qu’un tel déséquilibre ait pu exister plus tôt, pendant l’inflation, pendant l’un ou l’autre changement de phase.

Enfin, comme nous l’avons dit, les lois de conservation imposent la création ou l’annihilation par paires particules antiparticules. Pour que la matière puisse augmenter au détriment de l’antimatière, il faut forcément que certaines lois de conservation soient violées.

Une telle violation n’est pas possible avec les théories validées. Mais certaines extensions de la théorie admettent cette possibilité.

Une recherche expérimentale active n’a pas pu mettre en évidence cette violation mais cela ne reste pas exclu dans des régimes d’énergie particulièrement grands.

On le voit, ce déséquilibre matière antimatière reste donc encore mystérieux. Il existe encore d’autres hypothèses ou idées et la recherche est très active autant pour la recherche expérimentale que théorique.