Vous êtes sur la page 1sur 46

UV-GEOLOGIE & HYDROGEOLOGIE

ECOLE NATION POLYTECHNIQUE DE MAROUA

UNIVERSITE DE MAROUA

DEPARTEMENT TRAITEMENT DES MATERIAUX ARCHITECTURE ET HABITAT

MAHL315 : Géologie et hydrogéologie

Enseignant :
Dipl.-Geol. & M. Sc Eng.
Haman YOUGOUDA

Destinés aux étudiants de Licence III: Traitement des Matériaux, Architecture et


Habitat (TRAMARH).

Objectifs :
- Donner à l’étudiant certaines connaissances de géologie générale qui lui
permettront de mieux cerner les problèmes qu’il rencontrera lors de
l’établissement de tout projet géologique lié à la réalisation des travaux de
Génie Civil.

Programme :
 L’univers et son architecture.
 Sismologie (prédiction des séismes et prévention …)
 tectonique de plaque, volcanisme, composition de lithosphère,
 introduction à la paléontologie,
 géologie au service de l’homme (télé détection, hydrologie, environnement,
recherches (minières) de matières minérales).
 Méthode de la géologie appliquée au génie civil (principes généraux,
méthodologie, documentation, définition des programmes de reconnaissance,
exécution des travaux.).
 Travaux de reconnaissance. Sondage (RQD, les essais d’eau, les essais
mécaniques, prospection sismique et électrique, quelques techniques
spéciales).
 Introduction à la cartographie géotechnique. Applications (terrassement, étude
et tracé routier, étude géologique et spécifique au problème de fondation,
étude géologique nécessaire à tous projets de barrage).
 Organisation des études géologiques.

Bibliographie
Le Guide de la Géologie: M. Frigo et L. Sorbini, éditeur Fernand Nathan, 1980
Géologie, objets et méthodes : J. Dercourt et J. Paquet, Dunod Université, 1974
Géologie, tout en un ; Pierre Peycru et co. édition Dunod, 2008
Géologie et Biologie : R. Djakou et S. Yaya Hanon, édition Bordas, 2001
Geologie von Mitteleuropa, Roland Walter et Co., Schweizert’sche Verlag, 1990
Die Entwicklungsgeschichte der Erde, VEB, Brockhaus Verlag, Leibzig, 1980
Le forage d’eau: Albert Mabillot, 1971.
CHAP I : LES GRANDES DONNÉES

1) L’univers, les galaxies et les étoiles

L’univers est un espace infini constitué d’une infinité d’étoiles formant des myriades de regroupements
appelés galaxies séparés les unes des autres par des espaces intergalactiques. Ces vides à l’intérieur
d’une galaxie sont des intergalactiques ou interstellaires. Ils sont dits interplanétaires à l’intérieur d’un
système constitué d’une étoile autour de laquelle gravitent les planètes. Inter satellitaire à l’intérieur
d’un système constitué d’une planète autour de laquelle gravitent les satellites.

Du point de vue de sa structure l’univers est considéré dans son ensemble comme homogène et
isotrope, car à partir de la terre on ne distingue pas une direction privilégiée qui révèle à vue d’œil une
concentration particulière des éléments.

La Cosmologie ou science de l’univers est basée sur ce principe d’homogénéité et d’isotropie et de la


connaissance d’une galaxie est indispensable à la connaissance de l’univers. Les galaxies ne sont
pas fixes. Elles s’écartent les unes des autres depuis l’explosion initiale « big bang » qui s’est produite
il y a environ 15 milliards d’années. Les galaxies se sont formées à partir de cette explosion
thermonucléaire.

Les dimensions des objets astronomiques sont d’un autre ordre que les éléments terrestres. On
appelle unité astronomique la distance qui sépare la terre du soleil soit 150 millions de km. L’année
lumière est la distance parcourue par la lumière pendant une année. Exemple : la dimension de la
galaxie à laquelle appartient le soleil est d’environ 100 000 années lumières.

Il existe une méthode simple pour mesurer la distance à une étoile proche de la terre (moins de 600
al), c’est la méthode de la parallaxe angle qui est le déplacement de la position apparente d’un corps
céleste sur le fond du ciel constitué d’étoiles plus haut et apparemment immobile. Le déplacement dû
à un changement de position de l’observateur à 6 mois d’intervalle donc après une demi-rotation de la
terre. Cette méthode dite trigonométrique permet d’évaluer á partir de la vitesse angulaire la différence
de la position de cette étoile au ciel, mais également celle du soleil à la dite étoile. L’unité
astronomique étant la durée de référence.

Il existe une autre unité de mesure de distance astronomique à savoir le parsec (PC). Cet acronyme
est issu de parallèle et de seconde angulaire et elle correspond à la distance de la terre à une étoile
+18
donc la parallaxe annuelle est égale à une seconde angulaire soit 3,09x10 km soit 3,27 al.

2) La voie lactée : galaxie d’appartenance de la terre, du soleil et des autres galaxies

Un jour ensoleillé sans nuage montre un ciel bleu. La nuit dans les mêmes conditions nous laisse
entrevoir une répartition uniforme des étoiles, avec certaines plus brillantes, plus grandes et plus
visibles. On peut aussi observer une large bande blanchâtre et lactée aux contours diffus traversant la
voûte céleste de part en part : c’est la voie lactée.

Galilée a montré en 1610 que notre galaxie est constituée de myriades d’étoiles, le soleil étant l’une
d’elles. Ces étoiles sont regroupées dans un disque plat avec le bulbe central où le nombre d’étoiles
diminue lorsqu’on s’éloigne du centre du disque. Ce disque est lui-même situé au centre d’une sphère
appelée halo galactique qui contient un petit nombre de vieilles étoiles regroupées en amas
globulaires. Le soleil est situé à 30 000 al du centre et à 20 000 al de ce disque.

Une carte du ciel établie dans les deux hémisphères en utilisant des pellicules photographiques
sensibles aux radiations infra rouges montre que la voie lactée est faite de 200 milliards d’étoiles et
que 90% de sa masse s’organise autour d’un noyau volumineux : le bulbe. Placé au centre d’un
disque mince dont l’épaisseur ne dépasse pas un centième de son diamètre, la majorité des étoiles
s’y concentrent. L’étude des radiations issues de la voie lactée montre les zones d’émissions faibles
qui se regroupent sous forme de bras spiraux issu du bulbe. Le disque galactique est un gigantesque
ellipsoïde de révolution tournant autour d’un axe perpendiculaire au plan équatorial. Chaque étoile
étant entrainée dans un mouvement sous l’effet de la force gravitationnelle. Sa vitesse dépend de sa
position par rapport au centre du disque.

En réalité la structure du disque galactique n’est pas homogène et les étoiles au cours de sa rotation
rencontrent des régions de densités plus élevée que les bras spiraux. Ces bras peuvent être décrits
comme les zones noires.

Plus une galaxie est lointaine de la terre, plus elle s’en éloigne vite et cette observation est une loi
fondamentale qui s’exprime par la formule :

V=H x d

V : Vitesse d’éloignement ou récession galactique

d : distance de la terre à la dite galaxie

H : Constante de Hubble (km par Méga Parsec)

Les valeurs sont comprises entre 50 et 100 km.S+4MPC en termes de décalage spectral lié à l’effet
DOPPLER. Pour des vitesses V qui sont petite par rapport à celle de la lumière on a :

V =C x Z

C : Vitesse de la lumière

Z : décalage spectral mesuré, sans dimension, il dépend de l’augmentation de la longueur d’onde par
rapport à la longueur d’onde considérée

V= C x Z = C x dT/T

T étant l’âge de l’univers

On admet que T = 15 Ga soit 15. 10 +9 soit 15 milliards d’années. L’univers se disperse en galaxie
depuis 15 Ga et occupe un espace de plus en plus important. On appelle horizon cosmologique, la
distance au-delà de laquelle aucune galaxie n’est visible. Le décalage vers le rouge devant infini et cet
horizon se situe à environ 15 Gal. L’expansion de l’univers augmente son volume et s’accompagne
par conséquent d’une baisse de sa densité moyenne alors qu’au cours de cette expansion les
galaxies subissent un refroidissement progressif donc une augmentation de la densité qui reste au
moins un million de fois supérieur à la densité moyenne de l’univers.

L’univers étant en expansion, on peut imaginer en remontant le temps un rapprochement extrême de


l’ensemble des galaxies actuelles. L’image du milieu formé par l’assemblage de toutes les galaxies
serait celle des particules élémentaires, infiniment compactées et condensées baignant dans un
rayonnement très chaud il y a 15 Ga. En 1945, GAMOV a évoqué la possibilité de déceler de nos
jours les traces de ces rayonnements initiales. Entre temps ce rayonnement a été mis en évidence par
PANZIAS et EMOND grâce à la mise au point d’un système de communication.

Les étoiles effectuent une rotation complète en environ 250 millions d’années. Cette rotation
galactique coïncide pratiquement avec celle des évènements géologiques qui ont marqué l’histoire de
la planète terre lors des derniers 600 millions d’années.

L’observation de la voie lactée à partir de la terre est difficile puisque la terre est immergée dans la
voie lactée. Par contre les galaxies se trouvant en face sont plus faciles à observer, il s’agit des deux
nuages de MAGELANG qui sont visibles de l’hémisphère sud et de la nébuleuse d’ANDROMÉDE
visible de l’hémisphère nord. Ce sont là les galaxies les plus proches de la voie lactée. L’univers
compte des milliards de galaxies.
3) Histoire de l’univers

L’univers était considéré au début de l’histoire humaine comme immobile. C’est dans les années 1920
que la mobilité de l’univers a été mise en évidence par DOPPLER FIZEAU à partir des phénomènes
vibratoires indiquant un changement de fréquence que tout observateur peut desceller. Un exemple
pratique est le cas de vibrations sonores considérant deux observateurs, l’un sur le vecteur qui porte
l’émetteur de vibration et l’autre placé sur une station d’observation fixe. Pour l’observateur situé sur le
vecteur portant l’émetteur de sons, la tonalité et l’intensité des sons émis restent les mêmes ; alors
que pour l’observateur en station fixe, la tonalité des sons qui est maintenu à un niveau donné,
lorsque le vecteur se rapproche de lui. Baissé d’un cran lorsque le vecteur s’éloigne de lui. Et dans le
cas du rapprochement il y a une augmentation progressive de l’intensité des sons alors que dans le
cas de l’éloignement il y a une décroissance progressive de l’intensité des sons. Le décalage de
tonalité ainsi perçu est l’effet DOPPLER FIZEAU.
Le phénomène observé dans le cas des sons est le même que celui de la lumière. Il se manifeste par
un changement de couleur et l’observation des spectres lumineux émis par les galaxies montre
différents décalages du bleu vers le rouge. L’astrophysicien HUBBLER ; en 1923 a établi:

F (apparent) = F´ (effectif) = Racine (V+v/V-v)

Cependant la fore gravitationnelle maintient en permanence une cohésion d’ensemble. On distingue 4


ères :

Ère hadronique : dont la durée est de 10-4 S. Dès le big-bang la température baisse de 10+32 K à
10+32 K, la force nucléaire associe les particules fondamentales appelés quarks s’unissent trois/trois
pour engendrer les hadrons (protons neutrons) nécessitant une énergie de l’ordre de milliards
d’électrons volts ce qui représente l’équivalence de la masse d’un proton E=mC+2

Ère leptonique : d’une durée de 10 S. Au cours de laquelle la température décroit de 10 +13K à


10+04K, la force nucléaire faible agit pour former les électrons et les neutrinos

Ère radioactive : 1 millions d’années. Au cours de cette ère la température baisse de 10+9 à 10+70K
et la force électromagnétique entre en action les protons dominent, en transforment en neutrons. La
synthèse des premiers atomes s’effectue. À ce stade est émis le rayonnement fossile à une
température de 3 10+10K et depuis lors, en raison de l’expansion de l’univers, sa température diminue
pour être actuellement à 2,7° K.

Ère stellaire ou galactique : d’une durée de 14,999 Ga qui dure jusqu’à nos jours. Durant cette ère, il
n’y a plus d’interaction entre le rayonnement et la matière devenu neutre sous l’influence de la force
gravitationnelle, la matière se rassemble de place en place à petite échelle en formant des grumeaux
de densité de plus en plus grande. Une hiérarchisation des condensations crée alors les étoiles, les
galaxies, les amas de galaxie et les supers amas de galaxies. Mais cette étape fondamentale est
encore mal comprise et on ne sait pas dans quel ordre s’établit cette hiérarchie. Cependant en toute
probabilité, les étoiles qui pour se former nécessite les densités relativement élevées se forment en
dernier.

A ce jour, la terre est la seule planète sur laquelle la vie s’est développée. Elle doit cette particularité
surtout à sa position particulière par rapport au soleil, à la présence d’une atmosphère tout au autour
d’elle, à la présence de l’eau etc.
CHAP. II: GÉOLOGIE ET LES SCIENCES DE LA TERRE

Le mot géologie a été formé à partir de deux termes de la langue grecque «géo» qui signifie terre et
«logos» (parole, discours) et par extension science.

À partir de son étymologie géologie signifie «science de la terre». O parle de géoscience de nos jours.
On peut citer un certain nombre de disciplines scientifiques qui font partie ou qui sont proches des
sciences de la terre ; on peut citer :

Géochronologie : science qui étudie l’âge de la terre


Géodésie : qui permet d’obtenir des détails des dimensions de la terre
Géodynamique : étudie les forces qui agissent à la surface de la terre
Géographie : est la description de ce que l’on peut observer à la surface de la terre
Géométrie : science chargés des mesures de formes et objets relatifs ou non à la terre
Géomorphologie : étudie les formes des reliefs qu’on observe à la surface de la terre
Géophysique : connaissance des phénomènes physiques naturels intervenant sur la terre
Géostatistique : statistique liée aux phénomènes terrestres
Géotechnique : est la géologie appliquée aux ouvrages d’art et de génie civil
Géothermie : étudie la chaleur ou l’énergie venant de la terre
Géologie : est la science de la terre par excellence. Elle a pour objet la description de la nature,
l’origine, l’organisation et de l’intérêt économique des matériaux qui constituent le globe terrestre. Elle
a également pour objet l’étude des transformations du passé ou actuels subies par la terre. Elle se
divise en plusieurs branches à savoir :

La pétrologie : science qui étudie les roches. Sa partie théorique analyse les mécanismes de
formation des roches. On distingue les roches endogènes (formées en profondeur) dont les roches
volcaniques et les roches métamorphiques et les roches exogènes (formées en surface) dont les
roches sédimentaires ou d’altérations.

Sont associés à la pétrologie les sciences liées aux mécanismes de formation des roches :
magmatologie, volcanologie, sédimentologie, pédologie etc.

La pétrographie : est la partie descriptive de l’agencement des divers minéraux constituant les
différentes roches.

La Cristallographie : est la partie descriptive de la minéralogie concernant les cristaux

La géologie historique : étudie et décrit l’histoire de la terre. Elle comprend deux branches principales
notamment la paléontologie (étude des fossiles animaux et végétaux).

La stratigraphie : est la description des strates, les couches de l’écorce terrestre, en vue d’établir leur
ordre normale de stratification et permettant de déterminer leur âge relatif.

Géodynamique : elle étudie la cinématique (mouvement) et la dynamique (force) du globe et de ses


différentes enveloppes constitutives. Elle se subdivise en géodynamique interne qui s’intéresse aux
enveloppes internes et la géodynamique externe qui s’occupe des enveloppes externes.

Géologie structurale ou tectonique : étudie les déformations des terrains sous l’effet des forces
internes postérieures à leur mise en place. La branche la plus récente est la tectonique des plaques.

Géologie appliquée : étudie les applications de la géologie dans diverses activités économiques. Ainsi
la géologie est souvent appliquée dans la recherche des substances utiles. Ces substances peuvent
être minérales ou métallique : c’est la métallogénie. Elles peuvent être minérales, métalliques,
énergétiques (uranium, charbon, hydrocarbure, gaz). L’ensemble de ces domaines caractérise la
géologie(ou recherche) minière.

Hydrogéologie : science appliquée dans la recherche et la gestion des eaux souterraines


L’étude d’une roche nécessite des techniques de plus en plus avancées de nos jours et donne des
résultats de plus en plus précis. À la différence des objets du monde biologique (animaux et
végétaux), les objets géologiques ne sont tous accessibles. L’observation directe s’arrête en géologie
à la pellicule superficielle de l’écorce terrestre et il a fallu attendre ces dernières années pour prélever
des matériaux des fonds océaniques qui représentent plus des ¾ de la surface du globe. Si à l’heure
actuelle on peut considérer qu’on possède une vue assez complète de la périphérie de la terre,
l’approche de la constitution interne du globe qui est inaccessible directement s’est faite par analyse
des tremblements de terres ou séismes et par l’analyse des explosions nucléaires et la propagation
des ondes propagées par ces phénomènes.

Les modèles cohérents qui sont proposés rendent compte de la nature et de la répartition des masses
au fond du globe ainsi que de leur géométrie et de leur dynamisme. À raison de l’extrême grandeur de
l’échelle des temps, la géologie ne se limite pas à l’analyse de la terre sous sa forme actuelle. Elle
tente de retracer son passé en recherchant les phénomènes anciens fichés ou fossilisés et leur
comparaison à des phénomènes actuels conduisent à des hypothèses sur l’histoire de la terre par
l’application au phénomène ancien selon le principe es causes réelles.

Il faut un chronomètre naturel pour coordonner et classer les observations. C’est l’objet de la géologie
historique. Si la paléontologie examine les populations animales et végétales passées, les horloges
nucléaires ou radioactives prisonnières des roches depuis les cristallisations permettent d’affirmer les
méthodes chronométriques et radio chronométriques.

Par ces horloges l’âge de la terre est actuellement évalué à 4,5 milliards d’années.

Le géologue se projette dans les différentes époques du temps, supposant que de tout temps les
phénomènes sur terre ont été régis par les mêmes processus mécaniques, physiques et chimiques
que ceux des phénomènes semblables observés actuellement. Alors il peut reconstituer l’image du
monde à des époques les plus anciennes : c’est la paléogéographie.

La terre peut être considérée comme une entité active et en perpétuelle évolution : mouvement des
eaux, des masses de terre, tremblement de terre, volcanisme, changement climatique de localisation,
fréquences et d’intensité variables et pas toujours prévisibles L’homme essaie de déterminer ou de
prévenir les phénomènes et à anticiper par gestion des faits

Un concept s’est imposé au 20 e siècle donnant à l’évolution du globe une dimension planétaire. Ce
concept est la dérive des continents, initié par l’allemand Alfred WEGENER (1880-1930), étayé par la
tectonique des plaques au début des années 1970. Ce concept est une conséquence de l’expansion
des océans ainsi que la réduction ou l’expansion des masses terrestres. Il y a 180 millions d’années,
l’océan atlantique n’existait pas et aujourd’hui son expansion est mesurable. Les continents
Européens, Africains et Américains s’écartent inexorablement les uns des autres.

La géologie est une discipline d’observation basée sur des démarches expérimentale. Elle évolue
rapidement et des théories et concepts en vigueur il y a quelques années sont prouvés et publiés
dans des revues scientifiques au fil des avancées techniques, analytiques et expérimentales.

La situation particulière de la terre est le résultat de son atmosphère, de la répartition des


températures entre plus et moins 50, de l’équilibre entre l’oxygène, le gaz carbonique et les autres gaz
présents. Seulement l’action de l’homme depuis des millénaires et surtout depuis quelques siècles
menacent l’existence même de la planète bleue.

L’équipement essentiel d’un géologue sur le terrain comprend : une boussole (aujourd’hui un GPS),
un marteau de géologue, une loupe, de l’acide chloridrique (pour détecter la présence du calcaire
dans une roche), un appareil photo, un accoutrement adéquat.
CHAP III LE GLOBE TERRESTRE

A) Réseau des coordonnées

La terre tourne au tour du soleil en 365 jours. Elle tourne sur elle-même en 24 heures autour
d’un axe angulaire dans le sens inverse des aiguilles d’une montre. Son axe de rotation est
incliné de 23°5 par rapport à son orbite. Il oscille légèrement avec pour conséquence le
déplacement des pôles. Le réseau des coordonnées est constitué de méridiens et de
parallèles et permet le positionnement des points sur le globe.

Diamètre : 12 756 km ;
Distance moyenne par rapport au soleil : 149,6 millions de km ;
Vitesse moyenne de rotation au tour du soleil 29,80 km/s ;
Rayon au niveau équateur : 6378,388 km ; au niveau des pôles : 6356,912 km ; Cela nous
donne un facteur d’aplatissement de l’ordre de 1/297.

MÉRIDIENS ET LONGITUDES

Fig.: La constitution de la terre et les ondes sismiques


A l’aide des ondes sismiques et de la variation de leur vitesse au sein de la terre on distique : le noyau
(interne et externe), le manteau (supérieur et inférieur) et l’écorce terrestre. Ces entités sont séparées
par les discontinuités de Lehman, de Gutenberg et de Mohorovicic. La terre est divisée en 360 lignes
imaginaires numérotées en forme de demi-cercle : les méridiens. Ils parcourent le globe du nord au
sud. Le méridien servant de référence (d’origine) internationale est celui de GREENWICH. La
LONGITUDE est la position d’un point par rapport au méridien d’origine.

EQUATEUR, PARALLÈLES, LATITUDES, HEMISPHERES ET POLES

Les parallèles sont des lignes imaginaires qui parcourent le globe terrestre dans le sens Est-Ouest.
L’EQUATEUR partage le globe terrestre en 2 HÉMISPHÉRES (nord et sud). C’est le plus grand des
parallèles. Il existe 180 parallèles en tout. LA LATITUDE est la position d’un point sur le globe par
rapport à l’équateur.

LES COORDONNÉES

Elles situent un point sur un plan et sont mesurées à partir d’axes de référence. Sur le pourtour de la
plupart des cartes on trouve différentes références géographiques. Les coordonnées géographiques
s’établissent en longitude par rapport au méridien d’origine et latitude par rapport à l’équateur. Elles
s’expriment en degré, grade ou en tours (1 tr = 360°= 400 gr). Noté bien que les coordonnées
Lambert s’expriment en km par rapport au méridien de PARIS (longitude) et au parallèle de référence
de la zone considérée.

B) SYSTÉME D’ORIENTATION

NORD GÉOGRAPHIQUE : c’est le nord du globe, le point de convergence de tous les méridiens de
de l’axe de rotation de la terre au sommet du globe. Chaque méridien possède sa propre orientation
qui ne peut être identique à celle des autres 359. Le nord géographique est donné par le sens de
lecture. Les bords gauche et droit ou les plis verticaux de la carte donne les directions est-ouest et
nord-sud.

LE NORD MAGNETIQUE :est le nord de la boussole indiqué par la direction de l’aiguille aimantée. La
terre est influencée par un champ magnétique dont le pôle est situé dans la région de l’océan Glacial
Arctique au Nord du Canada. Une aiguille aimantée est attirée naturellement vers ce point. Il est
variable car le pôle magnétique de la terre n’est pas stable et sa position varie dans le temps : c’est la
DÉCLINAISON MAGNETIQUE.

LA DÉCLINAISON MAGNETIQUE : est l’angle formé entre le nord magnétique et le nord


géographique. Cet angle n’est jamais le même d’où la déclinaison. Elle est variable selon le temps car
la direction du nord magnétique varie. Elle est différente à chaque lieu où on se trouve.

LES DIRECTIOINS GÉOGRAPHIQUES : les roses des vents donnent 16 directions géographiques. Il
est intéressant de connaitre au moins les 8 principales qui permettent d’indiquer les directions, les
pentes, les angles etc.
CHAP IV: CARTOGRAPHIE

I) INTRODUCTION

La cartographie désigne la réalisation et l’étude des cartes. C’est donc la technique d’établissement et
de la fabrication des cartes. Elle mobilise un certain nombre de techniques servant à la production des
cartes. Liée aux conquêtes militaires et à la politique, la cartographie constitue un des moyens
privilégiés pour l’analyse et la communication en géographie. Elle sert à comprendre l’espace, les
territoires et les paysages. Elle est aussi utilisée dans des sciences connexes, démographique,
économique dans le but de proposer une lecture spécialisée des phénomènes. Une bonne étude
cartographique est le support idéal nécessaire à la réflexion géologique. Certains décideurs ont
compris qu’une gestion efficace de l’environnement ne peut se faire sans une bonne connaissance du
sous-sol. Il suffit d’évoquer la pollution, la gestion des déchets ou des ressources en eau pour saisir
l’importance d’une mise à jour continuelle des cartes géologiques. Les cartes sont aussi utiles dans
les activités de loisir tel les randonnées en montagne.

À l’époque moderne, les cartes se veulent une reproduction fidèle d’un paysage, d’une portion de
l’espace terrestre : tous les éléments constitutifs d’un paysage sont représentés selon les conventions,
avec des symboles prédéfinis. Chaque élément est représenté à l’échelle de la réalité, les éléments
trop petits en surface plans sont remplacés par des symboles d’une taille proportionnelle à leur
importance relative (noms des villes de plus en plus grands selon leur population ou leur fonction
administrative).

Les premières cartes

Les plus anciennes cartes ont été réalisées par les babyloniens 2300 avant JC. Elles étaient tracées
sur des carreaux d’argile et se composait principalement de levée de terres réalisés pour la collecte
e
ou le paiement des impôts. En chine des cartes régionales ont été dessinées sur de la soie au 3 C
avant JC. Les civilisations incas et mayas connaissaient bien l’art de la cartographie ; ainsi les incas
e
réalisèrent les cartes des terres qu’ils conquirent dès 12 siècle avant JC.
e
L’une des plus anciennes cartes du monde, exécutée par Anaximandre au 6 avant JC, était en forme
circulaire et représentait les terres connues à l’époque. La carte d’Eratosthène, datant d’environ 200
ans avant JC, était la première carte montrant des latitudes égales à l’aide de ligne parallèles
transversales. Plusieurs méridiens, espacés de façon irrégulière étaient également figurés. Après la
chute de l’empire romain, la cartographie européenne cessa pratiquement d’exister ; les cartes créées
par la suite étaient dessinés par des moines.

Les cartes des grandes découvertes

Les navigateurs arabes créèrent et utilisèrent des cartes marines très exactes. Le géographe arabe Al
e
–Idrisi réalisa une carte du monde en 1154. A partir du 13 siècle, les navigateurs dessinèrent des
cartes précises de la méditerranée, qui était en général dépourvue de méridien ou de parallèles mais
présentaient des lignes reliant les ports importants. Les cartes comportaient les informations
rapportées par les navigateurs et les explorateurs. La projection conçue par Gerardus Mercator pour
sa carte du monde se révéla d’une valeur inestimable pour les navigateurs des générations suivantes.

La précision des cartes ultérieures fut grandement améliorée par des mesures plous exactes qui
portaient sur les latitudes, les longitudes ainsi que sur la forme et les dimensions de la terre. Les
e
premières cartes indiquaient les déclinaisons magnétiques locales remontant à la moitié du 17 siècle,
e
et les premières cartes marines présentant les courants océaniques date d’environ 1665. Au 18
siècle les principes fondamentaux de la cartographie étaient établis et les inexactitudes les plus
importantes portaient sur les zones inexplorées du monde
II) LES TECHNIQUES D’ÉTABLISSEMENT DES CARTES

L’établissement des cartes a subi l’évolution générale des techniques et des sciences, notamment des
mathématiques, de l’exploration aérienne puis spatiale (avec des satellites) et, plus récemment, avec
les systèmes d’information géographique (SIG) et a été étroitement lié à des explorations
géographiques.

A) Les relevés aériens


e
A la fin du 18 siècle, plusieurs pays d’Europe entreprirent des levés topographiques détaillés de leurs
territoires nationaux. Cassini fut chargé par le roi Louis xv d’établir une carte de France, qui fut
achevée en 1815. En 1891, le congrès international de géographie propose de créer des cartes
e
couvrant le monde entier à l’échelle de 1/1000 000 , tâche qui n’est pas achevée à ce jour. Au cours
e
du 20 siècle d’importantes innovations techniques marquèrent la cartographie. La photographie
aérienne développée pendant la 1ere guerre mondiale, très utilisée pendant la seconde guerre, a
nettement amélioré la précision des cartes.

A partir de 1966 avec le lancement du satellite Pageos, puis dans les années 1970 avec les trois
stellites Landsat, les USA ont entrepris un levé géodésique complet de la terre à l’aide d’instruments
de prise de vue aérien de haute résolution. La France a lancé à partir de 1986 les satellites SPOT
(Système Probatoire d’Observation de la Terre), qui permettent de distinguer des détails de 10m de
longueur. Malgré les grands progrès de la technique et de la connaissance cartographiques, des
parties importantes de la surface terrestre n’ont pas encore fait l’objet d’un levé précis. C’est le cas de
l’Antarctique, où sont entrepris des travaux topographiques.

B) LA TÉLÉDÉTECTION

La télédétection est l’ensemble des connaissances et des techniques utilisées pour déterminer des
caractéristiques physiques et biologiques d’objets par des mesures effectuées à distance, sans
contact matériel avec ceux-ci. Télé signifie « à distance » et détection « découvrir, déceler ». En
théorie la télédétection est née de la fusion de deux inventions anciennes : la mongolière (première
plate-forme d’observation aérienne) et la photographie. En réalité, la télédétection est née de la
e
photographie ancienne, qui a connu un essor considérable au cours du 20 siècle, surtout au cours de
la seconde guerre mondiale.

L’année qui symbolise l’entrée de la télédétection dans l’ère moderne est 1957 avec le lancement de
SPOUTNIK, premier satellite artificiel à être placé en orbite autour de la terre. Depuis, de nombreux
pays, donc les USA, le Canada, la France, l’ex URSS puis la Russie, la Chine, le Japon et l’Inde ont
développé leur propre programme de télédétection. Aujourd’hui des dizaines de satellites
d’observation sont en orbite et fournissent en permanence des milliers d’images pour des applications
militaires, mais aussi de plus en plus pour des applications civiles.

Principes de base

Le principe de base de la télédétection est similaire à celui de la vision de l’homme. La télédétection


est le fruit de l’interaction entre trois éléments fondamentaux : une source d’énergie, une cible et un
vecteur.

La cible est la portion de la terre observée par le satellite. Sa taille peut varier de quelques dizaines de
km2 à plusieurs milliers.

La source d’énergie est l’élément qui éclaire la cible en émettant une onde électromagnétique (flux de
photons). Dans l’immense majorité des cas que nous aborderons ici, la source d’énergie est le soleil.
Néanmoins, la technologie RADAR nécessite qu’un émetteur soit embarqué sur le satellite, dans ce
cas le satellite lui-même est source d’énergie. Il est également possible de mesurer la chaleur qui se
dégage à la surface de la cible (infrarouge thermique), auquel cas c’est le cible qui est source
d’énergie (bien qu’il s’agisse d’énergie solaire stockée et réémise).

Le vecteur ou plate-forme de télédétection mesure l’énergie solaire (rayonnement électromagnétique)


réfléchie par la cible. Le vecteur peut-être un satellite ou un avion, dominant la cible de quelques
centaines de mètres à 36 000 km. Les capteurs embarqués sur les satellites mesurent le rayonnement
électromagnétique réfléchi, puis un émetteur renvoie l’image sur terre vers des stations de réception.

Lorsque le satellite ne fait que capter le rayonnement réfléchi, on parle de télédétection passive et
lorsque le satellite émet une onde vers la cible et en mesure l’écho, on parle de télédétection active.

C) L’APPORT DE L’INFORMATIQUE

A partir de 1990, l’évolution de la cartographie a pris un élan radical à la suite de l’introduction de


l’informatique dans la réalisation des cartes. Les cartes sont désormais construites à partir des bases
de données informatisées. L’ordinateur ne sert plus simplement à automatiser le tracé cartographique,
mais est devenu un dispositif destiné à vérifier la qualité des données de différentes provenances, à
rechercher les informations intéressantes et à présenter les résultats de la manière choisie par
l’utilisateur.

Les cartes virtuelles sont des produites sur écran d’un ordinateur dont certaines ne seront pas
nécessairement exploitées sous forme imprimée. Les logiciels et les données à partir ou avec lesquels
on peut créer des cartes sont de plus en plus rependus. Certaines de ces nouvelles cartes sont
fondamentalement différentes des anciennes carte de style « linéaire ». Les distorsions géométriques
des photos aériennes et des vues prises par satellite peuvent maintenant être éliminées par traitement
informatique, ce qui permet de produire semi - automatiquement des cartes « photographiques ». Ce
genre de carte est particulièrement intéressant lorsque les anciennes cartes ne sont plus à jours ou
pour certaines zones comme les estuaires ou les zones inondées.

D) LES SYSTÉMES D’INFORMATIONS GÉOGRAPHIQUES (SIG)

Jusqu’en 1985, le rôle des divers spécialistes de la cartographie topographique était clair et évident.
Le géodésiste effectuait des observations détaillées et calculs qui définissaient la forme fondamentale
du pays. À partir de cette information, les arpenteurs géomètres mesuraient les détails au niveau du
sol où des photogrammètres analysaient des photographies aériennes. Les cartographes mettaient
ces résultats sous une forme attrayante, alliance une grande élégance graphique à une présentation
efficace et non ambigüe de l’information. Les géologues et les pédologues par exemple utilisaient ces
cartes pour en tirer les données comme une base á partir de de laquelle ils pouvaient rassembler les
données qui les intéressaient. Cet ordre a été bouleversé au milieu des années 80 par l’introduction
des SIG. Le premier SIG a été utilisé en 1985, à l’occasion d’un inventaire de la faune et de la flore du
pays du monde entier. Il en existe des milliers dans le monde et leur nombre croit d’au moins 20% par
an. De nombreuses sociétés s’emploient à créer de nouveaux logiciels et á les adapter aux besoins
de différents clients. La gamme des tâches auxquelles les SIG doivent faire face sont infinies : il peut
représenter la commercialisation d’un produit vers un public ciblé, l’archivage de la description de tous
les câbles électriques d’un pays, l’enregistrement de toutes les transactions financières ou la
modélisation du réchauffement terrestre). Ce sont des systèmes capables de répondre à diverses
questions comme :

Qu’y a-t-il dans l’endroit x ? Quel type de sol existe en longitude ou latitude X ou Y ? Quelle est la
répartition de l’électorat du parti X ?

Comment me rendre de X à Y ?

Où se trouve la culture, la plante, la faune X ou Y ?

Qu’est-ce qui a changé depuis X ?


Que se passerait-il si on changeait X ?

Les SIG sont les seuls outils qui peuvent intégrer des informations géographiques détenues
séparément par des organismes différents. Chaque organisme rassemble les informations qui
l’intéressent et la seule manière de relier ses informations à celles obtenues par d’autres organismes
passe par la géographie. Les SIG le font en superposant les informations et en calculant les zones
d’intersection, il n’y aurait qu’une seule combinaison. Si par contre on dispose de 20 séries de
données (sols et rendement des cultures par exemple) représentant 190 paires en combinaisons, il
existe plus d’un million de combinaisons possibles. Les données traitées par le système SIG offrent
beaucoup plus de possibilités d’interprétation, de gestion ou de combinaisons que les données
stockés sous les formes classiques.

Il s’agit là d’un développement positif pour les organisations nationales de cartographie tel que
l’institut national de cartographie. La carte traditionnelle peut contenir des innombrables informations,
mais les possibilités de combiner les données restent marginales. Le moteur de tri des SIG et
l’exploitation de l’information en cartographie informatisée assure une expansion du rôle de la
cartographie.
CHAP. V : LA CARTE ET LE PROFIL TOPOGRAPHIQUE

1) LA CARTE TOPOGRAPHIQUE
C) Définitions et généralités

La carte topographique est la représentation plane à une échelle déterminée d’une partie de de la
surface terrestre avec ses formes et son modèle. La terre ayant la forme générale d’un géoïde (sphère
aplatie aux pôles), voisine de celle d’un ellipsoïde à surface plane, différents systèmes de projection
ont été utilisés : projection de BONNE et projection de LAMBERT.

Les éléments du relief sont situés en latitude et en longitude par rapport à un ellipsoïde de référence
et sont ensuite projetés sur une surface plane. La mise au point d’une carte nécessite deux opérations
importantes : L’OROGRAPHIE ETLA PLANIMÉTRIE.

L’OROGRAPHIE permet de représenter le relief du terrain, mais cette représentation pose des
problèmes d’indication d’altitude de chaque point de la carte ; aussi a-t-on imaginé différents
méthodes pour représenter le relief :

- Le système des courbes de niveau


- Le système des hachures (abandonné avec le temps cars trop imprécis)

LA PLANIMÉTRIE est la représentation des divers éléments de la surface terrestre sur la carte
topographique par des figures caractéristique conventionnée dont la signification est indiquée dans la
légende de la carte.

D) NOTION D’ECHELLE

L’échelle d’une carte est toujours indiquée dans la marge et accompagnée d’une représentation
graphique. C’est la réduction d’une surface de terrain sur un plan : le rapport de réduction entre cette
surface de terrain et sa représentation sur la carte constitue l’échelle de carte.

Par définition, l’échelle (E) d’une carte est le rapport de la longueur mesurée sur la carte (Lc) à la
distance horizontale correspondante sur le terrain (Lt) :

E = Lc/Lt

Exemple : si deux points sont distants de 5 km sur le terrain et de 10 cm sur la carte, l’échelle de celle-
e
ci est : E = 10 cm/ 5km soit 10 cm/ 500 000 soit 1/50 000. La carte est dite au 50 000 ou à l’échelle
1/50 000 soit 1 cm sur le terrain représenterait 50 000 cm sur le terrain. Les unités pour le calcul
doivent être les même au numérateur et au dénominateur.

Les échelles les plus courant sont 1/25 000, 1/50 000, 1/100 000 et au-delà. L’échelle est d’autant
plus grande que le dénominateur est petit.

Remarque : Il ne faut pas oublier que la distance réelle sur le terrain (Lr) est liée à sa projection sur un
plan horizontal (Lt)

Lr = Lt/cos p = lt/cosß
CHAP VI : TECTONIQUE DES PLAQUES

1- Définition

La tectonique des plaques (qui complète la théorie appelée dérive des continents) est un modèle
actuel du fonctionnement interne de la Terre. Elle est l'expression en surface de la convection qui se
déroule dans le manteau terrestre.

La lithosphère, couche externe de la Terre, est découpée en plaques rigides qui flottent et se
e
déplacent sur l'asthénosphère, plus ductile. Les premiers concepts, balbutiés dès le XVIII siècle, ont
été formulés en 1912 par le climatologue allemand Alfred Wegener à partir de considérations
cartographiques, structurales, paléontologiques et paléoclimatiques.

Carte des plaques tectoniques terrestres.

Âge des plaques du fond océanique (les rouges sont les plus jeunes).

2- Histoire

e
Au début du XX siècle, l'Allemand Alfred Wegener remarque que par la disposition des continents, la
côte est de l'Amérique du Sud semble s'emboîter parfaitement dans la côte ouest de l'Afrique. Il va
ainsi publier un ouvrage en 1915 : Genèse des océans et des continents : théories des translations
continentales. Pour Wegener, les masses continentales se déplacent au cours des ères géologiques.
Au Permien (280 millions d'années), les continents actuels formaient un seul supercontinent : la
Pangée (Pangaea : Terre unique en Grec). Ce continent s'est par la suite disloqué tout d'abord pour
l'ouverture de l'Atlantique Nord ainsi que par la séparation de l’Antarctique, puis ils ont continué à se
fracturer pour donner naissance aux continents actuels qui, tels des radeaux, se seraient déplacés au
cours des ères géologiques pour aboutir à la configuration actuelle. Il s'est appuyé sur de nombreuses
preuves morphologiques: emboîtement des formes des continents, comme la corne sud-est du Brésil
et le fond du golfe de Guinée, stratigraphiques (continuité stratigraphique entre l'Afrique et l'Amérique
du Sud qui se traduit par l'existence des cratons faits de tonalites ou boucliers qui datent du Primaire),
paléoclimatiques (existence de galets striés datant du primaire en Afrique du Sud et en Amérique du
Sud, ce qui témoigne que les deux continents ont subi les mêmes influences glaciaires au Primaire) et
paléontologiques (même faune et flore du primaire au rang desquelles les mésosaures, les
cygnonatus et les glossoptéris, sorte de fougère du primaire). D'autres bien avant lui s'en sont
aperçus, mais il est le premier à alors proposer, à partir de cette observation, la théorie de la dérive
des continents : un supercontinent, la Pangée, se serait fragmenté au début de l'ère secondaire et,
depuis cette ère, les masses continentales issues de cette fragmentation dériveraient à la surface de
la Terre. Cette intuition, pourtant étayée par des faits convaincants, a longtemps été rejetée par des
géologues, Wegener proposait comme explication le broutage des continents sur le fond des océans
pour expliquer la dérive. Mais, dans cette vision théorique, la dérive se caractérise par la formation de
trou béant. Les mécanismes et la morphologie interne de la Terre étaient encore inconnus pour une
interprétation plausible de la dérive.

La théorie de Wegener souleva de vifs débats. Parmi les opposants, on peut citer Ludwig Diels ou Du
e
Rietz, et parmi ses partisans, René Jeannel. C'est seulement dans la deuxième moitié du XX siècle
que la communauté scientifique, convaincue par la présentation de nouvelles preuves, accepte
finalement le modèle de tectonique des plaques. L'hypothèse des mouvements de convection dans le
manteau, émise par Arthur Holmes en 1945, propose un moteur plausible à ces déplacements de
continents. Mais c'est la compréhension du fonctionnement des fonds océaniques, avec l'hypothèse
du double tapis roulant formulée par Harry Hess en 1962, qui marque une véritable révolution des
1
sciences de la Terre .

La théorie synthétique de la tectonique des plaques est énoncée en 1967 par l’Américain William
Jason Morgan, le Britannique Dan McKenzie et le Français Xavier Le Pichon.

Lors de l'exposé de sa théorie de la tectonique des plaques (1968), Le Pichon a distingué 8 plaques
lithosphériques principales :

 africaine
 nord-américaine
 sud-américaine
 eurasiatique
 indo-australienne
 antarctique
 sud-pacifique
 nord-pacifique

Seules les deux dernières plaques sont entièrement océaniques ; les autres comprennent à la fois des
parties océaniques et des parties continentales. Des études ultérieures plus détaillées ont conduit à
distinguer un certain nombre de plaques secondaires, de moindre importance.

Le modèle du double tapis roulant comme moteur de la tectonique des plaques est remis en question
à partir des années 1990.

3- Le modèle actuel
Schéma général des différents types de volcanisme associés aux mouvements des plaques
tectoniques.

Modèle de tectonique des plaques.

On admet à présent que les plaques tectoniques sont portées par les mouvements du manteau
asthénosphérique sous-jacent et subissent des interactions dont les trois types principaux sont :

 la divergence : se dit d'un mouvement éloignant deux plaques l'une de l'autre, couplé à une
remontée du manteau entre elles. Leur frontière divergente correspond à une ride océanique
ou dorsale, lieu de création de lithosphère océanique et théâtre de volcanisme intense. Le
volcanisme au niveau des dorsales est généralement basaltique, avec une géochimie
tholéiitique. C'est à travers ce mouvement que se crée la croûte lithosphérique (couche rigide
située au-dessus du manteau supérieur) ;

 la convergence : se dit d'un mouvement rapprochant deux plaques l'une de l'autre,


compensant ainsi l'expansion océanique en d'autres zones du globe. Trois types de frontière
de plaques convergentes accommodent le rapprochement :
o une zone de subduction là où une plaque (en général la plus dense et plus
précisément la plaque océanique, d = 3,2) s'incurve et plonge sous une autre, moins
dense (généralement la plaque continentale, d = 2,7) avant de s'enfoncer dans
l'asthénosphère où elle rencontre de très hautes températures et fond partiellement.
C'est ce magma récemment fondu qui remonte pour alimenter les volcans situés au
niveau des cordillères et des arcs insulaires. Il faut noter que les différences de
densité proviennent de la nature des matériaux. Ainsi, la plaque océanique est faite
de matériaux basaltiques denses, alors que la plaque continentale est plutôt faite de
matériaux granitiques peu denses. On peut également avoir des exemples de
subduction Océan-océan le volcanisme au-dessus des zones de subduction est
généralement andésitique, avec une géochimie calco-alcaline. Cette situation est due
à l'hydratation du magma. En effet, lorsque la plaque plongeante s'enfonce dans
l'asthénosphère, l'eau s'infiltre à travers ses fissures. La côte ouest de l'Amérique du
Sud en est un exemple. La subduction d'une plaque sous une autre entraîne de
nombreuses conséquences, comme un volcanisme andésitique (ou explosif ou volcan
gris), de nombreux tremblements de terre et surtout la formation des plis et des failles.
o une zone de collision, là où deux plaques se confrontent. Il s'agit généralement de
deux plaques continentales. Ainsi quand deux plaques continentales de même nature
et de même densité se rencontrent, le moteur du mécanisme se bloque. Il n'est pas
assez puissant pour faire plonger l'une des plaques dans l'asthénosphère à cause de
leur faible densité. Les deux plaques se soudent pour n'en former qu'une seule. C'est
le cas notamment de la chaîne de l'Himalaya, à la frontière entre la plaque indienne et
la plaque eurasienne ; cette rencontre s'est produite il y a 65 millions d'années à la
faveur de la fameuse migration du continent indien. Les Alpes et les chaînes de l'Atlas
sont des exemples de chaîne de collision. Il faut noter que pendant la collision, le
matériel sédimentaire est transporté en hauteur pour former des chaînes de
montagnes où les roches sont plissées et faillées. La collision conduit au
raccourcissement de l'écorce terrestre.
o une zone d'obduction, là où une lithosphère océanique est transportée sur un
continent. On ne connaît pas d'obduction actuellement active à la surface du globe
terrestre.

- le coulissage ou transcurrence : se dit du glissement horizontal de deux plaques, l'une à


côté et le long de l'autre. Il s'agit d'un déplacement latéral d'une plaque contre une autre.
Pendant le déplacement de cette faille se produisent des séismes très violents.. La faille de
San Andreas en Californie et la faille nord-anatolienne en Turquie en sont deux exemples.

À ces trois types d'interaction sont associées les trois grandes familles de failles :

 une faille normale est divergente (extensive) ;


 une faille inverse est convergente (compressive) ;
 un décrochement est transcurrent (les axes d'extension et de compression sont dans le plan
horizontal).

John Tuzo Wilson décrivit que les continents grandissent par un cycle de Wilson, une série d'étapes
quasi-périodiques où les plaques tectoniques de la croûte terrestre se dispersent puis s'agrègent.

L'origine de la force qui rend les plaques mobiles est discutée : elle peut être liée à la contrainte
cisaillante entre la lithosphère et l'asthénosphère (liée à la convection et à l'importance du couplage
entre la lithosphère et l'asthénosphère), au poids de la lithosphère subductante (qui tire toute la
plaque), à l'altitude plus élevée de la lithosphère à la dorsale (écoulement gravitaire) ou à la poussée
à la ride (la formation de la lithosphère pousse toute la plaque). Ces possibilités ne sont pas
exclusives, mais les contributions relatives dans le mouvement sont très discutées et dépendent des
études, en particulier le rôle du couplage entre la lithosphère et l'asthénosphère, considéré comme
majeur jusque dans les années 1990 est fortement remis en question.

4- Tectonique des plaques et convection dans le manteau

La Terre possède une chaleur importante du fait de la radioactivité (désintégration du potassium, de


l'uranium et du thorium) et de la chaleur d'accrétion initiale. Elle se refroidit en évacuant la chaleur à
sa surface. Pour cela, on connaît trois mécanismes : conduction thermique, convection et transfert
radiatif. Au niveau du manteau terrestre, la majeure partie du flux de chaleur est évacuée par la mise
en mouvement des roches (convection). La convection est induite par la présence de matériel chaud
(donc moins dense) sous du matériel moins chaud (donc plus dense). Ces mouvements sont très
lents (de l'ordre de 1 à 13 cm/an).

Jusqu'à peu, les géologues considéraient que le couplage mécanique entre les mouvements de
l'asthénosphère et de la lithosphère était le principal moteur de la tectonique des plaques.
L'importance de ce couplage entre la lithosphère (rigide et cassante) et l'asthénosphère (manteau
sous-jacent ductile et déformable) est remise en cause.

5- Les limites du modèle

La tectonique des plaques est parfaitement valable pour les plaques océaniques (ou pour les parties
océaniques des plaques mixtes). En effet, les plaques océaniques sont minces et rigides ; leurs limites
sont très nettes (ride médio-océanique, faillestransformantes ou zones de subduction). Par contre, les
plaques continentales sont beaucoup plus épaisses et moins rigides. Les limites de plaques sont donc
beaucoup plus floues, et l'on peut considérer comme limite la suture paléogéographique (l'ancien
océan), ou la zone qui se déforme actuellement (dans les cas de l'Himalaya-Tibet, la différence est de
plusieurs milliers de km).
De plus, ce manque de rigidité induit la présence d'une multitude de "blocs" ou de "microplaques",
plus ou moins indépendantes. La mosaïque en Méditerranée en est un bon exemple, avec une
multitude de systèmes en extension (mer Tyrrhénienne, mer d'Alboran, mer Égée) dans un contexte
compressif (rapprochement des plaques africaines et européennes). Le modèle de tectonique des
plaques trouve ici ses limites, et certains modèles peuvent mieux expliquer certaines structures sans
la tectonique des plaques (dans l'Est du plateau Tibétain, par exemple).

6- Devenir des continents

Xavier Le Pichon, Jean-Michel Gaulier et coll. ont modélisé le mouvement de cinq continents se
déplaçant de façon aléatoire à une vitesse de 100 millimètres par an. Leurs calculs montrent qu'il
faudra environ 430 millions d'années pour que, leurs déplacements convergeant, ces continents
s'unissent. Dès lors, rien n'interdit de penser que cela se concrétisera.

La chaleur de la Terre ne s'évacue pas de la même façon selon que les continents sont regroupés en
un seul ou qu'ils sont dispersés comme c'est le cas aujourd'hui et selon leur position (qui influe sur
leur albédo, plus claires en zone polaire par exemple). Les chaînes de montagnes terrestres ou sous-
marines modifient respectivement la circulation des masses d'air humide et des courants marins.

Un supercontinent forme un « bouclier thermique » qui modifie la manière dont la chaleur s'évacue. Il
se disloquera nécessairement en plusieurs fragments. Cela marquera le début d'un nouveau cycle de
Wilson ainsi baptisé en l'honneur de John Tuzo Wilson (1908-1993), géophysicien canadien, qui a, le
premier, émis l'hypothèse de ce rassemblement périodique des continents.

7- Liste des plaques tectoniques

Carte de l'activité tectonique soulignant les limites de plaque.

La liste des plaques actuelles est, par ordre alphabétique (des unités plus petites existent ; on les
appelle « blocs » ou « microplaques ») :

 Afrique
 Amérique du Nord
 Amérique du Sud
 Antarctique
 Arabie
 Australie
 Caraïbes
 Cocos
 Eurasie
 Inde
 Juan de Fuca
 Nazca
 Pacifique
 Philippines ou « mer des Philippines »
CHAP. VI Les Grandes Structures Géologiques.

1- Définition

L’étude de la propagation des ondes sismiques, en particulier des ondes P (longitu- dinales) a
permis, depuis longtemps, de distinguer, à la partie superficielle de notre globe, deux ensembles
superposés :
– une croûte ou écorce terrestre (en moyenne 30 km d’épaisseur sous les continents, moins de 10
km sous les océans) ;
– un manteau sous-jacent, séparé de la précédente par une surface de discontinuité au niveau de
laquelle les vitesses des ondes sismiques varient brusquement (discontinuité de Mohorovicic,
dite plus simplement Moho).
L’écorce a un comportement assez passif : le moteur des phénomènes tectoniques est situé dans
le manteau et dans un manteau déjà assez profond. On constate en effet, toujours à l’aide des
ondes sismiques, que la surface de notre globe est rigide (à l’échelle du temps des séismes) sur une
épaisseur de l’ordre de 100 à 200 km, dite lithosphère (écorce et sommet du manteau supérieur).
Au-dessous, vient l’asthénosphère où les vitesses sismiques diminuent, au moins dans sa partie
supérieure. Cette zone à faible vitesse correspond à un matériel susceptible de se déformer
facilement et qui est probablement le niveau auquel s’effectuent les réajustements isostatiques
ainsi que le bouclage supérieur des mouvements de convection que l’on pense être le moteur de
bien des phénomènes orogéniques.
En surface, la lithosphère peut porter deux types de croûte, continentale ou océanique.
2- Les structures océaniques

La plus grande partie du fond des océans est faite des plaines abyssales, à – 5 000 m en moyenne.
Ce sont d’immenses surfaces presque planes dont la géophysique montre qu’elles représentent
le toit de la croûte océanique non perturbée, ensevelie sous une couche de sédiments pélagiques
en général peu épaisse. Les reliefs qui accidentent ces plaines sont le plus souvent d’origine
volcanique mais se divisent en deux groupes suivant qu’ils sont sismiquement actifs ou non.

a- Reliefs océaniques sismiquement actifs

 Les dorsales

La plus célèbre et la mieux connue est celle de l’Atlantique, large de 1 000 à 2 000 km, s’élevant de
fonds de 4 000 à 2 500 m. Quelques sommets atteignent la surface donnant ainsi des îles
volcaniques (Jan Mayen, Islande, Açores, Ascension).
La disposition médiane de la ride au sein de l’océan est très remarquable mais elle ne peut pas être
généralisée à toutes les dorsales. Celle de l’océan Indien, par exemple, bien que de morphologie
très proche, n’est médiane que dans sa partie sud. Vers le Nord, elle pénètre dans le golfe d’Aden
puis se poursuit par la mer Rouge.
Dans ces deux cas, le faîte de la dorsale est marqué par un fossé d’effondrement très continu, le
« rift », profond en moyenne de 1 000 m, large de 10 à 50 km. Il est bordé de failles de distension
vivantes (séismes), jalonnées d’épanchements volcaniques, failles qui en découpent les lèvres
suivant une mosaïque assez compliquée. De plus, il est tronçonné, comme la dorsale qui le porte,
par de nombreuses fractures transversales qui le décalent en autant de tronçons, fractures qui
sont également le siège de séismes. En fait, c’est seulement cet axe qui représente le relief
sismiquement actif.

 Signification des dorsales et accrétion océanique

Les deux flancs d’une dorsale sont caractérisés par des anomalies magnétiques alter- nativement
normales et inverses, parallèles et symétriques par rapport au rift. Elles sont d’âge de plus en plus
ancien au fur et à mesure que l’on s’en éloigne, comme le montrent les datations obtenues par le
paléomagnétisme, la radiométrie et les méthodes stratigraphiques classiques (âge des
sédiments associés).
Les anomalies magnétiques sont engendrées par les basaltes épanchés dans l’axe du rift.
L’apport de basalte compenserait l’écartement des plaques lithosphériques. Mais celui-ci étant
incessant, la bande basaltique mise en place est, à son tour, fendue longitudinalement et ses deux
moitiés s’écartent à une vitesse pouvant varier de 1 à 20 cm/an. C’est le phénomène de
l’accrétion océanique, grâce auquel la croûte océanique se forme sans cesse.

- Les arcs insulaires intraocéaniques

Un autre type de reliefs océaniques sismiquement actifs est constitué par des alignements d’îles
volcaniques qui diffèrent du type précédent par deux caractères : un volcanisme dont les
produits principaux sont tholéitiques (tholéites dites d’arc) à calco-alcalins et leur association
avec une grande fosse sous-marine, parallèle à l’alignement des îles, où les profondeurs peuvent
dépasser 10 000 m (« trench » des auteurs anglo-saxons). Ces grandes fosses représentent le
départ d’une zone de subduction, donc une limite convergente.

b- Reliefs océaniques sismiquement inactifs

i- Reliefs volcaniques

- Les volcans océaniques isolés


Si certains sont émergés comme les Bermudes, les îles du Cap Vert, les Canaries, Madère, dans
l’Atlantique), Tahiti dans le Pacifique, la Réunion ou l’île Maurice dans l’océan Indien, les îles
Cocos dans le Pacifique W, la plupart sont restés sous-marins.
Leur origine est variable.
Certains sont nés sur l’axe d’une dorsale et ont ensuite été écartés par le jeu de l’expansion
océanique, perdant alors ou non leur activité suivant le jeu des fractures de la dorsale. C’est le cas
des îles de Sainte-Hélène (inactive) et de Tristan da Cunha (active) dans l’Atlantique Sud, des
Bermudes (inactives) dans l’Atlantique Nord.
D’autres, au contraire, n’ont rien à voir avec une dorsale et jalonnent des fractures banales de la
lithosphère océanique. Leurs produits sont d’ailleurs franchement alcalins et non plus tholéitiques
(Canaries, Tahiti, Réunion etc.).

- Les volcans océaniques alignés


Même si certains appareils volcaniques sont proéminents, voire émergés, ils appartiennent presque
tous soit à des alignements de volcans, soit à des rides asismiques. Dans les deux cas, seule une
extrémité de l’alignement ou de la ride montre des volcans actifs. C’est le cas de Tristan da Cunha à
l’extrémité de la ride de Walvis dans l’océan atlantique, des îles Hawaï ou des Touamotou-Pitcairn
dans le Pacifique. Mais beaucoup de ces alignements sont actuellement éteints, comme la ride,
entièrement sous-marine, du 90e méridien dans l’océan Indien.
L’exemple classique est celui des îles Hawaï.
ii- Les plateaux océaniques

Ils représentent l’expression purement océanique des Grandes Provinces Volcaniques (ou LIP :
Large Igneous Provinces).
iii- Reliefs non volcaniques

Nous nous limiterons à un exemple, celui des rides tectoniques du fond de l’océan
Indien.
Cette déformation intraplaque de la lithosphère océanique se manifeste dans le nord de
l’océan Indien, au sud du golfe de Bengale (sud du Sri Lanka) qui accidentent le fond de la plaine
abyssale.

3- Les structures continentales de distension

a- Les bassins sédimentaires


Ils impliquent un affaissement superficiel de la croûte continentale que l’on désigne sous le nom
général de subsidence. On distinguera ainsi :
- Les fossés d’effondrement, où l’affaissement est rapide et cassant, dans un contexte de
divergence.
- Les bassins sur décrochement, où l’affaissement très rapide est associé à des failles
coulissantes.
- Les bassins tardi-orogéniques, du type « Basin and Range », où l’affaissement traduit
l’amincissement d’une chaîne de montagnes et son retour à une épaisseur crustale normale.
- Les bassins cratoniques, où l’enfoncement est lent et progressif.
- Les bassins d’avant-chaîne, liés à une flexion lithosphérique.
Comme bassin, nous pouvons citer :

le fossé Rhénan : Cette structure, longue de 300 km, large de 35 à 40, se place avec la
Bresse, la Limagne et d’autres, sur un axe de distension qui, au Tertiaire, traversait l’Europe, de
l’Allemagne à la basse vallée du Rhône. La structure profonde est connue grâce aux mines de
potasse de Mulhouse, aux forages pétroliers et aux prospections géophysiques.
Fossés paléogènes de l’Europe occidentale
(en noir, les édifices volcaniques).

- Le golfe de Suez : il s’est ouvert au Miocène au sein du craton arabo-africain, dans le


cadre de la rotation antihoraire de l’Arabie par rapport à l’Afrique. Il est encore marin mais
sa profondeur ne dépasse pas 80 m.
- Le fossé des grands lacs de l’Est africain : Il court du Zambèze au S, à la mer Rouge
au N, soit 6 000 km, sur 40 à 60 km de largeur moyenne
Carte structurale simplifiée du rift Est-Africain.
CHAP VII: HYDROGEOLOGIE

L’hydrogéologue se spécialise dans la recherche et l’exploitation des eaux souterraines à usage


domestique ou industriel. Outre les connaissances géologiques; il doit posséder de bonnes
connaissances d’hydrauliques. Il intervient dans la recherche et l’exploitation du gisement de la nappe
aquifère, dans l’étude de la qualité des eaux ainsi que dans l’étude de la qualité des eaux ainsi que
dans leur protection.

A Quelques notions d’hydrogéologie

Les vides (pores) d’une roche au dessous de la surface de la terre contiennent de l’eau sous
différentes formes:
Eau de constitution: entrant la constitution dans la structure cristalline de minéraux (le gypse a par
exemple a pour formule CaSO4, 2H2O),
Eau adsorbé: des molécules d’eau dipolaires sont attirées par effets de surface vers des ensembles
ioniques,
Eau non libre: situées dans des pores fermés,
Eau libre gravifique: circulant dans les pores et fissures ouvertes et fissures ouvertes. Elle obéit aux
lois de l’hydrogynamique.
La porosité d’une roche est le rapport du volume des vides par rapport au volume de la roche
La perméabilité : est la capacité d’une roche à transmettre un fluide. Les facteurs intervenant sont la
taille des grains, la porosité, la nature du fluide transmis, sa pression hydrostatique. Le coefficient K
de perméabilité est donné est donné par la loi de Darcy.
Soit un milieu uniformément poreux dans une ampoule permettant la circulation d’un fluide (voire
figure). En alimentant en fluide l’ampoule au point A, il se produit au travers du milieu poreux un
écoulement permanant qu’on peut mesurer au point B. Un tube ouvert D, débouchant dans le milieu
poreux, est rempli de fluide lors de l’écoulement jusqu’à un niveau inférieur à celui du tube C situé
avant lui. On appelle perte de charge J, la différence de cotes du fluide dans les tubes C et D, et j la
perte de charge unitaire égale à J/l, l étant la longueur du milieu poreux traversé de section Ω. La
vitesse de filtration (ou débit unitaire) est v = Q/Ω, Q étant la quantité d’eau passant dans le milieu.
La loi de Darcy s’écrit :
V = Q/Ω = Kj d’où Q=KΩj
K caractérise donc une roche.

1- La géologie
C’est une science qui s’occupe de l’étude des couches accessibles de la terre. Elle étudie les roches,
leurs dépôts, leur contenu en fossiles et minerais utiles et essaie de reconstruire l’histoire des couches
rocheuses de la terre.

2- L’hydrogéologie
Elle établit la relation entre la géologie et les eaux souterraine et essaie de situer l’emplacement de
l’eau dans les diverses formations géologiques. Elle et préconisent les méthodes de recherche et de
prospection des ressources hydrauliques.

3- L’hydrologie
S’occupe quant à elle du déplacement de l’eau par rapport à la surface terrestre; l’évaporation, la
précipitation, le ruissèlement et l’infiltration sont entre autre les domaines d’étude et de recherche.

4- Connaissances de base pour la construction et la gestion des forages


Dans le sol, l’eau se trouve soit dans des roches compactes et fissurées, soit dans des formations non
cimentées. Un tel sol est appelé aquifère. Toutes les roches peuvent être aquifères, si leur porosité
et leur perméabilité sont suffisantes.
La catégorie des terrains poreux comprend selon SCHNEEBELI (1966) en premier lieu toutes les
alluvions fluviatiles ou glaciaires, les masses d’éboulis et tous les remblais artificiels. On peut
également y rattacher les formations gréseuses et les conglomérats perméables.

Les roches sédimentaires ne représentent que 5 % du volume de l’écorce terrestre, mais elles
renferment 95 % de l’eau souterraine (Maillot, 1971). Elles proviennent de l’érosion ou de la
fragmentation de roches compactes primitives.

Les calcaires (carbonates de chaux ou de magnésie-dolomies) constituent un élément important de


ce type de roches. Si les roches sont fissurés, l’eau s’y introduit et, par dissolution lente, en agrandit
les interstices ; ils constituent alors d’importants « magasins » d’eau.

Une autre catégorie provient des argiles et des sables, depuis longtemps mis en place par l’érosion.
Sous le poids des couches supérieures, les formations argileuses inférieures sont devenues des
schistes et les sables sont transformés en grès.

Les schistes et les grès ne sont aquifères que s’ils sont fissurés ou pas entièrement cimentés. Les
grès sont généralement marins et contiennent du quartz.

Les formations de sables, de gravier, ou des deux à la fois, constituent la majeure partie de l’aquifère
souterrain. Leur importante capacité d’emmagasinement hydraulique et leur grande perméabilité
en font des matériaux de choix pour les forages d’eau.

Les laves volcaniques sont des roches à fine structure due à leur refroidissement rapide.

Les basaltes ne sont aquifères que s’ils sont fracturés. Par contre les cendres volcaniques constituent,
si leur situation est favorable, d’importants «réservoir» hydrauliques.

Un sol poreux est caractérisé par sa courbe granulométrique. En abscisse sont portés les diamètres
des grains, en ordonnée le pourcentage en poids des grains de diamètre inférieur à un diamètre
donné. Une autre représentation possible est le graphique de fréquence des diamètres. Pour l’établir
on divise l’échelle des diamètres en intervalles et on porte en ordonnée le pourcentage en poids des
grains dont les diamètres sont compris dans l’intervalle considéré. Pour l’une et pour l’autre de ces
représentations, on adopte parfois une échelle logarithmique des diamètres. Celle-ci a l’avantage de
mieux mettre en évidence la partie de la courbe granulométrique correspondant aux fines.

L’établissement de la courbe granulométrique et du graphique de fréquence est le but d’une


analyse granulométrique. Une telle analyse se fait en général par tamisage à sec d’un échantillon de
terrain au moyen d’une série de tamis à mailles différentes. Pour les particules très fines, le tamisage
n’est plus possible.

5- Quelques définitions
Aquifère et collecteur: un aquifère est une couche terrestre qui peut permettre la circulation de l’eau
et un collecteur est un aquifère qui est capable d’accumuler de l’eau en son sein.

La perméabilité implique quant à elle la présence de l’eau et son mouvement, c’est donc une notion
dynamique. C’est la propriété d’un terrain aquifère à laisser passer, à travers lui, l’eau mise en
mouvement par la pression ou la dépression.

Transmissivité : c’est le produit du coefficient de perméabilité par la largeur de la couche en


question:

T=K*E

K: en mètres cubes par jour et par mètre carré, par exemple


E: en mètre

2- Conditions hydrauliques des eaux souterraines


2.1 Eau de rétention, eau gravifique
On ne peut en général extraire toute l’eau contenue dans une roche; une certaine partie, dite eau de
rétention, reste fixée aux grains de la formation par les forces de tension superficielles, celles
d’adhésion moléculaire et d’absorptions : elle n’est donc pas disponible pour le forage et ne participe
pas à la circulation de l’eau souterraine. Seule l’eau gravifique, celle qui obéit aux lois de la gravité,
peut être extraite du terrain qui la contient.

2.2 Coefficient d’emmagasinement

Le rapport entre le volume de l’eau gravifique et le volume global de la formation constitue le


coefficient d’emmagasinement. C’est un nombre sans unité, comme exemple un coefficient de 0,1
ou 10% signifie que la couche en question a livré un dixième de son volume en eau. En moyenne, le
coefficient d’emmagasinement est de l’ordre de 10 à 20 % pour les alluvions sableuses, il atteint
rarement 30 % dans les formations très grossières exemptes d’argiles (MILLOT ; 1971)

2.3 Porosité et coefficient de saturation


La porosité est une caractéristique statique des terrains qui est indépendante du mouvement de l’eau
qui peut s’y trouver. Pour un échantillon donné d’une formation, aquifère ou non, la porosité s’exprime
par le rapport entre le volume des vides et le volume total de l’échantillon.

Porosité :

Vv
n
Vv  Vg

(avec Vv :volume des vides, Vg : volume des grains)

Vv
Indice des vides est défini par : e 
Vg

Entre n et e on a les relations :

e n
n et e 
n 1 1 n
Il est relevant de distinguer par la suite deux porosités différentes : la porosité géométrique si
dessus définie et la porosité effective dont la valeur est plus faible. En effet il arrive souvent que la
saturation d’un terrain ne soit pas complète. La porosité effective correspond alors au produit de la
porosité géométrique et du degré de saturation.

Porosité effective quant à elle est donnée par:

Vl
 = n * =
Vv  Vg

Vl : volume occupé par le liquide, Vv : volume total des vides

Vl
Coefficient de saturation (theta) :  =
Vv
En considérant les arrangements systématiques des sphères d’égal diamètre, on peut se faire une
idée de l’influence de l’ordonnance des grains sur la porosité (SCHNEEBELI, 1966) : Les
arrangements les plus simples sont :

1-L’arrangement cubique avec n = 47,64 %

2-L’arrangement orthorhombique avec n = 39,54 %

3-L’arrangement rhomboédrique avec n = 26,95 % qui est le plus dense possible.

Lorsqu’il y a des grains de différents diamètres, le problème devient plus complexe. La porosité du
mélange est plus faible que la porosité des massifs formés de grains d’un même diamètre. Ceci
s’explique par le fait que les grains les plus fins comblent dans une certaine mesure les vides que
laissent entre eux les grains plus gros. Pour des granulométries continues, les porosités descendant
jusqu’à 15 % sont possibles.

2.4- Nappes captives, libres, et artésiennes


Avant son extraction l’eau est immobilisée dans le sol (sauf pendant les mouvements saisonniers-
pluies ou sécheresse-ou les variations dues à l’influence d’autres ouvrages proches. Son niveau peut
alors être considéré comme statique.

Crépine
Toute l’eau tirée d’un forage y pénètre par la crépine, premier élément et organe essentiel de
l’équipement mécanique de l’ouvrage.

Nappe libre
On parle de nappe libre lorsque le niveau statique se situe au maximum du toit de la couche aquifère

Nappe artésienne
Elle est réalisée lorsque le niveau statique se trouve au-dessus du toit de la couche «magasin». Au
cas où le niveau statique se situe plus haut que le niveau du sol, la nappe artésienne est jaillissante

Quand on commence à pomper, l’eau qui se trouve déjà dans le forage, à l’intérieur de la colonne de
captage est mise en dépression par rapport à celle de l’aquifère. Au fur et à mesure de son extraction,
un courant s’établit et persiste tant que se trouve maintenu le régime de pompage. L’eau est mise en
mouvement de tous les points influencés par l’ouvrage et se dirige vers la crépine. Dans toute la zone
où s’opère ce mouvement le niveau est rabattu.

Fig. : La nappe libre, captive et artésienne


La perméabilité implique, comme indiqué ci-dessus, la présence de l’eau et son mouvement, c’est
donc une notion dynamique. C’est la propriété d’un terrain aquifère à laisser passer, à travers lui, l’eau
mise en mouvement par la pression ou la dépression. C’est ce qu’on peut aussi appeler la
conductivité à l’eau des roches ou des terrains.

En somme, un terrain est d’autant plus perméable qu’il laisse passer davantage d’eau:

- dans un temps donné


- sous une pression donnée
- à travers une section donnée de ce terrain
Or le volume de l’eau qui s’écoule dans un temps donné est le débit.

La pression ou la dépression qui provoque le déplacement de l’eau est la charge, ou le gradient


hydraulique. Pour une température donnée, la perméabilité est définie par la formule:

Q
K
Si
K : coefficient de perméabilité

Q: débit

S: section traversée

i: gradient hydraulique

Avec comme unités : centimètres-cubes par seconde et par centimètre-carré, en mètres-cubes par
jour et par mètre-carré etc.

Un des facteurs influents de la perméabilité est la température : la formule ci-dessus développée est
valable pour une température de 20°C. Pour les températures comprises entre 10 et 40°C, la
correction à apporter aux formules précédentes est la suivante:

K 20 40

KT T  20
Dans laquelle K20 et KT sont respectivement les valeurs de la perméabilité à 20° et à T°. Pour une
température de couche de 40°, ce qui se rencontre souvent dans les forages profonds ou dans les
pays tropicaux, la perméabilité est de 50% plus élevée qu’à 20°.

La température croît, dans le sol avec la profondeur. Bien que l’accroissement de la température soit
différent selon la nature des roches, la position géographique du lieu etc., on admet que la variation
est égale à 1°C pour 33 mètres. Cette valeur, considérée comme constante, est appelée le gradient
géothermique.

Dans un terrain aquifère mis en dépression par pompage, le mouvement de l’eau vers le forage
s’effectue surtout horizontalement. Nous pouvons donc admettre que la mesure de la perméabilité
s’effectuera à travers une section verticale de la couche aquifère. Le sens prioritaire horizontal du
mouvement de l’eau dans le sol pendant le pompage fait dire que les terrains aquifères sont
anisotropes.

Ces considérations nous permettent d’énoncer la définition suivante de la perméabilité (ou coefficient
de perméabilité), c’est :

1-le volume d’eau qui,

-dans une unité de temps,


-sous un gradient hydraulique unité,

-sous une température de 20°C

traverse une section verticale unité de la formation.

Ou encore :

2-la vitesse avec laquelle l’eau traverse une section verticale unité d’une formation

-sous un gradient hydraulique unité

-sous une température de 20°C.

Le tableau ci-dessous donne, d’après G. CASTANY, des valeurs approximatives de la perméabilité,


exprimées sous la forme de vitesses en centimètres par seconde, de divers terrais :
2 -1 -2 -3 -4 -5 -6 -7 -8 -9
PERMÈABILITÈ 10 10 10 10 10 10 10 10 10 10 10

(en cm/s)

TERRAINS Galets Sables purs Sables fins Argiles


homogènes
Graviers Sables et graviers Silts et mélanges de
dépourvus sables et d’argile
Gravillons d’éléments fins
dépourvus
d’éléments fins

QUALIFICATION Très Perméables Peu perméables Imperméables


perméables

-7
Selon ce tableau, la perméabilité de 10 est la valeur limite entre les terrains perméables et
imperméables. Mais ce tableau de classement n’a qu’une valeur purement indicative, les bentonites
-11
par exemples, ont une perméabilité de 10 .

5- Représentation graphique des résultats de forage


Pour le contrôle et la gestion des ouvrages il est important de documenter le forage. Ainsi dans le
dossier principal d’un ouvrage on doit retrouver entre autre :

- Une documentation des différentes étapes du forage


- Les coordonnées (situation, position exactes)
- Une documentation des différentes couches
- Les résultats de tamisage
- Protocole de dessablement
- Diagramme de l’essai de pompage
- Les résultats de mesures géophysiques
- Le protocole des prises d’spécimens
- Les mesures des niveaux hydriques et de la nappe
Contrairement aux autres ouvrages de génie civil, les forages ont leur partie la plus importante et la
plus fragile dans le sous-sol. Malgré l’aide de cameras ou des test géophysiques, un contrôle parfait
de l’ouvrage n’est possible qu’avec l’appui d’une documentation sans faille.

La première représentation graphique à réaliser est celle des couches géologiques rencontrées. Cette
représentation respecte des normes bien précises qui doivent être pris en considération.
En deuxième position doit être représenté la structure de construction et d’aménagement de l’ouvrage.
Elle donne idée du squelette de l’ouvrage et des différentes phases de la réalisation.
6- Connaissances de base sur la chimie de l’eau (KITNER et al., 1967)
6.1 Le gaz carbonique
Déjà l’eau de pluie dissous une certaine quantité de gaz carbonique de l’air et en traversant les
couches terrestres, la quantité de gaz augmente d’avantage. Les eaux de surfaces sont en général
pauvres et les eaux souterraines riches en gaz carbonique. On distingue les gaz lié (dissous) à l’eau
ou le gaz libre.

Le gaz carbonique libre est en général est dissoute sous la forme [CO 2] et seulement dans la
proportion de 0,7% comme gaz carbonique hydraté [H2CO3]. Cette dernière se dissocie dans une
seconde phase en ions [H-] et [HCO3].

Le gaz carbonique dans l’eau peut dissoudre du calcium carbonate [CaCO3] en bicarbonate soluble
[Ca(HCO3)2]. Ces derniers se coagulent en calcaire et gaz carbonique lorsque l’eau est réchauffée.
Ainsi on distingue le gaz carbonique lié au carbonate et la même quantité de gaz carbonique
nécessaire pour la formation du bicarbonate dissout à moitié. Le bicarbonate contenu dans l’eau se
coagule, même sans échauffement de l’eau, lorsqu’une certaine quantité de gaz carbonique (libre)
n’est pas présente. Cette règle n’est valable que pour le system calcium-bicarbonate. Lorsque la
quantité de gaz carbonique libre nécessaire pour le [Ca(HCO3)2] et au-delà du point de gaz
carbonique libre n’est présente, on parle de l’équilibre calcaire-gaz carbonique.

6.2- L’oxygène

Les eaux de surface contiennent en général assez d’oxygène sous forme dissoute [O 2], tant qu’une
oxydation de matière organique n’influence pas l’équilibre donné. Les eaux souterraines quant à elle
contiennent peu ou pas d’oxygène. Tant pour le traitement que pour la formation des schistes de
protection des tuyaux, l’oxygène est nécessaire et utilisé.

6.3- L’oxyde de sulfate [H2SO4]

Il fréquent dans les eaux souterraines même de bonne qualité. Il est en général issu des processus de
réduction dans le sol. Il devient problématique lorsqu’il provient de l’infiltration des résidus des latrines.
Ce gaz donne une mauvaise odeur à l’eau qui devient ainsi inconsommable (non potable). Lors du
traitement, ce gaz peut être éliminé facilement par aération. En grande concentration elle rend l’eau
agressive par la formation du gaz sulfurique.

6.4- Le fer

Les eaux de sources et les eaux souterraines contiennent souvent du fer. Il provient en général des
processus de dissolution des sols et minéraux riches en fer. Souvent on trouve du Manganèse comme
élément secondaire. C’est sous la forme bicarbonate de fer [Fe(HCO3)2] qu’on le trouve en général,
rarement sous forme de sulfate de fer [FeSO4]. Dans le cas d’une introduction d’oxygène dans un
milieu contenant du fer dissous les formes ci-dessus citées, ils peuvent se former du non soluble
hydroxyde de fer [Fe(OH)3], cette forme est la rouille rouge qui se forme dans les tuyaux et récipients
d’eau. L’eau riche en fer n’est pas consommable et utilisable, il a un goût fade et le fer donne une
couleur jaunâtre á l’eau qui ne peut donc pas être utilisée pour le linge par exemple. À partir d’une
concentration de 0,1 mg/l le fer devient nocif et doit être éliminé par traitement.

6.6- Le Manganèse
Il se rencontre comme élément accompagnant le fer mais en moindre quantité. Une concentration de
0,05 mg/l est aussi nocive qu’une concentration élevée de fer. Dans certain cas, la présence de
Manganèse a provoqué une prolifération incontrôlable des bactéries de Mangan dans les installations
hydrauliques.
6.7- L’ammoniaque [NH3]
Les liaisons à base d’ammonium se forment à partir des procès de réduction dans le sol. Ces
réactions peuvent être d’origine chimique ou biologique. Sur le plan hygiénique, les résidus d’origine
fécale par exemple sont les plus dangereuses. Pour évaluer le danger que représentent les liaisons à
base d’ammonium, il est nécessaire de considérer les autres sources de contamination. Les différents
niveaux d’oxydation des liaisons à base d’ammonium sont les nitrites et les nitrates. La présence
d’ammoniaque peut aussi avoir comme origine les engrais chimiques.

6.8- Les liaisons à base de chlore [Cl]


Les liaisons à base de chlore sont inoffensives, mais leur présence en grande quantité influence le
goût de l’eau. À partir de 250 mg/l Cl, l’eau a un goût salé. En rapport avec d’autres sources de
contamination, une grande concentration de chlorite peut avoir une origine organique. Mais en
général, elle est d’origine marine.

6.9- Les liaisons à base de Sulfate [SO4]


Les liaisons d’une concentration de 200 mg/l de Sulfate [SO4] sont déjà très nocives, à partir de 1000
ml/l il y a un risque pour la santé. Une concentration élevée de Sulfate avec d’autres liaisons peut
indiquer une origine fécale, mais souvent c’est à partir de situations géologiques particulières que
s’expliquent leur grande concentration dans les eaux. Dans les zones d’exploitation de charbon de la
Lausitz par exemple, des contractions de plus de 1000 mg/l sont très fréquents.

6.10- Les phosphates [PO4]


Les phosphates indiquent en général une contamination de l’eau à partir d’une source fécale. Une
concentration à partir de 0,3 mg/l est une indication sûre. L’homme produit par jour 4,5 g de
Phosphate.

Le nombre calcium de permanganate [CP : consommation de Permanganate] indique la concentration


de matière organique dans l’eau. L’eau de consommation normale a un CP de 12 mg/l, mais de l’eau
potable peut avoir une valeur élevée. Les eaux de surface et surtout les eaux contenant des matières
végétales (forêt, clairière avec leur couleur jaunâtre) ont une valeur élevée. Le traitement devrait viser
la valeur minimale de 12 mg/l.

La dureté de l’eau est indiquée par sa concentration en sel de Calcium et de Magnésium. Lorsque la
concentration en ces sel on parle d’une eau dure, dans le cas contraire d’une eau tendre.

6.11- Contenu en matière biologique et bactériologique


L’eau potable ne devait pas contenir de matière organique et surtout pas de bactéries. Seulement,
même après un bon traitement de l’eau on retrouve dans certaines eaux des plantes ou des
organismes. Dans les eaux de surface, une série de réactions biologiques se succèdent. Ces
réactions neutralisent les matières organiques contenues dans ces eaux. On parle du processus
d’auto nettoyage de l’eau qui consiste à la destruction des matières organiques sous l’action
commune des bactéries, des plantes et autres êtres vivants pour la restauration de l’état de pureté de
départ. Ce processus est mis à profit dans le traitement des eaux usées.

7- Différence de qualité: eau potable, eau de refroidissement et d’arrosage


La qualité de l’eau d’arrosage est moindre que celle de l’eau potable. Néanmoins elle doit devrait être
sans contenus nocifs pour le sol et particulièrement pour la nappe aquifère. Ainsi on peut utiliser les
eaux des fleuves, rivières et lacs pour l’arrosage tant qu’elles sont exemptes de contamination.
L’eau de refroidissement est utilisée entre autre dans les moteurs à vapeur pour la condensation de la
vapeur, pour le refroidissement des machines à combustion, les réacteurs et les climatiseurs. Les
quantités consommées sont selon les cas énormes ; une machine à vapeur de la puissance de 4000
MW a besoins selon Kittner de 200 m³/s. Dans un système de recyclage continu, cette machine ne
consommera plus que 9 m³/s.
Pour l’eau de refroidissement, l’industrie cherche donc des substituts ou des possibilités de réduire la
consommation en améliorant les systèmes de refroidissement. En premier c’est le système de
transmission de la chaleur et un autre moyen est le transport pneumatique au lieu du transport
hydraulique des matériaux. Mais le système le plus utiliser et le plus recherché est le recyclage
(utilisation continue).
D’après la quantité et la diversité des matières et organismes qu’on peut rencontrer dans les eaux de
consommation, il est nécessaire de fixer les valeurs selon l’utilisation à laquelle l’eau est destinée.
En résumé, une eau d’alimentation devrait sur le plan physique selon Dupont () être limpide, fraîche,
exempte de couleur ainsi que d’odeur et de saveur désagréables. Sur le plan chimique et physico-
chimique, les eaux de consommation devraient selon Dupont () contenir, sans excès, un certain
nombre d’élément minéraux sans que toutefois leur minéralisation totale, ou salinité, ou salinité, ou
extrait sec, ne dépasse pas 2g par litre.
Pour l’eau potable les valeurs limites sont indiquées dans le tableau (Kitner et al.1967):
Eau potable Unité Minimum Moyenne Maximum

Qualité physique - - -

Couleur - - - claire

Odeur - - - incolore

Goût - - - rafraichissant

Température [°C] 5 10 15

Qualité chimique

Gaz carbonique [CO2] [mg/l] Niveau non agressif

Oxygène [O2] [mg/l] 4 - -

Fer [Fe] [mg/l] - 0,1 0,2

Manganèse [Mn] [mg/l] - 0,01 0,1

Ammonium [NH4] [mg/l] - - Traces

Nitrite [NO2] [mg/l] - - Traces

Nitrate [NO3] [mg/l] - - 40

Chlorite [Cl] [mg/l] - - 250

Sulphate [SO4] [mg/l] - - 200

Phosphate [P2O5] [mg/l] - - Traces

Plomb [Pb] [mg/l] - - 0,1

CP [KMnO4] [mg/l] - 5 12

Dureté totale [mg/l] 4 10 30

Dureté en Carbonate [mg/l] 2 4 8


PH [mg/l] Valeur équilibre : calcaire -gaz carbonique

Reste après évaporation [mg/l] - 500 1000

Qualité bactériol. et biol.

Germes :eau superf. [/ml] - 20 100

Germes :eau souterraine [/ml] - - 20

8- Prise d’échantillons d’eau


Les résultats d’une analyse d’eau ne peuvent être bons que si la prise d’échantillons se fait selon des
règles précises. Certains tests devraient être effectués sur place et pour d’autres examens il est
nécessaire d’utiliser des additifs pour la fixation juste après la prise d’échantillons. Les récipients
(bouteilles et autres) pour la prise d’échantillons doivent être propres. Pour l’analyse du gaz
carbonique ou d’oxygène, la prise d’échantillons devrait se faire dans des conditions anaérobes et
sans formation de bulles.

Pour les examens bactériologiques, il faut absolument des récipients stériles. Les échantillons
devraient porter les descriptions nécessaires à leur identification comprenant : date, lieu de la prise et
les autres informations nécessaires. Les échantillons devraient être analysé dans les 24 heures
suivantes, garder à froid ne pas être exposée à la lumière.
CHAP. VIII : PROGRAMME DE RECONNAIANCE DU SOL

1- LE OBJECTIFS DE LA CAMPAGNE DE RECONNAISSANCE DES SOLS.


Les objectifs de la campagne de reconnaissance des sols sont multiples, celle-ci pouvant intervenir au
stade des pré-études ou au cour de l’avancement du projet. Au stade des pré-études, elle est lancée
pour :
La recherche de terrains adaptés à l’implantation d’ouvrage important, d’infrastructures routières ou
ferrées, dans une région déterminée ;

L’ébauche d’un schéma directeur ou d’un plan masse sur un tènement donné, en tenant compte des
aléas des sols ; le plan masse d’une opération peut être modifié pour optimiser l’adaptation des
constructions aux caractéristiques mécaniques du sol sans nuire aux impératifs urbanistiques ;
La construction d’un ouvrage sur un terrain et permettre d’établir un dossier de faisabilité le plus
proche de la réalité, y compris pour les fondations.

Selon l’avancement des études, l’objet de la campagne de reconnaissance des sols est différent. Elle
est alors caractérisée par :
Le maillage des points de sondage, d’autant plus que l’étude doit être précise ou que le sol est
hétérogène;

La qualité des renseignements recherchés : enquête, essais in-situ, ou essais en laboratoires;

La précision demandée, plus grande en d’étude en phase d’étude d’exécution.

Pour éviter tous aléas, il est recommandé d’effectuer une analyse des sols le plus en amont possible
des études.
2-2-1 les différents types d’investigation.
En premier lieu’ il faut procéder à une enquête de voisinage pour avoir connaissance des difficultés
éventuelles qu’auraient pu rencontrer d’autres constructeurs. Certains lieux ont une appellation
significative à laquelle il faut être attentif, par exemple La palud, Argentières, Le plan, etc. Dans un
deuxième temps, il faut étudier la carte géologique de la zone concernée. Même sans grande
précision, les informations recueillies donnent une première indication sur la nature des sols. Une
compagne de reconnaissance des sols est ensuite confiée à un spécialiste. Selon son étendue et son
importance, elle fournit tous les renseignements pour définir les constructions réalisables, le type de
fondations à retenir et le niveau du sol d’assise.
Les essais géotechniques à effectuer sont déterminés en fonction de deux critères :

Les essais géotechniques permettent de connaitre la nature des différents couches du terrain, leur
épaisseur, leur pendage, leur caractéristiques physiques et mécaniques, ainsi que leur présence
d’eau éventuelle. Ils peuvent influence leur adaptation au site (stabilité de talus) et les conditions
d’exécutions des travaux (stabilité provisoire des parois).
2-2-2 La Terre
La terre est une planète issue d’une nébuleuse, globe liquide à très haute température, que le froid
sidéral a progressivement refroidie. Elle comprend :

majeure partie de silice et d’aluminium (SIAL), de densité 2 ,7 ;

épaisseur de 3000 km et de densité 3,4 ;

(NIFE), de densité 7,8.

Les roches constituent la majeure partie de l’écorce terrestre. Elles sont formées d’une seule espèce
de minérale (gypse, quartz, etc.) ou, plus généralement, composées de plusieurs minéraux.
EXEMPLE : la diorite = mica + feldspath, le granite = mica + feldspath + quartz.
Elles sont massives, cohérentes et peut déformable (granits, grès), meubles (sables), plastiques
(argiles), ou liquides (pétrole).
2-3- PROCEDES DE RECONNAISSANCE DES SOLS.
La reconnaissance des sols fait appel à différentes techniques de sondages et d’essais sur le site (in
situ) et en laboratoire en vue de déterminer les caractéristiques principales des diverses couches de
terrain rencontrées.
2-3-1- Reconnaissance In-Situ.
Elles se font par des excavations ou des forages de grandes dimensions ou de petites sections. Lors
de l’exécution de ce type de reconnaissance sont relevé :

Ces renseignements sont reportés sur une coupe mentionnant le niveau du terrain naturel rattaché au
nivellement général du pays et le niveau des arrivées d’eau éventuelles. Ces renseignements variés
d’un pays à un autre. En France par exemple de (0 à -1.00m) on a le remblai, de (-1 à 2.50 m) le sable
fin, de (-2.50 à -3.00 m) le sable argileux, de (-3.00 à -4 m) le gravier argileux. L’eau se trouve à 4 m
de profondeur.

2-3-1-1 Forages En Puits Ou En Tranchée.


Ils sont réalisés à l’aide d’engins courants de terrassement :

profondeurs plus importantes.

Leur avantage est de permettre l’observation directe des couches traversées et de procéder à des
prélèvements d’échantillon du terrain en place. Ces sondages sont implantés en dehors de l’emprise
supposée des fondations. Ils doivent être protégés contre les risques de chutes et être remblayés
après examen. La présence d’eau nécessite des précautions particulières.

2-3-1-2- Sondages De Reconnaissance.


D’un diamètre de 100 à 200 mm, ils peuvent atteindre de grandes profondeurs. Comme les
précédents, ils permettent d’effectuer des prélèvements d’échantillons dans les traversés. Différents
procédés de pénétration sont utilisés selon la nature du sol :
tarière dans les sols meubles, remontant à la surface des échantillons de terrain remanie ;

ipé à sa base d’une trousse


coupante ou d’une couronne abrasive ;

Des échantillons de terrain peuvent être prélevés par adaptation au dispositif de forage d’un carottier,
tube cylindrique équipé à sa base d’une couronne tranchante.
La carotte à un diamètre de 70 à 140 mm et les conditions de prélèvement sont parfaitement définies
pour éviter toute mauvaise interprétation.
Les forages peuvent être équipés d’un tube piézométrique, dispositif qui permet de mesurer le niveau
d’eau un point situé dans une zone aquifère, et en suivre l’évolution dans les temps.
Lorsque la qualité du sol est que les parois du forage ne peuvent se maintenir en équilibre naturel, cet
équilibre est créé artificiellement par un tube provisoire ou par l’emploi d’une boue de forage, mélange
thixotropique de type bentonite. Dans ce dernier cas, les prélèvements par carottage sont plus délicats
à effectuer.

2-3-2- ESSAIS IN-SITU.


Ces essais nécessitent un matériel approprié, de mise en oeuvre parfois complexe. Les
renseignements fournis, selon le procédé utilisé, sont à analyser avec précaution.
ESSAIS GEOPHYSIQUE

D’un usage commun pour la recherche pétrolière, ces essais ont été adaptés à la reconnaissance des
sols pour la construction. Employés sur des sites étendus, ils doivent être complétés par d’autres
procédés. Une méthode fait appel à la résistivité électrique des sols, localisant la présence d’eau et
des sols imperméables.
La méthode sismique mesure la vitesse de la propagation d’une onde, créée par explosion, dans les
différentes couches rencontrées. Des capteurs régulièrement repartis relié à un amplificateur et à un
enregistreur indiquent les temps de parcours directs et réfractés. Les résultats permettent de
prédéterminer la nature des roches ou la présence de failles et de zones fissurées.

ESSAIS AU SCISSOMETRE (Vane-test)

L’essai au scissomètre est utilisé pour la mesure de la résistance au cisaillement (daN /cm2) et de la
cohésion dans les terrains cohérents de faible consistance comme les argiles molles. L’appareil est
constitué de quatre pales métalliques rectangulaires identiques fixées sur un axe vertical.la rotation de
l’ensemble permet de découper quatre dièdres droits ayant une arête commune, l’axe de rotation
vertical, dans un cylindre du terrain. La hauteur des pales correspond à deux fois le diamètre. Elles
sont de petites dimensions pour les terrains de faible résistance (76mm*38mm) et de dimensions plus
importantes pour les terrains de grande résistance (130m*65mm). Connaissant la mesure du couple
de torsion, la cohésion est déterminée par la formule suivante :
C= 3.T/28.π.r3
Dans laquelle C’est la cohésion, exprimée en daN /cm2, T est la résistance totale du couple, R est le
rayon des pales.

ESSAIS PRESSIOMETRIQUE
L’essai pressiométrique est utilisé pour tous les types de terrains, sauf rocheux. Mis au point par
Ménard, il permet de mesurer la déformation latérale de la paroi d’un forage par introduction d’une
cellule de mesure protégée par une enveloppe en caoutchouc. L’envoi d’eau sous pression modifie le
volume de la cellule de mesure et entraine la déformation du terrain sous les contraintes radiales
horizontales. Un diagramme indique la pression de fluage et la pression limite (fig2.11). Toutefois, ces
résultats sont à utiliser avec une grande prudence pour deux raisons majeures :

influer sur les mesures ;


s que les fondations ont des actions
verticales.
En revanche, les résultats permettent d’étudier la réaction du terrain sur une paroi soumise à un effort
horizontal (mur de soutènement).

ESSAI AU PHICOMETRE

Le phicomètre est un appareil mis au point par Gérard Philipponnat, en 1985.Il permet, dans un forage
d’un diamètre de l’ordre de 65mm, de mesurer la cohésion c et l’angle de frottement interne d’un
terrain, sans avoir recours aux essais de laboratoire.
Le phicomètre comprend les éléments suivants :

dentelées, de 230mm de longueur et de58mm de diamètre :

et un vérin en surface.
Apres étalonnage de l’appareil, l’essai se déroule en deux temps :

métalliques pénètrent dans le sol ;

jusqu’à la rupture.

Pour une pression latérale connue, la contrainte de cisaillement limite τ l est donnée par la formule
suivante :
Τl=Tr /S’
Ou S correspond à la surface du cylindre concernée (Tr), l’effort d’arrachement à la rupture.

Fig. : Phicomètre installé dans un chantier

STANDARD PENETRATION TEST


L’essai de pénétration standard est probablement l’essai le plus utilisé en géotechnique pour la
caractérisation des sols granulaires. Il consiste en l’enfoncement par battage d’une cuillère normalisée
(cuillère fendue) attachée à l’extrémité inférieure des tiges. Le marteau (63,5 kg) et la hauteur de
chute (760 mm) sont aussi normalisés.
Procédure de l’essai SPT:
1) Nettoyer par lavage jusqu’au fond du trou
2) Enfoncer par battage la cuillère fendue
3) Compter le nombre de coups requis pour un enfoncement de 15 cm répéter 3 fois.
4) La valeur de N est la somme des deux derniers 15 cm.
En plus de procurer une indication sur la résistance du sol, l’essai permet de récupérer un échantillon.
Dans le rapport de forage le nombre de coups pour chaque 15 cm de pénétration doit être indiqué. S’il
y a refus avant que l’enfoncement soit complété on doit essayer de donner des précisions. On
considère qu’il y a refus si plus de 30 coups sont requis pour pénétrer de 1 cm. Si le sol traversé
contient des cailloux et des blocs, les valeurs de N seront facilement faussées (plus élevées). Il faut
utiliser ces valeurs avec discernement. L’essai doit se faire au moins à chaque 1,5 m.

ESSAIS PAR PENETROMETRES.


Ces essais sont d’un usage de plus en plus fréquent. Ils sont effectués à l’aide d’appareils comportant
une tige métallique terminée par un cône. La tige peut coulisser ou non dans un tube métallique creux
pour éviter les frottements latéraux. Cet équipement est complété par un dispositif mesurant
séparément l’effort exerce sur la pointe de conique du pénétromètre, fixé à l’extrémité d’un train de
tige, et le frottement latéral exercé sur le fût.
Les résultats obtenus sont traduit sous forme d’un diagramme, portant en abscisse la résistance de
pénétration à la pointe RP et la résistance au frottement latéral Rf en daN/cm2 ou en Mpa et en
ordonnées, la profondeur en m. on distingue plusieurs pénétromètre tel que : pénétromètre statique,
pénétromètre dynamiques (A et B ), pénétromètres statio-dynamiques.
ESSAIS HYDRAULIQUES.
Les hydrauliques portes sur l’étude de l’hydrologie souterraine. Plusieurs essais peuvent être
effectués, entre autres :

perméabilité de la couche testée, rayon d’action du pompage, etc ;

fissuration des sols rocheux ;

2-3-1-3- ANALYSE EN LABORATOIRE


Pour déterminer les caractéristiques géotechniques des couches rencontrées, différents essais sont
effectués en laboratoire sur les échantillons prélèvés dans le sol en place. Les échantillons sont
numérotés et enregistrés. Toutes les précautions sont prisées pendant le transport pour éviter la perte
de fine et conserver l’humidité naturelle de l’échantillon. Les essais sont effectués dans les plus courts
délais après prélèvement, par les personnes qualifiées, apte à interpréter les résultats. Leur objectif
est d’identifié les sols et de déterminer :

imique,

LA CONSTITUTION DU SOL
La constitution du sol définit les proportions entre les grains solides plus ou moins gros, les matières
organiques ou les minéraux et les vides entre les grains, remplis d’air ou d’eau.
La répartition grains Ŕ vides est donnée par plusieurs relations, connaissant le volume total Vt, la
masse d’eau Me et la masse de grains solides et la masse de grains Mg, il est possible de déterminer
les notions suivantes.
Indice des vides (v = vv /vg),

Où vv est le volume des vides, vg est le volume des grains solides,


Pour les sables : 0,4 < V > 1,5. Pour les argiles : 0,3 < V > 1,5.
La porosité (p = vv/vt,)

Où vv est le volume vides et vt est le volume total. P est exprimée en pourcentage: (0 < P < 100%).
Le degré de saturation (ss = ve/vv),

Où ve est le volume d’eau, vv le volume des vides, ss est exprimé en pourcentage


0 < ss < 100%, pour un Vol absolument sec (anhydre) : ss = 0, pour un sol saturé : ss = 100%.
La teneur en eau (Te = Me/Mg),

Où Me est la masse d’eau, Mg est la masse des grains, Te est exprimé en pourcentage. La teneur en
eau Te est pratiquement nulle pour les sols secs, mais peut atteindre de 400 à 500% pour des sols en
milieu aqueux.
La masse volumique totale.

(ρ = Mt/Vt = (Mg + Me)/Vt).


Où Mt est la masse totale, Me est la masse d’eau, Vt est le volume total, Ma et la masse d’air
pratiquement nulle, Vt est le volume total, ρ est exprimé en Kg/m3, en général 1000<ρ < 2400.
Masse volumique des grains solides.

(ρg = Mg/Vg),
Où Mg est la masse des grains solides, Vg est le volume des grains solides, ρg est exprimé en Kg/m
3, en général 2500 < ρ < 2800.
La masse volumique de l’eau.

(ρe = Me/Ve),
Me es la masse d’eau, Ve est le volume d’eau.
Les composantes granulaires
La grosseur de grains et leur répartition définissent la texture des sols : sols à grains grossiers
(graviers et sables) ou sols à textures fines (limons ou silts et argile), constitués de grains invisibles à
l’oeil nu. La grosseur des grains, de formes arrondie ou angulaire, selon leur origine, varié dans une
gamme très étendu allant des matériaux grossiers aux blocs rocheux aux matériaux ultra fin, argile et
colloïde en fonction du diamètre des grains exprimé en mm ou en micromètre, MM. Caquot et kérisel
propose la classification suivante :

La répartition des est définie par l’analyse granulométrique. Celle est obtenu par tamisage pour des
grains de diamètre apparent supérieur à 0,08mm et par essai de sédimentation pour les grains de
diamètre apparent inferieur 0,08 mm une courbe de granulométrie est établir contenant sur l’axe des
abscisses le diamètre des grains (mm) et sur l’axe des ordonnés le pourcentage de passant (en
masse).

Limites d’Atterberg.
Les limites d’Atterberg définissent à la fois un indicateur qualifiant la plasticité d’un sol, mais aussi
l’essai qui permet de définir ces indicateurs. La consistance d'un sol fin ou cohérent peut être
appréciée par un essai de résistance mécanique (essai de rupture en compression simple, essai de
poinçonnement ou de pénétration). En faisant décroître progressivement la teneur en eau d'un
échantillon de sol on constate que le sol passe successivement par plusieurs états:
Etat liquide à teneur en eau élevée.

Le sol se comporte comme un liquide. Sa résistance au cisaillement est nulle et il se répand lorsqu'on
le déverse. Les grains du sol sont pratiquement séparés par l'eau;
Etat plastique ;

Le sol est stable naturellement mais, dès qu'un effort lui est appliqué, il est le siège de déformations
importantes, en grande partie non réversibles sans variation notable de volume et sans apparition de
fissures. Par trituration il perd sa consistance. Certains sols, dits thixotropes, ont la propriété de
récupérer avec le temps une partie de leur résistance;
Etat solide

Le sol a le comportement d'un solide, l'application d'un effort n'entraîne que de faibles déformations.
Le passage à l'état solide s'effectue au départ avec réduction du volume ou retrait, puis à volume
constant donc sans retrait
INDICATEURS.

LIMITE DE LIQUIDITE.
La limite de liquidité (Wl) caractérise la transition entre un état plastique et un état liquide. C'est la
teneur en eau pondérale, exprimée en pourcentage, au-dessus de laquelle le sol s'écoule comme un
liquide visqueux sous l'influence de son propre poids. Formule de la teneur en eau pondérale: Masse
d'eau (g)/Masse de sol sec (g).
LIMITE DE PLASTICITE.
La limite de plasticité (Wp) caractérise la transition entre un état solide et un état plastique. Cette limite
indique la teneur en eau pondérale, en pourcentage, maximale pour travailler un sol et éviter la
compaction. En dessous de cette limite, le sol est friable ou facilement malléable d'un point de vue
agronomique.
INDICE DE LIQUIDITE.
Il = (W-Wp) / (Ip)
INDICE DE PLASTICITE
ll mesure l'étendue de la plage de teneur en eau dans laquelle le sol se trouve à l'état plastique,
Ip = Wl Ŕ Wp
Suivant la valeur de leur indice de plasticité. Les sols peuvent se classer comme suite :
La plasticité est une propriété caractéristique des éléments très fins ou argileux du sol, en relation
avec l'existence de couches d'eau adsorbée avec ou sans électrolytes dissociés. On conçoit donc que
les limites d'Atterberg et l'indice de plasticité d'un sol varient non seulement avec l'importance de sa
fraction argileuse mais également avec la nature des minéraux argileux et des cations adsorbés. À
titre d'exemple, les valeurs les plus fortes de cet indice sont obtenues avec les montmorillonites et
plus particulièrement celles chargées du cation sodium (Na+).
INDICE DE CONSISTANCE.
Il s’agit d’un indicateur dérivé : Ic = (Wl - W) / Ip, où W=W normale de l'échantillon
MODE OPÉRATOIRE

tromètre.

(molette, centrale). ATTENTION à la


graduation du cercle, elle est en 1/100 de cm, lire 300 signifie 3,00 cm ou 30 mm.

ESSAI Proctor
BUT DE L’ESSAI
L'essai Proctor, est un essai qui permet de déterminer la densité maximale du sol et des granulats
analysés. Il est fréquemment utilisé en ingénierie géotechnique et en laboratoire d'analyse de sol.
Il existe une teneur en eau particulière w optimum notée wopn pour l’essai Proctor normal et wopm
pour l’essai Proctor modifié pour laquelle le compactage conduit à une masse volumique sèche ρd (ou
un poids volumique) maximum. La masse volumique maximale correspond donc à un état de
compacité maximum et à une capacité de résistance maximum.
MODE OPÉRATOIRE
Faire :

est défini par la taille des grains.

couche et disposition de ces coups).

ESSAI OEDOMETRIQUE
BUT DE L’ESSAI :
La manipulation a pour but de déterminer les caractéristiques de compressibilité d’un sol qui
permettent d’estimer le tassement d’un massif de sol, par exemple sous une fondation superficielle :
Sous l’effet des charges appliquées, le sol va se déformer : il va subir un tassement. Pour en évaluer
l’ampleur, on reproduit le phénomène au laboratoire.

; 3 ; 5 ; 10 ; 20 ; 40 kg.

stabilisation du comparateur (on considère que le tassement est terminé lorsque les deux dernières
mesurent différent de moins de 5/1000ème).

ite le cycle de déchargement suivant le même processus jusqu’à 5 kg.

le moule

L’ESSAI DE CISAILLEMENT D’UN SOL (BOITE DE CASAGRANDE)


BUT DE L’ESSAI
Détermination des paramètres de résistance au cisaillement des sols et principalement la cohésion et
l’angle de frottement dans le cas d’essai CD (consolidé, drainé)
MODE OPÉRATOIRE
vis de fixation de l’anneau dynamométrique doivent être desserrées.

-boites puis placer le fond, une pierre drainante et une plaque striée.

à calculer
la masse volumique du sol.

en profondeur).

supérieure, la pierre poreuse et le couvercle.

-boite supérieure étant solidaire de l’anneau dynamométrique de


mesure de l’effort de cisaillement T.

ite, vissé le doigt de mise en


charge de manière à assurer le contact avec le couvercle.

dynamométrique toutes les 15 secondes.

Vous aimerez peut-être aussi