Vous êtes sur la page 1sur 48

NIVEAU 3

UE GCI 51

EC GCI 513

PHOTORAMMETRIE, SIG ET TELEDETECTION


DEPARTEMENT GC

Parcours GENIE CIVIL

Dr CYRILLE NJITEU
IUT - DOUALA
CHAPITRE 1. INTRODUCTION GENERALE
I. OBJECTIFS

Ce cours a une orientation technique et d’entreprise. Les objectifs définis sont les suivants :

- Apporter des connaissances de télédétection spatiale, des fondamentaux physiques,


des capteurs et des missions existantes et des produits terrestres, atmosphériques et
marins à obtenir
- Acquérir des connaissances sur les techniques de traitement numériques d’images
de télédétection visant à améliorer et à extraire les informations pertinentes pour
chaque application
- Comprendre les différentes sources de données disponibles pour l’imagerie
- Comprendre et traiter correctement les principaux outils logiciels existants
- Acquérir des compétences et des aptitudes pour générer des produits et des services
de télédétection et pour extraire la plus grande quantité d’information à partir
d’images satellites d’observation de la Terre
II. APERCU GLOBAL DU PLAN
1. Fondements de la télédétection spatiale
2. Bases physiques de la télédétection
3. Capteurs et missions spatiales de télédétection
4. Modélisations radiométriques, atmosphériques et géométriques
5. Acquisition et traitement des données / images de télédétection

Renforcement des Capacités

1. Collecte et analyse d’images de télédétection


2. Outils logiciels pour le traitement d’images
3. Modélisation et traitement d’images de télédétection

III. INTRODUCTION

La télédétection spatiale est une discipline scientifique qui intègre un large spectre de compétences et de
technologies utilisées pour l’observation, l’analyse et l’interprétation des phénomènes terrestres et
atmosphériques. Ses principales sources sont les mesures et les images obtenues à l’aide de plates-formes
aériennes et spatiales.

Comme son nom même l'indique, la télédétection est l'acquisition de l'information à


distance, sans contact direct avec l'objet étudié. La simple lecture de ces lignes est un acte de perception à

2
distance : une entité physique, la lumière provenant de la source, dans ce cas l’écran du PC, traverse une
certaine distance jusqu'à ce qu'il soit capturé par un capteur, les yeux, qui est envoyé à un
processeur, le cerveau. L'acquisition d'information à distance implique l'existence d'un flux d'informations
entre l'objet observé et le capteur. Le porteur de cette information est un rayonnement
électromagnétique, ce qui peut être émise par l'objet ou venir d'un autre organisme et
avoir été réfléchi par celui-ci. Tous les corps (planètes, êtres vivants, objets inanimés)
émettent un rayonnement électromagnétique, la quantité et le type de rayonnement
émis, cela dépend largement de la température.

Les systèmes de télédétection actuels, contrairement à ceux du début du


développement de ces technologies ont connu des changements importants, en
particulier dans la dernière décennie, avec une technologie essentielle dans le suivi des
processus multiples qui affectent la surface et l'atmosphère de la Terre. Un impact
important, en particulier, sur notre planète, tels que le changement climatique, la
déforestation, la désertification … Ainsi, il existe des systèmes de satellites opérationnels pour
échantillonner pratiquement toutes les régions du spectre électromagnétique, avec une résolution
spatiale de 0,5 à 5,000 m. Le grand intérêt de la communauté scientifique dans les
études spatio-temporelles du changement global, surveillances environnementales et
des impacts humains sur elle, implique nécessairement l'utilisation de données de
télédétection. Les systèmes de télédétection, en particulier ceux qui sont situés sur des satellites,
offrent une vision répétitif et synoptique de la Terre de grande valeur dans le suivi et
l'analyse de l'effet des activités humaines sur le même comme l'évaluation et la
surveillance de l'environnement (croissance urbaine, déchets dangereux), la détection
et la surveillance des changements globaux (appauvrissement de l'ozone
atmosphérique, déforestation, réchauffement climatique), l'exploration, les ressources
non renouvelables (minéraux, pétrole, gaz naturel) et les ressources naturelles
renouvelables (océans, forêts, terres) , la météorologie (prévision météorologique, les
processus dynamiques atmosphériques), la cartographie (topographie, utilisation des
terres, génie civil),etc.

IV. RELATION ENTRE SIG, GEODESIE ET DISCIPLINES CONNEXES

Le mot géodésie vient du mot grec geodaisia qui veut dire partage de la Terre. La géodésie est la science
de la mesure de la Terre. En fait le terme de géométrie serait plus adapté mais les mathématiciens se sont
emparés de ce terme pour un domaine des mathématiques qui n’est plus lié à la Terre. Il faut signaler que

3
les premiers géodésiens étaient aussi de grands mathématiciens (Pythagore, Thales, Clayraud…). La
géodésie s’intéresse à la forme et aux dimensions de la Terre, à l’étude du champ de pesanteur terrestre et
aux déformations de la croûte terrestre (tectonique des plaques, géodynamique).

L’étude géométrique de la Terre amène la géodésie à établir des systèmes de références dans lesquels on
positionne des points matérialisés de la surface en attribuant des coordonnées et éventuellement des
vitesses. Les référentiels et les systèmes de coordonnées sont multiples (coordonnées tridimensionnelles,
coordonnées sur l’ellipsoïde, coordonnées planes…).

Un autre objectif de la géodésie est de fournir des techniques ou systèmes de positionnement comme par
exemple la mise en place de satellites de telle sorte d’un utilisateur puisse se positionner à tout instant et
quel que soit le lieu.

II.1. Domaine d’activités

Comme de nombreuses sciences faire de la géodésie veut dire intervenir à différents niveaux correspondant
à des compétences différentes allant de l’homme de science au technicien supérieur. Parmi les activités des
géodésiens, on peut citer :

- La modélisation qui correspond à l’élaboration de théories décrivant les objets de la géodésie


(mesures, inconnues, paramètres…), et leur interdépendance.
- L’étude et le développement des techniques de mesures (l’appareillage et leur techniques
d’utilisation). Les mesures sont réalisées entre des points de la surface de la Terre ou vers des
satellites ou vers les étoiles. Exemples : angles, distances, pesanteurs, temps, phase, doppler…
- L’exécution des mesures et traitements à l’aide des appareils et logiciels développés
- La documentation et la diffusion qui constitue la phase ultime du travail sont essentiels car si ces
phases sont négligées cela remet en cause l’utilité des étapes précédentes.

Les relations avec les disciplines voisines peuvent être selon le cas qualifiées par le fait que la discipline va
être une discipline de base, connexe ou utilisatrice.

Les sciences connexes sont celles qui font des échanges dans les deux sens avec la géodésie : elles ont besoin
de la géodésie et la géodésie a besoin d’elles :

- la géophysique : la géodésie est pour le géophysicien un outil de mesure des déformations de


l’écorse terrestre.
- l’océanographie : la surface des océans joue un très grand rôle en géodésie puisqu’elle visualise la
surface de référence des altitudes (géoïde). La géodésie contribue à la détermination de cette surface
en particulier en faisant des mesures altimétriques à partir de satellites (mesure de la hauteur du
satellite au-dessus du niveau de la mer).

4
- la météorologie : la géodésie s’intéresse à la correction des observations d’angles et de distances
due à la traversée de l’atmosphère.
V. CONCEPTS FONDAMENTAUX DES SYSTEMES D’INFORMATIONS
GEOGRAPHIQUES

Dans cette partie, il nous est apparu utile d’introduire quelques notions essentielles sur les systèmes
d’information géographique. Le concept de système d’information géographique (SIG) est apparu dans
les années 1960-1970. Depuis ce temps, des définitionsplus ou moins similaires et cohérentes ont fait
leur apparition. Afin de bien situer le rôle et l’usage d’un SIG, nous allons également en préciser sa
définition. Signalons qu’il n’existe pas encore une définition claire et communément admise par
l’ensemble de la communautéscientifique. La plupart des définitions citées sont plutôt d’ordre général et
couvrent un largespectre de sujets et d’activités.

Un système d’information géographique (SIG) est un système informatique permettant à partir de


diverses sources, de rassembler et organiser, de gérer, d’analyser et de combiner, d’élaborer et de
présenter des informations localisées géographiquement contribuant notamment à la gestion de
l’espace. Un système d’information géographique est aussi un système de gestion de base de données
pour la saisie, le stockage, l’extraction, l’interrogation, l’analyse et l’affichage de données localisées.
C’est un ensemble de données repérées dans l’espace, structuré de façon à pouvoir en extraire
commodément des synthèses utiles à la décision.

Fig. 1 : Composantes d’un SIG http://www.afigeo.asso.fr/lessig.html

Un système d’information géographique, comme le monte la figure 1.1, est un ensemble


d’équipements informatiques, de logiciels et de méthodologies pour la saisie, la validation, le stockage
et l’exploitation de données, dont la majorité est spatialement référencée, destinée à la simulation de

5
comportement d’un phénomène naturel, à la gestion et l’aide à ladécision.

III.1. QUESTIONS FONDAMENTALES AUXQUELLES REPOND UN SIG

Un système d’information géographique de définit dans un géoïde (figure ci-dessous). Le géoïde définissant
la forme réelle de la Terre.

Fig.2. Un géoïde (Forme réelle de la Terre) définit à partir des anomalies de pesanteur terrestre.

Un système d’information géographique peut aussi être définit par les questions auxquelles il apporte des
réponses : Où ? Quoi ? Comment ? Quand ? Et Si ?

- OU ? : Où cet objet, ce phénomène se trouve-t-il ? Plus généralement, où se trouvent tous les objets
d’un même type ? Cette interrogation permet de mettre en évidence la répartition spatiale d’un objet.
- QUOI ? Que trouve-t-on à cet endroit ? Il s’agit de mettre en évidence tous les objets ou phénomènes
présents sur un territoire donné.
- COMMENT ? Quelles relations existent ou non entre les objets et les phénomènes ? C’est la
problématique de l’analyse spatiale.
- QUAND ? A quel moment des changements sont intervenus ? Quels sont l’âge et l’évolution de tel
objet ou phénomène ? C’est la problématique de l’analyse temporelle.
- ET SI ? Que se passerait-il si tel scénario d’évolution se produisait ? Quelles conséquences
affecteraient les objets ou phénomènes concernés du fait de leur localisation ?

IV. DOMAINES D’APPLICATION DE LA TELEDETECTION

6
La télédétection est la confluence de plusieurs disciplines et thématiques. Elle intervient ainsi dans :

- l’inventaire et gestion des ressources naturelles : cartographie de l’occupation du sol, des types de
végétation ou des états de surface des sols
- la surveillance des changements à court et moyen terme : repérage des zones incendies, inondations,
déformation, sècheresse, désertification, changement d’occupation du sol
- l’aménagement du territoire : gestion du cadastre, de la circulation routière, des services
d’intervention et de secours ; aide à la décision avec notamment des mesures de protection, des
allocations de ressources humaines ou financières, des décisions d’intervention ; aide à la prévision
avec notamment des systèmes de simulation.

Le tableau ci-dessous récapitule différents domaines d’application de la télédétection.

Domaines Applications

Géosciences, mine et pétrole Aide à la cartographie en géologie,


géomorphologie
Milieu marin et littoral Couleur et qualité de l’eau, circulation
océanique, végétation marine
Atmosphère et climat Météorologie, bilans énergétiques et
hydriques
Hydrologie Comportements de l’eau à la surface du sol
et dans le sol, cycle de l’eau
Espaces aménagés Statistiques agricoles, inventaires forestier,
déforestation, croissance des villes
Catastrophes environnementales Feux de forêts, inondations, sècheresses,
marées, tsunamis, glissements de terrain

7
CHAPITRE 2. LES BASES PHYSIQUES DE LA TELEDETECTION
Ce chapitre à travers les notions de rayonnement électromagnétique, de réflectance, des signatures
spectrales, en précisant le rôle de l’atmosphère dans le processus de rayonnement électromagnétique
(REM), ce chapitre permettra à l’issue de définir le rayonnement électromagnétique, de connaître les
caractéristiques des REM ainsi que le domaine du REM utilisé en télédétection optique, de décrire les
principes, de mesure et de transformation du signal analogique ; de maîtriser les notions de réflectance,
d’albédo, d’absorptance, d’émittance, de diffusion, de réflexion et de transmittance.

Un rayonnement est une énergie transportée dans l’espace sous forme d’ondes (particules). On parle de
rayonnement électromagnétique (REM) lorsque le rayonnement se comporte comme un champ de force dont
les variations affectent les propriétés électriques et magnétiques de la matière. La lumière est la partie
visible du REM, celle que l’homme capte avec ses yeux. L’énergie sonore, lumineuse, thermique … se
propage sous forme d’ondes. Certaines nécessitent l’existence d’un support de matière : l’air pour le son,
les roches et minéraux pour les ondes telluriques…

Les ondes lumineuses peuvent se propager dans le vide. Une onde électromagnétique a 02 composantes
indissociables : un champ électrique, un champ magnétique. Ces 02 composantes sont orthogonales et
forment le plan électromagnétique. Une 03eme composante, le sens de propagation de l’onde, est
perpendiculaire à ce plan. Le REM se caractérise par :

- la période qui est le temps T pendant lequel l’onde effectue une oscillation complète
- la fréquence v qui est l’inverse de la période. Elle traduit le nombre de cycle par seconde passant
par un point fixe ; elle s’exprime en Hz.
- La longueur d’onde qui est la distance entre 02 points homologues sur l’onde. Elle traduit la distance
parcourue par l’onde pendant une période. Plus la fréquence est élevée, plus la longueur d’onde est
petite.
- La vitesse c de propagation de l’onde dans l’espace ou dans le vide, et à peu de chose près, dans
l’air, cette vitesse est c = 300000 km/s.
- La polarisation qui caractérise la variation du plan dans lequel oscille l’onde. Si cette variation est
aléatoire, l’onde est dite non polarisée. Si ce plan reste fixe, la polarisation est dite rectiligne.
- L’amplitude E0 qui exprime l’intensité de l’onde électromagnétique ; plus l’amplitude est
importante, plus le rayonnement est intense. L’énergie transmise par une onde est également
proportionnelle à la fréquence. La répartition des fréquences et donc des longueurs d’ondes définit
le spectre électromagnétique.

8
Une onde est définie par 05 paramètres :

- la période T : le temps pendant lequel l’onde accomplit une oscillation complète


- la fréquence : le nombre d’oscillations par seconde
- la longueur d’onde : la distance parcourue par une oscillation complète, à la vitesse v
- la vitesse v : distance parcourue par unité de temps
- l’amplitude : l’écart vertical mesuré entre 02 points. L’amplitude maximale est l’écart entre le
minimum et le maximum de l’oscillation.

Fig.3. Illustration d’une onde

I. SPECTRE ELECTROMAGNETIQUE

Le spectre électromagnétique est continu et invisible à l’œil humain, excepté entre 0.4 et 0.7 micromètres.
Une partie du REM est dangereuse pour l’homme, soit les rayons gamma, X, UV, IR thermique et les micro-
ondes. En télédétection optique on utilise la partie du spectre comprise entre le bleu et l’infrarouge
thermique (inclus). En télédétection active, les longueurs d’onde utilisées sont comprises entre 1 cm et 10
cm. La télédétection utilise les propriétés du REM pour identifier les objets. Ceux-ci reçoivent un
rayonnement incident naturel (soleil) ou artificiel (ondes radar). Une partie de ce rayonnement sera
absorbée ou transmise par l’objet, une autre partie sera réfléchie et/ou émise. L’énergie réfléchie et/ou
émise est captée par un système radiosensible qui génèrera un signal analogique (faible courant électrique).
Ce signal analogique sera transformé en valeur numérique enregistrable sur un support mémoire.

9
Fig.4. Le spectre électromagnétique (Bohn et Rochon)

II. QUELQUES NOTIONS SIMPLIFIEES DE GEODESIE GEOMETRIQUE

II.1. Définition et propriétés de l’ellipsoïde

Soit un repère orthonormé (OXYZ), de dimension 3, et un réel k. On appelle affinité d'axe OZ et de rapport
k la transformation qui, au point m (Xm ,Ym, Zm) , associe le point M (XM YM ZM = KzM) . Si le point m,
appartient à la sphère de centre O, de rayon a, alors le point M appartient à l'ellipsoïde de révolution autour
de OZ, de demi axes a et b = k a (voire figure ci-dessous)

10
Fig.5. Un ellipsoïde de révolution

Le plan OXY est le plan équatorial, le plan OXZ est le plan méridien origine, le plan OMZ est le plan
méridien ellipsoïdal (ou géodésique) du point M. P, intersection de l'axe OZ avec l'ellipsoïde, est le pôle
nord. La courbe OMP, affine du cercle de centre O, de rayon OM = a, est l'ellipse méridienne. L'angle dièdre
λ du plan méridien avec le plan méridien origine, compté dans le sens direct, est la longitude géographique
ellipsoïdale (ou géodésique) du point M. L'angle u entre le plan de l'équateur et le rayon Om est la latitude
sphérique de m, et la latitude paramétrique de M. Il a le même signe que z et Z. Les équations paramétriques
de la sphère sont :

Celles de l’ellipsoïde s’en déduisent par l’affinité :

L'ensemble des points de l'ellipsoïde pour lesquels λ est constant est une ellipse méridienne. Pour u constant,
on obtient un cercle centré sur OZ, situé dans un plan parallèle à l'équateur, de rayon acosu. Ce cercle est
appelé parallèle. On retrouve facilement les équations cartésiennes de l'ellipsoïde en combinant
quadratiquement les équations ( 2). Dans la suite, on omet l'indice M pour désigner les coordonnées de M :

11
On définit les paramètres d’aplatissement : aplatissement :

F = (a – b) / a

Première excentricité :

Seconde excentricité :

Entre ces quantités, on démontre les relations suivantes :

Avec (a) le demi-grand axe ; (b) le demi-petit axe ; f le coefficient d’aplatissement

Un ellipsoïde de révolution est ainsi représenté :

La distance focale est donnée par l’expression : C2 = a2 – b2

12
III. SYSTEMES DE REFERENCE ET DE COORDONNEES

Les conversions permettant de passer des coordonnées géographiques (λ, ϕ, h) aux coordonnées
cartographiques (X, Y, Z) nécessitent la prise en compte de plusieurs paramètres :

λ étant la longitude d’un point quelconque M ; ϕ la latitude paramétrique ; N le rayon de courbure


principale dans la direction du parallèle soit la grande normale à l’ellipsoïde ; ρ le rayon de courbure
principale dans la direction du méridien.

13
CHAPITRE 3. FONCTIONNALITES ET TYPOLOGIE DES DONNEES
DANS UN SIG
I. Télédétection : schéma général de fonctionnement

La télédétection désigne, dans son acception la plus large, la mesure ou l'acquisition d'informations sur un
objet ou un phénomène, par l'intermédiaire d'un instrument de mesure n'ayant pas de contact avec l'objet
étudié. C'est l'utilisation à distance de n'importe quel type d'instrument permettant l'acquisition
d'informations sur l'environnement. On fait souvent appel à des instruments tels que les appareils
photographiques, lasers, radars, sonars, sismographes ou gravimètres pour capter l’information embarqués
à bord d'un avion, d'un engin spatial, d'un satellite ou encore d'un bateau.

Le principe fondamental de la télédétection est similaire à celui de la vision de l’homme. Ainsi, la


télédétection est le fruit de l’interaction entre trois éléments fondamentaux : une source d’énergie, une cible
et un vecteur. En géomatique, la cible est la portion de la surface terrestre observée par le vecteur (l’objectif
photo, le radar). Pour les observations satellites, la surface de la cible peut varier de quelques dizaines à
plusieurs milliers de kilomètres. La source d’énergie est l’élément qui éclaire la cible en émettant une onde
électromagnétique (le soleil émet des flux de photons). Le vecteur récupère les informations (bien souvent
il récupère l’énergie solaire) réfléchies par la cible. Plus précisément, le vecteur peut être décomposé entre
d’une part les capteurs (appareil photo, caméra thermique…) et d’autre part les porteurs (satellite, avion,
drone…).

Fig.6. Principe de base de la télédétection.

A partir de ce principe fondamental, il existe différentes techniques de télédétection qui varient en


fonction des capteurs et des porteurs. De surcroît, il existe aussi, derrière ce principe général, différents
principes de fonctionnement. Ainsi, la source d’énergie peut être produite par une autre source que le
soleil : elle peut être produite par le vecteur (télédétection dite active) ou la cible. Par exemple, en ce qui

14
concerne la technologie radar, le vecteur est lui-même source d’énergie. En plus d’un capteur et d’un
porteur, le vecteur est alors équipé d’un émetteur.

Fig.7. Distinction entre télédétection passive et active

Plus précisément, on peut schématiser la télédétection comme étant composée d’un ensemble de sept étapes
clés. A) Production du rayonnement par une source d’énergie B) Interaction du rayonnement avec
l’atmosphère : durant son parcours « aller » comme « retour », le rayonnement interagit avec l’atmosphère,
la prise en compte de cette phase, qui « perturbe » le rayon peut nécessiter de nombreux traitements. C)
Interaction du rayonnement avec la cible : l’énergie de la source interagit avec la cible, la nature de cette
interaction dépend des caractéristiques du rayonnement et des propriétés de la surface (le comportement
spectral), c’est cette empreinte (cette signature) que capte le porteur permettant ainsi de distinguer les
éléments observés. D) L’enregistrement de l’énergie par le capteur : une fois l’énergie émise par la cible,
elle doit être captée sous un format numérique. E) Transmission et traitement : l’information enregistrée par
le capteur est transmise au sol, où l’information est transformée en images. F) Interprétation et analyse : une
interprétation visuelle et/ou numérique est ensuite nécessaire pour extraire l’information. G) Application :
la dernière étape du processus consiste à utiliser l’information extraite de l’image pour mieux comprendre
la cible.

15
Fig.8. Les étapes clés de la télédétection (http://iarivo.cirad.fr/doc/dr/big_3.pdf )

Dès lors, il convient de décrire succinctement les processus physiques qui interviennent lors des étapes A,
B et C. Ainsi, concernant l’étape A, les capteurs utilisés sont des radiomètres imageurs, ils mesurent donc
des rayonnements et organisent ces mesures sous forme d’images. Ces images sont utilisées pour obtenir
des informations sur les objets qu’elles représentent (c’est-à-dire sur les éléments du paysage). Or, le seul
lien qui relie l’image à l’objet est le rayonnement émis ou réfléchi par cet objet et reçu par le radiomètre.
C’est pourquoi, pour bien comprendre la télédétection, il faut avoir quelques connaissances en
électromagnétisme (quand on parle « vulgairement » de rayonnement, on parle « vulgairement » d’onde
électromagnétique). Ainsi, tout corps émet (produit, réfléchi, diffuse) des ondes électromagnétiques. Nos
yeux, qui sont nos propres capteurs d’ondes électromagnétiques, en captent certaines, le cerveau les
interprète afin pour nous produire une image du monde « visible ». Ces ondes sont notamment caractérisées
par une certaine longueur d’onde.

Concernant l’étape B, il est important de préciser que le rayonnement propre de l'atmosphère se produit dans
l'infrarouge thermique et qu’il se superpose à celui de la Terre. Ce rayonnement propre dépend de la
température et des constituants atmosphériques (gaz, aérosols). Or, les interactions devant être prises en
compte en télédétection sont essentiellement celles qui affectent la propagation de la lumière solaire à travers
l'atmosphère.

De plus, lorsque la lumière solaire traverse l’atmosphère (qu’elle soit incidente ou réfléchie par la Terre),
elle subit un certain nombre de phénomènes, les plus importants étant l’absorption, la dispersion (ou
diffusion), la réfraction et la polarisation. L’effet conjugué de la dispersion et de l’absorption est quelquefois
appelé atténuation. L’atténuation, nulle dans le vide, est le complémentaire de la transmission. La proportion
d’énergie rayonnée transmise à travers l’atmosphère sur une longueur donnée est alors appelée
transmittance. Son comportement spectral est décrit par la courbe ci-dessous.

16
Fig.9. Comportement spectral de l’atmosphère

De manière plus générale, on obtient la courbe d’atténuation suivante :

Fig.10. Courbe d’atténuation de l’atmosphère

De même que les particules de l’atmosphère, les objets situés à la surface terrestre émettent, diffusent,
absorbent et réfléchissent les ondes électromagnétiques : c’est l’étape C. Chaque type d’objets possède alors
une signature spectrale plus ou moins caractéristique : cette signature est représentée par une courbe
d’intensité du rayonnement réfléchi en fonction de la longueur d’onde. On utilise alors les différences de
signatures spectrales pour différencier les objets situés au sol. Cette signature est une grandeur qui dépend
d’une part des caractéristiques de l’onde incidente et d’autre part des caractéristiques de l’objet observé, car
la réflectance dépend de la nature du matériau, mais aussi de la longueur d’onde. Les propriétés optiques

17
des paysages sont assez bien caractérisées par la signature spectrale, dont on donne quelques exemples ci-
après.

Fig.11. La signature spectrale de quelques éléments caractéristiques

Plus précisément, pour un même objet, en fonction de sa composition chimique, celui-ci pourra avoir des
signatures spectrales assez différentes.

Fig.12. Réflectance de l’eau de mer en fonction de sa teneur en chlorophylle.

Les images produites après la phase de traitement (E) auront différentes caractéristiques qui peuvent se
résumer à l’aide de trois résolutions. La résolution spatiale est définie comme le pouvoir de séparation

18
spatiale. C'est le produit de la résolution angulaire par la distance. La résolution spectrale est définie comme
le pouvoir de séparation spectrale, elle dépend de la réponse spectrale du capteur. La résolution
radiométrique est définie comme le pouvoir de séparation entre différentes luminances reçues.

Plus précisément, la résolution spatiale est une mesure de la finesse des détails d'une image, pour une
dimension donnée. Une image matricielle est composée de pixels et on peut également lui définir une taille,
la conjonction de ces deux données s'exprime alors en nombre de pixels par unité de longueur, cette
résolution spatiale, ou « densité » de pixels, est couramment nommée résolution. Il ne faut pas confondre
échelle et résolution spatiale. L'échelle d'une photographie ou d'une carte aérienne est le rapport de la
distance entre deux points, mesurée sur la photographie, et la distance réelle entre les deux points
correspondants au sol. Comme il est difficile de mesurer avec précision les distances sur une photographie,
l'échelle se calcule à l’aide du rapport entre la distance focale et l'altitude à laquelle le cliché a été pris.
L'échelle (s) est égale à la distance focale (f) divisée par la hauteur de l'appareil photographique au-dessus
du sol. Pour calculer celle-ci, on soustrait la hauteur du terrain au-dessus du niveau de la mer (h) de l'altitude
de l'avion (caméra) au-dessus du niveau de la mer (H).

S=f/H–h

Par exemple, si d’une part la distance focale (f) d’un capteur est de 15cm et si d’autre part la hauteur du
capteur au-dessus du sol est de 1 500 m, on obtient :

S = 15 / 1500 x 100 = 1 / 10. 000

Dans la pratique, comme l’échelle dépend de la hauteur du terrain, celui-ci n’étant jamais parfaitement plat
sur une image brute, l’échelle n’est pas la même en tous les points (ce n’est pas le cas sur une ortho-photo).
Dans un capteur imageur optique, la distance focale est la distance entre le centre de l'objectif et le foyer,
elle détermine la taille de la caméra et l'échelle de la photographie. Le foyer d'une lentille convexe est le
point par lequel passent tous les rayons réfractés. Ainsi, l'image d'un objet lointain est formée au foyer, le
film doit donc être placé à cet endroit. En télédétection, le foyer est aussi appelé « plan focal ».

De surcroit, la résolution spatiale d'un capteur passif dépend principalement de son champ de vision
instantanée (CVI). Le CVI est défini comme étant le cône visible du capteur (A) et détermine l'aire de la
surface « visible » à une altitude donnée et à un moment précis (B). La grandeur de cette aire est obtenue en
multipliant le CVI par la distance de la surface au capteur (C). Cette aire est appelée la « superficie de
résolution » ou « cellule de résolution » et constitue une étape critique pour la détermination de la résolution
spatiale maximale du capteur. Afin de différencier un élément de la surface observée, l'élément en question
doit être de dimension égale ou supérieure à la cellule de résolution. Si l'élément est plus petit, il ne sera
généralement pas différencié, puisque c'est l'énergie moyenne des éléments de la cellule de résolution qui

19
sera captée. Cependant, dans certaines conditions, un élément plus petit peut être détecté si sa réflexivité
domine celle des autres éléments présents dans la cellule de résolution. On parle alors de détection plus fine
que la résolution.

Fig.13. Le champ de vision instantané (CVI) et la résolution spatiale.

II. LES 5A D’UN SIG

Un SIG doit répondre à 5 fonctionnalités (les 5A) :

• Abstraction : revient à concevoir un modèle qui organise les données par composants
géométriques et par attributs descriptifs ainsi qu’à établir des relations entre objets.
• Acquisition : saisie de l’information géographique sous forme numérique. Revient à alimenter la
base de données. Les fonctions d’acquisition consistent à entrer d’une part la forme des objets
géographiques et d’autre part leurs attributs et relations. Les principales sources d’information
sont : les images satellites, DEM, scannage, digitalisation, saisie eu clavier et importation…
• Archivage : stocker les données de façon à les retrouver et les interroger facilement,
• Analyse : réponses aux requêtes, cœur même du SIG,
• Affichage : restitution graphique.
- En d’autres termes, un SIG est un environnement informatisé d’analyse d’une informationspatiale
numérisée.

20
I.1 STRUCTURE D’UN SIG
La figure 14 met en évidence quatre groupes de fonctionnalités au-dessous d’une couche d’application :
l’acquisition des données géographiques d’origines diverses, lagestion pour le stockage et la recherche des
données, l’analyse spatiale pour le traitement etl’exploitation et enfin la présentation des résultats sous forme
cartographique.

Figure 14 : Structure d’un SIG (Abdelbaki C., 2012)

I.2 FONCTIONNALITES D’UN SIG


Un SIG complet, permettra non seulement de dessiner puis tracer automatiquement le
plan, mais en outre :
- De disposer les objets dans un système de référence géographique, de les convertir d’un
système à un autre.
- De rapprocher entre elles deux cartes (deux plans) de sources différentes, de faciliter leur
superposition comme c’est illustré dans la figure 15.

21
Figure 15. Superposition sous un SIG

- De corriger certains contours de la moins fiable en reprenant les coordonnées


correspondantes de la plus fiable.
- D’extraire tous les objets géographiques situés à une distance donnée, d’un carrefour,
d’une route ou des rives d’un lac.
- D’extraire tous les objets situés dans un périmètre donné comme c’est présenté dans la
figure 15.
- De fusionner tous les objets ayant une caractéristique commune, par exemple lesparcelles
adjacentes ayant la même densité de surface bâtie.
- De déterminer, sur un réseau, l’itinéraire le plus court pour aller d’un point à un autre.

I.3. LES DONNEES DANS LES SIG


Le premier aspect auquel on pense quand on évoque la notion de logiciel de
cartographie informatique ou de système d’information géographique est celui de manipulerles
données. Dès lors, un certain nombre de questions se posent : Comment l’information contenue
dans une carte peut-elle être stockée dans un ordinateur ? Quelles sont les données traitées par
les SIG ? La section suivante apporte les réponses aux différentes questions posées et met le
point sur les modes d’acquisition de données dans un SIG.
I.2.1 Modes d’acquisition de données
Dans la pratique, les données géographiques proviennent de sources différentes, ont des
modes d’acquisition différents, sont sus des médias différents, on dit qu’elles sont multi-
sources. Certaines données sont directement mesurées sur le terrain (levés topographiques) ou

22
captées à distance (système de positionnement Global GPS, photos aériennes, images
satellitaires), ou saisies à partir de cartes ou de plans existants, ou récoltéespar des organismes de
production de données et ensuite importées. Il s’agira d’intégrer ces données hétérogènes, car
de qualité, de fiabilité, de précision et d’extensions spatiales bien différentes. Nous présentons
dans ce qui suit les principales méthodes d’acquisition de données.

a. Numérisation
La numérisation (digitalisation ou vectorisation) permet de récupérer la géométrie des
objets disposés sur un plan ou une carte préexistante comme illustré dans la figure 16.

Figure 16. Opération de digitalisation

Elle consiste à faire évoluer un curseur sur un plan posé sur une table à digitaliser et préalablement calé en
coordonnées. La table est réceptive aux signaux électriques émis par le curseur. Elle peut localiser ces
signaux sur le plan de la table avec une précision de l’ordredu dixième de millimètre. La figure 1.6 présente
un exemple d’extraction des couches et la figure 17 présente le résultat de la digitalisation.

23
Figure 17. Exemple d’un résultat de digitalisation

24
b. Balayage électronique ou scannérisation

Le balayage électronique (réalisé avec un scanner) est un autre moyen de saisir un plan existant. Il est plus
rapide que la digitalisation manuelle

c. Photogrammétrie

La photogrammétrie aérienne est utilisée de façon systématique pour constituer les cartes à moyenne échelle.
Elle est retenue également dans les pays dont la couverture cartographique et géodésique est déficiente et
utilisée pour la constitution de plans à grande échelle pour un coût qui peut être très avantageux. La figure
19 présente un exemple de photos aériennes.

25
Fig.19. Exemple de photo aérienne

d. Images satellitaires (télédétection)

La télédétection est un moyen très commode de créer les données à introduire dans les SIG. Il s’agit en effet
d’utiliser, dans des conditions particulières et rigoureuses, soit les photographies aériennes, soit les images
enregistrées et transmises par satellite comme c’est illustré dans la figure 20.

Fig.20. Exemple d’image satellite

e. Import de fichiers

C’est une façon de réduire les coûts de saisie et de récupérer des données existantes et de les convertir au
format, au système d’unités et au système de projection souhaités comme c’est illustré dans la figure 21.
Pour cela, on utilise des interfaces qui permettent : - soit de transformer directement les données dans le
format interne du SIG récepteur grâce à des bibliothèques de conversions à ce format interne. - soit de

26
passer par l’intermédiaire d’un format d’échange reconnu, par une fonction d’importation de données du
SIG récepteur.

Fig.21. Exemple d’importation de fichiers vers le SIG

https://www.arcorama.fr/2015/01/sig-3d-35-conception-de-donnees-3d.html

f. Acquisition GPS
- Qu’est-ce que le GPS ? Le GPS est un système de positionnement et de radionavigation globale,
capable de localiser en permanence (24h/24) n’importe quel point à la surface du globe terrestre (mer,
terre et air).

Fig.22. Une constellation de satellite lors du positionnement GPS

27
- Composition du système GPS
Le système GPS se compose :
✓ D’un secteur spatial – constellation de 31 satellites (24 satellites opérationnels et 7 satellites de
reserve en cas de disfonctionnement). Chaque satellite est équipé d’une horloge atomique et tous les
satellites sont synchronisés.
✓ D’un secteur Utilisateur – les récepteurs des usagers utilisent les signaux des satellites pour calculer
leur propre position, leur vitesse et pour se synchroniser sur l’horloge des satellites. Ces récepteurs
se composent donc d’une antenne couplée à un calculateur, une horloge de précision et un décodeur
de messages. Les récepteurs de navigation fonctionnent seuls. Ils se présentent sous la forme de
petits appareils portables et autonomes (fig.23) avec une précision à 100 m près.

Fig.23. Les composantes du système GPS


✓ D’un secteur de contrôle : le but est le positionnement (rectification des orbites) et
synchronisation des satellites.

- Principe de fonctionnement

28
La trilatération permet grâce à trois satellites fixes qui connaissent leur position exacte de déterminer la
position d’un point sur Terre.

A un instant T0 un satellite émet son signal vers le récepteur GPS qui le reçoit à un instant T1, et peut donc
en déduire le temps (T1 – T0) mis par l’onde pour arriver, et la distance parcourue par la relation D = c (T1
– T0). Avec c = célérité de la lumière dans le vide soit 3.108m/s.

Connaissant la distance Di et la position Si de 04 satellites au moins on obtient la position du récepteur dans


l’espace (x, y, z) ; dans le temps (t) (voir fig. ci-dessous).

g. Typologie des données dans un SIG

Généralement pour qu’un objet spatial soit bien décrit et prêt à être utilisé par un SIG, trois informations
doivent être fournies : - sa position géographique dans l’espace - sa relation spatiale avec les autres objets
spatiaux : topologie - son attribut, c’est à dire ce qu’est l’objet avec un caractère d’identification (code) Les
systèmes d’information géographique permettent de traiter les données spatiales et associées (figure 1.12).

29
Fig.24. Types de données dans un SIG https://resources.arcgis.com

- Les données spatiales

Elles déterminent les caractéristiques spatiales d’une entité géographique où sont représentés et identifiés
tous les éléments graphiques : - La localisation : coordonnées par rapport à une échelle graphique de
référence. - La forme : point, ligne, surface. - La taille : longueur, périmètre, surface. Les informations font
référence à des objets de trois types (figure 1.13) : - Point : est désigné par ses coordonnées et à la
dimension spatiale la plus petite. – Ligne : a une dimension spatiale constituée d’une succession de points
proches les uns des autres. - Polygone (zone ou surface) : est un élément de surface défini par une ligne
fermée ou la ligne qui le délimite.

Fig.25. Données spatiales https://www.axesig.fr/produits/sig.html

- Données associées

Les données associées des entités géographiques permettent de compléter la représentation géométrique de
l’entité spatiale. Chaque élément de l’espace reçoit un code d’identification qui peut être numérique ou
littéral. Ce code constitue en quelque sorte une étiquette caractérisant le point, la ligne ou le polygone. Parmi
ces données il faut distinguer :

✓ Données de classification : Ces données permettent de ranger le point isolé, la ligne ouverte ou la
ligne fermée, dans une catégorie : limite administrative, contour de parcelle, bordure de trottoir,
arbre d’alignement, conduite de réseau d’eau ... Souvent ces distinctions seront prises en compte par
l’organisation même du travail de saisie. Tout se passe, comme si l’on distinguait plusieurs couches
d’informations, que l’on saisit successivement.
✓ Données d’identification : Ces données permettent d’individualiser chaque objet figurant sur le plan:
nom propre de l’objet, par exemple nom de la commune ou numéro permettant de l’identifier :
numéro de parcelle, numéro de vanne...

30
Fig.26. Notion de couches de données https://www.seos-project.eu/modules/agriculture/agriculture-c03-
s01.fr.html

✓ Données attributaires : Ces données viennent apporter une information supplémentaire, propre à
chaque objet identifié : le propriétaire de la parcelle, le diamètre de la conduite d’eau...

Fig.27. Données associées https://www.corse.fr/infogeo/Qu-est-ce-que-le-SIG_a24.html

Souvent ces informations sont déjà disponibles sur des fichiers informatiques, où elles sont liées à
l’identifiant de chaque objet. En général, la classe d’objet est déterminée, au moins en partie, par le processus
de digitalisation, les identifiants étant introduits souvent en bloc à la fin.

h. Modes de données dans un SIG

31
La reprise de documents cartographiques existants sur support papier en vue de les introduire dans un SIG,
pouvait recourir à des techniques différentes : la digitalisation et le balayage électronique par exemple. La
première conduit directement, comme c’est illustré à la, à des données cartographiques numériques de type
vecteurs, la seconde à des données tramées.

Fig.28. Modes de données dans un SIG http://air.mag.fr/mediawiki/index.php/EA2012-SIG

➢ Mode vecteur

Ce mode répond au souci de représenter un objet de manière aussi exacte que possible. Pour transformer un
objet réel en une donnée à référence spatiale, on décompose le territoire en couches thématiques (relief,
routes, bâtiments…) structurées dans des bases de données numériques.

32
Fig.29. Décomposition du monde réel en couche d’information

http://seig.ensg.ign.fr/ http://www.sigma972.org/def_1.html

Une couche réunit généralement des éléments géographiques de même type. Les éléments géographiques
(objets spatiaux) peuvent être représentés sur une carte par des points, des lignes ou des polygones.

Fig.30. Mode vecteur http://www.notre-planete.info/terre/outils/sig.php

Les avantages du mode vecteur sont : - Une meilleure adaptation à la description des entités ponctuelles et
linéaires. - Une facilité d’extraction de détails. - Une simplicité dans la transformation de coordonnées. -
Les inconvénients du mode vecteur sont : - Les croisements de couches d’information sont délicats et
nécessitent une topologie parfaite.

➢ Mode raster

Le mode trame ou raster est également appelé modèle matriciel. Contrairement au mode vecteur qui ne
décrit que les contours, le mode raster décrit la totalité de la surface cartographique point par point. Il est
utilisé principalement dans les systèmes à balayage (scanners, capteurs en télédétection ...)

33
Fig.31. Mode raster http://www.notre-planete.info/terre/outils/sig.php

Les avantages du mode raster sont : - Meilleure adaptation à la représentation des détails surfaciques. -
Acquisition des données à partir d’un scanner à balayage. - Meilleure adaptation à certains types de
traitements numériques : filtres, classifications Les inconvénients du mode raster sont : - Mauvaise
adaptation à la représentation des détails linéaires. - Obligation de parcourir toute la surface pour extraire
un détail - Impossibilité de réaliser certaines opérations topologiques, la recherche du plus court chemin
dans un réseau par exemple.

Ces deux modes sont complémentaires. Le raster est mieux adapté à certains types d’applications
(télédétection) et apporte une réponse économique à certains besoins. L’exploitant d’un réseau pourrait par
exemple se contenter de scanner des fonds de plans en les conservant au format raster et en numérisant par-
dessus son réseau en mode vecteur (qui nécessite une définition par formes géométriques). Le vecteur
correspond à l’ensemble des besoins courants en gestion de données localisées.

34
CHAPITRE 4. SATELLITES, CAPTEURS ET TRAITEMENT
D’IMAGES
I. SATELLITES ET CAPTEURS

Les différentes composantes d’un système de télécommunication par satellite sont : un secteur spatial e un
secteur terrien.

TT&C = équipements de poursuite, de télémesure et de télécommande.

Le secteur spatial comporte : le satellite et l’ensemble des moyens de contrôle situés au sol (ensemble des
stations de poursuite, télémesure et de télécommande) ; ainsi que le centre de contrôle du satellite, où sont
décidées toutes les opérations liées au maintien à poste et vérifiées les fonctions vitales du satellite. Un
aperçu de TT&C est donné ci-dessous.

35
Les satellites sont constitués d’une charge utile et d’une plate-forme. La charge utile comporte les antennes
de réception et d’émission, et l’ensemble des équipements électroniques assurant la transmission des
signaux. La plate-forme comporte l’ensemble des sous-systèmes permettant à la charge utile de fonctionner.
On y trouve la structure, l’alimentation électrique, le contrôle thermique, le contrôle d’altitude et d’orbite ;
les équipements de propulsion, les équipements de poursuite, de télémesure et de télécommande (TT&C).

Fig.32.Vue d’ensemble d’un satellite.

36
Il existe plusieurs types de liaisons avec le satellite – les ondes radiométriques porteuses émises par les
stations terriennes sont reçues par le satellite. Ces liaisons s’appellent liaisons montantes. Après
amplification dans chaque canal, ces porteuses sont regroupées sur l’antenne d’émission. Le satellite émet
à son tour vers les stations terriennes réceptrices : ce sont les liaisons descendantes. Le satellite peut
acheminer les porteuses reçues vers un autre satellite avant que celles-ci ne soient retournées vers le sol. De
telles liaisons sont dites inter-satellitaires (figure ci-dessous).

Le secteur terrien est constitué par l’ensemble des stations terriennes, le plus souvent raccordées aux
terminaux des usagers par un réseau terrestre ou directement dans le cas de petites stations (VSAT : Very
Small Aperture Terminal) et de stations mobiles. Les stations se distinguent par leur (1) taille, qui varie
selon le volume de trafic à cheminer sur la liaison spatiale, les plus grandes sont équipées d’antennes de 30
m de diamètre (standard A du réseau Intelsat) et les plus petites, d’antennes de 0.6 m (stations de réception
de la télévision directe) ; (2) selon le type de trafic (téléphone, télévision, données).

Fig.33. Système de réception – émission VSAT

37
On distingue plusieurs types de stations satellite : les stations fixes, les stations transportables, les stations
mobiles. Certaines sont à la fois émettrices et réceptrices ; d’autres sont réceptrices uniquement.

II. ORBITES DES SATELLITES

Plusieurs orbites sont envisageables pour des missions de communication ou de surveillance. Avant de les
présenter il est important d’établir les paramètres qui caractérisent une orbite.

L’orbite d’un satellite répond à la loi de gravitation de Newton : 02 corps de masses respectives m et M
s’attirent avec une force F (N) données par la relation F = GMm / r2 avec r la distance séparant les deux
corps et G la constante de gravitation G = 6.672. 10-11 m3.kg-1.s-2.

De la loi de Newton se déduisent les propriétés suivantes (lois de Képler) : - l’orbite est une conique dont le
plan contient le centre de la Terre. Dans le cas particulier où l’orbite est circulaire, le centre de l’orbite
coïncide avec le centre de la Terre. Le rayon du vecteur du centre de la Terre au satellite balaye des aires
égales pendant des intervalles de temps égaux.

06 paramètres permettent de positionner le satellite dans l’espace : - 02 paramètres pour la détermination u


plan de l’orbite (l’inclinaison du plan orbital (i) et l’ascension droite du nœud ascendant (Ω) ; - 01 paramètre
pour le positionnement de l’orbite dans son plan (l’argument du périgée (ω) ; - 02 paramètres pour la forme
de l’orbite (le demi-grand-axe de l’ellipse (a) et son excentricité (e)) ; - 01 paramètre pour la position du
satellite sur l’ellipse (l’anomalie vraie (v)).

38
Les nœuds sont les intersections de l’orbite avec le plan équatorial de la Terre. Le nœud ascendant
correspond au passage du satellite dans le plan équatorial de la Terre de l’hémisphère Sud vers l’hémisphère
Nord ; le nœud descendant correspond au passage de l’hémisphère Nord vers l’hémisphère Sud. L’angle de
rotation autour de la ligne des nœuds est l’inclinaison du plan orbital, i ; cet angle mesuré au nœud ascendant
est compris entre 0° et 180° et compté positivement.

Le périgée est le point de l’orbite le plus proche du centre de la Terre ; l’apogée est le point de l’orbite le
plus éloigné du centre de la Terre.

II.1. Classification des orbites

On distingue plusieurs types d’orbites en fonction des objectifs de la mission : les orbites circulaires – c’est
la plus répandue et correspond à celle d’un satellite géostationnaire. Le satellite géostationnaire offre avec
un seul satellite une couverture importante de la Terre (42% de la surface de la Terre est en visibilité du
satellite) ; le satellite géostationnaire a une position fixe dans le ciel. Les orbites circulaires polaires ou
inclinées ne sont considérées qu’à des altitudes basses (LEO : Low Earth Orbit entre 500 et 2000 km) ; ou
intermédiaires (ICO : Intermediate Circular Orbit vers 10 000 km). Le choix de ces altitudes est déterminé
par l’atmosphère terrestre.

39
Les orbites elliptiques sont utilisées pour réaliser une couverture régionale.

40
CHAPITRE 5. LES SYSTEMES DE REFERENCE GEODESIQUES ET
COORDONNEES
Un système de référence géodésique est un espace tridimensionnel permettant à attribuer à tout objet de
l’espace un système de coordonnées. Le système de référence dans lequel on obtient les coordonnées finales
des points d’un réseau ou d’un chantier dépend : - du type de positionnement ; - du type d’orbite utilisée ; -
du rattachement éventuel à une référence géodésique existante, mondiale ou nationale.

1. Définition des systèmes de références et de coordonnées


1.1. Le système de référence géodésique

Fig.34 Système de référence géodésique

⃗⃗ ) tel que :
Un système de référence géodésique est un repère orthogonal affine (O, 𝑖⃗, 𝑗⃗, 𝑘

- O est proche du centre des masses de la Terre (à quelques centaines de mètres pour les systèmes
réalisés par géodésie terrestre, à moins de 10 m pour ceux réalisés par géodésie spatiale)
- OZ est proche de l’axe de rotation terrestre
- OXZ est proche du plan méridien origine
- ⃗⃗ ‖ ≅ 1
‖𝑖⃗‖ = ‖𝑗⃗‖ = ‖𝑘

Dans un système de référence géodésique un point de la croûte terrestre est quasiment fixe bien qu’il soit
soumis à de faibles mouvements dus aux marrées terrestres (amplitude inférieure à 30 cm), à la surcharge
océanique et aux mouvements tectoniques globaux ou locaux (vitesse inférieure à 10 cm/an).

1.2. Coordonnées associées aux systèmes de référence géodésiques


1.2.1. Coordonnées tridimensionnelles cartésiennes géocentriques

41
Ces coordonnées sont les coordonnées orthonormées traditionnelles. On les appelle souvent
‘géocentriques’, puisque le point O est voisin du centre des masses de la Terre. Pour tenir compte des
mouvements des points de la croûte terrestre on complète les coordonnées (X,Y,Z) par leurs variations
temporelles (composantes de la vitesse) X,Y,Z.

1.2.2. Coordonnées tridimensionnelles géographiques

On associe au repère un ellipsoïde, centré en O, et dont deux constantes (a, e ou a, b ou a, f ou a, J 2) sont


fixées conventionnellement. Le plan méridien de M contient l’axe OZ et la normale à l’ellipsoïde passant
par M. La longitude λ est l’angle entre la normale à l’ellipsoïde passant par M et le plan équatorial. La
hauteur h au-dessus de l’ellipsoïde est la distance comptée le long de la normale entre l’ellipsoïde et M,
positivement vers l’extérieur de l’ellipsoïde.

1.2.3. Coordonnées planes

Une représentation plane (ou projection plane) transforme l’ellipsoïde en un plan. A tout point e l’ellipsoïde
de coordonnées (λ, φ) correspond un point sur le plan de coordonnées cartésienne (E, N ou x, y). On
remarque que dans cette transformation la connaissance de h n’est pas nécessaire. Une représentation plane
est définie par des fonctions, des paramètres de définition (méridien ou parallèle central, échelle sur
l’isomètre central …).

E = E (λ, φ) N = N (λ, φ)

42
1.2.4. Eléments de définition de chaque type de coordonnés

Tableau. Eléments de définition des types de coordonnées

Chaque type de coordonnées est défini à partir d’éléments nécessaires et suffisants qui figurent dans le
tableau ci-dessus. Par exemple pour définir des coordonnées planes, il faut préciser la projection,
l’ellipsoïde, le méridien origine, le système géodésique ainsi que l’unité linéaire utilisée.

III. LA REALISATION D’UN SYSTEME DE REFERENCE

Un système dépend de la technique d’observation utilisée pour le réaliser et l’exploiter : géodésie terrestre,
géodésie spatiale. L’étendue des systèmes géodésiques s’est élargie progressivement : limitée à un pays ou

43
à un continent en géodésie terrestre (à cause des océans), elle est devenue mondiale avec la géodésie spatiale.
Dans un pays plusieurs systèmes coexistent pour des raisons pratiques et historiques (on ne peut pas refaire
instantanément toute une cartographie) mais aussi pour des raisons légales ou réglementaires.

En géodésie terrestre on réalise 02 réseaux distincts :

- 01 réseau planimétrique qui est définit par : - un point fondamental (point pour lequel on prend comme
coordonnées géographiques des coordonnées issues d’observations astronomiques, en ce point la
normale à l’ellipsoïde et la normale au géoïde (verticale) sont confondue (fig. ci-dessous) ; - les
observations sont des mesures d’angles et de distances entre points proches de la surface terrestre.
- 01 réseau altimétrique qui est définit par un point fondamental proche d’un marégraphe ; les
observations qui sont des mesures de nivellement géométrique et de gravimétrie.

Les systèmes géodésiques issus de la géodésie terrestre sont donc locaux.

IV. Exemples de systèmes de références géodésiques (TPE en groupe de 03).

Par coordonnées géographiques, on entend un système de trois coordonnées qui sont le plus souvent : la
latitude, la longitude et l'altitude. Néanmoins, la représentation d’un territoire sur un plan s’avère être la
seule solution pour le voir d’un seul tenant. Pour cela, il faut transformer des éléments définis dans un monde
« courbe », pour les définir dans un monde « plan », ce qui ne va pas sans poser quelques problèmes. On
appelle cette transformation une projection. En effet, chaque projection fait l’objet de certaines restrictions
(elles ne conservent plus les distances ou les formes des objets terrestres). Ainsi, il existe différents types de
projection qui ne conservent que certaines propriétés de l’espace courbe de départ :  la projection
équivalente qui conserve localement les surfaces ;  la projection conforme qui conserve localement les
angles, donc les formes ;  La projection aphylactique qui ne conserve ni les surfaces, ni les angles, mais
elle peut être équidistante, c'est-à-dire conserver les distances sur les méridiens.

Une projection ne peut pas être à la fois conforme et équivalente. Une carte ne pouvant pas être obtenue
simplement en écrasant une sphère, la projection passe généralement par la représentation de la totalité ou

44
une partie de l'ellipsoïde sur une surface développable, c'est à-dire une surface qui peut être étalée sans
déformation sur un plan. Les trois formes mathématiques courantes qui répondent à ce critère (à savoir le
plan, le cylindre et le cône) donnent lieu aux trois types principaux de projection :  la projection cylindrique
;  la projection conique ;  la projection azimutale.

Une projection qui ne peut pas être classée dans un de ces types est appelée individuelle ou unique. La
projection réglementaire en France est une projection conique conforme (c’est la projection « Lambert »).
Dans le but de minimiser les déformations, la France a été découpée en 4 zones. Une projection appelée
Lambert II « étendu » couvre la France entière pour des besoins d'amplitude nationale. Désormais, de
nouvelles projections issues du système de coordonnées RGF93 divise la France en 9 zones afin d’être
toujours plus précis.

Fig.35. Les différents types de projection (à gauche une projection cylindrique, au centre une projection
conique et à droite une projection azimutale)

Le monde vu sous différents types de projections (source : ESRI)

45
IV.1. Transformations de coordonnées

Les opérations de transformation de coordonnées comprennent : les changements de systèmes de


coordonnées (comme par exemple passer d’un système de coordonnées cartésiennes à un système de
coordonnées géographiques) ; les changements de systèmes géodésiques (comme par exemple passer du
système français RGF93 au système international WGS84). Ces changements peuvent être détaillés selon
le modèle suivant :

Pour les changements de systèmes de coordonnées, nous avons déjà présenté le passage des coordonnées
géographiques aux coordonnées planes à l’aide des projections (cette opération peut bien sûr être effectuée
dans les deux sens). Pour passer des coordonnées cartésiennes aux coordonnées géographiques, l’opération
est assez simple :

46
Inversement, pour passer des coordonnées cartésiennes aux coordonnées géographiques, il convient
d’utiliser les formules ci-dessous :

47
48

Vous aimerez peut-être aussi