Académique Documents
Professionnel Documents
Culture Documents
Un progrès décisif surviendra à la fin du XX siècle avec, d’une part, le positionnement par GPS qui permet de
localiser un point indépendamment de ses voisins, et d’autre part, les distancemètres électroniques, qui envoient un rayon
laser vers un prisme et déterminent une distance à partir du temps de propagation aller-retour et des caractéristiques
de l’atmosphère traversée. On verra finalement les mesures d’angle et de distance cohabiter au sein d’un même instrument
qu’on appelle la station totale, et qui est un peu le standard actuel pour la topographie. Parallèlement, le développement
de chambres photographiques dont on maîtrise la géométrie, va permettre la mise en œuvre de la photogrammétrie.
Dans la seconde moitié du XX siècle, on a vu se développer aux côtés de la photographie traditionnelle, une
multitude de capteurs de télédétection, embarqués sur montgolfière, avion ou satellite, qui permettent de déduire les
propriétés d’un objet éloigné à partir de l’énergie électromagnétique qu’il émet ou qu’il réfléchit.
Une autre branche importante de la géomatique est la géostatistique. Développée au départ pour les besoins de
la prospection minière, c’est un peu l’art de décrire des phénomènes spatialement continus à partir de mesures
ponctuelles. Elle permet de caractériser la variabilité de phénomènes géographiques au moyen d’indicateurs, qui
distinguent un phénomène très régulier donc prévisible, d’un phénomène irrégulier donc imprévisible. Enfin, parmi les
branches de la géomatique, celle qui va le plus loin vers l’utilisateur, qui est un peu la partie émergée de l’iceberg, c’est le
système d’information géographique. Toutes ces avancées de la géométrie ont donc alimenté les unes après les autres
la boîte à outils disponible aujourd’hui en géomatique.
A l’époque où chacun a accès à des outils de communication, les technologies de la géomatique sont particulièrement
importantes afin de mieux cerner l’environnement qui nous entoure. La disponibilité grandissante d’Internet, l’augmentation
du nombre de satellites dédiés au positionnement ainsi que l’apparition de ressources logicielles toujours plus innovantes
ont changé notre perception de l’espace. Nous n’observons plus la Terre ou notre territoire de la même manière qu’à
l’époque où seuls des cartes ou des plans papiers étaient disponibles. Cela se traduit le plus souvent par une consultation
de données numériques géo référencées contenant les différents éléments (couverture du sol, relief, construction,
hydrographie,…) de notre environnement en les représentants de manière intelligente. Pour le grand public, c’est un accès
aisé à des cartes en ligne qui est proposé par des outils modernes de visualisation 2D comme Google Maps, OviMap ou
La Géomatique désigne l’ensemble des techniques de traitement informatique qui permettent l’acquisition, le
stockage, l’analyse et le traitement et la diffusion des données à référence spatiale. Le mot « géomatique » est un
néologisme issu de la contraction des termes « géographie » et « informatique ». Ce néologisme a été proposé, dans les
années 1960 par Bernard Dubuisson. En effet, Bernard Dubuisson, géomètre et photogrammètre de métier, considérait
que sa profession se renouvelait grâce à l'informatique. Il eut alors l’idée de mettre en avant le rôle croissant de
l’informatique en géographie par la création de ce néologisme. C’est tout d’abord au Québec que le terme de « géomatique
» va se développer. Désormais, ce néologisme est utilisé dans le monde entier. D’une part, la géographie s’efforce
notamment de déchiffrer les écritures que la nature et la société ont tracées à la surface de la Terre (comme la frontière
entre le Cameroun et le Nigéria ou encore le Tchad), mais avant de pouvoir lire et comprendre ces écritures il a fallu doter
la surface de la Terre d’une géométrie (branche des mathématiques qui s’intéresse à l’étude des propriétés et des
mesures des figures dans l’espace ou sur un plan) et même d’une topologie (qui permet de définir entre les objets
géographiques des relations comme l’inclusion ou l’adjacence). Le socle sur lequel la géomatique est construite, c’est donc
la géométrie, et l’histoire de la géométrie permet de mieux comprendre ce qu’est la géomatique aujourd’hui. D’autre part,
le développement de l’informatique va donner naissance à une géométrie numérique, avec des possibilités de
programmation et de calcul formel, notamment pour résoudre des problèmes qui n’ont pas de solutions exactes mais des
solutions itératives ; avec bien sûr de nouvelles possibilités graphiques ; et l’on a vu apparaître une géométrie discrète,
dans laquelle les points sont remplacés par des pixels et qui sert de base à la réalité virtuelle ou pour employer notre
jargon, à la photogrammétrie numérique. C’est cette géométrie numérique qui a permis le développement des logiciels de
dessin technique et de système d’information géographique.
Ainsi, ce chapitre introductif vise à initier l’apprenant aux notions fondamentales de la géomatique. Spécifiquement, il
s’agira de :
a) La Terre Plate
La terre considérée comme plate est l’hypothèse la plus intuitive, et donc la plus ancienne. Vu le très grand rayon
de la terre, celle-ci est toujours considérée comme plate pour les levers topographiques couvrant une aire peu étendue.
b) La Terre Sphérique
Dès le IIIème siècle, des savants grecs constatèrent que certains phénomènes physiques ne pouvaient s’expliquer
si la terre était plate. Leurs observations leur firent déduire que la terre avait la forme d’une sphère, qu’ils supposèrent
parfaite. En 205 av.JC, Erathostène effectua la première mesure de la circonférence terrestre à Alexandrie, en comparant
la différence de hauteur du Soleil à Alexandrie et à Syène. Ce modèle de terre sphérique s’est imposé jusqu’à la fin du XVIIIe
siècle et a permis de définir un premier système de repérage : les méridiens et les parallèles. Les parallèles, comme
c) Le Géoïde
Suite aux travaux des géographes anglais et français du XVIIIème siècle, le niveau moyen des mers fut assimilé
à un ellipsoïde, et les grands travaux cartographiques furent calculés sur cette base. Mais les cartographes constatèrent
à certains endroits des anomalies. Près des grandes chaînes de montagnes, les triangulations fermaient mal, comme si le
fil à plomb présentait des déviations anormales. En effet, les masses montagneuses, par simple gravité, font dévier le fil à
plomb ou la nivelle, créant ainsi le phénomène de «déviation de la verticale ». On découvrit ensuite que le manque
d’homogénéité du manteau terrestre, créant des concentrations localisées de masse, provoque un phénomène similaire.
C’est ainsi que les géomètres et les cartographes découvrirent avec horreur que la terre n’affectait pas les contours
élégants d’une sphère, mais avait une forme irrégulière, chaotique, et surtout non modélisable mathématiquement. Cette
forme fut appelée le Géoïde.
d) L’Ellipsoïde
Des mathématiciens ont travaillés sur la modélisation du globe et l’ont rapproché à un ellipsoïde, c'est-à-dire au
volume qu’aurait créé une ellipse tournant sur elle-même. L'ellipsoïde est la figure géométrique qui se rapproche le plus
du géoïde. C’est pourquoi c’est ce modèle qui est utilisé pour les travaux cartographiques. l'ellipsoïde modélise la forme
de notre globe. Elle ne modélise pas notre relief. Le géoïde lui modélise une surface où tous les points subissent le même
effet de la gravitation. C'est une surface équipotentielle.
Par ailleurs, chaque pays effectua ses calculs indépendamment des autres, malgré une tentative
d’homogénéisation en 1924. C’est pourquoi, suivant les pays ou les cartes, différents modèles d’ellipsoïdes ont pu être
utilisés.
Exemples d’ellipsoïdes :
Nom Année a : demi grand axe f : aplatissement
Helmert 1906 6 378 200 1 / 298.3
International Hayford 1924 6 378 388 1 / 297
WGS 84 1984 6 378 137 1 / 298.257223563
B. Mode de localisation
La position d’un point M sur la terre sphérique est définie par ses coordonnées géographiques (, , h ) que
sont : sa longitude, sa latitude et sa hauteur.
La longitude de M est l’angle que fait le méridien passant par M avec le Méridien d’origine.
Conventionnellement, la longitude est comptée positivement vers l’Est. La position d’un méridien se défini par la longitude
unique des points qui le composent. Le méridien d’origine est celui de Greenwich.
La latitude de M est l’angle que fait la normale à l’ellipse passant par M avec le plan de l’Equateur. Pour une
sphère, la normale passe par le point O, centre de la sphère. Conventionnellement, la latitude est comptée positivement
vers le Nord. La position d’un parallèle se défini par la latitude unique des points qui le compose.
La hauteur h : distance algébrique entre le point M et l'ellipsoïde. Cette grandeur correspond à la mesure h
donnée par le récepteur GPS. Par convention, on utilise aussi les lettres S, N, E, W pour Sud, Nord, Est et Ouest (West) : La
latitude et la longitude constituent les coordonnées géographiques.
3. Système de coordonnées planes
Comme il n’est pas possible de visualiser directement le monde sur plan à l’aide des deux systèmes de
coordonnées présentés, il s’est avéré nécessaire d’avoir recours à des projections pour réaliser des cartes. On parle
alors de coordonnées planes (ou de système de coordonnées plan) composées de deux coordonnées : E et N (ou X et Y).
Ces deux distances à l'origine peuvent être exprimées dans différentes unités de longueur (mètres, kilomètres, miles…).
La conversion de positions géographiques issues d’une surface courbe sur une surface plane nécessite l’utilisation d’une
formule mathématique appelée projection cartographique. Ce processus de « mise à plat » entraîne des altérations de la
forme et de la surface des éléments cartographiés, mais également des distances et des directions entre ces éléments.
La variété des méthodes mathématiques permet d'obtenir des projections qui déforment plus ou moins les surfaces, les
angles ou les distances.
WGS84 (World Geodetic System 1984) : Système global initialement mis au point par le département de la défense des
États Unis en 1984, mis à jour en 2004. Son exactitude est métrique, et son ellipsoïde se nomme IAG-GRS80.
RGF93 (Réseau Géodésique Français 1993) : Système global obtenu par densification des points du réseau mondial associé
ETRS89. Il s'agit du système officiel français. Ce système est facilement compatible avec le WGS84 par exemple.
ED50 (European Datum 1950) : Système européen mis en place à la suite de la seconde guerre mondiale. Son ellipsoïde
associé se nomme Hayford 1909.
Une projection ne peut être à la fois conforme et équivalente. Pour visualiser les déformations liées à une
projection, on peut utiliser les indicatrices de Tissot. Ce sont des cercles identiques dessinés sur la Terre avant
projection, qui se retrouveront donc déformés après projection. Si la projection déforme les angles, les cercles seront
transformés en ellipses, si elle déforme les surfaces les cercles auront des surfaces différentes.
D’après la définition de la géomatique on peut déduire quatre (04) grands axes ou composantes de cette dernière
notamment : (i) l’acquisition, (ii) le stockage, (iii) l’analyse et le traitement, et (iv) la diffusion.
A. L’Acquisition
L’acquisition d’informations est la base essentielle qui apporte du contenu à la géomatique. Pour cela, il existe
différentes méthodes. On peut les classer au sein de deux grandes familles : les méthodes directes et les méthodes
indirectes.
1. Les méthodes directes
Les méthodes qualifiées de directes sont fondées uniquement sur des mesures effectuées sur le terrain. Au
moins une personne va donc se déplacer sur le terrain avec les outils de son choix (tachéomètre, niveau, GPS) pour
effectuer le relevé d’une zone donnée. L’ensemble de ses méthodes sont essentiellement basées sur la topométrie.
a) La topométrie
La topométrie désigne l’ensemble des opérations de terrain et de bureau permettant d’une part la saisie d’objets
naturels ou construits et d’autre part les travaux d’implantation qui consistent à placer sur le terrain des repères selon
un projet (ex. emprise d’une construction). Son objectif est de déterminer la position et l'altitude de n'importe quel point
situé dans une zone donnée. Pour cela, il existe différentes méthodes. Selon l’échelle à laquelle on travaille, la précision
que l’on veut obtenir, l’investissement que l’on est prêt à réaliser, l’objectif qu’on s’est fixé, une méthode se révèlera plus
a) La photogrammétrie
La photogrammétrie est une technique qui a pour objectif de localiser et de restituer de façon précise les
caractéristiques géométriques (forme, dimensions, orientations relatives) d'un objet à partir d'une ou plusieurs images.
C’est une technique sœur de la télédétection. Elle se différencie de la télédétection puisque la photogrammétrie se limite
à l’exploitation d’images photographiques. D’autre part, la photogrammétrie est très liée à l’observation stéréoscopique
qui permet d’obtenir une vision 3D de l’objet photographié. Ainsi, bien souvent, l’objet de la photogrammétrie est de
restituer en 3D les objets photographiés.
b) La télédétection
La télédétection désigne, dans son acception la plus large, la mesure ou l'acquisition d'informations sur un objet
ou un phénomène, par l'intermédiaire d'un instrument de mesure n'ayant pas de contact avec l'objet étudié. C'est
l'utilisation à distance de n'importe quel type d'instrument permettant l'acquisition d'informations sur l'environnement. On
fait souvent appel à des instruments tels que les appareils photographiques, lasers, radars, sonars, sismographes ou
gravimètres pour capter l’information embarqués à bord d'un avion, d'un engin spatial, d'un satellite ou encore d'un bateau.
Le principe fondamental de la télédétection est similaire à celui de la vision de l’homme. Ainsi, la télédétection est le fruit
de l’interaction entre trois éléments fondamentaux : une source d’énergie, une cible et un vecteur.
B. Le stockage
La plupart des SIG sont associés à une base de données qui permet une organisation structurée et un stockage
de l’information. Ceci permet de gérer de manière intelligente les relations entre la géométrie des objets et leurs attributs
en assurant ainsi une cohérence lors des traitements et opérations de mise à jour. On parle ainsi de base de données à
référence spatiale lorsque la géométrie des objets et leurs coordonnées font partie intégrante de la base de données.
Les SIG stockent les données spatiales et les données attributaires sous forme d’une base de données
géographiques (Figure 8), cette dernière est composée d’une série de couches d’information géographique ordonnées de
manière efficace pour être utilisées par une ou plusieurs applications. Il faut note que les données doivent être rendues «
superposables », c’est-à-dire dans le même système de coordonnées ou dans des systèmes compatibles (une «
transformation géographique » permettant de passer d’un système à l’autre).
Figure 8 : Représentation schématique d’une base de données géographique : ensemble de couches superposables
C. L’analyse et le traitement
Le traitement des données géographiques consiste à élaborer des produits numériques à partir de données
brutes provenant des opérations d’acquisition. Il s’agit en outre d’organiser l’information de manière à l’adapter aux
besoins de l’utilisateur. Ces traitements se font essentiellement par le biais des outils des SIG.
Pour définir un SIG, il existe de nombreuses définitions. Deux options sont possibles, la première est d’insister
sur les finalités de l’outil, la deuxième est de mettre exergue ses fonctionnalités. La première est une définition issue des
utilisateurs, l’autre est la définition des producteurs. Si l’on se focalise sur les fonctionnalités, selon Denégre et Salgé, un
SIG doit pouvoir répondre à cinq questions : Où ? Les objets doivent y être localisés ; Quoi ? Les objets y sont définis (bâtis,
forêts, cours d’eau…) ; Comment ? Les relations entre les objets doivent pouvoir être déduites (c’est de l’analyse spatiale)
; Quand ? Les données doivent pouvoir être mises à jour et les historiques conservés ; Et si ? Il doit être possible d’y
effectuer des simulations. Un SIG doit comporter des informations qui sont généralement organisées par couches «
homogènes », rassemblant un même type d’objets (cadastre, géologie, population, etc.). La notion de couche est donc
centrale : une couche est un ensemble d’objets partageant certains attributs (un tronçon route est défini par : un identifiant,
une catégorie, une largeur, une longueur, une capacité, …) et une même forme (point, ligne, surface).
La diffusion des données géographiques consiste à fournir aux utilisateurs des moyens d’accès à l’information
et/ou des supports de représentation (cartographie). L’élément de base et historique de la diffusion de l’information est
le plan ou la carte. C’est une manière synthétique, simple et compréhensible de fournir un contenu à caractère
géographique sur une portion de territoire naturel ou construit. Avec l’avènement de l’informatique et le développement
des SIG, les supports de diffusion sont aujourd’hui largement numériques que ce soit des données vectorielles (plans et
cartes) ou des données images (orthophotos, images satellites). L’accès à ce type d’information est également possible
La détermination de la position absolue sur le globe a de tout temps été une préoccupation majeure des navigateurs.
Auparavant, les navigateurs et les explorateurs s’en remettaient à la chance. Dès le XIIIe siècle, les navigateurs se sont
servis d’astrolabes pour se situer par rapport à l’étoile polaire. Au début du XIVe siècle, on pensa pouvoir déduire la
longitude à partir du champ magnétique. On réalisa ensuite qu’elle pouvait s’obtenir à partir de la hauteur du Soleil
(d’astres) sur l’horizon, à condition de connaître l’heure locale exacte d’où le développement d’horloges précises et du
sextant dès le XVIIe siècle. Le XVIII° siècle voit une augmentation du nombre de voyages au long cours. Ce regain d’activités
maritimes accroît la demande pour une navigation précise et sans danger pour assurer une plus grande rentabilité des
opérations de commerce tout en améliorant la sécurité. De nouveaux instruments et documents de navigation se
développent. Pour se positionner sur les mers, loin de la terre, il faut savoir déterminer la latitude et la longitude de
l’endroit où se situe le navire. Savoir trouver la latitude du lieu était résolu depuis longtemps mais la détermination de la
longitude était encore au début du XVIII° siècle un problème non abouti. Une fois le point déterminé, il faut le reporter sur
des cartes précises pour savoir où l’on se trouve. Dans ce domaine de l’hydrographie, il y avait aussi de nombreux progrès
à faire à cette période car beaucoup de cartes étaient manquantes ou approximatives. Des erreurs de navigation furent
donc la cause de beaucoup de naufrages avec la perte de nombreuses vies humaines associées. Les instruments
nécessaires à la navigation étaient le loch pour déterminer la vitesse du navire, le compas pour sa direction permettant
une navigation à l’estime, le chronomètre pour avoir l’heure précise du lieu et ainsi déterminer la longitude et le sextant
pour mesurer la hauteur des astres afin déterminer sa latitude. Ajoutés à tous ces instruments, la possession d’un jeu de
cartes précises était l’atout indispensable pour toute bonne navigation. Ensuite, vint le positionnement radio à travers le
système LORAN-C initialement développé par les USA vers 1950, il etait constitué d’un réseau d’émetteurs radio
synchronisés qui émettent des impulsions. La mesure de l’écart entre le temps d’arrivée des impulsions permet de se
localiser avec une précision < 400 m. Ce dispositif cessera de fonctionner en Europe en janvier 2006 mais n’est pas
entièrement désactivé et il pourrait même servir de secours en cas de défaillance des moyens spatiaux actuels (GPS, ...).
Et désormais les services mondiaux de positionnement par satellite (GNSS) : une technologie en amélioration constante
pouvant déterminer votre emplacement exact sur le globe à quelques centimètres près. Les satellites ont permis
d’envisager une couverture mondiale pour la localisation des personnes et des objets. Ainsi, le présent chapitre vise à :
Revoir les notions essentielles relatives au positionnement par GNSS ;
Connaître les données nécessaires au positionnement et leur format, savoir y accéder ;
Présenter le Principe des GNSS ;
Appréhender les différentes méthodes de positionnement par GNSS et les précisions associées, les constater
en pratique.
Il s’agit sous ce sigle général de tous les systèmes modernes à couverture mondiale qui permettent de localiser
un récepteur sur la Terre. Ils sont constitués d’une constellation de satellites à défilement souvent complétée par des
stations au sol permettant d’améliorer la précision des mesures (DGPS ou EGNOS). En raison de leurs applications
militaires, il subsiste une menace sur la pérennité de leurs utilisations civiles qui peuvent être supprimées ou dont la
précision peut être dégradée. Chaque grande puissance a donc développé un système qui lui est propre et qui fonctionne
avec une constellation de satellites sur des principes comparables. On désigne par GNSS (Global Navigation Satellite
System), les systèmes de positionnement basés sur des signaux émis par des satellites en orbite autour de la Terre et
fournissant une couverture mondiale.
BEIDOU appelé officiellement BNSS (pour Beidou Navigation Satellite System) est le GNSS actuellement développé
par la Chine depuis le milieu des années 1980 ;
GALILEO est le futur système européen de navigation par satellite, lancé par l'UE (Union Européenne) et l'ESA
(European Space Agency, l'agence spatiale européenne). L'objectif pour l'Europe est donc de disposer de son
propre système global de navigation par satellite et donc d'être indépendant vis à vis des systèmes GPS et
GLONASS ;
GLONASS (GLObal'naya NAvigatsionnaya Sputnikovaya Sistema en russe romanisé ou GLObal NAvigation Satellite
System en anglais) est le système de positionnement global par satellite développé par l'URSS durant la guerre
froide et maintenu par la Russie depuis la chute du bloc soviétique. Ce dispositif militaire russe a été mis en
service en 1982 ;
Le système mondial de positionnement par satellite (GPS), originellement connu sous le nom de NAVSTAR GPS
(NAVigation Satellite Timing And Ranging), est le dispositif américain mis en service depuis 1978 qui a
graduellement été amélioré au fil des temps. Jusqu’en 2007, ce dernier était le seul GNSS opérationnel à l’échelle
mondial.
Les générations successives de satellites sont désignées sous le nom de Blocs (amélioration des satellites en
termes d’autonomie, de mesure du temps – horloges atomiques, de communication).
2. Segment de contrôle
Ce segment se compose d’une station de contrôle principale située à Colorado Springs, de cinq stations de
poursuite et de trois antennes terriennes réparties autour de la terre. Les stations de poursuite surveillent tous les
satellites GPS en vue et recueillent les données contenues dans leurs messages. Ces stations éloignées sont capables de
poursuivre et de surveiller la position de chacun des satellites du GPS. Ces stations de poursuite transmettent les données
obtenues des satellites à la station de contrôle principale qui calcule alors les orbites très précises des satellites. Ces
données sont ensuite formatées en des messages de navigation actualisés pour chaque satellite. Les données actualisées
Il existe deux (02) processus permettant de dégrader les signaux envoyés par les satellites :
le SA (Selective Availability) permettant de limiter l’utilisation civile. Aujourd’hui le SA est désactivé ;
l’AS (Anti Spoofing ou Anti leurrage) pour éviter tout brouillage volontaire du système par un tiers.
L’anti-leurrage est actuellement actif.
Selon les modèles de GPS, des fonctions plus poussées pourront également être proposées.
C. Récepteur GPS
Le Journal Officiel du 4 juillet 2010 définit un récepteur GPS comme étant un système d'aide au déplacement
individuel ou à la conduite de véhicules, qui utilise les indications de géolocalisation par satellite pour permettre le repérage
et proposer un ou plusieurs itinéraires. Dans le langage courant, ce système est abusivement appelé GPS. Le rôle du
récepteur GPS est en premier lieu de détecter les signaux transmis par les satellites et de les convertir en données
utilisables. Au cours du voyage des signaux à travers l’atmosphère, il y’a une atténuation sensible de leurs amplitudes sans
compter les perturbations diverses qui apparaissent inévitablement. Il en existe deux (02) types notamment : Les
récepteurs de navigation ou Géo navigateurs (mono-fréquences) et les récepteurs bi-fréquences ou Systèmes
professionnels.
Ces deux (02) types de récepteurs effectuent des mesures sur les codes ou sur la phase permettant ainsi une
meilleure précision : métrique pour les premiers et centimétriques pour les deuxièmes. Les récepteurs bi-fréquence
peuvent alors faire une estimation précise de la densité d’électrons libres dans l’ionosphère et compenser cet effet. Les
récepteurs usuels ne sont que mono fréquences (le code C/A n’est envoyé que sur la porteuse L1) et se reposent quant à
eux sur le modèle simplifié de l’ionosphère transmis dans le signal délivré par les satellites. Ils sont moins précis et le
modèle n’est réactualisé qu’une fois par jour.
Figure 14 : Exemple de géonavigateurs : pour la randonnée de marque Garmin® et Evadeo® ; pour la navigation routière TomTom®.
Avant d’utiliser un récepteur GPS, il est nécessaire de réaliser quelques réglages au préalable :
Autres réglages importants dans le réglage GPS, la langue et les piles. Les piles NiMH font 1,2V. Si on règle sur
Alcalines qui font 1,5V, avec en réalité des NiMH, le système va considérer rapidement que l’alimentation est déchargée et
va s’éteindre automatiquement, ce qui fait qu’on ne pourra même pas corriger le réglage. Choix de l’Interface : mettre
"série Garmin".
III. Principe de positionnement
Le fonctionnement des GNSS repose sur la mesure du temps de propagation du signal émis par un satellite
jusqu'à sa mesure par un récepteur. La mesure du temps de propagation du signal en provenance de plusieurs satellites
permet par intersection de déterminer la position du récepteur. Le récepteur GPS doit savoir deux choses pour faire
son travail. Il doit savoir où se trouvent les satellites (leur position) et à quelle distance ils se trouvent.
Chaque satellite de la constellation émet un signal radio pseudo aléatoire (qui permet de le différencier des autres
satellites) et qui contient la date d'émission du signal. Le récepteur GPS, ayant dans sa base la position des satellites à
chaque instant, est capable de calculer la distance à laquelle ils se trouvent en comparant la date d'envoi du signal, et sa
date de réception.
B. Signaux
Chaque satellite génère un signal comprenant les codes pseudo-aléatoires et le message de navigation et qui se
propage jusqu’au récepteur GPS.
1. Codes pseudo-aléatoires
Les satellites émettent des ondes radio-électriques sur deux fréquences différentes L1 et L2 appelées les ondes
porteuses. Elles sont dites « ondes porteuses » car les signaux de type code ne peuvent être directement diffusés par
les satellites car ils ne répondent pas aux lois de propagations électromagnétiques. Pour être transmis du satellite à la
Terre ils doivent être « portés » par des ondes électromagnétiques. La transmission de l'information (code) par l'onde
porteuse se fait par modulation du signal par la phase.
Deux codes sont issus de ces ondes porteuses, ils sont appelés codes pseudo-aléatoires. Il s’agit du code P
(Precise code) sur les fréquences L1 et L2, généralement réservé à l’armée américaine (longueur d’onde 30m) et, le code
C/A (Coarse/Acquisition Code) sur la fréquence L1 (longueur d’onde 300m). Chacun des satellites émet ses propres codes
pseudo-aléatoires C/A et P.
C. La trilatération
Il faut au minimum 3 satellites pour avoir une localisation en 2 dimensions à la surface de la Terre et 4 satellites
pour accéder à l'altitude. Dans la pratique, le récepteur utilise entre 4 et 12 satellites pour calculer sa position. Plus il y a
de satellites captés, plus sa position est précise. Les récepteurs GPS utilisent de plus en plus d’autres systèmes de
positionnement par satellite, comme le système GLONASS, améliorant considérablement la précision de la positon et la
durée pour capter un nombre de satellites suffisant. En théorie, trois (03) satellites avec des horloges parfaitement
synchronisées entre elles et le récepteur suffisent pour un positionnement GNSS. C’est ce que l’on appelle la trilatération
et non la triangulation. Cependant en pratique, trois mesures de distance sont réalisées sur 3 satellites ce qui fournit 2
positions dont une est invraisemblable car hors de la surface terrestre. Un quatrième satellite est nécessaire pour
résoudre les quatre inconnues X, Y, Z, et le temps. Une mesure de position en 3D (XYZ) nécessite donc 4 satellites visibles
au minimum.
A B
Figure 18 : Trilatération
IV. Paramètres affectant la précision des mesures
Ces paramètres peuvent être dus soit au système, soit à la propagation ou encore au récepteur.
Travaux pratiques
1. Collecte de données géographiques à l’aide d’un récepteur GPS et d’un
Smartphone ;
2. Importation de ces données dans QGIS .
I. Définition
Le mot télédétection (en anglais «remote sensing») désigne l’ensemble des techniques qui permettent, par
l’acquisition d’images, d’obtenir de l’information sur la surface de la Terre (y compris l’atmosphère et les océans), sans
contact direct avec celle-ci. La télédétection englobe tout le processus qui consiste à capter et enregistrer l’énergie d’un
rayonnement électromagnétique émis ou réfléchi, à traiter et analyser l’information qu’il représente, pour ensuite mettre
en application cette information. » Le développement des techniques de la télédétection résulte de la conjonction entre
l'invention des vecteurs, ballons, avions ou satellites, permettant de s'éloigner de la surface du sol ou de la Terre dans
son ensemble, et le constant perfectionnement des capteurs, c'est à dire des appareils permettant d'enregistrer le
rayonnement électromagnétique pour reconstituer les caractéristiques de la surface (terre ou océan), ou de l'atmosphère.
Jusqu'il y a environ 30 ans, le principal capteur utilisé était l'appareil photographique, un capteur analogique
utilisant des émulsions chimiques photosensibles (sensibles à la lumière visible essentiellement) pour produire des
photographies aériennes ; l'utilisation de la télédétection se confondait alors avec la « photo-interprétation »,
interprétation visuelle des documents photographiques. Les types de capteurs se sont depuis multipliés et perfectionnés :
les radiomètres sont des capteurs passifs, qui enregistrent le rayonnement naturel, lumière visible mais aussi infrarouge
ou microonde, sous forme numérique ; les capteurs actifs (radars) émettent artificiellement un rayonnement pour en
étudier les interactions avec l'objet à étudier. Les capteurs actuels produisent des données numériques, qui peuvent faire
l'objet d'une restitution pour fournir des documents à interpréter selon les méthodes de la photo-interprétation, mais sont
de plus en plus l’objet d'un traitement informatique aboutissant à la cartographie automatique des surfaces, soit enfin de
calibrations et de corrections qui permettent d'obtenir des mesures géophysiques telles que des températures ou des
réflectances. Ces nouveaux capteurs sont en constant développement depuis leur apparition ; la caractéristique de ces
capteurs qui a connu l'amélioration la plus spectaculaire est la résolution spatiale, c'est à dire leur capacité à discerner
des portions de la surface terrestre de plus en plus petites. Parallèlement, les applications de la télédétection se sont
multipliées, dans de nombreux domaines de la météorologie et de la climatologie, de l'océanographie, de la cartographie
ou de la géographie. Quel que soit le domaine d’application considéré, une bonne interprétation des documents de
télédétection ou une bonne utilisation des données numériques nécessite la compréhension des principes physiques sur
lesquels est fondée la technique de télédétection employée.
A. Avantages
B. Inconvénients
fournir une présentation de ces principes s’adressant à des non-physiciens, c’est-à-dire dépouillée au maximum
de l’appareil des formules physiques mais en conservant dans la mesure du possible toute la rigueur nécessaire.
fournir aux utilisateurs que sont les ingénieurs, les gestionnaires de l’environnement ou les aménageurs, une
introduction aux méthodes d’utilisation de traitement des données de télédétection, à partir d’exemples simples.
Le principe de base de la télédétection est similaire à celui de la vision de l’homme. Dans la plupart des cas, la
télédétection implique une interaction entre l'énergie incidente, les cibles et un vecteur. Le principe de la télédétection
au moyen de systèmes imageurs comporte les sept (07) étapes (A - F) que nous élaborons ci-après :
-Source d'énergie ou d'illumination (A) : À l'origine de tout processus de télédétection se trouve nécessairement une
source d'énergie pour illuminer la cible.
-Rayonnement et atmosphère (B) Durant son parcours entre la source d'énergie et la cible, le rayonnement interagit
avec l'atmosphère. Une seconde interaction se produit lors du trajet entre la cible et le capteur.
-Interaction avec la cible (C) Une fois parvenue à la cible, l'énergie interagit avec la surface de celle-ci. La nature de
cette interaction dépend des caractéristiques du rayonnement et des propriétés de la surface. Ces interactions peuvent
donc se faire soit par absorption, soit par réflexion, soit par transmission.
-Enregistrement de l'énergie par le capteur (D) Une fois l'énergie diffusée ou émise par la cible, elle doit être captée
à distance (par un capteur qui n'est pas en contact avec la cible) pour être enfin enregistrée.
-Transmission, réception et traitement (E) L'énergie enregistrée par le capteur est transmise, souvent par des moyens
électroniques, soit à une station de réception au sol, soit à des satellites relais où l'information est transformée en images.
-Analyse, traitement et interprétation (G) : elle se fait au moyen des traitements basés sur des théories et des
techniques souvent complexes et servent à extraire les informations utiles.
-Application (F) La dernière étape du processus consiste a mettre ces images à la disposition des différents utilisateurs
afin de caractériser la cible étudiée.
Ces sept (07) étapes couvrent le processus de la télédétection, du début à la fin et sont résumées dans la figure
ci-dessous.
Premièrement, une source d'énergie sous forme de rayonnement électromagnétique est nécessaire pour
illuminer la cible, à moins que la cible ne produise elle-même cette énergie (télédétection radar).
Selon la théorie des ondes, tout rayonnement électromagnétique possède des propriétés fondamentales et se
comporte de façon prévisible. Le rayonnement électromagnétique est composé d'un champ électrique (E) et d'un champ
magnétique (M). Le champ électrique varie en grandeur et est orienté de façon perpendiculaire à la direction de
propagation du rayonnement. Le champ magnétique est orienté de façon perpendiculaire au champ électrique. Les deux
champs se déplacent à la vitesse de la lumière.
Pour comprendre la télédétection, il est indispensable de saisir les deux composantes du rayonnement
électromagnétique que sont la longueur d'onde et la fréquence.
La longueur d'onde équivaut à la longueur d'un cycle d'une onde, ce qui correspond à la distance entre deux crêtes
successives d'une onde. La longueur d'onde est représentée habituellement par la lettre grecque lambda (), et est
mesurée en mètres ou en l'un de ces sous-multiples tels que les nanomètres (nm, 10-9 mètre) ou micromètres (µm, 10-6
mètre). La fréquence (f) représente le nombre d'oscillations par unité de temps. La fréquence est normalement mesurée
en Hertz (Hz) (c.-à-d. en oscillations par seconde). La formule suivante illustre la relation entre la longueur d'onde et la
fréquence : c = f
La longueur d'onde et la fréquence sont donc inversement proportionnelles, c'est-à-dire que plus la longueur
d'onde est petite, plus la fréquence est élevée, et plus la longueur d'onde est grande, plus la fréquence est basse. Afin de
comprendre l'information tirée des données de télédétection, il est essentiel de bien saisir les caractéristiques du
rayonnement électromagnétique. Nous examinerons maintenant la classification du rayonnement électromagnétique.
A. Le spectre électromagnétique
Le spectre électromagnétique s'étend des courtes longueurs d'onde (dont font partie les rayons gamma et les
rayons X) aux grandes longueurs d'onde (micro-ondes et ondes radio). La télédétection utilise plusieurs régions du spectre
électromagnétique.
Hyperfréquences
Avant que le rayonnement électromagnétique n'atteigne la surface de la Terre, celui-ci doit traverser une
certaine épaisseur d'atmosphère. L'atmosphère est un mélange de gaz qui est divisée en plusieurs couches. Les particules
et les gaz dans l'atmosphère peuvent dévier ou bloquer le rayonnement incident. Ces effets sont causés par les
mécanismes de diffusion et d'absorption.
A. Diffusion
La diffusion se produit lors de l'interaction entre le rayonnement incident et les particules ou les grosses
molécules de gaz présentes dans l'atmosphère. Les particules dévient le rayonnement de sa trajectoire initiale. Le niveau
de diffusion dépend de plusieurs facteurs comme la longueur d'onde () et de la densité, la taille des particules et des
molécules (d). Il existe trois types de diffusion:
1. Diffusion de Rayleigh
Elle se produit lorsque la taille des particules est inférieure à la longueur d'onde du rayonnement (d < ). Celles-
ci peuvent être soit des particules de poussière ou des molécules d'azote ou d'oxygène. Ce phénomène explique pourquoi
nous percevons un ciel bleu durant la journée. Comme la lumière du Soleil traverse l'atmosphère, les courtes longueurs
d'onde (correspondant au bleu) du spectre visible sont dispersées et déviées de façon plus importante que les grandes
longueurs d'onde.
Elle se produit lorsque les particules sont presque aussi grandes que la longueur d'onde du rayonnement (d
). Ce type de diffusion est souvent produit par la poussière, le pollen, la fumée et l'eau.
3. Diffusion non-sélective
Elle se produit lorsque les particules (les gouttes d'eau et les grosses particules de poussière) sont beaucoup
plus grosses que la longueur d'onde du rayonnement (d > ). Nous appelons ce genre de diffusion "non-sélective", car
toutes les longueurs d'onde sont dispersées. Les gouttes d'eau de l'atmosphère dispersent le bleu, le vert, et le rouge de
façon presque égale, ce qui produit un rayonnement blanc (lumière bleue + verte + rouge = lumière blanche). C'est pourquoi
le brouillard et les nuages nous paraissent blancs.
Diffusion non-sélective
B. Absorption
Un autre phénomène entre en jeu lorsque le rayonnement électromagnétique interagit avec l'atmosphère : c'est
l'absorption. L'absorption survient lorsque les grosses molécules de l'atmosphère (ozone, bioxyde de carbone et vapeur
d'eau) absorbent l'énergie de diverses longueurs d'onde. L'ozone absorbe les rayons ultraviolets qui sont néfastes aux
êtres vivants. Sans cette couche de protection dans l'atmosphère, notre peau brûlerait lorsqu'elle est exposée au Soleil.
1. Fenêtre atmosphérique
Il existe des régions du spectre électromagnétique pour lesquelles l'absorption par l'atmosphère terrestre est
minimale. L’ensemble constitué de ces régions est communément appelé fenêtre atmosphérique. Elle désigne une portion
du spectre pour laquelle la transmittance atmosphérique totale est bonne pour les usages de la télédétection.
Maintenant que nous comprenons comment l'énergie électromagnétique se rend de sa source à la surface de la
Terre (et nous pouvons constater que c'est un voyage difficile), nous allons examiner ce qu'il advient du rayonnement une
fois qu'il atteint la surface.
V. Interactions rayonnement-cible
Le rayonnement qui n'est pas absorbé ou diffusé dans l'atmosphère peut atteindre et interagir avec la surface
de la Terre. Lorsque l'énergie atteint la cible, la surface peut absorber (A) l'énergie, la transmettre (T) ou réfléchir (R)
l'énergie incidente. L'énergie incidente totale interagira avec la surface selon l'une ou l'autre de ces trois modes
d'interaction ou selon leur combinaison. La proportion de chaque interaction dépendra de la longueur d'onde de l'énergie,
ainsi que de la nature et des conditions de la surface. L'absorption (A) se produit lorsque l'énergie du rayonnement est
absorbée par la cible, la transmission (B) lorsque l'énergie du rayonnement passe à travers la cible et la réflexion (C)
lorsque la cible redirige l'énergie du rayonnement. En télédétection, nous mesurons le rayonnement réfléchi par une cible.
I. Définition
La donnée est l'élément fondamental, indispensable à tout raisonnement pour extraire de l'information nécessaire
à la compréhension des phénomènes. Une donnée est dite « géographique » Lorsque cette information est localisée sur le
territoire. Les données géographiques ou géo-données sont la base de tout système d’information et les systèmes
d’information géographique (SIG) n’échappent pas à cette règle. Encore faut-il savoir les organiser en fonction de ses
besoins d’exploitation, des différentes contraintes, et les maintenir à jour. Ainsi, le présent chapitre a pour objectif de :
Caractériser la donnée géographique ;
Apprendre à intégrer ces données de base dans son SIG et enrichir celui-ci par l’ajout de ses propres données.
II. Nature
Les SIG manipulent les données géographiques via des logiciels de SIG. Ces données géographiques sont
structurées en deux (02) composantes :
composante ou donnée géométrique ;
composante ou donnée attributaire.
A. Données géométriques
Les données géométriques décrivent la forme et la position des données géographiques. Elles sont représentées
par des points, des lignes, des surfaces ou des pixels et repérées dans le système de projection retenu, donc superposables
avec les autres données.
B. Données attributaires
Les données attributaires fournissent les informations caractérisant la donnée géographique. Ces attributs
peuvent être de type numérique, date, texte, pour ne citer que les principaux, ou un mélange de plusieurs types. On les
désigne globalement par le terme de données alphanumériques. Ainsi, à chaque donnée géométrique est attribuée une
fiche contenant des informations associées (nom de la ville, numéro de la commune, type d'occupation du sol,...).
A la différence des images analogiques qui représente des données sous la forme d'une grandeur physique
continue et variable, l'image numérique est formée d'un assemblage de pixels dont on doit comprendre les caractéristiques
afin de bien saisir l'objet dans son ensemble. Les images numériques sont aujourd’hui utilisées pour représenter la réalité
en mode raster.
Les Rasters sont des grilles régulières composées de cellules ou de pixels avec un nombre déterminé de lignes
et colonnes qui constituent une image repérées dans l'espace (plans scannés, photographies aériennes, images
satellitaires).
1. Pixel
Un pixel ou encore « Picture Element » désigne le plus petit élément d'une image auquel on puisse attribuer des
caractéristiques comme la taille ou la valeur de couleur.
Une image numérique est formée d'une grille composée de points carrés individuels nommés pixels. Plus on zoom,
plus les pixels deviennent apparents. Une image numérique est généralement caractérisée par sa définition. La définition
d’une image numérique est le nombre de pixels de largeur par le nombre de pixels de hauteur. En effet, Plus il y a de pixels,
meilleure est la qualité et donc la définition de cette dernière.
Les rasters possèdent une référence spatiale qui leur permet de s'enregistrer à la surface de la Terre et d'être
associés à d'autres couches de données SIG.
a) Avantages
Les avantages du mode raster sont:
- Meilleure adaptation à la représentation des détails.
- Acquisition des données à partir d’un scanner à balayage.
b) Inconvénients
Les inconvénients du mode raster sont:
- Mauvaise adaptation à la représentation des détails linéaires ;
- Absence des attributs ;
- Obligation de parcourir toute la surface pour extraire un détail ;
Le format vectoriel utilise le concept d'objets géométriques (points, lignes, polygones) pour représenter les
entités géographiques. Ces objets géométriques sont définis par leurs coordonnées dans un système de projection et sont
caractérisés par une localisation précise des objets, leur irrégularité, des possibilités de modélisation plus poussée et la
facilité de manipulation des objets.
1. Les points
Ils définissent des localisations d'éléments séparés pour des phénomènes géographiques trop petits pour être
représentés par des lignes ou des surfaces qui n'ont pas de surface réelle comme les points cotés.
2. Les lignes
Les lignes représentent les formes des objets géographiques trop étroits pour être décrits par des surfaces (ex
: rue ou rivières) ou des objets linéaires qui ont une longueur mais pas de surface comme les courbes de niveau.
3. Les polygones
Ils représentent la forme et la localisation d'objets homogènes comme des pays, des parcelles, des types de
sols…
Le traitement des données rasters et celui des données vectorielles sont très différents et ne font pas appel aux
même outils, ni aux mêmes compétences. Le traitement des rasters et des données qu'ils contiennent est complexe. Il
réclame des outils spécialisés. C'est pourquoi dans une majorité de cas ils ne servent que de fond de plan en tant que
support à des couches vectorielles. A contrario, les données vectorielles sont plus simples à manipuler, notamment à des
fins d'analyse.
a. Avantages
Les avantages du mode vecteur sont:
- Une meilleure adaptation à la description des entités ponctuelles et linéaires ;
- Une facilité d’extraction de détails ;
- La présence des attributs ;
- Une simplicité dans la transformation de coordonnées.
b. Inconvénients
L’inconvénient majeur du mode vecteur réside dans les croisements de couches d’information qui sont délicats
et nécessitent une topologie parfaite.
Il existe une panoplie de format de données vectorielles que nous verrons plus explicitement durant les travaux
pratiques mais le plus utilisé est le format Shapefile. Le format shapefile a été créé par ESRI, l'auteur notamment du
logiciel ArcGIS. Ce format est aujourd'hui l'un des standards du SIG et est couramment utilisé par les logiciels libres de
SIG.
Un fichier SHP est en fait composé de plusieurs fichiers, dont 3 sont obligatoires :
SHP : contient les informations spatiales
DBF : contient les informations attributaires (il impose certaines limitations pour les noms de colonnes :
maximum 10 caractères, éviter les accents...)
SHX : fichier d'index
Un shapefile peut inclure également un 4ème fichier ayant l’extension PRJ qui contient les informations sur le
système de coordonnées (code du système de coordonnées et éventuellement de la projection). Bien que ces informations
soient très utiles, elles ne sont pas obligatoires. Il peut y avoir encore d’autres fichiers associés aux données shapefile.
NB : Pour que le shapefile s'ouvre correctement, tous ces fichiers doivent avoir exactement le même nom.
Vous avez peut-être déjà manipulé des images au format TIF. Les TIF utilisés dans les logiciels SIG possèdent des
informations en plus par rapport aux TIF "classiques" : quel type de coordonnées est utilisé, quelles sont les coordonnées
de l'image... Il s'agit alors d'un cas particulier de TIF nommé GeoTIFF. L'extension du fichier reste TIF. Cependant, chargé
dans un logiciel SIG, ce TIF s'affichera directement au bon endroit.
Les données géographiques peuvent être acquises par différentes méthodes aussi bien satellitaires
qu’aéroportées (satellites, avion, hélicoptère, drone, ballon, .etc) ou simplement par mesures terrestres. Quel que soit les
méthodes d’acquisition employées, celles-ci diffèrent en fonction du type de données que l’on souhaiterait acquérir.
1. Vectorisation
La vectorisation correspond à la transformation plus ou moins automatique d’une image ou raster en un fichier de formes
vectorielles (points, lignes, polygones).
2. Digitalisation
La digitalisation (Digitizing) est une forme de vectorisation manuelle qui se fait soit à partir d'un document
préalablement scanné (on digitalise à l'écran), soit à partir d'un document papier (on digitalise à partir d'une table à
digitaliser). Ce mot est utilisé en français mais il s’agit d’un anglicisme, non reconnu en France qui a officialisé le terme
numérisation.
Ces méthodes engendrent dans la plupart des cas des problèmes de précision et de déformation du document
original qui peuvent nécessiter un recalage géographique et dimensionnel des dessins. C’est pour cette raison que le plus
souvent, les professionnels de la numérisation préfèrent acquérir les données via la collecte de données sur le terrain.
3. GPS
L’acquisition peut se faire soit à l’aide d’une fiche de collecte (attributaire), soit à l’aide d’un récepteur GPS
(géométrique et attributaire).
1. Télédétection
Cette technique utilise différents types de plateforme pour l’acquisition de données géographiques. La
photographie aérienne (drone, avion, montgolfière, etc.) est la base de nombreuses données géographiques. Ortho
rectifiée, elle a subi des corrections suite aux déformations dues aux différentes altitudes de prise de vue et à la couverture
de la plateforme. Quant aux images satellites, elles sont issues de capteurs fixés sur les satellites d’observation envoyés
en orbite. Elles représentent le rayonnement solaire réfléchi par les objets au sol. Des traitements y sont appliqués pour
être interprétable. Les prises se font entre 700 et 36000 km d’altitude.
Travaux pratiques
3. Manipulation des données géographiques (import, export, étiquette, style, etc )
4. Présentation des données rasters et vecteurs (différences et similitudes)
5. Méthode d’acquisition de données géographiques (géo-référencement,
digitalisation et vectorisation)
La première utilisation du terme « Système d’Information Géographique » a émergé grâce à Roger Tomlinson en
1968 dans son essai : « Un système d’information géographique pour l’aménagement du territoire ». Roger Tomlinson est
connu comme le père du Système d’Information Géographique. Auparavant, l’une des premières applications connues de
l’analyse spatiale concernait le domaine de l’épidémiologie, en 1832, avec la publication du « Rapport sur la marche et les
effets du choléra dans Paris et le département de la Seine », rédigé par le géographe français Charles Picquet. Ce dernier
a représenté les 48 districts de la ville de Paris. Il a utilisé un système de coloris dégradé en fonction du pourcentage de
décès par le choléra pour 1000 habitants.
Figure 38 : Illustration de la marche et des effets du choléra dans Paris et le département de la Seine en 1832
Par la suite, en 1854, John Snow a dépeint une épidémie de choléra à Londres en utilisant des points pour
représenter les emplacements de certains cas individuels. Ceci était l’une des premières réussites de l’utilisation d’un
système d’information géographique. Bien que les éléments basiques de topographie existaient avant la cartographie, la
Au fil des années, des définitions du terme SIG plus ou moins similaires et cohérentes ont fait leur apparition :
Selon le Centre National d’Information géographique français (CNIG), il s’agit « d’un système pour saisir, stocker, vérifier,
intégrer, manipuler, analyser et visualiser des données qui sont référencées spatialement à la surface de la Terre. Il
comprend en principe une base de données localisée et les logiciels applicatifs appropriés. Une des premières fonctions
d’un SIG est sa capacité à intégrer des données de sources différentes ». Cette première définition fait état des différentes
fonctions et moyens en insistant sur l’aspect multimédia des logiciels utilisés.
En 1990, Michel Didier un économiste français définit le SIG comme un « ensemble de données repérées dans
l’espace, structuré de façon à pouvoir en extraire commodément des synthèses utiles à la décision ». Cette dernière qui
est issue d’une étude commanditée par le CNIG, met l’accent sur l’une des principales finalités des SIG : l’aide à la décision.
Dans le cadre de cette unité enseignement, un SIG désignera un système informatique de matériels, de
logiciels et de processus permettant à partir de diverses sources, de rassembler et organiser, d’analyser et de
combiner, d’élaborer et de présenter des informations localisées géographiquement contribuant notamment à la
gestion de l’espace.
Les SIG fonctionnent sur une très grande panoplie d’ordinateurs (ordinateur de bureaux raccordés en réseau ou
exploités de manière autonome).
Les logiciels de SIG offrent les outils nécessaires pour sauvegarder, examiner et visualiser l’information
géographique.
C. Données (Information Géographique)
Les données constituent la composante maîtresse des SIG. L’information géographique peut, soit être constituée
en interne, soit acquise auprès de producteurs de données.
D. Méthode ou processus
Il s’agit ici de la procédure adoptée par le cartographe ou l’utilisateur pour parvenir à ses objectifs.
Localité
(points)
Route
(lignes)
Région
(polygones)
En effet, les SIG concernant la région de l’Est Cameroun ont une structure multi-couches dans laquelle chaque
couche correspond à un type d'information (une carte thématique par exemple) non redondant par rapport à une autre
couche. On peut donc dire qu'il y a indépendance des taxons d'une couche à l'autre. L'empilage successif de différentes
couches de données non redondantes augmente sans cesse la taille du SIG, et donc la diversité des informations stockées.
Dans le cas où une nouvelle carte correspond à une mise à jour d'une carte antérieure (inventaire forestier par exemple),
et n'est donc pas indépendante de celle-ci, elle remplace complètement l'ancienne carte devenue obsolète (ou plutôt
considérée comme archive), de telle sorte que l'indépendance des cartes est conservée.
Ces cinq processus sont les niveaux fondamentaux de tout SIG, quels que soient sa taille et son utilité ; seule la
complexité de ceux-ci varie d'un SIG à un autre. Dans cette partie, nous n'étudierons que brièvement les quatre premiers
et l’accent sera mis sur le dernier processus.
C. Recherche de l'information
La recherche des informations est un des points les plus complexes d'un SIG. Elle doit, d'une part être rapide, et
d'autre part éviter tout terme technique complexe inconnu des utilisateurs néophytes. La réalisation de ces deux conditions
passe par la création de procédures de communication de plus en plus complexes. De nos jours, le développement de
l'Intelligence Artificielle permet de créer des outils performants afin d'élaborer des systèmes-experts et des interfaces
homme - machine en langage naturel (Robinson et Frank, 1987 ; Ripple et Ulshoefer, 1987), augmentant de ce fait les
possibilités de service des SIG.
E. Restitution de l'information
Enfin, la restitution des informations est un composant important. Elle donne la possibilité de retrouver les
informations de départ, mais aussi celles créées après analyse des premières, et ceci sous n'importe lequel des supports
de sortie des informations tels que les moniteurs (couleurs ou monochromes), les tables traçantes, les imprimantes
(couleurs ou noir et blanc), ou les restituteurs photographiques à laser.
La plupart des techniques que nous venons d'évoquer sont utilisables pour l'élaboration des Systèmes
d'Information Géographique concernant aussi bien des surfaces restreintes que de larges surfaces. Seule la gestion des
informations sera plus complexe chez ces derniers, comme nous allons le constater ultérieurement.
La figure 43 met en évidence quatre groupes de fonctionnalités au-dessous d’une couche d’applications:
l’acquisition des données géographiques d’origines diverses, la gestion pour le stockage et la recherche des données,
l’analyse spatiale pour le traitement et l’exploitation et enfin la présentation des résultats sous forme cartographique.
Ainsi, quel que soit le projet SIG à mettre sur pied, ce dernier nécessitera de passer par ces quatre groupes de
fonctionnalités.
Un SIG permet de saisir, représenter, interroger, et mettre à jour l’information géographique. Il peut être aussi
défini par les questions auxquelles il apporte des réponses notamment:
Où : Cette interrogation permet de mettre en évidence la répartition spatiale d'un objet (la localisation, étendue, etc.).
Ex : Où se trouve l'échangeur ? Où cet objet, ce phénomène se trouve-t-il ? Ou encore plus généralement, où se trouvent
tous les objets d'un même type ?
Quoi : Il s'agit de mettre en évidence tous les objets ou phénomènes présents sur un territoire donné Ex : Que trouve-t-on
à cet endroit ? Quel est le nom de l'autoroute ?
Comment : Il s’agit ici de la problématique de l'analyse spatiale. Ex : Quelles relations existent ou non entre les objets et
les phénomènes ?
Quand : Il s’agit ici de la problématique de l'analyse temporelle. Ex : A quel moment des changements sont intervenus?
Quels sont l'âge et l'évolution de tel objet ou phénomène ?
Et si : Ici il s’agit de la prospective. Ex : Que se passerait-il si tel scénario d'évolution se produisait? Quelles conséquences
affecteraient les objets ou phénomènes concernés du fait de leur localisation?
Les SIG sont créés pour répondre à différentes demandes et comme le système commun n’existe pas, il faut les
ajuster selon les objectifs établis. Néanmoins il faut dire qu’il y’a 6 fonctionnalités « on les appelle les 6A » que tous les
SIG doivent assurer :
Abstraction: Concevoir un modèle qui arrange les données par constituants géométriques et par attributs descriptifs, et
qui permet aussi d’établir des relations entre les objets.
Archivage: Le logiciel doit avoir une grande capacité de stockage des données de façon à les retrouver et les interroger
facilement.
Analyse: Capacité d’analyser les données géographiques (méthodes quantitatives et statistiques, opérateurs topologiques,
etc.) et de répondre aux requêtes qui constitue le cœur même du SIG.
Affichage: Capacité d’affichage de l’information géographique sous forme de Cartes, tables, graphes, etc.
Anticipation : Capacité d’analyser les données géographiques afin de prévoir des phénomènes à venir.
En fonction de leur accessibilité on distingue les Logiciels libres (GRASS GIS, Map Server, QGIS, PostGIS, uDig,
gvSIG), les logiciels Gratuits (DIVA-GIS, AutoDEM, etc.) et les logiciels Commerciaux (ArcGIS, GeoMapGIS, MapInfo, etc.).
En fonction de leur spécificité, on distingue les logiciels à vocation traitement des données vectorielles (ArcGIS,
QGIS, etc.) et ceux à vocation traitement des données rasters (ENVI, ERDAS, OTB, Global Mapper, etc.).
Travaux pratiques
1. Manipulation des images (Classification des zones « Altitude ») ;
2. Extraction d’une zone d’intérêt ;
3. Extraction des courbes de niveaux ;
4. Calcul des superficies ;
5. Détermination d’une zone tampon ;
6. Exécution requêtes spatiales (Sélection par localisation, par attribut, etc.) ;
7. Modélisation d’un site en 3D ;
La carte, familière, quotidienne, indispensable, est pourtant un outil dont les potentialités sont méconnues voire
inconnues par la plupart d’entre nous. Des générations d’élèves, puis de professionnels assimilent encore la géographie et
indirectement la cartographie à des disciplines d’inventaires dont le seul but serait de situer les lieux, les faits et
phénomènes. Cette vision limitée et fortement stéréotypée vient du fait que l’école et l’enseignement en général n’ont
pas été préparés à transmettre l’utilité opérationnelle de la géographie et de la cartographie. Parallèlement, le
marché de la carte, sa pratique et son utilisation médiatique se sont considérablement accrus. La maitrise de l’outil
cartographique est devenue un enjeu primordial dans tous les domaines se préoccupant de la connaissance et de la gestion
des territoires. Ce développement prodigieux de la cartographie résulte d’une prise de conscience de ses qualités d’aide
à la décision et à la gestion, de support de communication, d’analyse ou encore de simulation et d’autre part de la montée
en puissance de l’informatique. Celle-ci ouvre à la cartographie de vastes champs d’application (et inversement) et donne
théoriquement à tous la possibilité de concevoir une carte.
Ayant résolu le problème délicat de l’acquisition d’un logiciel, l’enjeu est maintenant pour vous de travailler
judicieusement avec les méthodes cartographiques et d’analyse exploratoire auquel cartes et données vous donne accès.
Toute carte devrait présenter des qualités de rigueur, de clarté et d’esthétique, en résumé ne pas ignorer les règles
élémentaires de la sémiologie graphique. En tant que langage, la cartographie ne s’improvise donc pas ; elle s’apprend et
n’est efficace que si elle assure au lecteur le maximum de clarté et de rapidité de compréhension. Les progrès de
l’informatique et la démocratisation induite ont tendance à le faire oublier et chaque jour, de trop nombreuses cartes
alimentent un sottisier dont on s’abstiendrait volontiers.
Lorsque l’on conçoit une carte, il faut toujours garder à l’esprit une des caractéristiques fondamentales de l’outil
cartographique : celui-ci utilise un langage visuel dont les principes, les règles, les qualités et les limites résultent tous
des exigences physiologiques de l’œil humain. Ainsi, ce chapitre a pour objectif de :
La cartographie est à la fois la science, la technique et l’art qui permet la représentation de la Terre sous une
forme géométrique et graphique grâce à la conception, la préparation et la réalisation des cartes.
C’est une science car ses bases sont mathématiques, notamment en ce qui concerne la détermination de la forme
et des dimensions de la terre puis le report de la surface courbe de la Terre sur un plan (carte) grâce au système
de projection et enfin l’établissement d’un canevas planimétrique et altimétrique. L’enjeu ici est la précision et la
fiabilité de la carte.
C’est un art car en tant que mode d’expression graphique, la carte doit présenter des qualités de forme
(esthétique et didactique grâce à la clarté du trait, à son expressivité et sa lisibilité) afin d’exploiter au mieux les
capacités visuelles du lecteur. Cela exige de la part du concepteur et du réalisateur des choix dans la
représentation.
C’est enfin une technique car elle nécessite d’amont en aval, l’emploi d’instrument dont les progrès ont
bouleversé toute la filière cartographique (photographie aérienne, satellites, ordinateurs impression, diffusion,
etc.).
1. La carte
C’est un objet très ancien, plus ou moins complexe, aux multiples facettes et utilisations, et donc on ne peut
donner une seule définition de la carte. Toutes les cartes ont néanmoins un point commun, celui de représenter une portion
de l’espace terrestre. Ainsi, dans le cadre de cette unité d’enseignement, on retiendra la définition suivante : selon F. Joly,
« une carte est une représentation géométrique, plane, simplifiée et conventionnelle de l’ensemble ou portion de la surface
terrestre et cela dans un rapport de similitude convenable qu’on appelle échelle ».
La carte est un dessin réduit et à plat du monde ou d’une portion du monde. Elle peut aussi être une représentation
sur fond de carte géographique, d’un phénomène quelconque concret ou abstrait. Cette représentation est faite sur papier
ou sur un support tel que le verre, le bois ou un écran d’ordinateur. Une carte est conçue à la main ou par une machine.
Les distances sur la carte sont toujours proportionnelles à celles du terrain.
De cette définition se dégage cinq (05) grands principes dont les conséquences pratiques guident ou devraient
guider le travail de tout cartographe professionnel ou non :
La carte est une représentation, un dessin : la carte est donc un document visuel. Ceci explique que la conception
et la réalisation de celle-ci doivent respecter des règles simples mais rigoureuses, issues des lois de la
perception visuelle.
La carte est une représentation plane : elle matérialise le passage de la sphère terrestre à un plan. Ce passage
est réalisé grâce aux procédés projections. L’obligation de la projection implique qu’aucune carte n’est fidèle à
Les cartes thématiques décrivent des phénomènes géographiques qui appartiennent par exemple à la géologie
(sol et substrat rocheux essentiellement), à l’occupation du sol ou à la végétation.
B. Le Cartographe
Le Cartographe est un auteur qui propose un message au lecteur. Cet aspect devrait être constamment dans
l’esprit des concepteurs, réalisateurs et lecteurs ou utilisateurs de cartes. Si tel était le cas, les uns y gagneraient en
rigueur et en modestie, les autres en prudence et en lucidité.
A. La symbolisation
Symboliser consiste à utiliser des symboles adaptés dans leur forme et leur couleur aux objets qu’ils sont censés
représenter. Une carte utilise différents symboles et différentes écritures. Les symboles servent à décrire une partie du
B. Les écritures
Les écritures représentent une part importante de la carte et elles en facilitent la compréhension. Les règles
typographiques doivent être respectées pour réaliser une carte compréhensible. La typographie englobe le choix des
polices d’écriture, des tailles, des couleurs et du positionnement. Plusieurs polices d’écriture sont disponibles, mais il est
préférable de limiter le nombre utilisé sur une carte. La taille ne devrait jamais être inférieure à six points pour que le
texte reste lisible. La couleur permet de distinguer les différentes sortes d’objets, en utilisant par exemple le noir pour les
lieux-dits, le bleu pour les cours d’eau et le vert pour ce qui concerne la nature.
Pour un cours d’eau, le texte sera disposé le long de la rive. Le nom d’un océan pourra être placé sur une courbe
afin de rendre compte de son étendue. Le positionnement peut également apporter une indication sur l’emplacement de
l’objet. Le nom d’une commune devra être décalé au-dessus de la surface administrative, tandis que le nom d’un lac sera
disposé à l’intérieur de la surface hydrologique.
Figure 45 : Différentes icônes symbolisant une pharmacie, un lieu de baignade, un terrain de camping, une piste cyclable, un
parcours de golf, une piste de course à pied avec éclairage artificiel, un site touristique, un site historique et un site géologique.
C. Hiérarchie visuelle
En analysant une carte, on découvre plusieurs couches d’informations ; la plus visible est mise au premier plan
de la carte. L’arrière-plan permet la localisation et l’orientation des autres objets présents sur la carte. Une carte
topographique conçue pour la navigation routière met les routes en évidence. Le thème de la carte forme le premier plan
et la topographie est à l’arrière-plan, afin de permettre essentiellement l’orientation. L’usage de la couleur est la façon la
plus efficace de mettre en place une hiérarchie visuelle. Les couleurs les plus intenses seront affectées au premier plan
qui met en évidence le thème de la carte, tandis que des couleurs moins vives serviront aux objets en arrière-plan.
Figure 46 : Esquisse de carte géologique qui met au premier plan les BIFs par le biais de la « couleur »
B. La généralisation
La généralisation cartographique est le processus qui simplifie la symbolisation pour produire une carte avec
une légende définie et lisible à une certaine échelle. Pour être lisible à une échelle plus petite, certains objets sont
supprimés, agrandis, fusionnés, déplacés ou simplifiés. Durant la généralisation, les informations de la carte peuvent être
globalement simplifiées mais doivent rester lisibles et compréhensibles. Généraliser n’est pas schématiser. Avec la
schématisation, on remplace le contour géographique par des contours simplement évocateurs de la forme initiale du
territoire en question (un triangle pour schématiser le Cameroun).
C. L’implantation
L’implantation est la transcription cartographique d’un objet ou d’un phénomène géographique sur un plan à deux
dimensions. Il existe trois (03) types d’implantation :
L’implantation ponctuelle pour des phénomènes peu étendus et localisés précisément dans l’espace (un point
géodésique, une maison sur un plan cadastral, la position d’un navire). Cette implantation est centrée dans le plan de la
carte sur un point, sans longueur, ni surface. Le cartographe rend visible ce point grâce à un figuré (rond, croix, figuré
d’un navire…) qui peut varier de taille, de valeur, de grain, de couleur, d’orientation et de forme.
L’implantation linéaire pour des phénomènes linéaires (routes, rivières, frontières, oléoducs, etc.) localisés par
une ligne dans le plan de la carte. Le cartographe rend visible cette ligne grâce à un figuré (une ligne) qui peut varier de
taille (la largeur), de valeur, de grain, de couleur, d’orientation et de forme.
L’implantation zonale est nécessaire pour l’illustration des phénomènes étendus (lac, territoire, classe
d’occupation du sol, etc.) localisé par une zone dans le plan de la carte. Le cartographe rend visible cette zone grâce à une
plage de couleur ou un aplat qui peut varier de valeur, de grain et de couleur. Il ne peut en aucun cas varier de taille,
d’orientation ni de forme, car cela reviendrait à changer les dimensions de la zone.
La compréhension de l’image cartographique repose sur des règles de construction de la symbolique, c’est la
sémiologie (étude des signes et de leur signification), elle repose également sur une utilisation codifiée des écritures et
sur des principes esthétiques généraux. Le non-respect des règles élémentaires de la sémiologie graphique peut véhiculer
un message autre que celui auquel la carte est destinée. Et les exemples sont malheureusement trop fréquents.
1. Définition
La représentation graphique est la transcription, dans le système graphique de signes, d’une pensée, d’une
information connue par l’intermédiaire d’un système de signes quelconque.
La graphique utilise les propriétés de l’image visuelle pour faire apparaître les relations d’ordre et de
ressemblance entre les données.
La sémiologie graphique quant à elle désigne la science qui étudie la signification des dessins, choix des
légendes, des symboles, des icônes afin de transmettre un message visuel. Jaques Bertin en est le père.
Un objet géographique est d’abord défini par sa position, sa localisation (X, Y) dans le plan, preuve de son
existence, mais pas de sa présence. Sa matérialité n’est rendue possible que par le truchement d’un graphisme, c’est à
dire d’une « tâche » visible, qu’il s’agisse d’un simple point ou d’un pot de fleurs ! Ce graphisme possède des
caractéristiques fondamentales que l’on nomme « variables visuelles » de Bertin et qui sont au nombre de six (06).
Celle-ci correspond à la dernière étape de la conception d’une carte et intervient au niveau de la mise en page
de la carte. Il appartient au cartographe d’habiller la carte grâce à six (06) éléments essentiels notamment : (i) le choix
d’un titre est loin d’être évident, (ii) la légende (où la placer, comment la présenter ?), (iii) la source, (iv) l’échelle, (v)
l’orientation et enfin (vi) un cadre ou grille de coordonnées (doit il limiter la carte ?).
1. Le titre
Seul l’auteur de la carte peut en composer le titre en fonction du message qu’il souhaite communiquer. Il pourra
être neutre, ou à l’inverse exprimer une opinion, une pensée. Il est souvent l’acte final de la réalisation d’une carte. Dans
tous les cas, il doit être court et clair, pour permettre d’identifier rapidement le contenu de la carte. Il devra préciser
notamment le sujet, la date et le lieu. Sa taille, sa police, est à l’appréciation de l’auteur. On préférera toutefois positionner
le titre en haut de la carte.
2. La légende
En cartographie statistique, la légende doit regrouper l’ensemble des symboles et codes couleurs utilisés dans
la carte de manière exhaustive, accompagnés de leur signification. Tous les éléments de la légende doivent se trouver
groupés dans un seul et même cadre, et non dispersés dans la carte.
3. Les sources
Les sources sont essentielles pour authentifier le contenu de la carte. Elle comprendra notamment l’origine de
l’information (données et fonds de carte), la date des données utilisées, ou encore l’auteur. Les sources se positionneront
généralement en-dessous de la carte. Afin de respecter la propriété intellectuelle, les auteurs des données et des fonds
de carte doivent être cités dans les sources (copyright).
- Echelle numérique
Ex : 1/100.000 qui transcrit le fait que 1 cm sur la carte représente 1 km sur le terrain ;
5. L’orientation
Il s’agit d’inclure à la carte, une flèche représentant le nord géographique. Le symbole représentant cette flèche
fait souvent l’objet d’une distinction raison pour laquelle il est propre à chaque auteur ou institution.
6. Le cadre
Il correspond à l’espace réservé à la « carte » au sens figuré. Il doit toujours représenter une grille de
coordonnées permettant à tout lecteur non seulement de se repérer de façon précise sur la carte, mais également de
pouvoir utiliser cette dernière lors des travaux ultérieurs.
La figure ci-dessous présente la succession théorique des phases de l’élaboration d’une carte et leur contenu.
Travaux pratiques
6. Conception de carte thématique.
Références bibliographiques
Altamimi, Z., Collilieux, X. et L., M. (2011). ITRF 2008: an improved solution of the international terrestrial reference frame. Journal of
Geodesy, 85:457-473.
Burrough P., McDonnell R., (2006), Principles of Geographical Information Systems, Ed. Oxford University Press
Capderou, M. (2002) : Satellites : orbites et missions. Springer-Verlag.
Cauvin, Escobar et Serradj, (2007) Cartographie thématique 1 : une nouvelle démarche. Lavoisier, Paris.
CSNC (2012). BeiDou navigation satellite system - signal in space interface control document - open service signal B1I. Rapport
technique, China Satellite Navigation Office.
Davis, L. A., Enge, P. et Gao, G. X., éditeurs (2012) Global Navigation Satellite Systems : Report of a Joint Workshop of the National
Academy of Engineering and the Chinese Academy of Engineering. The National Academy of Engineering, The National Academies Press.
Devillers R., (2005), Qualité de l’information géographique, Ed. Hermès Science Publication
Didier Poidevin, (1999), la carte moyen d’action : guide pratique pour la conception et la réalisation des cartes». Artique, Editions
Ellipse, Paris.
ESA (2010). European GNSS (galileo) open service - signal in space interface control document. Rapport technique, Union Européenne.
Gomascara M., (2009), Basics of geomatics, Ed. Dordech Springer
Hofmann-Wellenhof, B., Lichtenegger, H. Et Wasle, E. (2008). GNSS - Global Navigation Satellite Systems. Springer-Verlag.
ICG, 2010 Current and palanned global and regional navigation satellite systems and satellite-based augmentations systems. Rapport
technique, International Committee on Global Navigation Satellite Systems
J. Bertin, (1973) Sémiologie graphique, La Haye, mouton.
JAXA (2013) Interface specification for QZSS. Rapport technique, Japan Aerospace Exploration Agency.
KOUBA, J. (2009). A guide to using International GNSS Service (IGS) products. Rapport technique, IGS.
Laurent POLIDORI Origine et principe de la géomatique
R. Brunet, (1997) La carte mode d’emploi.
Rodríguez, J. A. A. (2008). On Generalized Signal Waveforms for Satellite Navigation. Thèse de doctorat, Univeristy FAF Munich.
ROTHACHER, M. et SCHMID, R. (2010) ANTEX. The antenna exchange format, version 1.4 Rapport technique, IGS.
Rouleau B. (2002) Méthode de la Cartographie. CNRS, Paris.
Shen, J. (2009). Compass / BeiDou - China's GNSS.
USAF SPACE COMMAND (2013). Navstar GPS space segment / navigation user interfaces. Rapport technique, ARINC Engineering
Services.
VKO (2008). Glonass interface control document. Rapport technique, Russian Institute of Space Device Engineering.