Académique Documents
Professionnel Documents
Culture Documents
Géomatique
III
Cet ouvrage fait par tie de
Technologies radars et applications
(Réf. Internet ti385)
composé de :
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
IV
Cet ouvrage fait par tie de
Technologies radars et applications
(Réf. Internet ti385)
François LE CHEVALIER
Directeur scientifique à Thalès systèmes aéroportés, Professeur à l'université de
Delft
Michel KASSER
Ancien directeur de l’ENSG (Ecole Nationale des Sciences géographiques),
Professeur Responsable de la filière Géomatique à l'école d'ingénieurs
d'Yverdon-les-Bains (Suisse), Président de l’IGSO (Ingénieurs Géomètres de
Suisse Occidentale)
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
V
Les auteurs ayant contribué à cet ouvrage sont :
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
VI
Géomatique
(Réf. Internet 42641)
SOMMAIRE
Photogrammétrie RAD7418 15
Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision R1384 23
géographiques
Systèmes d'information géographique : outil d'aide à la gestion territoriale H7415 75
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
VII
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
Géomatique
(Réf. Internet 42641)
1
1– Collecte et acquisition des données géographiques Réf. Internet page
Photogrammétrie RAD7418 15
Du GPS historique aux GNSS : utilisation pour le positionnement de haute précision R1384 23
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
9
1
10
Référence Internet
C5010
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 5 010 − 1
11
Référence Internet
C5010
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 5 010 − 2 © Techniques de l’Ingénieur, traité Construction
12
Référence Internet
C5010
De très nombreux ellipsoïdes nationaux, voire régionaux, ont été ou les angles soient quelconques. On appelle altération linéaire la
établis par le passé, chacun approximant au mieux le géoïde sur sa variation relative d’une longueur passant de l’ellipsoïde à la repré-
zone de travail, et parfaitement confondu avec lui au point fonda- sentation cartographique, et correction de réduction à la corde, ou
mental (pour la France, l’ellipsoïde est dit de Clarke et date de 1880, correction de dV (avec V visée), la correction angulaire qu’il convient
le point fondamental étant au Panthéon à Paris). Aujourd’hui, on a d’apporter à une visée ramenée sur l’ellipsoïde lorsqu’elle est repré-
souvent recours à un ellipsoïde général dit international, ce qui sentée sur le plan cartographique (figure 1).
simplifie les conversions de coordonnées qui restent malgré tout, Nous présenterons ici les projections les plus courantes : Lambert
d’un pays à un autre et pour des travaux frontaliers par exemple,
1
(employée pour la carte de France), UTM (Universal Transverse
un véritable problème technique et une source considérable Mercator, très employée dans le monde) et stéréographique (emploi
d’ennuis. Les demi-grand axe et demi-petit axe de l’ellipsoïde inter- fréquent pour des travaux scientifiques).
national (adopté en 1924) valent respectivement 6 378 388
et 6 356 912 m.
1.3.1 Représentation ou projection Lambert
1.2 Systèmes de coordonnées La représentation Lambert utilisée pour la France consiste à pro-
jeter, avec pour pôle le centre de la Terre, les points de l’ellipsoïde
Pour décrire la position d’un point A à la surface de la Terre, dif- de référence sur un cône ayant pour axe celui de la Terre, ce cône
férents systèmes de coordonnées sont utilisés. étant tangent à l’ellipsoïde le long d’un parallèle de latitude Φ0 . Dans
ces conditions, on constate qu’à la distance d de ce parallèle, une
longueur projetée sur ce cône subit une altération linéaire de
1.2.1 Coordonnées géographiques valeur m, et R étant le rayon moyen de courbure de l’ellipsoïde en
ce lieu :
– Longitude de A : angle dièdre entre deux plans contenant l’axe
d2
de rotation de la Terre, l’un contenant A et l’autre un point G de m = 1 + -------------
-
référence. 2R 2
– Latitude de A : angle entre la verticale de A et le plan de Cette valeur de m est malencontreusement toujours supérieure
l’équateur. à 1. On a donc jugé utile de multiplier a priori m par une valeur
– Altitude ellipsoïdique : distance de A à l’ellipsoïde. constante inférieure à l’unité, souvent notée e0 , et qui vaut en
France :
– Altitude : différents systèmes existent, tenant plus ou moins e 0 = 0,999 877 4
compte du champ de pesanteur, et assez proches d’une distance
de A au géoïde. C’est surtout la surface servant de référence qui la de sorte que l’altération linéaire varie à peu près entre – 12
différencie de la précédente. et + 16 cm/ km lorsqu’on passe de la proximité du parallèle de
latitude Φ 0 à celle correspondant à Φ 0 + 1,5 gr, ce qui aboutit à des
valeurs dont la moyenne est centrée sur 0. Grâce à cet artifice, il y
1.2.2 Coordonnées rectangulaires planes a deux parallèles le long desquels l’altération linéaire est nulle (à
environ 1 gr de Φ 0 ), et la France est découpée en 4 zones, ayant
Employées sur le plan de représentation plane, l’axe des Y est dans pour largeur chacune une bande de 3 gr en latitude. La zone I est
la direction du Nord pour au moins un méridien donné, et l’axe des X centrée sur Φ 0 = 55 gr, la zone II sur 52 gr, la zone III sur 49 gr et
lui est perpendiculaire : X est croissant vers l’Est et Y vers le Nord. la zone IV (pour la Corse) sur 46,85 gr. Les formules détaillées
décrivant la projection Lambert peuvent être trouvées dans de
nombreux ouvrages, par exemple [1].
1.2.3 Coordonnées cartésiennes tridimensionnelles Il faut préciser par ailleurs qu’en France, le méridien de référence
(Paris) est à 2,596 921 3 gr à l’est de Greenwich. L’image de ce
Elles sont fréquemment utilisées comme intermédiaire de calcul méridien est parallèle à l’axe des Y.
lorsqu’on emploie des méthodes de positionnement spatial. Les
axes X et Y sont orthogonaux dans le plan de l’équateur, l’axe Z est Les coordonnées Lambert pour la géodésie sont obtenues en attri-
confondu avec l’axe de rotation terrestre moyen. buant à l’intersection du méridien de référence et du parallèle de
latitude Φ 0 les coordonnées X = 600 km et Y = 200 km, sauf pour la
zone IV (Corse) où X = 234 358 m et Y = 185 861,669 m. L’axe des Y
est parallèle au Nord lorsqu’on est sur ce méridien. Les coordonnées
1.2.4 Déviation de la verticale Lambert pour la cartographie sont les mêmes, excepté la valeur de Y
qui est augmentée de 1 000 km pour la zone I, 2 000 km pour la
Ce terme désigne l’écart angulaire existant à un endroit donné
zone II, 3 000 km pour la zone III et 4 000 km pour la zone IV.
entre la verticale physique du lieu (direction de la pesanteur maté-
rialisée par exemple par un fil à plomb) et la direction orthogonale De plus, on emploie fréquemment le système Lambert II étendu,
à la surface de l’ellipsoïde passant par ce point. Lorsqu’elle est qui représente une extension du Lambert II (zone II) à toute la France,
inconnue (cas fréquent), c’est une cause d’imprécisions dans les avec bien sûr des altérations linéaires beaucoup plus fortes.
calculs de triangulation dans lesquels, par nécessité, on est amené Dans la projection Lambert, l’image des parallèles donne des arcs
à supposer que l’on travaille sur l’ellipsoïde et non sur le géoïde. de cercle centrés sur S (figure 2) et celle des méridiens, des droites
concourantes en S.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Construction C 5 010 − 3
13
Référence Internet
C5010
donc sur un secteur de l’ellipsoïde de 6o de longitude. Hors de cette 1.3.3 Projection stéréographique
zone, on utilise un nouveau cylindre dont l’axe, compris dans le plan
de l’équateur, est tourné lui aussi de 6o par rapport au précédent. Il s’agit d’une projection ayant pour pôle un point de la surface
Pour couvrir l’ensemble de la Terre, on emploie donc 60 fuseaux. de la Terre, et l’ellipsoïde est alors projeté sur un plan tangent à
Comme le rapport d’échelle serait ainsi toujours au moins égal à 1, celui-ci en un point diamétralement opposé au pôle de projection.
mais jamais inférieur, on applique en outre un facteur d’échelle sup- Le cas le plus fréquent est celui de la projection stéréographique
plémentaire valant 0,999 6, ce qui fait que l’altération linéaire varie polaire, le pôle de projection étant l’un des pôles de l’ellipsoïde. Ce
autour de l’unité, comme pour la projection Lambert. cas est employé en particulier pour compléter dans les zones polaires
2. Méthodes
de mesures géométriques
2.1 Propagation des ondes
électromagnétiques dans l’atmosphère
Les phénomènes atmosphériques marquants et qui intéressent le
topographe sont les phénomènes de réfraction (variations de l’indice
de réfraction qui entraînent un changement de vitesse et de direction
des ondes électromagnétiques) et de diffusion (interaction du rayon-
nement soit avec les molécules et les atomes constitutifs de l’air
(diffusion Rayleigh), soit avec les aérosols et les petites poussières
en suspension dans l’air (diffusion de Mie). La diffusion Rayleigh est
liée intimement aux bandes d’absorption de l’ultraviolet ; elle est res-
ponsable de la couleur bleue du ciel et de la courbe enveloppe de
la transmission atmosphérique totale vers le bleu et le vert (figure 3).
La diffusion totale due à ces deux aspects est cause :
— de l’atténuation d’un faisceau lumineux donné ;
— de l’apport de lumière solaire parasite dans le champ de récep-
Figure 1 – Réduction à la corde tion, qui se superpose au signal utile et qui représente un véritable
bruit optique.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
C 5 010 − 4 © Techniques de l’Ingénieur, traité Construction
14
Référence Internet
RAD7418
Photogrammétrie
15
Référence Internet
RAD7418
PHOTOGRAMMÉTRIE ________________________________________________________________________________________________________________
de points, est apparue une autre manière d’obtenir des nuages de points large-
ment concurrentielle, basée sur des matériels et des logiciels très peu coûteux.
C’est donc tout un ensemble technologique entièrement rénové qui doit être
analysé, en étudiant par la même occasion certaines avancées issues de la vision
par ordinateur, tout à fait fondamentales pour comprendre la situation atteinte.
Beaucoup de perspectives sont ouvertes maintenant que tous les verrous techni-
ques ont disparu.
1
D’ailleurs divers travaux de recherche, dans des domaines
1. Historique : connexes potentiellement usagers de cette technique, ont réin-
photogrammétrie et vision venté tout ou partie, par faute de publications accessibles. Quand
une technique est ainsi portée par les seuls industriels, la partie
par ordinateur récente en est bien souvent presque totalement couverte par le
secret industriel.
1.1 Photogrammétrie
La photogrammétrie est une technique (§ 1.1 de [4]) qui a vu le 1.2 Vision par ordinateur
jour très rapidement à la suite de l’invention de la photographie au
XIXe siècle. Déjà au cours des siècles précédents, différents C’est un domaine qui a vu le jour dans les années 1980. Il s’est
peintres avaient étudié la perspective en utilisant des dispositifs développé dès que l’on a su numériser des images vidéo, et il
optiques simples : par exemple, Brunelleschi, Albert Dürer, etc. couvre de nombreuses applications orientées vers le temps réel.
L’idée était déjà de fixer sur le papier une image aussi neutre, On compte parmi celles-ci l’extraction automatique d’éléments
objective et conforme à la réalité que possible. dans l’image, d’abord, simplement les contours, puis des éléments
de plus en plus évolués, tels que des objets connus (des pièces
Par la suite, l’exploitation d’images pour mesurer les distances mécaniques empilées en vrac), cela allant jusqu’à des objets très
de différents objects ne fut qu’un simple réemploi de techniques complexes (reconnaissances de visages), et enfin, la volumétrie
de topographie, de type triangulation et intersection. Et comme les des objets visibles, à partir d’images prises de deux points de vues
publications de ces techniques, dès le XVIe siècle, le montraient différents, et permettant un effet stéréoscopique. La vision par
bien, les applications envisagées étaient d’abord de type militaire : ordinateur trouve son sens évidemment dans le domaine de la
comment ajuster le tir d’un canon, comment cartographier une robotique, l’objectif étant de permettre à une plate-forme auto-
place forte ennemie sans s’en approcher, etc. nome de cartographier en temps réel son environnement immé-
C’est Aimé Laussédat, jeune militaire polytechnicien qui, le pre- diat, avec une exigence de précision assez modeste, mais
mier imagina la « metrophotographie », l’emploi de photographies variable ; comme pour tout être vivant, le besoin de précision est
(inventées peu de temps auparavant) prises depuis des sites diffé- d’autant plus grand que les objets sont proches, et la vision
rents pour effectuer des mesures à distance et cartographier ainsi humaine est parfaitement adaptée à ce besoin.
un objet ou un site. Le prototype fut celui de la façade des Invali- Dans cette communauté règne une intense activité de recherche,
des à Paris en 1849 : les applications au domaine architectural poussée par des demandes industrielles très fortes, qui atteignent
furent donc les premières à voir le jour. Puis, dès que Nadar pro- actuellement le grand public : citons par exemple, pour les
duisit les premières images aériennes depuis un aérostat, et sur- appareils photos actuels, les mises au point automatiques qui
tout lors de l’invention de l’aviation quelques décennies plus tard, localisent d’elles-mêmes la zone d’image sur laquelle elle doivent
les applications militaires devinrent le moteur de la photogrammé- s’exercer, ou même mieux, la photo qui ne se déclenche que
trie naissante. Et dès la fin de la première guerre mondiale, carto- lorsque le sujet photographié sourit et ne ferme pas les yeux : une
graphier rapidement à partir de vues aériennes fut la principale véritable prouesse. Mais dans les domaines techniques profession-
préoccupation de la photogrammétrie, et ce de façon de plus en nels, la multiplication de la surveillance vidéo a contribué, à son
plus industrielle. tour, à susciter une demande considérable pour identifier de façon
Édouard-Gaston Deville, formé par Laussédat, devenu arpenteur automatique, parmi des millions d’heures d’enregistrements, tel
en chef du Canada, produisit en 1896 le premier appareil de restitu- type d’objet, de véhicule, de visage, etc.
tion stéréoscopique. La photogrammétrie, dénommée ainsi depuis
La photogrammétrie et la vision par ordinateur partagent donc
1893 par l’allemand Albrecht Meydenbauer qui en fit un grand
indiscutablement une même recherche de mesure 3D à partir
usage en architecture, se développa en parallèle dans plusieurs
d’images permettant la stéréoscopie, mais leurs passés respectifs
pays, les relais industriels prennant naissance en Allemagne,
et leurs clientèles très différentes les ont amenés à se développer
Suisse, France, Autriche, Italie, etc., avec pour conséquences, en
de façon complètement parallèle, avec peu de zones communes.
particulier :
– une recherche de précision au meilleur niveau, afin de réaliser
la meilleure cartographie possible avec un nombre minimal de
photos ; 2. Principe général
– un travail avec un axe optique quasi vertical, et donc des pho-
tos à axes presque parallèles ; de la photogrammétrie
– un travail de restitution qui peut prendre beaucoup de temps,
le délai entre la prise de vues et la cartographie résultante pouvant
se chiffrer sans inconvénients en mois, voire en années ; 2.1 Vision stéréoscopique
– des développements qui, progressivement ont quitté le et acquisition des images
domaine académique (avec de nombreuses publications), pour
devenir quasi exclusivement du domaine industriel, sans aucune 2.1.1 Aspects géométriques
publication. Cela s’est traduit dans les dernières décennies, lors du
passage au numérique, par de véritables boîtes noires sans aucun Le principe général est basé sur la perception humaine du relief
moyen pour l’usager de savoir ce qu’il s’y faisait exactement. par observation stéréoscopique. Dans le cas de la photogram-
16
Référence Internet
RAD7418
________________________________________________________________________________________________________________ PHOTOGRAMMÉTRIE
métrie aérienne, un avion équipé d’une chambre de prise de vues – enfin, utilisation des images stéréoscopiques localisées et
vole au-dessus d’une région, de manière à ce qu’une partie du ter- orientées, sous diverses formes possibles : restitution (mesure de
rain figure sur au moins deux clichés correspondant à deux posi- tous les objets spécifiés et identification de leur nature), orthopho-
tions successives de l’avion. tographie (image corrigée des effets de perspective, recalculée
pour être en tous points superposable à une carte), ou simple
En observant simultanément un cliché avec un œil et le second
MNS (Modèle numérique de surface, obtenu par corrélation auto-
avec l’autre œil grâce à un outil optique approprié (stéréoscope à
matique des images).
miroirs, appareil de restitution, ordinateur équipé de lunettes spé-
ciales, etc.), la zone de terrain vue sur les deux images apparaît en
relief. La vision humaine permet en effet de voir en relief selon une
large gamme de dispositions relatives de ces deux images. Mais si
nous disposons ces dernières dans une position relative exacte-
2.1.2 Vision humaine
La vision humaine est une des bases de la photogrammétrie, il
1
ment semblable à celle qu’elles avaient au moment de la prise de est donc utile d’en rappeler quelques aspects :
vue, alors l’image stéréoscopique observée est une exacte homo- – la représentation des couleurs par l’œil humain est obtenue en
thétie du terrain réel photographié, pour autant que la chambre de analysant les scènes selon trois canaux seulement, et pour cette
prise de vue soit parfaite (c’est-à-dire qu’elle n’apporte aucune dis- raison les dispositifs restituant des couleurs (imprimerie, écrans
torsion à l’image, on parle alors de chambre « métrique »), ou que vidéo) utilisent nominalement eux aussi seulement trois canaux
la distorsion de l’image ait été corrigée. Pour exploiter cette scène (rouge, vert et bleu pour les photophores des écrans en synthèse
stéréoscopique, l’appareil de restitution superpose à chaque image additive, cyan, magenta et jaune pour les pigments servant de
un pointeur, le « ballonnet », que la vision humaine interprètera filtres pour l’imprimerie en synthèse soustractive, cf. § 1.3 de [1]).
comme un petit objet dont la position est déplaçable à volonté en Ce n’est qu’avec la généralisation de l’imagerie numérique que
hauteur au-dessus de l’image du terrain grâce à des commandes l’on a pu aisément proposer un quatrième canal dans le proche
appropriées. infrarouge, très utile pour l’étude de la végétation, et très facile à
L’opérateur aura donc pour travail de promener ce ballonnet obtenir, compte tenu de la sensibilité spectrale normale des
dans l’image au contact de tous les objets à mesurer, pendant que capteurs CCD ou CMOS, basés sur du silicium. Ce n’est donc que
l’appareil archivera toutes les informations numériques produites. depuis le début du XXIe siècle que des images 4 bandes sont
devenues disponibles, pratiquement sans aucun surcoût ;
Pour que l’image observée soit une copie exacte de l’objet – la mesure des distances par l’œil humain repose sur plusieurs
mesuré, il faut contraindre un certain nombre de points dans mécanismes. La vision stéréoscopique est efficace dans la gamme
l’image à se trouver à des positions relatives similaires aux leurs de dimensions du corps humain, avec une précision qui décroît
sur l’objet. Pour un couple stéréoscopique donné, on montre qu’il avec le carré de la distance, et au-delà elle est relayée par la
faut 5 points de coordonnées connues pour que l’image 3D soit mesure de l’angle apparent sous lequel sont vus les différents
parfaitement définie, et donc en pratique au moins 6 afin d’assurer objets, dont le cerveau a identifié les dimensions auparavant. La
un minimum de contrôles. Ces points peuvent être mesurés sur le résolution angulaire de l’œil humain est variable, mais elle n’est
terrain directement : cette opération est appelée stéréopréparation. généralement rarement meilleure que 1 milliradian. Jusqu’à l’arri-
Lorsque de nombreux couples stéréoscopiques sont enchaînés vée de la photogrammétrie numérique, la base de la mesure était
(bande de clichés aériens), le nombre de points terrain à mesurer l’œil, et donc toute la précision des mesures en dépendait : l’opéra-
peut être considérablement limité en analysant toute les teur avait deux rôles, celui de pointer en 3D avec précision, et celui
contraintes géométriques qui se transmettent de cliché à cliché. Le d’identifier les objets pointés. Pour la tache de pointer, il a depuis
processus repose sur l’extraction des points d’intérêt, faciles à été utilement secondé par les outils numériques de corrélation, qui
identifier, puis a les mettre en correspondance dans les différentes peuvent être beaucoup plus précis que la corrélation binoculaire
images (points « homologues »), ce qui va engendrer ces effectuée par notre cerveau. La géométrie d’acquisition des images
contraintes géométriques nécessaires au calcul. Le processus a donc pu évoluer depuis lors, autorisant des situations à faible
numérique, qui exige une grosse puissance de calcul, désormais rapport entre la distance inter-images et la distance à l’objet étudié
facilement accessible, s’appelle aérotriangulation. Par ailleurs, la (appelé rapport B/H, pour base/hauteur). C’est une évolution très
manipulation des grandes quantités de données numériques avantageuse, car plus la distance inter-images est faible et moins il
extraites est résolue par des logiciels spécialisés, permettant la y a de zones cachées non vues en stéréo dans une scène donnée.
mise en forme finale des données sorties de l’appareil, la saisie
des corrections en provenance des équipes de terrain (qui
complètent les levers de toutes les informations non visibles sur 2.1.3 Acquisition d’images
les clichés et corrigent les points douteux, phase dite de
complètement), et enfin le formatage et l’édition des données 2.1.3.1 Historique des caméras aériennes
selon les besoins du client. avant le numérique
La séquence complète de traitement photogrammétrique des Les premières photos aériennes ont été prises par Nadar sur Paris
images peut finalement se résumer ainsi : en 1858, et pendant plusieurs décennies les images ont été obte-
– tableau d’assemblage : position approximative de chaque nues sur des plaques de verre, support évidemment très délicat
image ; d’emploi en avion. Le support film n’apparaît qu’après l’invention
– orientation interne : identification des paramètres géométri- du cinéma à la fin du XIXe siècle, mais ne se généralisera sous le
ques de l’acquisition d’image, comme la distance focale, la posi- format 24 × 24 cm qu’au milieu du XXe siècle. Cette dimension
tion de l’optique par rapport à la zone sensible, la distorsion de deviendra une norme dans les décennies suivantes jusqu’à la fin de
l’optique, etc. ; cette technologie au début du siècle suivant. Les spécifications des
prises de vues aériennes prennaient aussi largement en compte les
– identification des points d’intérêt dans chaque image ; limitations dues à la sensibilité des films, le temps de pose étant
– mise en correspondance de ces points et établissement de la limité par la vitesse de l’avion, ce qui exigeait pendant longtemps
liste des points homologues entre les différentes images ; que le soleil soit haut dans un ciel clair. Cette situation impliquait
– aérotriangulation et orientation externe, donnant les positions des contrastes forts entre zones à l’ombre et celles au soleil, ce qui
et orientations relatives des images ; est peu favorable pour le travail d’exploitation, d’autant que la dyna-
– orientation absolue ou basculement : utilisation des points mique des films était trop réduite pour un post-traitement de rééqui-
d’appui sur le terrain, positions GNSS de la caméra obtenues dans librage radiométrique. Curieusement ces exigences ont perduré
l’avion, etc. pour mettre l’ensemble à l’échelle et dans le système même lorsque les chambres à compensation de filé dans les années
de référence désiré ; 1990 (où le film est déplacé pendant le temps d’exposition de façon
17
1
18
Référence Internet
TE6704
Interférométrie radar
19
Référence Internet
TE6704
1. Principales propriétés grès sur les puissances de calcul ont permis de généraliser le
traitement numérique des données qui garantissait la reproduc-
des images radars tibilité parfaite des résultats.
20
Référence Internet
TE6704
continentales, ou de façon quasi simultanée (Tandem-X), essentiel- suffisamment forte pour occulter toutes les autres. Le rayonne-
lement pour des objectifs topographiques [4]. ment diffus qui en résulte revient en partie vers le radar et pré-
Pour finir, des expériences d’interférométries limitées ont été ten- sente une statistique particulière, dite de speckle (chatoiement).
tées sur les instruments radars observant d’autres corps célestes Les rayons quatre et cinq rencontrent des cibles situées à la même
(Vénus, Titan). distance du radar. Elles seront donc irrémédiablement confondues
dans le signal : c’est le phénomène de recouvrement (overlay ). Sur
les images radars, les versants des montagnes qui font face au
1.2 Propriétés radiométriques radar apparaissent écrasés. Le même phénomène existe au niveau
1
élémentaire, pour les cibles « volumiques » pour lesquelles l’écho
Les propriétés radiométriques des images radars sont largement peut venir de cibles à différentes altitudes, par exemple une forêt
abordées dans la littérature [TE 6 702] [5]. Nous n’en rappelons dans laquelle l’onde pénétrera plus ou moins. Enfin, le sixième
que les points essentiels. Sur la figure 1, nous avons rassemblé les rayon illustre le masquage (shadowing ) : des parties du paysage
principaux comportements des différentes cibles par rapport au sont géométriquement inaccessibles et ne retournent aucun écho.
radar. En radar monostatique, l’antenne d’émission est aussi Seul le bruit de l’appareil est enregistré pour les distances situées
l’antenne de réception donc la force du signal dépend de la capa- entre les deux traits.
cité de la cible à renvoyer du signal dans la direction d’où il est Bien entendu, la longueur d’onde utilisée par le radar est impor-
venu. Par ailleurs les échos sont classés en distance par le temps tante. Elle donne l’échelle de tous les phénomènes. Une cible
mis par l’impulsion pour effectuer le trajet aller-retour. Le radar « élémentaire » en bande L (24 cm de longueur d’onde) peut s’avé-
doit donc viser vers un côté pour éviter une ambiguïté entre les rer composée en bande X (3 cm). Il en est de même des profon-
points à même distance du radar, mais à gauche ou à droite de la deurs de pénétration dans les cibles. Dans certains cas, la bande L
trajectoire. Dans ces conditions, nous considérons les situations pourra atteindre le sol alors que la bande X sera arrêtée par le
décrites par la figure 1 et représentées par les différents rayons sommet de la végétation. Les longueurs d’onde utilisées par les
partant du radar en commençant par le plus vertical et en instruments radars et les largeurs de bande associées sont stricte-
continuant dans le sens inverse des aiguilles d’une montre. Le ment réglementées : outre les bandes X et L, on trouve la bande C
radar se déplace perpendiculairement à la figure. Le premier rayon vers 6 cm et les bandes Ka et Ku encore plus courtes que la bande
rencontre une surface très plate, par exemple une étendue d’eau X. Les bandes S (10 cm) et P (70 cm) restent exceptionnelles.
calme. Celle-ci se comporte comme un miroir mais, comme le
radar n’est pas en face du miroir, aucun signal ne revient vers lui.
Ce type de surface ne sera pas vu et seul le bruit de l’instrument
sera enregistré. Cependant, dès que l’eau est un peu agitée, une 1.3 Propriétés géométriques
partie de l’écho pourra être reçue par le radar. Le deuxième rayon
est typique de la plus grande efficacité possible : la double Le radar envoie un signal radioélectrique de référence composé
réflexion. C’est le principe du cataphote avec rebond sur des d’une amplitude et d’une phase sur une longueur d’onde porteuse
surfaces perpendiculaires entre elles qui renvoient l’écho vers sa avec une largeur de bande associée. Au retour, ce signal est
source. Les réflecteurs radars sur les mâts des navires exploitent mélangé avec la porteuse, subit un filtrage passe-bas, puis est
ce principe. Le troisième rayon est caractéristique de la cible la échantillonné avec une fréquence au moins égale à la largeur de
plus banale, qui mélange une multitude des cibles élémentaires au bande. Les échantillons ainsi produits sont toujours composés
sol (cailloux, branches ou autres objets) dont aucune n’est d’une amplitude et d’une phase.
1 3
21
Référence Internet
TE6704
Distance
1 B
C
A
D0
T0
Azimut
Taille d'antenne
2 échantillons
L’échantillonnage du retour d’un écho produit une ligne en distance et fréquence de répétition, ont avec la porteuse des
d’échantillons rangés en distance. Au fur et à mesure de sa pro- rapports entiers ou fractionnaires qui ne sont affectés par aucune
gression, qu’on appelle la direction de l’azimut, le radar envoie des erreur. Ainsi, le rapport entre la longueur d’onde et la taille du
impulsions au rythme de sa fréquence de répétition, ce qui produit pixel en distance est connu sans erreur. En second lieu, la
les lignes successives de l’image. En termes mathématiques, nous contribution d’un point au sol est repérée par sa distance au radar
pouvons dire que l’image radar est formée de nombres complexes et son temps de passage au plus près du radar par la restitution à
dont la moyenne est nulle, alors qu’une image optique est formée Doppler zéro, et ce même si ce point au plus près n’a pas été
de nombres positifs, proportionnels au nombre de photons reçus éclairé par l’antenne. Imaginons par exemple un mur s’élevant per-
pour chaque pixel. Les données radars sont d’ailleurs habituelle- pendiculairement à l’avancement du satellite. Si l’antenne regarde
ment représentées non pas par une amplitude et une phase, mais un peu vers l’avant, l’image caractérisera la face avant du mur. Si
par une partie réelle et une partie imaginaire, qu’on appelle quel- l’antenne regarde vers l’arrière, ce sera la face arrière, qui présen-
quefois canal « en phase » et canal « en quadrature ». La résolu- tera éventuellement un aspect différent. Cependant, dans les deux
tion initiale d’une image radar dans le sens d’avancement (azimut) cas, l’image du mur sera située à son point de passage au plus
est médiocre, car proportionnelle à la distance et au rapport de la près.
longueur d’onde sur la longueur de l’antenne (limitation inévitable Si la Terre est assimilée à une sphère, un point de l’image radar
due à la diffraction). Avec des distances de l’ordre de 1 000 km et est donc l’intersection de trois surfaces : la sphère terrestre, la
des rapports de l’ordre de 100, la résolution naturelle est de plu- sphère centrée sur le radar au moment de la prise de vue du point
sieurs kilomètres mais l’échantillonnage créé par la fréquence de et dont le rayon est la distance d’observation du point, enfin le
répétition est bien plus serré. Les conditions d’échantillonnage plan perpendiculaire à la vitesse du satellite au moment de la prise
imposent d’ailleurs d’acquérir au moins deux échantillons quand de vue et qui contient la position du radar au même moment.
le porteur avance de la longueur de l’antenne, soit quelques Deux points correspondent à ces intersections, selon que le radar
mètres entre deux échantillons. La figure 2 symbolise l’évolution regarde à droite ou à gauche. Contrairement aux images optiques,
de la distance au radar d’une cible au sol. Les traits verticaux sont ce positionnement ne fait appel à aucune mesure angulaire.
les instants des impulsions et les cercles différents exemples de la
zone éclairée par l’antenne. Pour traiter cette cible, la synthèse Les propriétés géométriques des images radars sont elles aussi
d’ouverture consiste à fouiller tous les échantillons disponibles la largement détaillées dans [TE 6 702] [5].
concernant avec un filtrage adapté capable de détruire les
contributions de tous les points au sol à l’exception de celui qui
nous intéresse. La variation de distance par rapport au radar de 1.4 Cas particulier du signal de phase
cette cible se traduit par une variation de phase dans les différents
échantillons, qui est annulée par le filtre. Les contributions de la Le pixel d’une image radar est caractéristique d’une surface
cible, et d’elle seule, sont additionnées en phase. Ces différentes correspondant à une tranche en distance, liée à la fréquence
contributions ne comprennent pas nécessairement le moment où d’échantillonnage, et une tranche en azimut, correspondant à
la cible passait au plus près du radar (cas A de la figure 2) car l’avancement du porteur entre deux répétitions de l’émission.
l’antenne pouvait regarder vers l’avant (cas B de la figure 2), on Dans le cas le plus général, cette surface est constituée de très
parlera de « Doppler moyen positif », ou vers l’arrière (« Doppler nombreuses cibles élémentaires qui contribuent à la formation de
négatif », cas C de la figure 2) avec un décalage éventuellement la valeur du pixel en ajoutant leurs amplitudes et phase propres,
supérieur à sa largeur. On comprend cependant que rien n’empê- ces dernières étant de plus modifiées par les distances relatives
che le traitement de restituer le point ainsi obtenu à son endroit de des cibles à l’intérieur du pixel. Cette construction est fortement
passage au plus près T0 : c’est la restitution à Doppler zéro adop- aléatoire et explique que même des pixels composés de cibles
tée la plupart du temps. Les propriétés géométriques des images identiques et en nombre à peu près équivalent donnent des résul-
radars découlent d’une part, du principe d’imagerie en distance et tats différents qui se traduisent pour l’amplitude par le phénomène
d’autre part, du principe de synthèse d’ouverture. de speckle. La statistique de la phase correspond, quant à elle, à
Les incertitudes de positionnement d’une image radar diffèrent une répartition uniforme sur toutes les valeurs possibles. On ne
totalement de celles d’une image optique. En premier lieu, le radar voit pas pourquoi l’une d’entre elle serait privilégiée.
est une horloge dont la fréquence la plus élevée est celle de la por- L’utilisation classique des images radars consiste à rejeter le
teuse, par exemple 10 GHz pour la bande X à 3 cm de longueur signal de phase et à effectuer une moyenne sur les pixels voisins,
d’onde. Toutes les autres fréquences, fréquence d’échantillonnage ce qui dégrade la résolution géométrique mais diminue la
22
Référence Internet
R1384
4. Conclusion ................................................................................................ — 11
23
Référence Internet
R1384
DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION _________________________________________________
Cet article présente des utilisations des GNSS pour des mesures de haute
précision, limitées jusqu’ici à des contextes purement professionnels, mais qui
deviennent désormais accessibles au grand public. L’historique du positionne-
ment par satellites permet tout d’abord de comprendre la situation actuelle et
d’anticiper celle des prochaines décennies. Les problèmes occasionnés par
l’emploi des divers systèmes de référence sont évoqués et les procédés de
mesure, les différents types de matériels et les limitations d’utilisation sont
24
Référence Internet
R1384
__________________________________________________ DU GPS HISTORIQUE AUX GNSS : UTILISATION POUR LE POSITIONNEMENT DE HAUTE PRÉCISION
25
1
26
Référence Internet
TE6720
Applications de la géolocalisation
Une technologie qui change le monde
1
par Philippe SAINT-MARTIN
Consultant – Institut télécom, 4icom (Paris)
27
Référence Internet
TE6720
28
Référence Internet
TE6720
Figure 2 – Boîtier de géolocalisation pour conteneur ConLock (Crédit Global Tracking Technology)
29
Référence Internet
TE6720
■ Principe technologique
10 10 %
La solution retenue pour mettre en œuvre l’Ecotaxe impose à
tous les véhicules, dont le poids est supérieur à 3,5 t, de s’équiper
d’un équipement embarqué contenant un récepteur GNSS et un 0 0%
module GSM-GPRS. Le processus consiste à valider, au moyen du
0
02
04
06
08
10
12
0
20
20
20
20
20
20
20
30
Référence Internet
E7560
Systèmes de communications
par satellite
1
par Daniel BATTU
Ingénieur des télécommunications honoraire et consultant
31
Référence Internet
E7560
1
poids. Pour relever ces défis, un satellite doit être composé à partir de maté-
riaux légers et durables. Il doit fonctionner avec une très grande fiabilité de
plus de 99,9 % dans le vide spatial sans perspective d’entretien ou de
réparation.
Le premier satellite artificiel, Spoutnik 1, a été lancé par l’Union Soviétique, le
4 octobre 1957. Le premier satellite à relayer les signaux vocaux fut celui du
projet SCORE (Signal Communication by Orbite Relay Equipment) du gouver-
nement américain, le 19 décembre 1958. Le 6 avril 1965, le premier satellite
Intelsat, Early Bird (appelé aussi Intelsat 1), a été construit par Hughes Aircraft
Company. Early Bird a été le premier satellite commercial opérationnel à fournir
des services réguliers de communication et de diffusion entre l’Amérique du
Nord et l’Europe.
32
Référence Internet
E7560
Segment spatial
Satellite
1
de contrôle distant – TTC, Équipements de poursuite de
télémesure et de télécommande)
Liaison Liaison
montante descendante
Émetteur Récepteur
Segment terrestre
33
Référence Internet
E7560
1
transfert
1.2.3.2 Communications avec les stations mobiles 2
Au cours des vingt dernières années, la miniaturisation des com- 4 – Mise sur orbite finale
posants et des antennes a ouvert la voie à une forte réduction du
poids et de l’encombrement des équipements d’émission-réception
radioélectriques. Parallèlement, les offres de téléphonie vocale et
de transferts de données se sont multipliées à des niveaux de prix
de plus en plus bas avec les réseaux terrestres de téléphonie
mobile (2, 3 et 4G) et les réseaux satellitaires (Iridium, Globalstar, Figure 3 – Étapes d’une procédure de lancement
Orbcomm, etc.).
L’égalité des deux forces considérées, avec w = 2 x 3,14/T, fournit
l’équation suivante :
1.2.3.3 Radiodiffusion
2
Les programmes de radios et de télévision utilisent les satellites M.g. (R/ (R + H)) = M.ω 2 . (R + H) , d'où il vient : H = 35 879 km.
en raison de leur capacité à couvrir de vastes zones géographiques.
Il suffit d’un émetteur de programmes dont l’antenne est orientée avec H l’altitude, exprimée en km, de l’orbite du satel-
vers un satellite équipé pour la diffusion sur l’ensemble d’un terri- lite terrestre ;
toire national. La même technologie peut aussi être utilisée pour la R le rayon terrestre (6 378 km) ;
transmission vers les studios de séquences de reportages relayées
au moyen de systèmes satellitaires du service mobile. M la masse du satellite ;
g l’accélération de la pesanteur sur le lieu de lan-
cement ;
1.2.3.4 Diversification géographique des marchés
T la période de révolution de la Terre (24 heures).
À l’origine du marché satellitaire, les États-Unis, l’Europe et le
Japon ont représenté les segments dominants. Depuis cinquante La satellisation dépend de la vitesse acquise par la charge utile.
ans, les réseaux terrestres se sont densifiés et la fibre optique est Celle-ci doit être comprise entre 7,8 km/s et 11 km/s. La vitesse de
devenue le support de choix pour les hauts débits internatio- satellisation minimale (MVOO) pour la Terre et pour une orbite cir-
naux. Les récentes avancées technologiques ouvrent la voie aux culaire de 1 200 km d’altitude est de 7,9 km/s. À 11 km/s, le satellite
constellations de satellites en concurrence avec les réseaux de échappe à la gravité de la Terre et devient une sonde spatiale.
téléphonie mobile, notamment pour l’accès aux applications À 36 000 km d’altitude, un lanceur dispose d’une capacité de
Internet. Des plans audacieux de développement sont actuelle- charge de 6,9 tonnes. Cette capacité est proche de 10 tonnes à
ment proposés afin de réduire la fracture numérique à travers le 800 km et elle atteint 20 tonnes entre 300 et 400 km. En général,
monde, en particulier pour le bénéfice des populations isolées. les lanceurs sont constitués de deux ou trois étages de propulseurs
à poudre ou à liquide. Les propulseurs, ainsi que le premier et le
second étage, sont des éléments de la fusée récupérables par des
1.3 Lancement des satellites parachutes dans la mer. Les autres éléments se désagrègent dans
l’atmosphère. À la fin de la seconde guerre mondiale, les lanceurs
à poudre et à ergols liquides furent utilisés pour la propulsion de
1.3.1 Principes de lancement missiles et des fusées spatiales. Des solutions alternatives ont été
envisagées pour la propulsion de sondes spatiales ou pour les éta-
La procédure de lancement consiste à mettre le nombre de satel- ges supérieurs des lanceurs de satellites, l’accélération atmosphé-
lites désiré dans le plan orbital et la position relative souhaités. rique pouvant être fournie par d’autres moteurs, moteur ionique
Afin de réduire le coût du lancement, plusieurs satellites peuvent ou VASIMR (§ 1.3.4).
être lancés simultanément en utilisant une orbite provisoire de
transfert (ou orbite de parking). L’allumage d’un moteur associé à La capacité de charge des lancements a été récemment élargie
chaque satellite modifie l’orbite de celui-ci en plusieurs étapes entre 8 et 27 tonnes et elle pourrait atteindre 250 tonnes en 2030.
symbolisées sur la figure 3. Le positionnement relatif des satellites Cet élargissement des possibilités ouvre la voie à des satellites
sur l’orbite finale s’effectue au moment opportun par action sur moins coûteux, mieux financés et à la création de constellations
de satellites en couche basse (LEO), de poids compris entre 10 et
son moteur associé.
250 kg.
Pour placer un satellite sur orbite terrestre, une fusée (ou lan-
ceur) est utilisée. Ce lanceur doit conférer à la charge utile une 1.3.2 Lanceur thermique
vitesse suffisante à une altitude définie afin d’assurer la stabilité
de rotation du satellite autour de la Terre. Différentes méthodes de propulsion spatiale sont disponibles
afin d’assurer le déplacement d’un objet dans l’espace. Le principe
La mise sur orbite résulte de la mise en présence de deux forces de propulsion est lié à la transformation d’énergie chimique en
opposées, l’une qui est l’attraction terrestre, orientée vers le centre énergie cinétique. Le moteur de la fusée crée sa propre force
de la Terre et la force centrifuge qui, grâce au lanceur, éloigne le motrice, dans l’atmosphère et dans le vide spatial, du fait du prin-
satellite du sol et le met en rotation. Le lancement d’un satellite cipe de l’égalité de l’action et de la réaction, par l’éjection de gaz à
suppose que celui-ci puisse acquérir une accélération suffisante grande vitesse à l’arrière du véhicule au travers d’une tuyère (pro-
pour atteindre 28 100 km/h en vitesse orbitale. Une fois cette der- pulsion par « moteur-fusée »). La plupart des vaisseaux spatiaux
nière acquise, l’équilibre des forces en présence est assuré. actuels utilisent des moteurs à fusées chimiques à combustion
34
Référence Internet
E7560
interne, à propergols solides ou liquides. L’ergol combustible brûle 1.3.5 Lancement spatial avec assistance
l’ergol comburant, ce qui fournit l’énergie nécessaire à la propul-
sion de la masse de l’ensemble lanceur / satellite. La masse propul- 1.3.5.1 Lancement spatial sans fusée
sive à haute température est éjectée sous la forme d’un gaz très Le lancement spatial sans fusée est une méthode de lancement
chaud à travers une tuyère qui assure la détente et l’accélération orbital ou suborbital, pour lequel la vitesse et l’altitude sont four-
du gaz d’échappement. Les vitesses d’éjection de tels moteurs nies sans avoir recours à des fusées éjectant des gaz pour produire
sont habituellement comprises entre 2 et 10 fois la vitesse du son une poussée à l’arrière du véhicule. Dans la plupart des cas, la
au niveau de la mer. méthode utilisée est la projection, la charge utile étant mise en
1
mouvement par une force transmise à l’aide d’un dispositif fixe
1.3.3 Propulsion électrique situé au sol (canon ou catapulte). Il s’agit d’un lancement assisté,
tel qu’utilisé par le lanceur Pegasus et le vaisseau SpaceShipOne
La propulsion électrique n’est utilisable qu’en haute altitude et (lancement aéroporté partiel).
elle présente l’inconvénient d’allonger le temps de mise en orbite.
Elle est mise en œuvre pour le maintien à poste des satellites et la 1.3.5.2 Lancement d’un satellite à l’aide d’un avion
rehausse de leur orbite à leur valeur théorique en utilisant des for- En 2016, la Nasa a placé en orbite huit microsatellites météorolo-
ces électrostatiques ou électromagnétiques. Dans ce procédé, la giques (constellation CYGNSS, Cyclone Global Navigation Satellite
masse propulsive est constituée d’un flux d’ions sous forme de car- System), grâce à un avion de la Nasa, porteur d’un lanceur Pega-
burant ionisé éjectable. Les moteurs utilisent l’énergie électrique sus XL. L’avion a déployé le lanceur de 22 tonnes à 13 km d’altitude
pour ioniser les atomes de la masse propulsive, puis créent des et celui-ci a placé les satellites sur leur orbite à 512 km d’altitude
champs électriques pour accélérer les ions jusqu’à leur vitesse (figure 4). Ces derniers ont pour mission de mesurer la vitesse
d’éjection. Ce processus économise du poids dans la période de des vents afin de mieux anticiper l’évolution des ouragans.
lancement. L’efficacité énergétique et la poussée sont inversement
proportionnelles à la vitesse d’éjection. Les grandes vitesses d’éjec- 1.3.5.3 Ballons
tion exigeant de très grandes puissances électriques, ce concept Pour des expériences à caractère scientifique, éducatif, ou com-
devient inapplicable pour les fortes poussées. mercial, des charges utiles peuvent être transportées par des bal-
lons gonflés à l’hélium à des altitudes comprises entre 10 et
1.3.4 VASIMR 40 km. Ces déploiements, sollicités par des institutions gouverne-
mentales, ne portent que sur de courtes durées (entre deux heures
La propulsion magnéto-plasmique à impulsion spécifique et plusieurs semaines), afin de faire face à un sinistre par exemple.
variable ou VASIMR (« Variable Specific Impulse Magnetoplasma Un ballon peut ainsi emmener à 22 km d’altitude une fusée dont la
Rocket ») est un propulseur spatial à plasma. Il utilise des champs mise à feu peut placer en orbite à 600 km d’altitude un satellite de
et des rayonnements électromagnétiques variables pour chauffer, 150 kg de charge utile.
ioniser et accélérer un propergol vaporisé (hydrogène, argon ou
hélium). VASIMR est une solution alternative à deux systèmes 1.3.6 Principaux lanceurs actuels
spécialisés existants que sont les propulseurs à haute poussée La mise en orbite est un facteur déterminant dans les projets spa-
et à faible impulsion spécifique (comme les moteurs-fusées à tiaux pour lesquels l’efficacité et l’économie constituent des objec-
propulsion chimique) d’un côté, et les propulseurs à faible pous- tifs essentiels. Au total, il n’existe que sept puissances au monde
sée et à haute impulsion spécifique (moteurs ioniques) de l’autre. capables de fabriquer et d’assurer le lancement de leurs satellites
Il est capable de fonctionner dans les deux modes par ajustement de façon autonome : les États-Unis, la Chine, l’Union européenne,
des paramètres. la Russie, l’Inde, le Japon et Israël (§ 4.1).
Départ 2ème
Largage du carénage
étage – 71 km
de charge à 116 km
Allumage à
12,3 km
Fin 1er étage
53 km
Montée
35
Référence Internet
E7560
1.4 Orbites
Les caractéristiques essentielles des satellites de télécommuni-
cations sont relatives à leur altitude, à l’inclinaison de leur orbite par
rapport à l’axe des pôles terrestres et à l’excentricité de leur orbite.
L’orbite du satellite est circulaire si l’injection sur la trajectoire désirée
est effectuée horizontalement et à une vitesse en adéquation avec l’alti-
tude. Si ces conditions ne sont pas respectées, l’orbite est elliptique.
36
Référence Internet
R1814
Mesure du champ
de pesanteur terrestre
1
par Michel DIAMENT
Physicien à l’Institut de physique du globe de Paris (IPGP)
Laboratoire de gravimétrie et géodynamique, département de géophysique spatiale
et planétaire (UMR CNRS/IPGP/Paris-7 7096)
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur R 1 814 − 1
37
Référence Internet
R1814
1
Une partie de ce texte est adaptée du chapitre « Forme de la Terre et mesure de la pesanteur »
de l’ouvrage Géophysique [19].
Cette étude a bénéficié des informations ou documents que Nicole Debéglia (Bureau de
recherches géologiques et minières – BRGM), Sébastien Déroussi (Bureau FROG – French
Resources Organization on GOCE), Arnaud Landragin (CNRS-BNM-SYRTE), Guillaume Martelet
(BRGM) et Michel Sarrailh (Bureau gravimétrique international – BGI) m’ont communiqués ainsi
que des commentaires de Marc Priel sur une version préliminaire. Je les en remercie. Je tiens
à exprimer ma gratitude à Anne-Marie Gaulier pour sa patience.
(0)
sur la Terre en fonction de la latitude. Ces formules, dites IGF pour
géophysicien hongrois : 1 E = 0,1 μGal / m = 10–9 s–2.
international gravity formula, sont valables sur un ellipsoïde
Le tableau 1 rappelle les différentes unités utilisées. donné. Rappelons que l’ellipsoïde est une forme théorique de la
La pesanteur à la surface de la Terre <g > est de l’ordre de Terre, proche mais qui diffère du géoïde qui correspond à la forme
9,80 m/s2. Elle est plus faible à l’équateur où, du fait de la rotation, vraie de la Terre. Le géoïde est une surface équipotentielle du
le rayon terrestre est le plus grand et l’accélération centrifuge la champ de pesanteur terrestre qui se confond avec le niveau moyen
plus forte, et vaut 9,78 m/s2. Aux pôles, la valeur est de 9,83 m/s2. des océans. L’ellipsoïde est une surface équipotentielle du champ
Les variations en latitude, qui sont du même ordre de grandeur de pesanteur théorique.
que les variations en altitude (du sommet de l’Everest au fond de La formule de 1980 donne la valeur de la pesanteur sur l’ellip-
la fosse des Mariannes) sont donc de l’ordre 5 · 10–3 <g >. Les hété- soïde correspondant au système géodésique WGS84 (utilisé pour
rogénéités de masse situées dans la partie la plus externe du globe le positionnement GPS) [IN 29].
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 1 814 − 2 © Techniques de l’Ingénieur
38
Référence Internet
R1814
9,83 0,9 2
M
1 + 0,00193185138639sin λ
g = 9,7803267714 --------------------------------------------------------------------------------------
1 – 0,00669437999013 sin 2 λ
N (2)
9,82 0,8
La pesanteur varie également avec l’altitude (plus on s’éloigne
du centre de la Terre, plus la pesanteur diminue) : son gradient
1
9,81 0,6
nt
vertical moyen dit à l’air libre vaut 0,308 6 mGal/m. Lorsque l’on
ie
ad
n
sa s’élève de 500 m sur la topographie. Les gradients varient donc en
9,79 Pe 0,2
fonction de la nature du sous-sol, de la topographie et des masses
au voisinage immédiat du point de mesure. En fonction des
9,78 0 besoins, il peut être nécessaire de mesurer éventuellement les
0 10 20 30 40 50 60 70 80 90 gradients, et en particulier le gradient vertical.
Latitude λ (°)
La figure 2 montre la valeur de g en milligals au niveau du sol
sur la France métropolitaine. Elle a été calculée par le Bureau
Figure 1 – Variation de la pesanteur et de son gradient horizontal gravimétrique international (BGI) situé à Toulouse. On constate
en fonction de la latitude bien une augmentation de g avec la latitude et une diminution avec
l’altitude.
Si λ est la latitude, on a : En un point donné, la pesanteur varie au cours du temps. Cela
est dû à l’effet des corps externes (la Lune et le Soleil) ainsi qu’aux
g = 9,7803267715 (1 + 0,0052790414 sin2 λ mouvements éventuels de masses au voisinage du point de
+ 0,0000232718 sin4 λ + 0,0000001262 sin6 λ mesures, notamment ceux des enveloppes fluides que sont
+ 0,0000000007 sin8 λ ) (1) l’atmosphère et les nappes phréatiques.
52
Latitude λ (°)
51
50
49
48
47
46
45
44
43
42
–5 –4 –3 –2 –1 0 1 2 3 4 5 6 7 8 9
Figure 2 – Valeur de la pesanteur au sol (mGal)
Longitude (°)
calculée par le BGI à partir de 49 625 mesures
effectuées en France
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur R 1 814 − 3
39
Référence Internet
R1814
1 – 0,1
géophysicien hongrois, au début du vingtième siècle. Eötvös mit
au point une balance de torsion permettant de mesurer les
gradients horizontaux. Ce type d’instrument a été utilisé de façon
90 100 110 120 intensive au début de l’exploration pétrolière jusque vers 1939
Temps (jour) où il a été supplanté par des gravimètres relatifs donnant accès
à la mesure du module de g. Néanmoins, récemment, il y a eu
un regain d’utilisation d’instruments mesurant les différents
Figure 3 – Exemple de marée d’après un enregistrement de 30 jours gradients du champ (FTG : full tensor gradiometry ) et de
réalisé à Bondy nombreux colloques y sont consacrés dans les milieux
industriels.
En mer, les premières mesures ont été réalisées dès 1921 à
La Lune et le Soleil exercent des attractions gravitationnelles bord de sous-marins par un géophysicien hollandais,
périodiques. Leur influence se traduit également par une défor- F.A. Vening-Meinesz, qui avait développé un instrument utilisant
mation de la Terre solide, la longueur du rayon terrestre pouvant des pendules.
ainsi fluctuer jusqu’à 56 cm. Les variations des attractions gravi-
tationnelles de la Lune et du Soleil ainsi que les déplacements variation de celle-ci. Par exemple, si on considère deux points de
verticaux des points de mesure sous leurs actions sont la source mesure A et B, et que l’on connaît la valeur absolue de la pesanteur
de ce que l’on appelle les marées gravimétriques, ou effet g A en A, la mesure de la variation de la pesanteur entre A et B,
luni-solaire (figure 3). Ces effets peuvent être prédits théorique- g AB , permet de connaître la valeur de la pesanteur en B.
ment [2] avec une précision d’une dizaine de microgals. Notons On a vu (§ 1) que la variation de la pesanteur sur la Terre entre
toutefois que localement, par exemple dans des zones proches des l’équateur et les pôles est de l’ordre de 5 Gal en tenant compte uni-
côtes océaniques, les prédictions peuvent être moins précises du quement de la rotation et des variations du rayon terrestre entre
fait de la non-prise en compte des effets dus à l’océan (déplace- l’équateur et le pôle. C’est un peu plus si l’on va du sommet de
ment des masses océaniques et mouvement de la Terre solide sous l’Everest au fond de la fosse des Mariannes (~ 8 Gal). Par
l’effet des charges et décharges dues aux marées océaniques). On conséquent, pour obtenir une précision relative de l’ordre de
peut alors utiliser des algorithmes plus précis ou procéder à des quelques microgals en tout point du globe, il « suffit » de faire des
enregistrements locaux. Les effets luni-solaires atteignent jusqu’à mesures relatives à 10–6 ou 10–7 près. Si les variations de la pesan-
300 μGal (3 · 10–7 <g >). teur auxquelles on s’intéresse sont plus petites, par exemple en
Les changements de pression atmosphérique créent des dessous de quelques dizaines de milligals, on peut plus facilement
variations de la pesanteur du fait des modifications de poids de la obtenir des résultats très précis. Il s’agit là du domaine de la micro-
colonne d’air au-dessus des capteurs. Elles sont comprises suivant gravimétrie qui est une méthode appliquée pour la prospection de
les auteurs entre 0,2 et 0,4 μGal/hPa. Merriam [3] suggère une la subsurface (notamment pour des recherches de cavités) ou mise
valeur standard de 0,356 μGal/hPa. en œuvre dans des domaines bien particuliers comme la
Les effets hydrologiques sont plus difficiles à quantifier. Des volcanologie.
variations de la pesanteur sont créées par des variations de niveau Ainsi, on peut connaître la valeur de la pesanteur en tout point
de nappe phréatique, par des modifications de l’humidité des sols, de mesure à la condition de connaître la valeur absolue en un point.
par la neige, etc., c’est-à-dire le cycle de l’eau en général. Par Ce point particulier est ce que l’on appelle une base. On distingue
exemple, une élévation d’un mètre de la nappe phréatique corres- plusieurs « ordres » de bases. Celles où des mesures absolues ont
pond à une augmentation de 42 μGal fois la porosité du milieu. été réalisées sont évidemment les plus précises, puis il existe
Exemple : pour une porosité de 25 %, une montée d’un mètre d’autres bases qui ont été « rattachées » grâce à des mesures rela-
conduit donc à une augmentation de 10 μGal. tives aux premières, et ainsi de suite. Bien évidemment, plus l’ordre
de la base est élevé, moins précise est la valeur de g.
On voit donc qu’en fonction de la précision recherchée, il convient Pour pouvoir comparer des mesures réalisées en différents
ou non de réaliser des mesures de gradient et des mesures annexes, endroits du globe, il est donc fondamental qu’un ensemble
et de prendre en compte ou non les effets de marée terrestre, les commun de bases soit utilisé par tous. C’est ainsi qu’un réseau
effets environnementaux, de connaître le cycle de l’eau. standard international de la pesanteur a été adopté en 1971 par
Exemple : pour des mesures très précises, on mesure la hauteur l’Association internationale de géodésie (AIG). Ce réseau est appelé
du capteur du gravimètre par rapport au point où l’on souhaite déter- IGSN71 (International Gravity Standardization Net).
miner la valeur de g, la pression atmosphérique, etc. En France, 31 bases font partie de ce système. Ce n’est pas suf-
fisant, et un réseau de bases additionnelles existe. Concrètement,
une base est un point bien repéré géographiquement, facilement
réoccupable et choisi dans un environnement a priori stable.
2. Types de mesures. Cependant, les réseaux de bases doivent être maintenus régu-
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 1 814 − 4 © Techniques de l’Ingénieur
40
Référence Internet
R2345
L a mer, malgré la transparence tant vantée de ses eaux, est un milieu opa-
que. Au-delà d’une dizaine de mètres, l’œil n’y voit que du bleu et quelques
dizaines de mètres plus bas, c’est le noir complet. Pour explorer les fonds, ana-
lyser leur relief et leur nature, on doit recourir à des moyens indirects. Ces
moyens ont fait longtemps défaut, laissant le champ libre à l’imagination.
Depuis le milieu du siècle, ils se sont multipliés par le recours aux mesures
géophysiques : mesures de champs comme la gravimétrie, le magnétisme et
l’électromagnétisme ou mesure de la propagation d’ondes acoustiques ou
mécaniques (sismique).
Les buts poursuivis par ces méthodes sont de connaître :
— la topographie générale du fond de la mer ;
— les particularités de la surface du fond de la mer ;
— la structure des formations géologiques situées sous le fond ;
— la nature de ces formations ;
— l’océan (contenant et contenu).
Parution : mars 2001
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 2 345 − 1
41
Référence Internet
R2345
1
provenant de sonars à ultrasons et d’images obtenues par photographie ou
télévision. Il se traduit par des cartes constituées de mosaïques d'images qui
peuvent être superposées aux cartes bathymétriques.
Pour atteindre le troisième objectif, on utilise l’analyse des échos provenant
de la réflexion d’ondes acoustiques ou mécaniques sur les couches successives
de sédiments ou de roches constituant le sous-sol de la mer. Aux ondes acous-
tiques, de fréquence allant de quelques kilohertz à quelques centaines de kilo-
hertz, correspondent les sondeurs ou pénétrateurs à sédiments. Aux ondes
mécaniques de fréquences plus basses (quelques hertz à quelques dizaines de
hertz) correspondent les méthodes sismiques.
Des informations sur la structure des couches profondes peuvent aussi être
obtenues par les méthodes gravimétriques, magnétiques et électromagnétiques.
L’obtention d’informations sur la nature des formations du sous-sol marin
exige le recours à des prélèvements par carottage ou par forage, qui sortent du
propos de cet article. Toutefois, les méthodes sismiques, gravimétriques,
magnétiques et électromagnétiques donnent des indications sur les caractéris-
tiques physiques de ces formations, qui peuvent servir à leur identification.
La reconstitution de la structure et de la nature du sous-sol marin provient,
comme à terre, de l’interprétation des données obtenues par une combinaison
de méthodes indirectes (géophysique) et directes (prélèvement).
Nous parcourrons ci-après les diverses méthodes géophysiques actuellement
en usage : bathymétrie, imagerie acoustique, sondeurs à sédiments, gravimé-
trie, magnétométrie. Les méthodes sismiques ne font pas l’objet de cet article.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 2 345 − 2 © Techniques de l’Ingénieur, traité Mesures et Contrôle
42
Référence Internet
R2345
Historique de la bathymétrie
La première question posée à l’explorateur est évidemment celle fond insonifiée dépend évidemment de la profondeur. D’un dia-
de la profondeur. Les abîmes insondables ont disparu, mais ils exis- mètre de l’ordre de 150 m sur le plateau continental, on passe à
taient encore au milieu du XIXe siècle. Les premiers explorateurs 3 000 m dans les plaines abyssales situées à 4 000 m de profondeur.
eurent quelques problèmes pour mesurer la profondeur dès que Il est évident que la restitution du relief s’en ressent. Un ressaut bru-
celle-ci dépassait les deux milles mètres. La première difficulté était tal, comme une falaise, se traduira sur le sonogramme par une
d’avoir des lignes de sonde, faites de chanvre torsadé, capables
d’atteindre plusieurs kilomètres de long. On réalisa des brins relati-
vement courts en les reliant par des tourillons afin d’éviter qu’ils se
flexure à faible pente. À l’époque, la présence de telles structures
restait complètement inaperçue, bien que les arts traînants (chalut,
drague, etc.) faisaient état de croches très brutales et les photogra-
1
détordent. Par ailleurs en haute mer, les navires dérivaient au vent, phies du fond, d’escarpements bien marqués.
la ligne de sonde prenait une pente oblique et son lest n’atteignait Dans le courant des années 1970, apparurent sur le marché des
jamais le fond. C’est ainsi qu’en 1854, furent encore reportées des sondeurs à pinceaux étroits de quelques degrés d’angle qui don-
profondeurs fantastiques de plus de 15 000 m, sur la carte de naient une bien meilleure précision. Mais le positionnement des
l’Atlantique nord établie par Matthew Fontaine Maury [1]. profils successifs, souvent basé une navigation à l’estime, laissait à
En 1840 pourtant, Sir James C. Ross réussit à mesurer une pro- désirer. Le positionnement par satellites du système Transit, ne
fondeur de 2 425 fathoms (4 437 m) dans l’Atlantique sud à bord du fournissait des points que toutes les deux heures au mieux et avec
HMS Erebus. Il avait utilisé une chaloupe supportant un touret de une précision très discutable : au mieux 100 m, parfois plusieurs
près de 6 600 m de ligne de chanvre. Celle-ci était manœuvrée par kilomètres en raison des aléas de réception radio. Pour obtenir une
les rameurs de façon à ce que le fil de sonde reste vertical. Des mar- cartographie précise, il fallait disposer d’une navigation radioélec-
ques permettaient de mesurer la vitesse de descente : un brusque trique ou d’un positionnement acoustique utilisant des transpon-
ralentissement de celle-ci indiquait que le fond avait été atteint [1]. deurs sur le fond. Le levé des profils demandait beaucoup de temps
Une vérification a été opérée en 1968 par le navire de recherche et la méthode ne pouvait être utilisée que pour des objectifs de fai-
américain Discoverer utilisant un sondeur acoustique conven- bles dimensions. Un cartographe dessinait ensuite des isobathes en
tionnel. La différence observée, compte non tenu de l’imprécision interpolant entre les lignes de sonde.
du positionnement commun aux deux époques, est inférieure à À la fin des années 1970, la marine américaine autorisa ses four-
1 %. nisseurs à vendre, pour un usage civil, des échosondeurs multifais-
Pourtant la carte de Maury réalisée à partir de tels moyens fait ceaux, d’un type simplifié par rapport à ceux utilisés depuis
déjà apparaître la présence d’une ride médio-atlantique. Mais il fal- plusieurs années pour des besoins militaires. Le Centre national
lut attendre 1961 pour que les premières cartes physiographiques pour l’exploitation des océans CNEXO (devenu depuis l’Institut
des océans, établies à partir d’une compilation de profils bathymé- français de recherche pour l’exploitation de la mer - Ifremer) fut le
triques par Marie Tharp et Bruce Heezen du Lamont Geological premier à acquérir un tel équipement en 1977, qu’il installa sur le
Observatory, montrent l’extension des dorsales dans les trois navire océanographique Jean Charcot [5]. Ce fut une véritable
océans [2]. révolution : l’appareil délivrait en temps réel une carte en courbes
La première utilisation, imaginée en 1917 par Paul Langevin, des de niveau sur une bande de 3 km de largeur pour des fonds de
propriétés piézo-électriques du quartz pour détecter les sous- 4 000 m (figure 1). Mise à part la constance de la vitesse du navire
marins par ultrasons, n’eut pas le temps d’être réellement mis en et sa dérive transversale éventuelle, la carte fournie était infiniment
œuvre avant la fin de la Première Guerre mondiale [E 1 910] (réfé- plus précise que celle qui aurait été obtenue par une série de profils
rence [3]). Vers 1920, P. Marti, un ingénieur hydrographe, utilisa la parallèles utilisant des pinceaux étroits.
réflexion du son pour effectuer un levé de la pente continentale du Dans le même temps apparurent des lochs à effet Doppler mesu-
golfe du Lion [2]. Mais cette expérience ne fut pas poursuivie, bien rant la vitesse du navire par rapport au fond ou sur une grande
qu’en 1935 le Norvégien Sund utilisât les ultrasons pour détecter les épaisseur d’eau et non plus par rapport à l’eau de surface. Une
bancs de morue [4]. Ce fut vraiment la construction en masse de meilleure connaissance de la vitesse du navire permettait d’effec-
transducteurs acoustiques dédiés à la lutte sous-marine pendant la tuer des corrections de dérive et de vitesse apparente et donnait un
Seconde Guerre mondiale qui fournit les moyens de la bathymétrie meilleur rendu de la bathymétrie. La mise en service en 1994 du
moderne. Nombre de navires étaient équipés à la fin de la guerre de système de navigation par satellites Navstar/GPS (Global Posi-
sondeurs acoustiques leur permettant de mesurer la profondeur. tioning System ) apporta une précision jamais égalée au position-
Les navires océanographiques reçurent des outils plus perfec- nement en haute mer : 100 m pour les usages civils avec une
tionnés capables de meilleures performances. Malgré la réticence amélioration possible à 10 m en utilisant un dispositif différentiel
des autorités militaires, des cartes de plus en plus précises [E 6 600] (référence [6]).
commencèrent à être élaborées par les différentes institutions Les échosondeurs multifaisceaux se sont depuis quelques
scientifiques. années considérablement perfectionnés grâce à la puissance des
Jusqu’alors on utilisait la technique du pinceau large, direc- calculateurs embarqués. Ils disposent d’un plus grand nombre de
tement issu des besoins de détection d’objets sous-marins. Ces faisceaux balayant une plus grande largeur du fond et d’une inté-
équipements envoyaient une onde acoustique dans un cône dont gration dans des complexes informatiques traitant conjointement la
l’angle au sommet était d’une quarantaine de degrés. La surface du navigation.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 2 345 − 3
43
Référence Internet
R2345
1
mation varie ici comme le carré du champ électrique contrairement
20° à l’effet piézo-électrique qui est linéaire. Pour produire ou détecter
des ultrasons, on utilise le titanate de baryum, le zircotitanate de
plomb ou le niobate de plomb façonnés sous forme de céramiques
2° frittées. On peut leur imposer une polarisation permanente et leur
donner par moulage et meulage les formes adaptées aux modes
de vibration les plus efficaces [3] [9].
Route du navire Les transducteurs sont construits de manière à émettre ou rece-
voir des ondes sonores dans une direction privilégiée. L’onde
émise par un projecteur cylindrique n’est cependant pas limitée à
un simple cône circulaire. Si on construit le diagramme de directi-
a pinceau large et étroit b multifaisceau vité du transducteur (figure 2), on constate qu’il présente un lobe
principal dans l’axe de directivité dont la largeur est l’angle 2θ3
Figure 1 – Sondeurs à pinceaux large et étroit pour lequel l’intensité sonore est égale à la moitié de l’intensité
et sondeurs multifaisceaux maximale dans la direction du lobe principal.
Les sondeurs multifaisceaux utilisent des transducteurs assem-
blés de manière particulière pour constituer des antennes émet-
trices et réceptrices (tableau 1).
2 θ3
La magnétostriction fut utilisée dès 1935 pour la production De telles antennes sont composées d’une série de projecteurs
d’ultrasons dans la conception de sonars par R.W. Wood, Smith et circulaires en céramique de petit diamètre (384 de 5 cm de dia-
McGeachy. Elle utilise la propriété qu’ont les matériaux ferro- mètre dans l’EM 12 ; 156 regroupés en 13 modules dans le Sea-
magnétiques de se déformer lorsqu’ils sont soumis à une aiman- falcon 11). Ceux-ci sont disposés côte à côte à l’intérieur d’une
tation. Un barreau de nickel ou de ferrite placé dans un bobinage enceinte rectangulaire carénée allongée dans le sens longitudinal
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 2 345 − 4 © Techniques de l’Ingénieur, traité Mesures et Contrôle
44
Référence Internet
R2345
Hollming
Echos 625 12 15 100 à 5 000 0,7 P oui
Echo XD
Odom [58]
Echoscan
15 à 45
200
4 × 15
101
60 à 6 000
2 à 100
2P
7,4 P
non
oui
1
Reson [59]
Sea Bat 8101 100 101 2 à 300 7,4 P oui
Sea Beam [60]
Sea Beam 12 16 100 à 10 000 0,66 P non
Sea Beam 2000 12 45 100 à 10 000 2P oui
Sea Beam 2112 12 149 50 à 11 000 7 à 2 P (24 km) oui
Sea Beam 1185 180 126 1 à 300 8P oui
Sea Beam 1055 180 126 10 à 1 500 8 à 1,2 P oui
Simrad [61]
EM 3000 300 127 0,5 à 200 4 P (200 m) oui
EM 3000D 300 254 0,5 à 200 10 P (250 m) oui
EM 1000 95 120 2 à 1 000 7,5 P (1 000 m) oui
EM 300 30 135 5 à 5 000 6 P (5 000 m) oui
EM 12S 13 81 50 à 11 000 3,5 P (18 km) oui
EM 12D 13 162 50 à 11 000 2,5 P (22 km) oui
EM 121 12 121 10 à 11 000 3,5 P (25 km) oui
SNT-Atlas [62]
Hydrosweep 12 59 2P oui
Fansweep 15 200 600 oui
Thomson
Lennermor 12 20 8 à 500 2P oui
Seafalcon 11 12 5 × 400 80 à 11 000 3,5 P oui
Triton [21]
Hydro Suite 150 200 128 0,5 à 300 7,4 P oui
(1) Valeur maximale entre parenthèses.
2θ3
L’antenne réceptrice devra « écouter » les échos réverbérés par
le fond dans une zone plus large que la partie insonifiée de
manière à tenir compte du tangage lors de la réception. Cette zone
est divisée en bandes d’écoute de quelques degrés, parallèlement
à l’axe du navire (figure 4).
Les faisceaux seront distribués régulièrement, mais avec un
recouvrement plus ou moins important. Ainsi l’EM 12 possède z
81 faisceaux espacés de 1,1o couvrant une bande de 90o par 18o.
L’angle d’ouverture dans le sens transversal varie de 3,5o pour les Figure 3 – Surface insonifiée par le faisceau émetteur [10]
faisceaux proches de la verticale à 5o pour les plus obliques. La
zone de réception aura ainsi une dimension qui variera de 1,5 à
10 m transversalement à l’axe du navire et de 10 à 200 m longitu- maximale (MAD Maximum Amplitude Direction ), permet de discri-
dinalement, suivant la profondeur et le type de sondeur utilisé. miner les mesures à intervalles d’un milliradian (0,06 o) ; on peut
Le Seafalcon 11 utilise deux méthodes pour effectuer les ainsi obtenir jusqu’à 2 000 mesures par cycle de sondage.
mesures. L’une, basée sur le niveau d’énergie, forme 150 faisceaux L’antenne est composée de plusieurs centaines d’hydrophones
séparés de 1o. L’autre méthode, basée sur la direction d’amplitude disposés par séries (210 hydrophones en 42 barreaux de 5 hydro-
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 2 345 − 5
45
Référence Internet
R2345
sr Sr
Sr max
Sr
xi
1 di
(1/2) Sr max
sr
θi G
zi
Figure 4 – Disposition des faisceaux émetteurs et récepteurs tue, par combinaison des séries d’hydrophones, deux demi-voies
d’un sondeur multifaisceau [29] dont on mesure en permanence la variance du déphasage des
impulsions sonores reçues, en affectant à l’une d’elles un
déphasage correcteur proportionnel au sinus de l’angle d’inclinai-
phones pour l’EM 12 ; 450 en 90 barreaux répartis dans 5 modules
son du faisceau étudié. Cette variance va s’annuler à l’instant où on
pour le Seafalcon 11). L’ensemble a une forme rectangulaire de
reçoit le signal provenant du point situé dans la direction d’incli-
1 à 3 m de longueur et 5 à 50 cm de largeur suivant les modèles et
naison. On peut ainsi déterminer cet instant même pour un signal
est installé transversalement à l’axe du navire.
faible reçu avec un niveau de bruit important.
La qualité de réception dépend évidemment du niveau de réver-
1.1.5 Traitement des signaux reçus bération (appelée aussi réflexion diffuse ou rétrodiffusion) de
l’onde acoustique sur le fond, du niveau de bruit de fond naturel
Les signaux analogiques provenant des hydrophones sont de la mer ou du bruit créé par le navire. Le premier dépend de la
regroupés par rangées pour former les canaux d’entrée du dispo- dureté et de la rugosité du fond. Il varie de – 30 à – 40 dB. Le bruit
sitif de traitement. Ils sont amplifiés, filtrés pour éviter les bruits naturel de la mer dépend de l’état de la mer, il est de moins de
parasites et le gain est ajusté de manière à obtenir un niveau iden- 40 dB pour une mer calme et de 45 dB pour un état de mer 4. Le
tique quelle que soit la profondeur. Ces signaux sont ensuite bruit créé par le navire est de l’ordre de 40 à 50 dB. C’est ainsi que
convertis en signaux numériques. la couverture de l’EM 12 est limitée à 19 km pour un fond avec une
forte réverbération (– 30 dB) et un fort niveau de bruit (50 dB) ou
Les différents hydrophones enregistrent des échos provenant pour un fond à faible réverbération et un faible niveau de bruit
des différents points insonifiés, qui se superposent. Ceux prove- (40 dB).
nant d’un même point sont reçus par les hydrophones avec un
déphasage dépendant du chemin parcouru et donc de l’angle sous Par combinaison de différentes méthodes, on finit par obtenir
lequel revient le signal. En combinant ces différents signaux légè- une série de valeurs précisant l’inclinaison de la voie, l’instant
rement déphasés, on constitue une voie qui ne correspond qu’aux retour correspondant, ainsi que la valeur de l’amplitude du signal
échos provenant d’une direction précise. Ces voies sont autant de à cet instant retour. On pratique alors un certain nombre de correc-
faisceaux récepteurs inclinés. Les combinaisons d’hydrophones et tions qui tiennent compte des mouvements de pilonnement du
de déphasages pour former les voies sont évidemment très nom- navire, de la profondeur d’immersion des antennes et de la varia-
breuses. Chaque fabricant a développé ses propres algorithmes en tion de la célérité du son dans la colonne d’eau. Cette dernière cor-
fonction de la puissance de calcul disponible et des caractéris- rection est essentielle pour tenir compte de la trajectoire réelle de
tiques du matériel utilisé. l’onde sonore (figure 6).
L’analyse du signal doit aussi déterminer l’instant spécifique cor- On calcule alors pour chaque faisceau, à l’instant t correspon-
respondant à l’écho de retour. Généralement, on ne retient du signal dant à la moitié du temps moyen de parcours des ondes acous-
que ce qui intervient dans une fenêtre d’écoute, ajustée par rapport tiques aller et retour, la profondeur zi et la distance transversale di
aux balayages précédents. Puis l’instant retour est choisi, soit correspondant à chaque faisceau i , ainsi que l’amplitude du signal
comme le temps correspondant au barycentre de la surface générée retour. Ces données vont servir au tracé de la bathymétrie, après
par la courbe mesurant l’amplitude du signal en fonction du temps recoupement avec les données de navigation.
(au-dessus d’un seuil donné et dans une fenêtre déterminée), soit
comme le temps correspondant au moment où est atteinte la moitié
de la valeur maximale des amplitudes cumulées (figure 5). 1.2 Cartographie
Dans un cas comme dans l’autre, cette valeur est d’autant moins
précise que le faisceau considéré est incliné. La réflexion du signal Contrairement à la topographie dont le niveau de référence est
est alors plus faible et la surface insonifiée étant plus étendue, les celui de l’ellipsoïde géodésique et l’axe positif orienté vers le
retours s’étendent sur une plus longue période. Pour les inclinai- zénith, la bathymétrie a pour surface de référence la surface de la
sons supérieures à 15-20o, on utilise l’interférométrie. On consti- mer et l’axe positif des mesures est dirigé vers le nadir.
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
R 2 345 − 6 © Techniques de l’Ingénieur, traité Mesures et Contrôle
46
Référence Internet
R2345
1
1 000 Hollming (Echos XD), Furuno, etc.}. Il importe aussi les données de
navigation provenant de la plupart des systèmes existants. Il est
1 500 capable également de traiter et d’archiver les données d’environ-
Trajectoire réelle nement (gravimétrie, magnétisme, météorologie, cap, roulis, tan-
2 000
gage, etc.). L’ensemble de ces données sont archivées sur disques
2 500 Trajectoire rectiligne magnétiques et sur disques optiques numériques. Il permet la
création de profils de célérité (vitesse du son dans l’eau en fonction
3 000 Écart d'incidence de la profondeur) à partir de données de tirs Sippican.
z (m)
Il comporte deux ensembles logiciels :
Fond
— CARAIBES_TR pour les traitements en temps réel. Il assure la
mise au format et l’archivage des données et crée des index d’accès
Figure 6 – Célérité et trajectoire d’une onde acoustique [10] qui en faciliteront l’accès ultérieur. Il visualise la carte bathymétrique
sous forme d’isobathes dans le repère choisi par l’utilisateur avec
diverses fonctions (zoom, panoramique, suivi du navire, création de
1.2.1 Cartographie en temps réel profils, ajout de trait de côte, de route prévisionnelle, de plan de sta-
tion, de chemin de câbles, etc.). Il assure aussi la visualisation de
Les constructeurs de sondeurs multifaisceaux proposent un l’imagerie lorsque celle-ci est disponible. Il permet de visualiser éga-
ensemble de logiciels permettant d’obtenir des cartes bathy- lement les données d’environnement sous forme de profils le long
métriques en temps réel, en fait quelques minutes après l’émission de la route du navire et de traiter les profils de célérité par filtrage
du signal. Ces logiciels assurent la fusion du fichier des données en les complétant à partir de la base de données mondiales Levitus ;
venant du sondeur (t, {di , zi }) avec les données de navigation qui — CARAIBES_TD pour les traitements en temps différé. Il
donnent la position du navire en fonction du temps (t, x, y ). On comporte deux modules l’un traitant les données de bathymétrie,
obtient ainsi une table de données (xi , yi , zi ) qui va permettre le l’autre les données d’imagerie. Dans chaque cas, le logiciel assure
tracé des isobathes. La plupart de ces logiciels n’offrent que peu de l’importation et l’archivage des données de navigation et différents
possibilités de validation et de correction des données avant tracé, filtrages et corrections préparant les données pour la cartographie.
et le résultat obtenu ne satisfait pas complètement les utilisateurs. Il permet la visualisation et l’impression de cartes isobathes et pré-
En particulier, le filtrage des bruits, des sondes erronées ou la cor- pare les données pour l’exportation au format d’autres programmes
rection de la navigation, surtout avant l’apparition du GPS, laissent de cartographie (ArcView, Cartolib,...).
à désirer et les cartes obtenues comportent de nombreuses aber-
rations topographiques. 1.2.3.1 Dépouillement de la navigation
Le dépouillement de la navigation prend en compte les données
provenant :
1.2.2 Cartographie en temps différé
— du gyrocompas et des lochs doppler et électromagnétique ;
Les utilisateurs ont fait développer tout d’abord des logiciels per- — de différents types de récepteurs de navigation par satellites
mettant le retracé de la carte à partir des données brutes enre- GPS ;
gistrées sur disque optique numérique. L’apparition de cette — de récepteurs de navigation par satellites Transit ;
technologie a permis le stockage et la relecture rapide de vastes — de récepteurs de navigation radioélectrique (Loran C, Syledis,
quantités de données sur de faibles volumes (plusieurs gigaoctets), Omega, Toran, Decca, etc.).
ce qui était pratiquement impossible lorsque l’enregistrement se Ces données sont visualisées et filtrées de manière interactive. On
faisait sur des bandes magnétiques. On peut alors visualiser les travaille d’abord sur les données d’estime (cap et vitesse) en éli-
données brutes et les corriger soit en faisant intervenir des algo- minant les données aberrantes, en lissant et en interpolant les
rithmes, soit par intervention de l’observateur. Le rejeu des don- valeurs par méthodes graphiques à la console. Ces données cor-
nées de navigation permet aussi leur filtrage et leur correction rigées sont confrontées à la navigation GPS et aux autres navigations
ainsi que la prise en compte des dérives du navire enregistrées par disponibles, par visualisation graphique. On cherche la représen-
le loch doppler, les systèmes de navigation radioélectrique ou par tation la plus précise de la route suivie par le navire et à connaître
satellite. Après filtrage et fusion des données, l’opération de tracé l’angle de dérive du bateau, qui est la différence entre le cap et la
peut utiliser plusieurs techniques cartographiques plus ou moins route fond. En effet, les mesures bathymétriques issues des dif-
sophistiquées. férents faisceaux sont perpendiculaires au navire, donc au cap, mais
pas forcément à la route. Il faut aussi tenir compte des recouvrements
des faisceaux lors des évolutions du navire. Après correction, les
1.2.3 Logiciel CARAIBES données sont enregistrées sous format utilisable par le programme
de cartographie, sous la forme de positions successives du navire en
À titre d’exemple, nous allons succinctement décrire les opéra- coordonnées géographiques (ti , ϕi , Gi ) ou métriques (ti , xi , yi ).
tions effectuées par le logiciel CARAIBES (CARtographie Appliquée
à l’Imagerie et à la BathymétriE des Sonars et sondeurs multifais- 1.2.3.2 Dépouillement de la bathymétrie
ceaux), mis au point par l’Ifremer. Ce logiciel est la troisième géné-
ration de systèmes développés par cet organisme pour le Le dépouillement des données de bathymétrie utilise les don-
traitement de la bathymétrie et l’imagerie sonar. Le logiciel actuel nées fournies par le sondeur multifaisceau. Pour chaque cycle, on
provient de la refonte des logiciels ARCHIV (archivage des données enregistre :
brutes du sondeur sur disque optique numérique), VIDOSC (visua- — la date et l’heure ;
lisation des données en temps réel le long de la route du navire), — l’attitude du navire à la transmission (cap, roulis, tangage et
TRINAV (dépouillement de la navigation), TRISMUS (carte bathy- pilonnement) ;
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Mesures et Contrôle R 2 345 − 7
47
1
48
Référence Internet
TE5228
Géoradar
Principes et applications
1
par Florence SAGNARD
Ingénieur en sciences et technologies de l’université Pierre et Marie Curie
Docteur en physique de l’université Paris-Sud Orsay
Habilitée à diriger les recherches de l’université Marne-la-Vallée
Chargée de recherche, Institut français des sciences et technologies des transports, de
l’aménagement et des réseaux (IFSTTAR), département COSYS, Villeneuve-d’Ascq, France
et Fayçal REJIBA
Ingénieur en génie civil de l’École nationale d’ingénieurs de Tunis (ENIT)
Docteur en géophysique appliquée de l’université Pierre et Marie Curie, Paris 6
Habilité à diriger des recherches de l’université Pierre et Marie Curie, Paris 6
Maître de conférences à l’université Pierre et Marie Curie , Paris 6, Paris, France
e géoradar (en anglais GPR pour Ground Penetrating Radar) est une
L technique de prospection géophysique non destructive fondée sur l’analyse
des phénomènes de propagation (réfraction, réflexion et diffraction) des ondes
49
Référence Internet
TE5228
GÉORADAR ________________________________________________________________________________________________________________________
et propagation Affichage
Traitement de signal
inversion
dans les sols
Stockage
Émetteur
1.1 Principes Source
Trajet direct
dans l'air Échantillonnage
modulation discrétisation
Le géoradar (ou radar géologique) constitue l’une des
méthodes géophysiques (sismique, électrique, magnétique, gravi- Air TX RX Antenne radar
métrique...) susceptible de fournir des informations sur la distribu- Trajets
tion, la nature, et la composition des matériaux composant le Trajet Direct Déplacement x
directs Sol dans le sol
sous-sol terrestre. Le géoradar repose sur l’interprétation des e1
signaux détectés en réflexion ou transmission suite à leur pro-
pagation dans le sous-sol (figure 1). L’allure des signaux est intrin- R1 Discontinuité
sèquement reliée aux contrastes de permittivités et de Trajet
réfléchi Signal
conductivités électriques dans un milieu aux propriétés particuliè- Signal réfléchi
rement hétérogènes, atténuantes et dispersives. sur R1 transmis e2
L’utilisation et le développement de la technique de prospection R2
électromagnétique se sont considérablement accrus depuis les
années 1980 conduisant ainsi à deux types de finalités : la carac- Trajet
térisation du sous-sol (texture, composition, teneur en eau) et la réfléchi
détection, la localisation et éventuellement l’identification sur R2 e3
d’objets enfouis (mines, tuyaux, cavités...) [1] [2] [3]. L’utilisation
de différentes fréquences nominales (usuellement entre 10 MHz et
2 GHz) permet d’atteindre différentes profondeurs d’investigation
et diverses résolutions spatiales (en pratique λ/2, λ = v /f étant la Temps Profondeur z
longueur d’onde associée à la vitesse de propagation v et la fré-
quence nominale f ), ces deux paramètres étant inversement pro- Figure 1 – Schéma du principe de fonctionnement d’un géoradar
portionnels. La profondeur d’investigation est particulièrement de surface dans la configuration bistatique (émetteur et récepteur
délicate à estimer car elle résulte d’un compromis entre le choix de dissociés)
50
Référence Internet
TE5228
________________________________________________________________________________________________________________________ GÉORADAR
1
dizaines de centimètres à quelques mètres), à hautes fréquences
(entre 1 200 MHz et 2 GHz), la profondeur d’investigation est plus Eau salée 81 1 000
faible (d’ordre décimétrique voir millimétrique) et la résolution éle-
vée (environ dix fois plus faible). Elle dépend étroitement de l’atté- Glace 3à4 0,001 à 0,01
nuation intrinsèque du milieu, et en particulier de sa conductivité
électrique. Par exemple, la profondeur d’investigation est quasi Sable sec 2,5 à 5 0,001 à 0,01
nulle dans une argile de conductivité supérieure à 10–1 S · m–1, et
Calcaire sec 4à8 0,1 à 1
est considérable (plusieurs centaines de mètres) dans la glace
propre qui apparaît transparente aux ondes radar (conductivité Granite 4à6 0,01 à 1
inférieure à 0,001 S · m–1).
Grès 4à5 0,3 à 1
Argiles 3 à 60 0,1 à 300
1.2 Propriétés électriques des sols
Marnes 5 à 15 1 à 100
Aux fréquences usuelles du géoradar, la majorité des sols pré-
sente des contrastes diélectriques bien plus significatifs que des
contrastes magnétiques. Par conséquent, on supposera que la per- La permittivité réelle de l’eau (proche de 80) présente une valeur
méabilité est équivalente à celle du vide (µ = µ0 = 4 π × 10–7 H · m– très supérieure à la plupart des constituants d’un sol (entre 3 et 9)
1). Les propriétés électriques (permittivité et conductivité) des et influence considérablement la permittivité effective réelle
matériaux géologiques et du génie civil sont des grandeurs com- d’un milieu naturel aux fréquences radar. La permittivité effec-
plexes (au sens mathématique) qui dépendent généralement de la tive peut donc être un très bon indicateur de la teneur en
fréquence. Les lois de comportement diélectrique complexes tra- eau.
duisent des phénomènes de stockage d’énergie (partie réelle) et de Un sol étant un mélange aléatoire de divers constituants (gaz,
perte d’énergie (partie imaginaire) [5] [6] [7]. Sachant qu’un sol est solide(s), fluide(s)), sa permittivité effective réelle dépend des per-
généralement un milieu hétérogène, on utilise la notion de per- mittivités réelles de chacune des phases ainsi que de leur réparti-
mittivité complexe effective relative (par rapport à celle du tion géométrique dans le milieu. La difficulté de modéliser le
vide ε0 = 1/(36 π × 109) F · m–1) pour exprimer ses propriétés comportement d’un sol a conduit à développer divers modèles
électriques : pour exprimer sa permittivité réelle effective en fonction des carac-
téristiques diélectriques et géométriques des divers constituants.
Par exemple, des modèles physiques (DEM, Differential effective
(1) Medium), des relations empiriques et semi-empiriques [5] [6].
Les modèles semi-empiriques sont fondés sur des « lois de
où sont respectivement les parties réelle et imaginaire de mélange ». Ces lois expriment le comportement diélectrique d’un
la permittivité diélectrique, σ (S · m–1) est la conductivité électrique milieu à plusieurs phases en fonction des permittivités réelles des
associée à un courant continu, ω = 2πf est la fréquence angulaire matériaux constituants, des interactions électromagnétiques entre
de l’onde électromagnétique de fréquence f, et j2 = – 1. ces mêmes constituants, de leurs fractions volumiques, de la
forme des inclusions, ainsi que d’autres paramètres caractérisant
Aux fréquences usuelles du géoradar, les principaux méca- la microstructure du mélange. La multitude de lois de mélange
nismes de relaxation observés sont associés à la polarisation dipo- reflète la difficulté réelle de modéliser un milieu hétérogène et la
laire. Ces mécanismes sont essentiellement induits indirectement nécessité de les adapter à chaque type de milieu.
ou directement par la présence d’eau dans les matériaux naturels,
et les sols en particulier. Dans le cas de sols humides, la loi semi-empirique de puis-
sance ou loi (Ulaby et al., 1985) associée à la permittivité réelle
Les modèles analytiques les plus utilisés qui rendent compte de effective est la plus utilisée. Elle a pour expression :
la dépendance fréquentielle de la permittivité complexe relative
d’un milieu naturel sont fondés sur les modèles de Debye (1929),
Cole-Cole (1941), ou Cole-Davidson (1951) [4] [5]. Ces modèles (3)
peuvent être exprimés à l’aide du formalisme général suivant :
où représentent respectivement la fraction volumique et la
avec εs et ε∞, qui s’expriment en F · m–1, les valeurs limites à basses Le paramètre α est associé à la géométrie du mélange, et
et hautes fréquences de la partie réelle de εe respectivement, τ le dépend de la direction du champ électrique incident .
temps de relaxation. Les paramètres α et β [sans dimension] repré- Tandis que la formule de Birchak et al. considère que α = 0,5 (for-
sentent des facteurs d’amortissement . mule de CRIM, Complex Refractive Index Model ), celle de
Looyenga suppose que α = 1/3, et celle de Silberstein que α = 1.
Dans le cas d’un seul pôle de relaxation, le modèle de Debye a Fratticioli et al. ont introduit deux paramètres supplémentaires,
pour paramètres (α = 1, β = 1), le modèle de Cole-Cole suppose une constante et un facteur multiplicatif [7].
que β = 1 et le modèle de Cole-Davidson que α = 0.
Cependant, la relation précédente ne considère pas la géométrie
Le tableau 1 rassemble des valeurs de permittivité et de conduc- des structures internes du milieu et la distribution microscopique
tivité de matériaux usuels du sous-sol aux fréquences du géoradar. des fluides, ceux-ci pouvant avoir des effets importants sur les pro-
51
Référence Internet
TE5228
GÉORADAR ________________________________________________________________________________________________________________________
priétés diélectriques de milieux géologiques non saturés. La for- À la distance z = 1/α, l’atténuation de l’onde atteint la valeur de
mule de Hanai-Bruggeman-Sen qui considère deux phases (une 1/e. Cette distance est une indication de la profondeur de pénétra-
phase dispersée noyée dans une matrice ) permet de tion de l’onde ; cependant, cette dernière dépend de plusieurs fac-
résoudre partiellement cette problématique : teurs et notamment de phénomènes de diffractions générés par
des objets de taille limitée (inférieure à λ) et des surfaces
rugueuses qui ne sont actuellement pas considérés dans la
(4) relation (8).
1
Pour , à la fréquence f = 200 MHz, αdB/m prend les valeurs
où φ2 est la fraction volumique de la phase dispersée dans la
matrice et L est un paramètre associé à la forme des éléments de respectives de 6,17 et 54 dB · m–1 pour des conductivités σ variant
la phase dispersée. de 10–2 à 10–1 S · m–1. À la fréquence f = 900 MHz, αdB/m atteint les
Parmi les modèles empiriques existants, le plus utilisé est le valeurs de 6,18 et 61,3 dB · m–1. La conductivité est le paramètre le
modèle empirique de Topp et al. (1980). Il est adapté essentiel- plus influent sur le coefficient d’atténuation.
lement pour les sols sableux et a été développé dans la bande de
fréquences [0,01 GHz, 1 GHz]. Il relie la permittivité effective réelle La vitesse de phase de l’onde s’exprime de la façon suivante :
d’un sol à sa teneur en eau volumique f à l’aide d’un polynôme
de degré 3 de la façon suivante : (9)
(5)
Dans le cas d’un milieu à faibles pertes tan δ ≈ 0, la vitesse de
où A, B, C, et D sont des coefficients dépendants du type de sol. phase se réduit à :
Une variation moyenne de avec la teneur en eau volumique φ a
été établie par Topp, ce qui conduit aux coefficients suivants : (10)
A = 3,03, B = 9,3, C = 146 et D = – 76,7.
Pour σ = 10–2S· m–1,
une fréquence f = 200 MHz, et ,
les vitesses de phase V sont respectivement de 1,13 × 108 et
8 –1
0,65 × 10 m · s .
1.3 Propagation électromagnétique
dans le sol
La propagation des ondes électromagnétiques (champs élec- 1.4 Génération des hyperboles
trique et magnétique) dans la matière est régie par les équations
de Maxwell qui peuvent être exprimées dans les domaines tempo- Le déplacement du système radar (émetteur/récepteur) à la sur-
rel ou fréquentiel. La spécificité du géoradar, par comparaison au face du sol permet de détecter des cibles réfléchissantes qui ne
radar aérien, tient à la présence de l’interface air-sol et des cibles à sont pas directement situées à l’aplomb des antennes. Lors de la
détecter dans le sous-sol dans la zone de champ proche des progression du radar, les cibles vont apparaître sous divers angles
antennes. Dans ce contexte, la modélisation analytique des phéno- d’observation correspondant à des trajets d’ondes et des temps de
mènes de propagation s’avère incomplète. Cependant, le forma- propagation différents. Ainsi, une forme hyperbolique est associée
lisme utilisé pour établir les principaux paramètres de prospection à chaque cible réfléchissante (figure 2a) et le point le plus haut de
géoradar sont basés sur l’hypothèse de la propagation en champ l’hyperbole (l’apex) indique la position latérale (en Ox) de la cible
lointain (onde plane). Par la suite, une modélisation électromagné- comme présenté en figure 2b.
tique numérique beaucoup plus exhaustive pourra être entreprise Considérant un milieu homogène de permittivité réelle relative
pour valider et affiner le choix de ces paramètres. e′ indépendante de la fréquence, le temps de parcours aller-retour
de l’onde électromagnétique, suite à sa réflexion sur la cible située
Considérant ainsi une onde plane incidente sinusoïdale, dont le
à la profondeur di est :
champ électrique est polarisé selon la direction Ox et se propage
selon l’axe Oz, sa propagation dans le sous-sol en présence de
contrastes diélectriques est à l’origine de phénomènes de (11)
réflexions, diffractions et transmissions (figure 1). À la réception,
dans la direction des trajets réfléchis, l’onde reçue apparaît atté-
nuée et déphasée [8]:
1.5 Techniques de modulation
(6)
De façon générale, deux types de systèmes géoradar peuvent
où β = ω/V est le facteur de phase, V est la vitesse de phase de être distingués :
l’onde et α, en Np · m–1, le facteur d’atténuation. – les systèmes temporels ;
La vitesse de propagation V et l’atténuation α sont les deux – les systèmes fréquentiels.
paramètres caractérisant la propagation des ondes électromagné- Les radars temporels (radar impulsionnels) reposent sur
tiques dans un milieu et qui dépendent de ses propriétés diélec- l’envoi d’un train d’impulsions de durée brève (typiquement entre
triques. Leur connaissance va permettre de décrire les propriétés 200 ps et 50 ns) à une fréquence de répétition longue (1 à 100 µs),
physiques et la structure du sous-sol. et la réception d’échos successifs issus des rétrodiffusions par les
Le facteur d’atténuation s’écrit : éléments constitutifs du sol.
Les radars fréquentiels sont fondés sur l’envoi d’un signal
modulé en fréquence qui peut être effectué au moyen d’un
(7) balayage linéaire (FMCW, Frequency Modulated Continuous Wave)
ou d’un balayage discret par paliers (SFCW, Step Frequency Conti-
nuous Wave). La technologie des radars fréquentiels est plus
et s’exprime en dB/m de la façon suivante :
récente que celle des radars impulsionnels du fait des contraintes
(8) plus sévères demandées aux fonctions électroniques, ainsi la plu-
part des radars commerciaux sont de type impulsionnel. Ils offrent
8 –1
avec c = 3 × 10 m · s vitesse de propagation dans le vide (air), et toutefois des performances significatives en termes de rapport
tangente de pertes diélectriques. signal à bruit (SNR) et de dynamique. Dans le cas du radar impul-
52
Référence Internet
C224
Géophysique appliquée
au génie civil
1
par Richard LAGABRIELLE
Ingénieur Civil des Mines
Docteur ès Sciences
Directeur technique
Laboratoire Central des Ponts et chaussées
53
Référence Internet
C224
1
Un modèle géologique est un ensemble de représentations d’un site sous ses
différents aspects (nature, répartition, propriétés des matériaux qui le consti-
tuent). Ces représentations prennent matériellement la forme de cartes, de
coupes, de blocs diagrammes, de coupes de sondages, de textes ou même de
maquettes.
Au départ, la reconnaissance est toujours fondée sur un premier modèle
géologique, qui peut être très sommaire, imprécis ou peu fiable. Le but de la
reconnaissance est de l’améliorer, de le rendre fiable, précis, le plus complet
possible afin de permettre une conception de l’ouvrage qui repose sur les
données dont on a besoin et qui soient les plus sûres possible.
54
Référence Internet
C224
2. Généralités Les valeurs les plus basses (500 m/s) correspondent aux
sur la géophysique matériaux très altérés de surface, les valeurs les plus fortes
(6 000 m/s) à du rocher très sain et non fracturé. Pour mémoire,
la vitesse du son dans l’air est d’environ 340 m/s, dans l’eau elle
vaut 1 425 m/s.
2.1 Définition de la géophysique
1
Les principales méthodes sismiques sont la sismique réfraction et
la sismique réflexion, la sismique par ondes de surface, la tomogra-
phie sismique, le cross-hole ainsi que les diagraphies sonique et
La géophysique appliquée est la discipline qui consiste à étu- microsismique.
dier (observer, mesurer) un champ physique à la surface du sol
ou dans des cavités creusées dans le sol. Ce champ physique, ■ Caractéristiques électriques
dont l’origine peut être naturelle ou provoquée, dépend d’un ou
plusieurs paramètres caractéristiques des matériaux dont on Les matériaux du sous-sol sont conducteurs de l’électricité.
cherche à déterminer la répartition dans le terrain.
La conductivité, notée σ, est la grandeur qui caractérise cette pro-
priété. Elle se mesure en siemens par mètre (S/m).
Cette définition ne se comprend pas immédiatement si l’on n’a La résistivité, notée ρ, est l’inverse de la conductivité, elle se
pas d’exemple de méthode en tête. Elle deviendra plus claire quand mesure en ohms-mètres (Ω · m). Plus ρ est faible, plus le matériau
on aura lu les paragraphes suivants et, en particulier, le tableau est conducteur.
synoptique 1.
■ Masse volumique
Il y a donc entre les matériaux des contrastes de résistivité très
forts. Cela confère aux méthodes fondées sur la recherche de la
L’ordre de grandeur courant de la masse volumique des sols
répartition de la résistivité un grand pouvoir de discrimination entre
en place est de 2 000 kg/m3.
les matériaux. Ces méthodes sont la prospection électrique par cou-
rant injecté (dont les diagraphies de résistivité, cf. [C 225]) et les
Le champ de pesanteur dépend de la répartition des masses donc méthodes électromagnétiques en basses fréquences.
de la répartition de la masse volumique des matériaux du terrain.
Par exemple, l’existence d’une cavité souterraine correspond à un
■ Caractéristiques magnétiques et électromagnétiques
déficit de masse et provoque une anomalie négative de la pesanteur
mesurée en surface. La gravimétrie est la méthode qui exploite ces Les propriétés magnétiques des matériaux sont quantifiées par la
phénomènes. perméabilité magnétique relative µr et la susceptibilité magnétique
Une autre méthode géophysique est utilisée pour déterminer pré- χ:
cisément la valeur de la masse volumique et sa répartition ; il s’agit
de la méthode de diagraphie différée appelée gamma-gamma. µr = 1 + χ
■ Caractéristiques élastiques (modules d’élasticité, vitesses des Elles sont peu utilisées en génie civil. Une méthode magnétique
ondes mécaniques) est parfois utilisée pour rechercher des objets contenant du fer sur
La vitesse de propagation des ondes mécaniques dans les maté- un site qui peut avoir servi de décharge (en revanche, le magné-
riaux dépend de leurs modules d’élasticité (modules d’Young et de tisme est très utilisé en archéologie pour découvrir des restes de
Poisson, coefficients de Lamé) et de leur masse volumique. Les poteries ou d’autres hétérogénéités comme les vestiges du phare de
méthodes sismiques ont pour but de découvrir la répartition des Pharos). Nous ne parlerons pas dans cet article des méthodes
vitesses des ondes mécaniques. magnétiques.
(0)
55
Référence Internet
C224
Les caractéristiques électromagnétiques autres que µr et χ sont Le tableau 1 indique les six grandes méthodes utilisées en
encore la conductivité σ, déjà citée, et la permittivité relative εr. géophysique. Sur chaque ligne, on reconnaît les éléments de la
Celle-ci a une influence sur la vitesse de propagation des ondes définition 2.1. En particulier, on a indiqué dans la dernière colonne
électromagnétiques qui vaut : quelle était l’origine du champ physique observé, naturelle ou pro-
voquée. Certaines méthodes font en effet appel à un phénomène
physique dont la source est parfaitement naturelle (gravimétrie,
v = c ⁄ εr
magnétisme, radioactivité naturelle), d’autres au contraire
nécessitent l’emploi de sources artificielles (sismique, électrique,
1
avec c vitesse de la lumière dans le vide (3 · 108 m/s). électromagnétisme, radioactivité provoquée).
Chacune des méthodes, définies par le domaine de la physique
εr vaut 1 pour l’air, environ 4 pour un matériau sec, jusqu’à auquel elles se rattachent, est divisée en techniques géophysiques
environ 20 pour un matériau très humide et 80 pour l’eau. suivant le type de mise en œuvre et les objectifs visés. On distingue
La vitesse de l’onde électromagnétique varie donc dans un les techniques géophysiques de surface, les techniques de forage et
rapport de 1 à 9 et peut être utilisée pour distinguer les maté- les diagraphies.
riaux du sous-sol. Les techniques géophysiques de surface sont mises en œuvre
uniquement à partir de la surface du sol.
Les méthodes géophysiques fondées sur la détermination de la Les diagraphies sont des techniques géophysiques mises en
répartition des caractéristiques électromagnétiques (σ et εr) sont le œuvre à l’intérieur d’un forage et dont le rayon d’investigation n’est
radar géologique et la tomographie électromagnétique en ondes jamais beaucoup plus grand que le rayon du forage. Elles servent à
monochromatiques. mesurer en place un paramètre physique avec la meilleure
définition verticale possible, mais elles ne permettent pas d’aug-
■ Radioactivité des roches menter le rayon d’investigation du forage ni de porter un jugement
Les roches contiennent en quantités variables des éléments natu- sur le caractère représentatif des informations obtenues à partir du
rels radioactifs, le potassium 40, le radium et l’uranium. forage.
Les techniques géophysiques de forage tirent parti de l’existence
Elles sont donc naturellement plus ou moins radioactives. Cette
d’un ou plusieurs forages pour se rapprocher de leur cible ; elles ser-
propriété est mise à profit en géophysique pour les distinguer. Ainsi,
vent à augmenter le rayon d’investigation des forages, à obtenir des
parmi les matériaux sédimentaires, les argiles sont les matériaux les
informations sur le sous-sol à des profondeurs plus grandes
plus radioactifs, les calcaires purs ne le sont pas et les marnes et
qu’avec les méthodes de surface et avec une meilleure résolution.
marnocalcaires le sont plus ou moins suivant leurs teneurs en miné-
raux argileux. Parmi les matériaux cristallins, les granites sont les Les trois types de techniques sont naturellement complé-
plus radioactifs. mentaires.
Les diagraphies de radioactivité naturelle (RAN ou γ -ray) utilisent
ces propriétés pour déterminer les matériaux traversés par un
forage. 2.4 Déroulement d’une campagne
La radioactivité peut aussi être provoquée par un bombardement de géophysique
neutronique des matériaux. L’étude de ces phénomènes (de durée
de vie de quelques dizaines de minutes au maximum) a conduit à la
mise au point de méthodes d’analyse chimique élémentaire en Une campagne de géophysique comporte toujours cinq phases :
forage (diagraphie neutron -γ). — la conception ;
Enfin, les propriétés d’absorption des rayonnements par les maté- — la mesure sur le terrain ;
riaux sont exploitées. L’absorption des rayons γ permet la mesure en — le traitement des mesures ;
place, très précise, de leur masse volumique (diagraphie γ – γ). — l’interprétation géophysique des mesures ;
L’absorption des neutrons permet la mesure de leur teneur en eau — l’interprétation en termes du problème de reconnaissance à
(diagraphie neutron - neutron). résoudre.
Dans la suite de cet article, les travaux à réaliser au cours de cha-
que phase seront décrits pour chaque technique géophysique. Cette
description est fortement inspirée par le document intitulé
2.3 Méthodes géophysiques « Géophysique appliquée. Code de bonne pratique » [1]. Ce docu-
ment, élaboré et édité par des professionnels français de la
géophysique appliquée, décrit pour chaque technique géophysique
Le fondement d’une méthode géophysique est l’influence de la en quoi doit consister une prestation minimale pour que l’on puisse
valeur et de la répartition dans le sol d’une caractéristique physique la considérer comme une prestation de qualité. Le document est
particulière sur un champ physique. Ainsi chaque type de caractéris- régulièrement révisé par l’Association professionnelle AGAP-QUA-
tique cité paragraphe 2.2 est associé à une méthode géophysique. LITÉ. Dans cet article, nous développons et justifions ces recom-
Il faut souligner au passage que les caractéristiques qui viennent mandations.
d’être évoquées ne sont pas toutes directement utiles à la concep-
tion des ouvrages. Elles servent simplement d’intermédiaires pour
reconnaître la structure du sous-sol. C’est pour cela que la
géophysique est souvent qualifiée de méthode indirecte de recon- 3. Gravimétrie
naissance. Lorsque, par exemple, l’extension d’une couche géologi-
que est déterminée grâce à la résistivité du matériau qui la
constitue, l’hypothèse qui justifie ce type de méthode est que, si la
résistivité est constante, les propriétés géotechniques du matériau 3.1 Principe de base
sont aussi constantes puisqu’il s’agit partout du même matériau. Il
suffit donc d’évaluer les propriétés géotechniques en un point pour
les connaître partout dans le matériau. Ces méthodes seront La gravimétrie est l’étude des variations du champ de pesanteur à
décrites dans les paragraphes 3 à 8. la surface du sol. La figure 1 montre la variation de la composante
56
Référence Internet
C224
La constante C vaut :
Anomalie (gal)
C = 3 · 10−6 − 2π Gd (en unités SI)
160
140 où d est la masse volumique des terrains de surface qu’il convient
120 d’estimer au mieux, G étant la constante universelle de gravitation
(G = 6,67 × 10−11 N · m2/kg2). Le terme indépendant de la densité cor-
100
Cylindre respond à la correction dite « à l’air libre » (la gravité diminue lors-
que l’altitude augmente, parce que l’on s’éloigne des masses qui en
1
80
60 sont la source), le terme dépendant de la densité compense partiel-
Sphère lement ce phénomène, il s’agit de la correction dite de « plateau »,
40
qui tient compte de la présence d’une lame de matière entre l’alti-
20 tude de référence et celle du point courant.
La correction T de relief corrige le fait que cette dernière lame de
--15 --10 --5 0 5 10 15
Distance (m)
matière présente en réalité une épaisseur variable, un relief. Son cal-
cul est analytique et il existe des logiciels permettant de l’effectuer à
partir d’un modèle numérique de terrain.
Dans la formule (1), les variations temporelles de g dues à la
Masse volumique du sol : 2 000 kg/m3 marée ou à la dérive de l’appareil sont déjà prises en compte et éva-
luées expérimentalement grâce à des mesures périodiques à la base
Figure 1 – Anomalie gravimétrique due à une cavité de 6 m avec une période inférieure à 1 h.
de diamètre, centrée à 5 m de profondeur
avec g la gravité au point courant, En génie civil, la microgravimétrie sert à rechercher des cavités
souterraines qu’elles soient d’origine naturelle (cavités karstiques
g0 gravité à la base, principalement) ou artificielles (anciennes carrières souterraines,
C constante, anciennes exploitations minières, caves, citernes, galeries de drai-
nage ou d’alimentation en eau...). Les cavités sont soit remplies
z différence d’altitude entre le point courant et la d’air, soit plus ou moins remblayées ou noyées. Dans ces deux der-
base, niers cas, elles sont plus difficiles à détecter que s’il s’agit de vides
T la correction due au relief. francs.
57
1
58
Référence Internet
E4312
59
Référence Internet
E4312
Le présent article traite des lidars géophysiques, ou géolidars, pour les sur-
faces terrestres et l’exploration planétaire. Il présente la physique de la mesure,
les méthodes, l’instrumentation et les applications. En tout premier lieu, le lidar
utilise le temps de vol de la lumière pour connaître la distance aux cibles diffu-
santes. La mesure de distance à elle seule est d’une très grande importance pour
les levées topographiques, la bathymétrie des milieux aquatiques et la géodésie.
De plus, la mesure de l’intensité diffusée, de la dépolarisation de la lumière
60
Référence Internet
E4312
Constellation GPS
1
Les porteurs sont généralement
des petits avions à moteur pour
un meilleur échantillonnage
des surfaces
Lidar aéroporté
avec INS et GPS
Constellation GPS
Relief
Sol
Réflexions surfaciques
diffuses
Figure 1 – Applications des lidars aéroportés à l’étude des surfaces : lithosphère et anthroposphère, biosphère, hydrosphère
Le rayonnement laser renvoyé par les cibles est reçu par le téles- avec n indice de réfraction du milieu,
cope, puis détecté et converti en signal numérique. L’enregistre- c vitesse de la lumière.
ment du signal lidar est déclenché sur l’émission laser (à t = 0). La
mesure de distance (R) repose sur la mesure précise du temps de On néglige l’indice de l’air (nair = 1,000293) pour les applications
vol aller-retour des photons : aéroportées et des distances d’une dizaine de kilomètres. Au
contraire, il est pris compte en bathymétrie même à courte portée :
neau = 1,33, et pour la réfraction à l’interface air-eau (loi de Snell-
Descartes).
61
Référence Internet
E4312
Végétation
1 Canopée
Fluorescence chlorophylle
induite par laser
Biomasse, gestion
forestière, écologie
Topographie
Surfaces naturelles :
sols, roches, …
Lithosphère
Étendue d’eau
Diffusion inélastique
Température (eau)
Brillouin
Figure 2 – Mise en correspondance des cibles diffusantes, des processus d’interaction lumière-matière et des applications à la biosphère, lithosphère
et hydrosphère
62
Référence Internet
RAD7420
résultats des scanners lasers) propose régulièrement ses atouts pour l’architec-
ture d’extérieur.
63
Référence Internet
RAD7420
Très vite, les firmes actives dans le domaine de la topométrie envisagent son
potentiel pour des activités nouvelles (relevés d’ouvrages complexes, « tels que
construits », etc.) et surtout une concurrence pour les stations totales (tachéo-
mètres motorisés avec des fonctionnalités de stockage et de calcul, l’outil
principal des géomaticiens à cette époque). Elles rachètent quelques développe-
ments ou créent des collaborations, par exemple :
– Leica Geosystems rachète Cyrax ;
1 – Trimble reprend Mensi ;
– Faro reste indépendant dans ses développements, au départ, plus orientés
industriels. Aujourd’hui, Trimble revend certains modèles sous son nom ;
– Zoller+Frölich a longtemps eu une forte collaboration avec Leica Geosystems.
Aujourd’hui, les développements matériels ont atteint une certaine maturité
en termes de vitesse et de précision. Les évolutions actuelles se concentrent
sur les algorithmes de filtrage et les possibilités d’assemblages automatisés
des nuages de points.
Il ne faut pas s’y tromper, obtenir un nuage 3D d’un environnement n’est que
le début du travail. Avec ce raster, plusieurs traitements sont envisageables :
– une utilisation directe du nuage de points 3D pour visualiser un environne-
ment, faire des mesures ou y intégrer un projet. Ce nuage de points peut être
coloré selon différentes informations (la réflectance du laser, la couleur d’une
photo prise en parallèle du nuage de points…). Ce nuage permet également de
conserver un état des lieux à un instant précis ;
– après digitalisation des points caractéristiques du nuage, on obtient des
vecteurs 3D, voire des formes en 3D. Ce processus, encore très manuel,
permet d’alléger grandement le volume des données et de mettre en évidence
les éléments essentiels qui étaient l’objectif de l’acquisition ;
– la modélisation est la recherche de formes géométriques (meilleurs plans,
cylindres, sphères…) ou de surfaces composites (maillage ou « mesh ») dans
ce nuage. Cette transformation en éléments vectoriels « moyens » permet de
limiter l’impact du bruit des mesures pour obtenir des maquettes virtuelles,
base de très nombreux produits (modèle numérique de terrain, BIM…) ;
– l’évolution actuelle s’oriente régulièrement vers la détection et la
recherche dans le nuage d’objets définis dans une base de données. On peut
donner comme exemple la détection de tuyaux avec des diamètres définis et
des éléments (coudes, T) possédant des dimensions fixes. De très nombreux
développements vont actuellement dans ce sens.
1. Types de mesures
Laser
Projection de l’axe
Même s’il existe de très nombreux modèles de scanners lasers principal sur
terrestres, la base du fonctionnement reste le même pour tous : le cercle
Angle principal
– un moteur permet une rotation maîtrisée autour de l’axe prin-
Angle secondaire
cipal (généralement presque vertical) de l’instrument ;
– en parallèle, un système de miroirs ou de prismes réalise une
rotation autour d’un axe perpendiculaire au premier ;
– une pompe à laser émet un rayon qui va, suivant différentes
techniques fournir une information de distance ; Axe secondaire
– on stockera également l’intensité du signal retour.
Cercle principal
Il est possible de déterminer la position tridimensionnelle de Cercle secondaire
l’impact du rayon émis dans un référentiel local à la position du
scanner avec les informations polaires présentées à la figure 1 :
Axe principal
– un angle dans un plan perpendiculaire à l’axe principal, soit
dans le plan xy local (appelé par la suite angle principal) ;
Figure 1 – Définition géométrique d’un scanner laser terrestre
– un angle normal au 1er (plan z) (appelé par la suite angle
secondaire) ;
– une distance dans l’espace ; La cadence de mesures oscille entre 50 000 et 1 million de points
– une information sur l’intensité du signal retour. par secondes. Ces valeurs impressionnantes ont longtemps été un
64
Référence Internet
RAD7420
argument marketing. Aujourd’hui, le développement ne se concentre position dans l’espace et dont l’origine se trouve à l’intersection
plus sur la vitesse, mais sur le traitement des signaux retours pour des axes principal et secondaire. C’est à partir de ce point qu’est
minimiser le bruit et filtrer les points de mauvaise qualité. déterminée la distance spatiale.
Même si les observations sont des valeurs polaires, la trans- Cependant, l’utilisateur reçoit souvent des valeurs transfor-
formation, pour chaque pixel, en coordonnées tridimension- mées.
nelles est généralement réalisée à la volée, directement au sein
du capteur. Le résultat minimal visible par l’opérateur est un Les mesures brutes sont corrigées :
1
nuage de points avec pour chaque impact, des coordonnées – des éventuelles imperfections de constructions (axes pas exac-
locales xyz et une valeur d’intensité du signal retour selon le tement orthogonaux, le système de mesure de distance est décalé,
calcul de la figure 2. d’où l’ajout d’une constante, voire d’autres corrections géomé-
Cette dernière valeur d’intensité du signal retour peut prendre triques) ;
différentes formes (pourcentage, valeurs entre des bornes – de la prise en compte de l’environnement (température interne
variables…). Elle permet généralement de fournir la première vue de l’instrument, conditions atmosphériques pour la détermination
colorée du résultat soit en variations RVB (rouge vert bleu), soit en de l’indice de réfraction de l’air) afin de déterminer correctement la
niveaux de gris, comme présentée à la figure 3. distance.
65
Référence Internet
RAD7420
2. Quelques considérations
Axe principal vertical sur les lasers
Lors de l’achat d’un scanner laser, les critères et les spécifica-
tions techniques sont importants pour que le choix de l’instru-
ment soit adapté aux spécifications des mandats à réaliser.
inclt
x = d’ × cos(ζ + incll) × cos(φ +
tan (ζ + incll)
) 2.1.1 Le temps de vol
inclt
y = d’ × cos(ζ + incll) × sin(φ + ) Schématiquement, la technique du temps de vol (TOF pour
tan (ζ + incll)
times of flight, figure 7) détermine la distance en s’appuyant sur
z = d’ × sin(ζ + incll) le temps nécessaire à une impulsion pour parcourir le trajet aller-
retour entre l’instrument et l’objet réfléchissant.
Figure 4 – Corrections du défaut de verticalité aux mesures brutes Ce principe de mesures de distance est également utilisé dans
les lidars aéroportés, ce qui fait que l’on retrouve quelques pro-
blèmes identiques dans les données brutes de ces relevés aériens
(divergence des faisceaux, multi-échos). Par contre, toute la
chaîne de traitements et de géoréférencement est différente.
Les parties noires sont les secteurs du ciel où aucun point n’a été mesuré.
Figure 6 – Coloration d’un nuage de points acquis avec le Riegl VZ1000 avec les images du réflex
66
Référence Internet
IN215
INNOVATION
Points clés
Domaine : Traitement des données altimétriques, prospection archéologique,
analyse topographique et microtopographique
Degré de diffusion de la technologie : Émergence | Croissance | Maturité
Technologies impliquées : Lidar, laser aéroporté
Domaines d’application : Archéologie, environnement, géographie, études du
paysage
Principaux acteurs français :
Pôles de compétitivité : Optitec, Route des Lasers, Aerospace Valley
Centres de compétence : GeoSud, Réseau ISA
Industriels : Optech, Riegl, Leica
Autres acteurs dans le monde : VISTA (University of Birmingham,
Royaume-Uni), LBI ArchPro (Ludwig Boltzmann Gesellschaft, Vienne, Autriche),
CAST (University of Arkansas, USA)
Contact : murielle.leroy@culture.gouv.fr – laure.nuninger@univ-fcomte.fr –
rachel.opitz@mshe.univ-fcomte.fr
67
Référence Internet
IN215
INNOVATION
1 detection and ranging (détection et télémétrie par la lumière), repérer des épandages de matériaux et d’objets dans les
est une technique de télédétection active à impulsion laser uti- labours ou des microreliefs dans les prairies ou les forêts. Le
lisée dans le domaine atmosphérique et terrestre. Au niveau recours à des moyens mécaniques est surtout utilisé en
terrestre, il sert en particulier à réaliser des levés topographi- archéologie préventive pour ouvrir des sondages régulière-
ques en trois dimensions de surfaces naturelles ou construi- ment espacés, afin d’évaluer le potentiel archéologique d’un
tes. Il permet d’obtenir une description précise de ces surfaces terrain destiné à être aménagé. D’autres méthodes peuvent
sous la forme d’un nuage de points géoréférencés. Il existe être utilisées comme les prospections géophysiques per-
deux modes d’acquisition principaux : mettant d’explorer le sous-sol (prospections électrique, élec-
tromagnétique ou radar) ou la télédétection (imagerie
– soit par une station terrestre (TLS – terrestrial laser aérienne et satellitaire, données radar ou lidar).
scanning) ;
– soit par un système aéroporté appelé « ALS » (airborne La télédétection permet de collecter et d’analyser des
laser scanning ) ou scanner laser aéroporté. informations sur des objets sans qu’il y ait un contact direct
entre l’objet et l’instrument utilisé pour enregistrer et mesu-
Ce sont les systèmes aéroportés qui retiendront notre atten- rer. En général, on parle de « télédétection » pour l’ensemble
tion dans cet article pour des applications topographiques. des outils et techniques mis en œuvre pour étudier la surface
du globe terrestre, comme les satellites, les prises de vue
Ces applications couvrent des domaines variés : géologie,
aériennes... L’avantage de la télédétection pour l’archéologue
sismologie, travaux publics, surveillance des risques naturels,
est qu’elle permet de prospecter de larges espaces très rapi-
mais aussi archéologie, où le lidar est utilisé pour la détection,
dement et qu’elle lui offre un accès direct à des terrains par-
la cartographie de sites et l’analyse des paysages anciens.
fois éloignés et complexes à parcourir, comme les déserts ou
Cet article traitera en particulier de l’utilisation du lidar plus récemment les massifs forestiers. Au-delà de la
aéroporté en archéologie, il sera principalement centré sur photo-interprétation, la télédétection permet de produire de
l’étude du milieu forestier, pour lequel la technologie lidar nouveaux indicateurs à partir de traitements uniformes. Ces
est particulièrement performante, et pour différents types de traitements ouvrent des perspectives en matière d’enregis-
projets en recherche et dans le domaine de la protection du trement systématique des données, laissant une place moins
patrimoine. importante à la subjectivité et à l’intérêt propre des experts.
Un autre avantage de la télédétection pour l’archéologue est
sa capacité à fournir de l’information altimétrique permettant
de produire des modèles numériques de terrain d’une résolu-
2. Prospection archéologique tion nettement supérieure à ceux fournis par l’IGN en France,
et télédétection par exemple.
68
Référence Internet
IN215
INNOVATION
1
sées. Pourtant, du fait des contraintes de repérage, les vestiges Si les premiers levés lasers aéroportés datent de 1970
conservés en forêt ne sont pas toujours étudiés par les archéo- notamment aux États-Unis et au Canada [1], la techno-
logues. La visibilité au sol est souvent limitée par la présence de logie des scanners lasers à balayage s’est développée plus
végétation basse ou de feuilles et la cartographie des vestiges tardivement au milieu des années 1990, en particulier
avec des moyens classiques de topographie y est délicate. Il est pour des applications visant à modéliser de manière fine
également difficile de repérer des vestiges enfouis avec les le relief sous le couvert forestier [2] [3] [4] [5]. Son inté-
méthodes de prospection géophysique utilisées en zone ouverte rêt pour l’archéologie a été reconnu en 2000 lors de deux
(prairie ou labour) car les racines perturbent le signal électrique colloques sur l’archéologie aérienne tenus à Aberdeen
ou magnétique enregistré par les capteurs fichés dans le sol. (Écosse) et à Leszno (Pologne). Les premières utilisations
ont été effectuées en Grande-Bretagne sur des données
Enfin, compte tenu de la végétation, la prospection aérienne ne
acquises pour un autre usage par l’Agence de l’environne-
présente qu’un intérêt très limité et exceptionnellement utilisa-
ment. Puis, dès 2001, un premier vol spécifiquement
ble pour étudier ce type de milieu. L’absence de sites dans archéologique a été réalisé dans le cadre d’une étude sur
certains massifs forestiers est donc plus souvent le résultat d’un l’environnement historique de l’emblématique site de
manque de prospection archéologique que d’une absence Stonehenge [6]. Au départ, la technique a été éprouvée
réelle. Le lidar permet de s’affranchir d’une partie de ces en milieu ouvert sans classification de points, avant d’être
contraintes en facilitant le repérage et la cartographie des vesti- généralisée au milieu forestier vers 2003-2004, avec l’uti-
ges archéologiques. lisation de filtres permettant d’éliminer les points ayant
touché la végétation ou des bâtiments. C’est ainsi que les
Néanmoins, si la technique s’avère très performante pour données lidar acquises par le service du cadastre de la
les forêts de feuillus, elle est nettement plus complexe pour région du Bade-Wurtemberg en Allemagne ont permis la
les forêts de conifères ou les formations méditerranéennes de détection de champs bombés du Moyen Âge [7]. C’est
type lande, garrigue ou maquis. Dans ces milieux, la végéta- également à cette période que la technologie fait un nou-
veau bond avec le premier capteur opérationnel à retour
tion est trop dense pour laisser passer la lumière et, dans le
d’onde complète qui enregistre la totalité du signal. Utilisé
second cas, la végétation basse se confond avec les micro-
dès 2006 par une équipe archéologique autrichienne sur
reliefs. Ce sont en outre des zones difficiles d’accès pour les- la forêt de la montagne de Leitha [8], son usage reste
quelles les prospections pédestres sont difficiles voire encore peu développé en archéologie.
totalement inopérantes en raison de cette végétation basse
très dense. Seuls les évènements exceptionnels d’incendie À partir des années 2005-2006, l’utilisation du lidar en
archéologie s’est largement développée, d’abord en
permettent de les aborder de cette manière.
Europe puis sur les autres continents. En France, le pre-
mier vol date de 2004 et durant l’hiver 2006-2007 une
L’apport du lidar n’est toutefois pas restreint au milieu dizaine de projets ont couvert des zones de plusieurs
forestier. Les zones de prairies, par exemple, peuvent égale- dizaines de km2, principalement dans la moitié nord de la
ment receler des vestiges sous forme de microreliefs. Elles France. Menés dans le cadre de programmes de recherche
ont été beaucoup étudiées par prospection aérienne et pros- archéologiques ou mixtes (archéologique et forestier
pection pédestre, mais le lidar reste un outil complémentaire notamment), certains ont été exploités à des fins de
utile, notamment par sa capacité à couvrir de très grandes gestion patrimoniale des sites. Un levé lidar a ainsi été
surfaces et à fournir des données de qualité décimétrique utilisé dès 2008 en archéologie préventive dans le cadre
permettant une cartographie très fine, en particulier des ves- de la construction de la seconde phase de la ligne ferro-
tiges paléogéographiques (anciens chenaux, méandres...) et viaire à grande vitesse Paris-Strasbourg [9]. Au contraire
des traces agraires (limites parcellaires, crêtes de labour...). de leurs collègues européens ayant bénéficié des données
acquises dans de gros programmes institutionnels, les
En milieu cultivé où prospections pédestre et aérienne sont
archéologues français ont été initiateurs de la plupart des
très opérantes, les microreliefs sont bien moins conservés du
programmes d’acquisition, même si des projets institu-
fait des labours répétés et les données lidar y sont donc plus tionnels commencent à voir le jour (en Moselle par exem-
complexes à traiter. Leur apport est plus limité, mais tou- ple en 2011-2012). Ce retard leur confère néanmoins une
jours utile, pour repérer les voies et les limites parcellaires certaine avance, avec le développement d’une expertise
très aplanies et difficilement identifiables sur le terrain à l’œil assez spécifique intégrant l’ensemble des traitements et
nu. analyses dans une chaîne opératoire complète des don-
nées brutes au terrain.
Dans tous les cas, même si la technologie lidar est devenue
un outil majeur pour la recherche archéologique, il faut préci-
ser que ce type de prospection ne remplace pas les méthodes 3. Télédétection lidar
existantes, car d’une part elle ne rend compte que de ce qui
subsiste en sursol dans le relief actuel et d’autre part seule la Le lidar est une méthode de télédétection, fondée sur une
combinaison entre ces diverses méthodes de prospection et mesure de distance. Le principe de la technologie est de répé-
d’autres analyses (étude des objets, des plans anciens...) per- ter les mesures de distance à un objet à l’aide d’un système à
met de progresser dans l’interprétation des vestiges archéolo- impulsions laser, dont le faisceau lumineux est balayé à la
giques (identification, datation). En ce sens, le lidar ne peut surface de la terre par un miroir oscillant. Le fait de pouvoir
remplacer la fouille qui, seule, permet une exploration répéter les mesures avec une fréquence très élevée permet
détaillée des vestiges enfouis et sur laquelle est fondée la d’obtenir une description précise du sol ou des objets en sur-
construction des référentiels nécessaires à toute analyse de sol (végétation, bâtiments) sous la forme d’un « nuage de
structures et de mobiliers de surface. points » renseigné par des coordonnées x, y et z, si on connaît
69
Référence Internet
IN215
INNOVATION
x
inertielle (enregistre le y
tangage, le roulis et la UMI Unité de
position de la plate-forme) localisation
faisceau laser précise de la
position du
capteur
Appareil lidar qui émet des
impulsions infrarouges lasers
par balayage grâce à un
miroir oscillant selon un
angle défini par l’opérateur
jusqu’à environ 30°
Station de base GPS
v v
Figure 1 – Principe du lidar aéroporté (d’après Z. Kokalj et K. O s tir)
Temps (ns)
70
Référence Internet
IN215
INNOVATION
1
de l’onde rétrodiffusée. Le nombre d’échos mesurés varie
selon les systèmes utilisés, de deux à six retours par impul-
sion envoyée, et les modes de calcul des pics sont également
variés [10] [11]. Depuis 2006, les systèmes à « impulsions
multiples dans l’air » (MPiA – Multiple Pulses in Air
Technology ), en envoyant une nouvelle impulsion avant le
retour de la précédente, sont capables de collecter plus de
points dans un même vol que les systèmes à simple impul-
sion. Ils sont par conséquent plus utilisés pour les projets cou-
vrant des surfaces importantes.
§ Utilisés plus rarement en archéologie, les systèmes
d’enregistrement continu permettent d’extraire des échos
dont on connaît la largeur et l’amplitude, ce qui a l’avantage
d’augmenter le nombre de points identifiés et d’évaluer la
précision de la mesure. Le traitement de l’onde complète offre Angle de balayage
Hauteur de vol
notamment la possibilité de mieux distinguer la végétation
basse du terrain stricto sensu, ce qui ouvre des perspectives
intéressantes dans les milieux couverts de broussailles et dans
les formations forestières étagées de type méditerranéen.
Cependant, cette technique demande une expertise spécifique
dans le traitement du signal et nécessite un investissement
élevé en termes de temps pour obtenir des résultats perti-
nents. Si ce n’était pas la meilleure option jusqu’à présent
pour l’archéologie, l’évolution rapide des méthodes de traite-
ment rend toutefois ce système plus abordable sur le plan
technique et parfois sans surcoût financier.
71
Référence Internet
IN215
INNOVATION
d’embarquer d’autres capteurs pour collecter simultanément erreurs verticales. In fine, la transformation des points dans
des images multi- ou hyper-spectrales directement compa- un système de coordonnées locales est aussi une source
rables aux données altimétriques, ce qui favorise leur traite- d’erreur.
1
ment et l’interprétation des objets.
Les erreurs les plus importantes sont généralement locali-
Chaque vecteur présente des caractéristiques pouvant avoir sées sur les bords des bandes de vol, où les problèmes d’ali-
un fort impact sur les données collectées : densité de points, gnement sont les plus apparents. Ces erreurs peuvent être
temps d’enquête nécessaire, taux de pénétration à travers la verticales ou planimétriques et, même si les deux sont liées,
végétation et précision. Ainsi, les avions sont les plus appro- elles sont généralement quantifiées séparément. L’erreur
priés pour couvrir de grandes surfaces, mais à des densités de absolue de précision verticale courante dans les levés lidar
points faibles ou moyennes. L’hélicoptère permet d’obtenir topographiques est de 10 à 20 cm, tandis que l’erreur hori-
une densité de points plus élevée parce qu’il peut voler plus zontale est de 20 à 30 cm, mais avec un vol héliporté à basse
lentement et plus près du sol, mais il couvre une plus petite altitude (moins de 100 m) et une forte densité de points
surface lors de chaque vol. Il est notamment utilisé pour la (environ 80) il est possible d’atteindre une précision absolue
cartographie de corridors et, en archéologie, pour la cartogra- altimétrique de 3 à 4 cm [15]. Toutefois, pour l’archéologue,
phie de petites zones à des densités de points plus élevées. la précision relative est plus importante que la précision abso-
En outre, c’est le vecteur indispensable pour les visées obli- lue dans la détection des microreliefs et, bien qu’elle dépende
ques (falaises, surplombs...) [12]. L’utilisation de drones, du système lidar, elle peut être estimée à ± 5 cm pour une
plus flexibles à mettre en œuvre, n’en est qu’à un stade expé- acquisition aéroportée standard.
rimental, mais ce vecteur est tout à fait approprié pour de
toutes petites zones nécessitant une forte densité de points et
plus de précision dans la mesure, qui demeure toutefois 3.2 Classification et création de modèles
dépendante du type de capteur utilisé.
numériques d’élévation (MNE)
3.1.5 Prétraitements
Le nuage de points bruts regroupe indifféremment les points
3.1.5.1 Post-corrections, ajustement et contrôle provenant du sol, de la végétation, du bâti ou d’autres objets
qualité en sursol. Ces points bruts doivent donc être classés (ou fil-
Pour garantir la qualité des mesures d’altimétrie, une série trés) pour séparer les points ayant touché le sol de ceux ayant
de prétraitements, réalisés par le fournisseur des données, est atteint la végétation ou le bâti, ce qui permet la création de
nécessaire : modèles de la surface terrestre (MNE, MNT, MNS). Les MNE ne
sont pas de vraies modélisations 3D, mais des modélisations
– trajectographie : il s’agit du calcul de la trajectoire du en « 2D et demie », car ils restituent une surface mais pas un
capteur (c’est-à-dire de la position précise de l’avion pour cha- volume.
que enregistrement) immédiatement après le vol. On calcule
d’abord la trajectoire GPS en mode différentiel (avec les don- Le terme de « MNE » regroupe de manière générique diffé-
nées des stations GPS au sol), puis on la combine avec les rents modèles de représentation topographique, les plus cou-
données de la centrale inertielle pour prendre en compte les rants étant (figure 4) :
mouvements de l’aéronef (roulis, tangage et lacet) ;
– génération du semis de points bruts, en s’appuyant sur la – le modèle numérique de surface (MNS) qui représente
trajectoire de l’avion, l’angle de balayage, la distance et les la surface terrestre avec les éléments permanents du sursol
paramètres de calibration du scanner laser ; (bâtiments, végétation). Il est construit avec les premiers
– ajustement des bandes de vol et calcul des semis de échos renvoyés ;
points géométriquement corrects ; – le modèle numérique de terrain (MNT) qui reproduit le
– contrôle de la qualité horizontale et verticale (calcul des terrain nu (sol) et est construit avec les points ayant touché le
erreurs résiduelles – RMS), à l’aide des zones de recouvre- sol. Il peut cependant inclure un certain nombre d’objets
ment des bandes et des surfaces de référence acquises anthropiques, en particulier des digues et des remblais (rou-
préalablement par un relevé de terrain. tes, voies ferrées), mais aussi des vestiges archéologiques
conservés sous forme de microrelief.
3.1.5.2 Marges d’erreurs
La marge d’erreur est le résultat cumulé de toutes les
3.2.1 Classification (ou filtrage) des données
erreurs enregistrées par chaque sous-système, à savoir le
scanner laser, le GPS et la centrale inertielle [E 4 312] [13] L’étape de filtrage des données est complexe car le dernier
[14]. écho enregistré ne provient pas forcément du sol. Cette étape
Ces erreurs peuvent être aléatoires, systématiques ou a un fort impact sur ce qui pourra être tiré des données pour
dépendantes du terrain. La principale source d’erreur aléa- l’analyse et présente un risque de suppression d’informations
toire, qui produit du bruit dans le nuage de points obtenu, est importantes. Elle est souvent réalisée par le fournisseur de
liée au positionnement exact de l’avion : erreurs dues au GPS, données, car elle nécessite des compétences spécifiques, du
à l’UMI et au système de balayage, problème de synchro- matériel et des logiciels adaptés. Néanmoins, il est vivement
nisation entre ces trois éléments, conditions de turbulence. recommandé aux chargés de projets de suivre le traitement et
Les erreurs systématiques sont associées au scanner laser de le valider, afin de l’adapter aux problématiques archéolo-
(erreurs de mesure de la distance, mauvais alignement de giques étudiées. En outre, avec l’évolution rapide des techni-
l’axe de visée, décalage du système de balayage et de l’angle ques, c’est une opération qui devient accessible sur des
du miroir) ou au système GPS/UMI (initialisation de l’UMI, superficies de quelques km2 et qu’il est important de pouvoir
erreurs d’alignement entre GPS et UMI). Les erreurs dépen- mettre en œuvre pour reprendre les classifications dans des
dant du terrain sont introduites par l’interaction du faisceau zones d’intérêt particulier. Nous attirons ainsi l’attention sur
laser avec la surface terrestre (sol et sursol). Sur un terrain le fait qu’il est absolument nécessaire de demander
en forte pente ou avec un angle de balayage élevé, la taille et les nuages de points bruts pour toutes opérations
la déformation de l’empreinte laser au sol provoquent des d’acquisition.
72
Géomatique
(Réf. Internet 42641)
géographiques
Systèmes d'information géographique : outil d'aide à la gestion territoriale H7415 75
Sur www.techniques-ingenieur.fr
• Saisissez la référence Internet pour accéder directement aux contenus en ligne
• Retrouvez la liste complète des ressources documentaires
73
2
74
Référence Internet
H7415
Systèmes d’information
géographique : outil d’aide
à la gestion territoriale
Pierre-Alain AYRAL
Docteur ès-Sciences
2
Enseignant-chercheur à IMT Mines Alès, France
Sophie SAUVAGNARGUES
Professeure
Enseignante-chercheure à IMT Mines Alès, France
Cet article est la version actualisée de l’article H7415 intitulé « Systèmes d’information
géographique : outil d’aide à la gestion territoriale » rédigé par Pierre-Alain AYRAL et
Sophie SAUVAGNARGUES en 2009.
75
Référence Internet
H7415
clients à une région. De ce fait, les domaines d’application des SIG sont égale-
ment très vastes et couvrent de nombreux domaines allant de l’aménagement
du territoire au géomarketing.
La représentation de cette information géographique est la cartographie, une
des premières tâches qu’il soit possible de réaliser avec un SIG. Cependant, il
est capital de noter qu’ils peuvent dépasser ce niveau d’analyse en permettant
d’étudier les relations spatiales entre des objets d’une même thématique
(compréhension de la structure des réseaux hydrographiques), mais également
entre des objets de thématiques différentes (relation entre la répartition de la
population et celle des centres hospitaliers par exemple). De ces analyses pour-
ront découler des modèles et/ou des simulations qui conduiront à la production
Afin de mieux évaluer ce que peut apporter un système d’infor- Une information géographique peut également être un événe-
mation géographique, il convient de mettre en évidence les princi- ment localisé tel qu’une manifestation sportive ou encore un acci-
paux inconvénients de la cartographie papier : dent.
– d’un point de vue structurel, le support papier n’a pas une
stabilité dimensionnelle parfaite ; Deux caractéristiques liées au concept d’information géogra-
phique sont fondamentales :
– la quantité d’information que peut contenir une carte est
limitée, principalement pour des raisons de lisibilité ; – un point de l’espace peut comporter plusieurs objets superpo-
– une fois produite, la carte papier est un document figé, il peut sés, le Rhône peut être considéré comme un fleuve, une limite
même arriver que des cartes soient périmées dès leur parution ; communale, une limite départementale et une limite régionale ;
– il est difficile d’extraire une information exacte, compte tenu – tous ces objets peuvent donner lieu à différents types de cartes
notamment du pouvoir de séparation de l’œil ; comprenant différentes représentations d’un même objet ou le
choix de différents objets à représenter parmi un ensemble.
– aucune analyse quantitative ne peut être conduite entre deux
cartes thématiques ; Il existe toutefois des informations qui ne sont pas géographi-
– toute analyse spatiale à partir de plusieurs cartes est difficile, quement localisées, mais qui peuvent le devenir par destination.
voire impossible. C’est le cas des données sur la population, des données sur les
cultures agricoles, ou bien encore sur l’environnement.
De fait, l’informatisation du dessin des cartes remonte aux
années 1960. L’objectif était de faciliter les besoins de correction et Exemple
de mise à jour, l’édition en grand nombre, à différentes échelles,
etc. La finalité restait pourtant de produire une carte papier. Il est nécessaire d’être vigilant avec ce type d’information. En effet,
elles doivent être rattachées impérativement à un attribut géogra-
La cartographie numérique est ensuite devenue une application phique pour une exploitation cartographique correcte. Une cartogra-
de la branche Dessin Assisté par Ordinateur (DAO). De là est né le phie de la population de la France par département ne s’effectuera
concept d’information géographique. Les premiers SIG sont appa- pas en associant directement le nombre d’habitants par département.
rus au Canada (Canadian Geographic Information System) et aux Il sera nécessaire de rapporter cette population à la superficie du
États-Unis (New York Land Use Information System et Minnesota département et donc de cartographier la densité de population par
Land Management Information System) à la fin des années 1960. département.
76
Référence Internet
H7415
77
Référence Internet
H7415
2 Géodésie
Statistique
Méthodes de localisation de haute précision et portant sur de grandes étendues (dimensions et forme de la Terre).
Méthodes d’analyse, de synthèse et d’interprétation des données.
Informatique Conception assistée par ordinateur, infographie, SGBD, algorithmique, intelligence artificielle, génie logiciel.
Mathématique Géométrie analytique, topologie, trigonométrie, théorie des graphes, algèbre, calcul différentiel et intégral.
Génie civil Applications en transport, génie urbain.
Aménagement Applications pour la gestion et le développement du territoire.
78
Référence Internet
H7416
Systèmes d’information
géographique : études de cas
par Pierre-Alain AYRAL
Docteur ès sciences
2
Enseignant-chercheur à IMT Mines d’Alès,
Chercheur associé à l’UMR CNRS 7300 ESPACE
Sophie SAUVAGNARGUES
Professeure
Enseignante-chercheuse à IMT Mines Alès
Chercheuse associée à l’UMR CNRS 7300 ESPACE
Yannick FOGUE-DJOMBOU
Docteur ès sciences
Consultant
Billy POTTIER
Master 2 en Géomatique
Doctorant à IMT Mines Alès
Florian TENA-CHOLLET
Docteur ès sciences
Enseignant-chercheur à IMT Mines d’Alès
et Vincent THIERION
Docteur ès sciences
Ingénieur de recherche, CESBIO, INRAE
Cet article est la version actualisée de l’article [H 7 416] intitulé « Systèmes d’information géo-
graphique : mise en œuvre » rédigé par Pierre-Alain AYRAL, Sophie SAUVAGNARGUES,
Florian TENA-CHOLLET et Vincent THIERION en 2010.
personnels. Une réflexion importante doit être menée pour évaluer les besoins
79
Référence Internet
H7416
80
Référence Internet
H7416
2
ces données ? géographique (ses coordonnées) et ses données attributaires.
– La mise en œuvre d’un Modèle Conceptuel de Données
Niveau physique Où les stocker ? Comment ? (MCD) est un préalable à la conception d’un SIG.
81
Référence Internet
H7416
2
cadastrales sont colorées en fonction de la probabilité de la pré- recommandation pour approvisionner le chantier à partir des ressources
sence de la ressource, plus la couleur est foncée, plus la présence locales du territoire (figures 4 et 5).
de la ressource est avérée. Pour terminer, il est utile pour le donneur d’ordre de connaître
La méthodologie développée figure 3 pour produire les cartes déci- l’influence de chaque critère sur la prise de décision. Pour cela, il faut
sionnelles repose sur la mise en œuvre des principes des méthodes procéder à l’analyse de sensibilité. Elle consiste à évaluer l’évolution
d’analyse multicritères dans les SIG. Les lignes continues matérialisent de la note d’une parcelle lorsque la note d’un critère évolue.
les étapes de la méthodologie, et les traits en pointillés les interactions
avec les auteurs de la prise de décision à chaque étape.
La première étape consiste à élaborer les cartes critères. À partir (2)
d’entretiens avec le maître d’ouvrage et différents acteurs pouvant
intervenir sur la prise de décision, les critères influençant la décision
En considérant les 100 parcelles ayant obtenu la meilleure note,
du porteur de projet et leur poids sont définis. Les attributs de chaque et en fonction des chantiers, nous constatons qualitativement que
parcelle cadastrale seront notés par rapport à chaque critère consi- les critères n’ont pas toujours la même influence sur la prise de
déré (figure 4) Les critères influençant la décision peuvent être liés au décision. Comme on peut le constater sur les figures 6 et 7, pour le
statut administratif de la parcelle, la présence de la ressource, la qua- chantier 1, c’est le statut administratif des parcelles qui influence le
lité de la ressource, les exigences environnementales, les risques plus la décision, alors que pour le chantier 2, c’est la qualité du
naturels ou la rentabilité économique. matériau.
Description Caselle appartenant au conseil départemental du Église Saint-Chély, située dans la commune de Séverac-d’Aveyron en
du chantier Lot, sur un Espace Naturel Sensible (ENS) et le Aveyron, construite en 1651 par le duc Louis d’Arpajon, seigneur du
long du « sentier des Caselles ». château de Séverac.
Restauration de sa toiture de 100 m2 en lauze Restauration de sa toiture de 300 m2 en lauze calcaire.
calcaire.
Photo
82
Référence Internet
H7416
CORRÈZE
2
LOZÈRE
HÉRAULT
Chantier
Nom de ville
Périmètre du territoire Massif central
Projet de construction Maître d’ouvrage (décideur) Maître d’œuvre (décideur) Les agis (influençant
le jugement et la décision)
Réhabilitation d’un toit en Architecte, propriétaire… Artisan couvreur lauzier
lauze calcaire Municipalité, préfecture,
DREALs, UDAP
1- Cartes actions potentielles 2- Définition et hiérarchisation des cartes critères 3- Agrégation des critères
Gisements et carrières existantes Agrégation des performances
(action parcellaire - cadastre) Possibilité administrative, présence de la ressource, Analyse de sensibilité
qualité de la ressource, exigences environnementales,
risques naturels, rentabilité économique
4- Carte décisionnelle
83
2
84
Référence Internet
P4250
Partage de données
environnementales
2
Chargé d’enseignement
EnviroSPACE, Université de Genève – Institut des sciences de l’environnement, Genève,
Suisse
GRID-Genève, Programme des Nations unies pour l’environnement, Genève, Suisse
1. Contexte................................................................................................... P 4 250 - 2
2. Cadre théorique ..................................................................................... — 3
2.1 Préambule.................................................................................................. — 3
2.2 Infrastructures de données géospatiales ................................................ — 4
2.3 Interopérabilité et normes ........................................................................ — 7
2.4 Quelques exemples d’initiatives à l’échelle nationale, régionale
et globale ................................................................................................... — 9
3. Quelques retours d’expérience.......................................................... — 3
3.1 Plateforme globale sur les risques naturels ........................................... — 14
3.2 Modéliser l’hydrologie du bassin-versant de la mer Noire ................... — 15
3.3 Utilisation des données d’observations de la Terre
à des fins économiques ............................................................................ — 17
3.4 Quelques autres plateformes thématiques............................................. — 17
4. Discussion ............................................................................................... — 20
4.1 Bénéfices et limitations à la diffusion et utilisations des IDG ............... — 20
4.2 Perspectives............................................................................................... — 21
5. Conclusions............................................................................................. — 22
4. Glossaire .................................................................................................. — 23
Pour en savoir plus ........................................................................................ Doc. P 4 250
ous vivons dans un monde globalisé dont les processus tels que les chan-
N gements climatiques, de couverture du sol ou la croissance de la
population évoluent rapidement et impactent l’environnement. En parallèle, les
moyens de communication ont connu une importante expansion prenant une
place remarquable dans nos sociétés, nous permettant d’accéder à un flot
continu et énorme d’informations. L’objectif de base de cet article est de
Parution : février 2016 - Dernière validation : août 2018
85
Référence Internet
P4250
2
1. Contexte pouvoir les intégrer. Cela est principalement dû au fait que les
données géospatiales sont volumineuses, complexes (géométries,
relations, attributs), distribuées géographiquement et hétérogènes.
Notre planète est un système multidimensionnel fait d’interac- En plus, les arrangements institutionnels et les politiques (par
tions complexes, en constante évolution, à différentes échelles exemple, les droits d’auteur, droits de propriété intellectuelle)
spatiales et temporelles. Pour comprendre ces interactions, il faut peuvent entraver la diffusion de ces données géospatiales. Tous
collecter et intégrer différents jeux de données sur les systèmes ces facteurs influencent la façon dont les fournisseurs de données
physiques, chimiques, biologiques, sociaux et économiques. stockent, publient et diffusent des données environnementales. En
L’ensemble de ces données permet de décrire au mieux l’environ- outre, les utilisateurs manquent souvent de ressources de calcul
nement. Ces données sont communément géoréférencées, appropriées pour analyser ces données. Les projets de recherches
c’est-à-dire qu’elles décrivent un endroit à la surface de la Terre environnementales actuels ont régulièrement besoin de gérer plu-
(donc localisables géographiquement) à travers un ensemble sieurs téraoctets de données et d’accéder à des ressources de
d’attributs. Un ensemble de données sur l’environnement est rare- calculs haute performance (cloud, grid, supercalculateur) ainsi que
ment intéressant en soi mais démontre plutôt son plein potentiel des logiciels. Cela explique pourquoi actuellement les sources de
informatif lorsqu’il est utilisé conjointement avec d’autres jeux de données sont souvent fragmentées, l’intégration des données
données, permettant de surveiller et d’évaluer l’état réel de l’envi- géospatiales pour répondre à un problème scientifique est difficile
ronnement aux échelles globale, régionale ou locale, et ainsi de et coûteuse, et la diffusion de l’information géospatiale est problé-
mieux appréhender les relations complexes entre elles et finale- matique et malheureusement appliquée de façon peu efficace. Par
ment de pouvoir modéliser les changements futurs. conséquent, faciliter l’accès aux données et aux ressources infor-
En Sciences de l’environnement, « Observer, Partager, matiques de haute performance peut potentiellement améliorer la
Informer » sont trois étapes nécessaires pour relever les défis situation mentionnée ci-dessus et permettrait aux utilisateurs de
complexes résultant de la pression croissante causée par les chan- données de passer plus de temps à l’analyse qu’à la recherche de
gements climatiques, la perte de biodiversité, l’exposition aux ris- données et de permettre à davantage de personnes de bénéficier
ques naturels ou d’autres menaces environnementales impactant de l’utilisation de ces données.
nos sociétés et influençant divers aspects de notre vie quotidienne. L’interopérabilité apparaît donc comme une condition essen-
Les décisionnaires en essayant de répondre et résoudre des pro- tielle pour élaborer un cadre de science ouvert permettant aux
blèmes tels que la pénurie de ressources naturelles, l’insécurité ali- scientifiques et chercheurs de publier, découvrir, évaluer et accé-
mentaire, les pollutions, la préservation de la biodiversité ou der efficacement à des données environnementales. Les technolo-
encore l’efficacité énergétique doivent prendre de nombreuses gies actuelles sont adaptées et répondent à ces besoins à la
décisions chaque jour. Cependant, ils sont tous régulièrement condition que des interfaces logicielles ouvertes et libres ainsi que
confrontés au même problème : ils ont besoin de prendre des déci- des normes soient développés permettant à ces technologies
sions judicieuses uniquement sur la base d’informations partielles d’interopérer à l’échelle mondiale.
et par conséquent ils ne peuvent pas gérer efficacement ce qu’ils
ne peuvent pas mesurer. Il est donc essentiel de pouvoir recueillir
et intégrer la vaste quantité de données environnementales géné- L’Open Geospatial Consortium (OGC) a pour objectif de
rées quotidiennement mais souvent exploitées de façon isolée développer et de définir ces normes permettant la communica-
pour pouvoir au mieux comprendre comment fonctionne notre tion et l’échange d’informations entre différents systèmes de
environnement. Les observations de la Terre (par satellite ou par types différents exploités avec des logiciels et systèmes diffé-
mesures in situ ) sont utilisées et compilées pour répondre à des rents.
questions spécifiques, pour comprendre ou expliquer une ten-
dance, pour confirmer ou infirmer une thèse, pour faire des prédic-
tions ou pour l’aide à la prise de décisions. Ces données En effet, un système non interopérable ne peut pas partager de
représentent donc des mesures quantitatives correspondant à une données et de ressources informatiques, obligeant les scientifi-
valeur à un moment donné, dont le taux de variation, la distribu- ques à passer beaucoup plus de temps que nécessaire sur la
tion spatiale et de nombreux autres attributs permettent dedécrire recherche et la transformation de données. L’OGC fournit dix-huit
notre environnement aussi précisément que possible. raisons pour lesquelles les normes d’interopérabilité peuvent aider
considérablement les scientifiques dans leurs recherches quoti-
Actuellement, l’accessibilité, la disponibilité et la compatibilité diennes et contribuer à des valeurs élémentaires de la science :
des données ainsi que le manque de ressources de calculs pour
les analyser sont parmi les difficultés les plus fréquentes qui – la transparence des données ;
influencent négativement la façon dont les scientifiques, les cher- – la vérifiabilité ;
cheurs, les décideurs et le grand public accèdent et utilisent ces – l’unification des observations ;
données environnementales. En Europe, on estime que jusqu’à – des études interdisciplinaires ;
50 % du temps des utilisateurs est passé dans la recherche et – les études transdisciplinaires ;
transformation de données afin de les rendre compatibles et de – la réutilisation ;
86
Référence Internet
P4250
– la planification ; Une étude menée par la revue Science, interrogeant plus de 1 700
– le retour sur investissement ; scientifiques, a montré que plus de 50 % des intervenants stockent
– la comparabilité ; leurs données uniquement dans leurs laboratoires [4]. Cela entrave
– la maximisation de valeur ; évidemment la disponibilité et l’accès à ces données et ne
– la recherche/découverte de données ; constitue pas non plus une solution idéale de stockage à long
– l’exploration de données ; terme. En outre, l’absence de description de ces données est un
– la fusion de données ; facteur interdisant la recherche de ces données. Finalement, 80 %
– le chaînage ; des répondants n’ont aucun financement pour soutenir l’archivage
– le rythme de la science ; et la gestion des données. Pour la plupart des scientifiques interro-
– la science citoyenne ; gés, bénéficier d’un accès amélioré aux données permettrait l’utili-
– la compatibilité ascendante ; sation et la réutilisation de ces données autant que possible et
– l’intervention en temps opportun. offrirait de nombreuses opportunités. La possibilité d’intégrer des
jeux de données peut potentiellement améliorer la compréhension
2
Par conséquent, en étant interopérable, tout système peut des systèmes complexes, multidimensionnels et interdépendants,
échanger largement et efficacement des données, afin de maximi- résoudre des problèmes sociétaux et environnementaux clés, ainsi
ser la valeur et la réutilisation de données et d’informations sous qu’ouvrir la voie à de nouveaux domaines de recherche [5].
son contrôle. Cela permet l’échange de données et d’informations
avec d’autres systèmes interopérables et cela permet à de nouvel- L’un des plus importants progrès apportés par les TIC est
les connaissances d’émerger à partir de relations qui n’ont pas été l’émergence de ce que l’on appelle communément la science élec-
envisagées précédemment. L’objectif ultime étant de passer moins tronique ou e-science qui peut être défini comme « un accès accru,
de temps dans la recherche de données et plus de temps à faire de via l’Internet, à des ressources distribuées, facilitant la collabora-
la science, grâce à une intégration facilitée et à l’analyse des don- tion à l’échelle globale ». Un des thèmes brûlants dans la science
nées efficace, et de faciliter la communication des informations et électronique concerne l’accès aux données servant principalement
des résultats nouvellement générée. Les défis environnementaux comme base de la recherche scientifique. Un accès facilité et
collectifs d’aujourd’hui exigent non seulement que la science soit ouvert aux données peut être perçu comme un avantage permet-
utile mais aussi et surtout utilisée. L’interopérabilité est donc une tant une large utilisation (à la fois pour les scientifiques et le public
condition essentielle pour pouvoir atteindre cet objectif. en général) et permettant en particulier aux scientifiques de
comparer plus facilement leurs résultats et leurs méthodes et de
renforcer ainsi la responsabilité et la crédibilité scientifique, ainsi
2. Cadre théorique qu’améliorer la qualité des données. Pour Arzberger et al.
(2004) [3], en raison du fait que la recherche est de plus en plus
globale, il y a un besoin clair de traiter systématiquement l’accès
et le partage des données. Pour ces auteurs « s’assurer que les
2.1 Préambule données scientifiques sont accessibles facilement afin qu’elles
soient utilisées le plus souvent et largement possible est une ques-
tion de saine gestion des ressources publiques ». Ces auteurs ont
Kofi Annan, le septième secrétaire général de l’Organisation
indiqué que les données financées par l’État sont un bien public
des Nations unies et prix Nobel de la Paix 2001, a déclaré :
produit dans l’intérêt public et devraient donc être librement acces-
« l’information et la connaissance sont au cœur de la démocra-
sibles dans la mesure du possible. Actuellement, dans certaines
tie et des conditions pour le développement .... La connais-
communautés scientifiques spécifiques (par exemple, les géos-
sance est le pouvoir. L’information est libératrice. L’éducation
ciences ou la météorologie), les données sont déjà partagées en
est la prémisse de progrès, dans chaque société, dans chaque
utilisant l’état de l’art des technologies, mais leurs impacts restent
famille ».
faibles et restreint au sein de ces mêmes communautés.
Au cours des 30 dernières années, la quantité de données géos-
Dans un monde globalisé supporté par les technologies de patiales disponibles a considérablement augmenté suite à l’évolu-
l’information et de la communication (TIC), les moyens de tion des moyens de communication et le développement rapide
communication ont considérablement élargi notre horizon permet- des technologies spatiales de capture de données tels que le Glo-
tant d’accéder à un flux énorme et continu d’informations influen- bal Positioning System (GPS), la télédétection ou les réseaux de
çant fortement notre société, notre économie, ou encore la façon senseurs. Au cours des dix dernières années, avec l’avènement
dont les gens vivent et travaillent. Les TIC ont globalement amé- d’applications comme Google Earth, l’information géographique a
lioré la productivité des personnes permettant à chacun, ainsi été largement diffusée et systématiquement intégrée dans le flux
qu’aux industries et aux pays, de participer conjointement au de travail tant au niveau des agences gouvernementales que dans
développement d’une société fondée sur la connaissance [1]. le secteur privé [6].
Ces changements influencent et transforment bien évidemment
aussi le monde de la recherche scientifique. En effet, la science est Malgré le fait que les administrations et les gouvernements
basée sur des données. Deux des défis majeurs auxquels les scien- reconnaissent que l’information géospatiale est importante et doit
tifiques sont aujourd’hui confrontés sont [2] [3] : faire partie intégrante des données de base qui doivent être effica-
cement coordonnées et gérées dans l’intérêt de tous les citoyens,
– l’énorme quantité, complexité et variété des données qui sont cette énorme quantité de données est stockée à différents endroits,
actuellement produites ; gérée par différentes organisations et donc la grande majorité de
– être en mesure de tirer pleinement parti de la connaissance et ces données n’est malheureusement pas utilisée aussi efficace-
de l’information produite par les scientifiques et les chercheurs. ment qu’elle le devrait [7]. En outre, lors de la Conférence des
Notre société dépend de plus en plus des progrès scientifiques Nations unies sur l’environnement et le développement à Rio de
et technologiques permettant par exemple d’améliorer la santé et Janeiro en 1992, la résolution Agenda 21 a souligné l’importance
le bien-être des êtres humains aussi bien que d’améliorer l’infor- de l’information géospatiale pour supporter la prise de décision et
mation sur les menaces environnementales ou encore le déve- de gestion sur la dégradation et les menaces qui affectent
loppement durable ou la gestion des ressources naturelles. En l’environnement [8]. En d’autres termes, cela signifie qu’il est
outre, les scientifiques ont parfois été critiqués pour leur manque essentiel de disposer et d’accéder à une information appropriée.
de transparence (par exemple, lors du climategate ). Par consé- Le développement de bases de données et l’échange d’informa-
quent, une meilleure collecte, gestion, stockage et accès des don- tions sont des conditions nécessaires pour envisager un dévelop-
nées sont des éléments essentiels pour améliorer cette situation. pement durable et répondre aux besoins de gestion de
87
Référence Internet
P4250
l’information pour la mise en œuvre et le suivi des politiques de Cela conduit inévitablement à un usage inefficace et à une dupli-
développement durable et des objectifs tels que les Objectifs du cation des efforts. Il est donc évident que les pays peuvent bénéfi-
développement durable (ODD) des Nations unies. Ainsi, l’informa- cier à la fois économiquement et environnementalement d’une
tion géographique peut être considérée comme un élément qui meilleure gestion de leurs données.
supporte de nombreuses disciplines scientifiques ainsi que la prise En conséquence, il est maintenant essentiel de rendre ces don-
de décisions politiques à toutes les échelles, du local au global [9]. nées facilement disponibles et accessibles afin de donner la possi-
L’expérience des pays développés montre que plus des deux tiers bilité aux utilisateurs de les transformer en informations
des décisions politiques sont influencés par de l’information géo- compréhensibles avec des avantages clairs et larges pour la
graphique. Cependant, l’information géospatiale est une ressource société et l’économie, parce que « c’est en travaillant ensemble
coûteuse à maintenir et qui prend du temps à produire. Il est donc que nous pourrons aider à résoudre bon nombre des problèmes
nécessaire pour améliorer l’accès et la disponibilité des données les plus urgents de notre société... ». Il est évident qu’il y a encore
de promouvoir leur réutilisation. Bon nombre des décisions que de nombreux défis à relever lorsque l’on commence à partager
les différentes organisations ont besoin de prendre dépendent des données, mais ils doivent être surmontés afin d’améliorer
88
Référence Internet
P4250
afin d’assurer que les données sont facilement accessibles à toute permettant aux utilisateurs de trouver, découvrir, évaluer et utiliser
à chacun ». des données, à savoir :
Si, auparavant, l’information géographique était essentiellement – des jeux de données de base clairement définis ;
présentée sous la forme de cartes papier, elle est désormais sur- – le respect des normes et des procédures connues et acceptées
tout utilisée sous forme numérique dans un SIG. internationalement ;
– des bases de données pour stocker des données et de la docu-
mentation accessible sur les données (métadonnées) ;
Un système d’information géographique (SIG) est un logiciel – des politiques et des pratiques qui favorisent l’échange et la
qui permet d’assembler, de stocker, manipuler et afficher des réutilisation des informations ;
informations géographiques. – des ressources humaines et techniques suffisantes pour
collecter, conserver, manipuler et distribuer des données
géospatiales ;
2
Un SIG donne la possibilité de fusionner/intégrer différentes – de bons canaux de communication entre les personnes/orga-
informations provenant de différentes sources en facilitant la nisations concernées par les données géospatiales, permettant
collaboration dans la création et l’analyse de ces données. Grâce d’établir des partenariats et de partager des connaissances ;
aux nouvelles possibilités de réutilisation de données existantes, – la technologie d’acquisition et de diffusion de données à tra-
de nouveaux défis se posent. Quand un utilisateur souhaite créer vers les réseaux ;
une nouvelle couche d’informations basée sur différents jeux de – les arrangements institutionnels pour collaborer à coopérer et
données, des formats différents, avec une terminologie et une coordonner des actions.
projection différentes, il est assez difficile de les réunir. L’harmoni- Rajabifard et Williamson (2001) [12] font remarquer qu’il y a une
sation des données géospatiales est donc une tâche complexe, composante supplémentaire très importante représentée par les
coûteuse et fastidieuse, mais néanmoins nécessaire pour pouvoir personnes. Cela inclut non seulement les utilisateurs de données
intégrer différents jeux de données. géospatiales mais aussi les fournisseurs de données et d’autres
La reconnaissance croissante qu’une fois qu’un jeu de données dépositaires de données. Pour ces auteurs, les gens sont la clé
a été créé, il peut être utilisé par différents utilisateurs renforce la pour le traitement des transactions et de la prise de décision. Faci-
nécessité de stocker des données dans des bases de données qui liter le rôle des personnes et des données en matière de gouver-
sont rendues accessibles pour des utilisations diverses et variées. nance qui prend en charge de manière appropriée la prise de
Cela conduit à la notion que les données géospatiales peuvent être décision et les objectifs de développement durable est au cœur du
une ressource partageable maintenue en permanence. concept d’IDG.
Les avantages d’avoir des données géospatiales sous forme
numérique sont les suivants [13] [14] : En résumé, Rajabifard et Williamson (2001) [12] suggèrent
– stockage facilité ; qu’une IDG ne peut pas être considérée seulement comme
– diffusion facilitée ; composée de données géospatiales, des services et des utili-
– facilité de l’échange et partage ; sateurs, mais implique aussi d’autres questions relatives à
l’interopérabilité, les politiques et les réseaux.
– mises à jour et corrections plus rapides et plus faciles ;
– capacité à intégrer des données provenant de sources multiples ;
– personnalisation des produits et services.
2.2.2 Évolution future et tendances
2.2.1 Composants d’une IDG Différents auteurs [15] [16] [17] ont étudié la diffusion et l’évolution
des IDG dans le monde et montrent que les motivations derrière les
Masser (2005) [75] identifie les différents secteurs pouvant inter- initiatives IDG sont généralement similaires :
agir sur une IDG démontrant la diversité des acteurs impliqués et
de leurs intérêts : – promouvoir le développement économique ;
– stimuler un meilleur gouvernement ;
– organisations gouvernementales nationales ; – favoriser la durabilité de l’environnement ;
– organisations gouvernementales locales ; – modernisation de l’État ;
– secteur commercial ; – gestion de l’environnement.
– organisations non gouvernementales à but non lucratif ;
– université ; Ils sont tous d’accord sur le fait que, dès aujourd’hui, une masse
critique d’utilisateurs a été atteinte à la suite de la diffusion des
– individus.
concepts IDG au cours des dix à quinze dernières années. Cela
Par conséquent, la tentation est grande de créer un système cen- fournit un réseau de base de personnes et d’organisations qui est
tralisé qui répondrait à tous les besoins de ces utilisateurs. De essentiel pour le développement futur des IDG.
plus, Ezigbalike (2004) [13], Henricksen (2007) [11] et Nebert
Rajabifard et Williamson (2001) [12] constatent que la première
(2005) [8] rapportent que l’existence de données et d’informations
génération des IDG, basée sur un modèle de produit, a fait place à
pertinentes ne garantit pas qu’elles seront utilisées. D’autres fac-
une deuxième génération au début des années 2000, cette dernière
teurs importants sont à considérer pour assurer que l’information
étant caractérisée par un modèle de processus. En effet, la pre-
sera utilisée et réutilisée :
mière génération des IDG était basée sur le produit, visant princi-
– le besoin de savoir que les données existent, et où elles palement à relier les bases de données existantes entre elles
peuvent être obtenues ; tandis que la seconde génération vise à définir un cadre pour faci-
– l’autorisation pour accéder et utiliser ces données ; liter la gestion et la réutilisation de données collectées par un large
– le besoin de connaître l’histoire de la capture de données, afin éventail de personnes et/ou organisations, devant répondre à une
d’interpréter correctement, lui faire confiance et être en mesure de grande diversité d’objectifs, tout cela à différentes échelles de
l’intégrer de façon significative avec les données provenant temps et d’espace. Pour Masser (2005) [75], cette évolution sou-
d’autres sources ; ligne le passage de préoccupations des producteurs de données à
– le besoin de savoir si les données dépendent d’autres jeux de ceux des utilisateurs de données et le passage de structures cen-
données, afin de donner un sens aux données. tralisées à des réseaux décentralisés et distribués comme le Web.
Par conséquent, pour exploiter pleinement le potentiel des Le modèle basé sur les processus met l’accent sur les canaux de
données, une IDG doit être constituée de différents composants communication ainsi que sur le renforcement des capacités pour la
89
Référence Internet
P4250
création d’IDG afin de faciliter la coopération et l’échange de don- utilisant n’importe quelle plate-forme, modèle d’objet ou langage
nées et de connaissances. Rajabifard et Williamson (2001) [12] de programmation. Un service n’est rien de plus qu’une collection
mettent également en évidence le fait que les caractéristiques des d’opérations qui peut être appelée par un utilisateur. Un service
systèmes sociaux influencent fortement l’approche adoptée pour peut être simple (par exemple, générer une carte) ou complexe
mettre en œuvre et développer une infrastructure de données (par exemple, exécuter un modèle hydrologique). En résumé, les
géospatiales. Ils proposent des questions et des stratégies à services Web permettent et facilitent la communication entre appli-
prendre en compte lors du processus de conception : cation via Internet et utilisent, en général, des normes ouvertes
– le développement d’une vision stratégique et d’une stratégie tels que XML.
de mise en œuvre associée ; L’architecture SOA est le principe de base soutenant la mise en
– la reconnaissance qu’une IDG n’est pas une fin en soi ; place de services Web. L’objectif principal étant de faciliter le cou-
– une stratégie institutionnelle et une gouvernance afin d’avoir plage avec des composants logiciels afin qu’ils puissent être réuti-
tous les processus de coordination administrés par un groupe. lisés. Dans une architecture SOA, l’élément clé est celui des
services. Un service est un ensemble d’actions, autonome et ne
2
Actuellement, d’un point de vue technique, l’effort se concentre
sur le développement et la mise en oeuvre de l’échange de don- dépendant pas de l’état des autres services. Dans une architecture
nées géospatiales de façon interopérable grâce à des services via SOA (figure 1), il y a trois acteurs :
l’Internet. Les IDG actuelles sont basées sur le concept de services – le fournisseur de services ;
Web et sur les architectures orientée services SOA (Service Orien- – le demandeur de services ;
ted Architecture ) [18] [19]. – le courtier en service ;
Les services Web sont un paradigme où les différents systèmes associés à trois opérations fondamentales : publier, trouver et se
ou fournisseurs offrent certains services pour certains groupes connecter. Dans un scénario traditionnel, un fournisseur de servi-
d’utilisateurs, ce qui permet un accès facile aux données au traite- ces héberge un service Web et « publie » une description de ser-
ment. Cela souligne la nécessité que les systèmes impliqués vice à un courtier de service. Le demandeur de service utilise une
puissent communiquer les uns aux autres. En d’autres termes, les opération « trouver » pour récupérer la description du service et
services Web reposent sur l’interopérabilité. Les services Web l’utilise pour « connecter » avec le fournisseur de service et invo-
offrent la possibilité de développer des applications Web en quer le service Web lui-même.
Harvest Catalog
CSW MEF
ISO 19139
ISO 19115
ta Se
da arc
eta hm Web
em eta
Raster files o vid da
Pr Discover ta Desktop
Print
Vector files
Access data
Databases
PDA
Pr
ov
ide ta
da da
ta e ss
GPS surveys Publish cc Phone
A
GPS
WFS
WMS
KML
GeoJSON
GeoRSS WCS
Un créateur (Create) de données documente (Provide metadata) et publie sa donnée (Provide data). L’utilisateur (Use) recherche
une donnée grâce à la métadonnée (Search metadata) et une fois trouvée il peut y accéder (Access data).
Figure 1 – Schéma général d’une architecture SOA dans le cadre d’une IDG (doc. OGC)
90
Référence Internet
AF1515
Morphologie mathématique
et traitement d’images
par Isabelle BLOCH
Professeur
Institut Mines-Télécom – Télécom ParisTech – CNRS LTCI – Paris
– les transformations sont non linéaires, elles sont fondées sur des opérations
de type sup et inf ;
– les transformations sont généralement non inversibles, et elles perdent
donc de l’information ; le travail du morphologue consiste alors à déterminer
les transformations adaptées à son problème, c’est-à-dire qui vont « simplifier »
les images en retenant l’information pertinente ;
– des propriétés analytiques et algébriques sont attachées aux opérations, ce
qui permet d’assurer des propriétés précises sur les objets ou images issues
des transformations ; c’est sur ces propriétés que l’on s’appuie pour enchaı̂ner
les transformations afin de résoudre un problème particulier ;
– des algorithmes sont également associés aux transformations, permettant
leur application de manière efficace.
Dans la suite, nous ferons de rapides rappels historiques, puis introduirons
les quatre opérations de base de la morphologie mathématique (dilatation, éro-
sion, ouverture, fermeture), dans les cas d’images binaires et d’images à
91
Référence Internet
AF1515
2
consulter les ouvrages de référence tels que [8] [14] [20] [21] [23].
1. Un peu d’histoire Dans leur forme la plus usuelle, et la plus utile dans nombre
d’applications, ces opérations transforment les images en analy-
sant un petit domaine autour de chaque point, défini par la transla-
La morphologie mathématique a été développée à l’origine à tion d’un ensemble appelé élément structurant. Nous supposons
l’École des Mines de Paris. Elle repose essentiellement sur les tra- que les images sont définies dans un domaine S, qui peut être
vaux de G. Matheron effectués dans les années 1960-1970, puis sur ℝn , ℤn dans le cas discret, ou un sous-ensemble borné de ces
ceux de J. Serra et de son équipe au Centre de morphologie mathé- espaces en pratique. Dans le cas discret, le support de l’image est
matique, aujourd’hui dirigé par F. Meyer. Depuis ces premiers déve- souvent appelé trame, et en pratique on travaille en trame carrée
loppements, elle a pris une ampleur internationale et plusieurs ou hexagonale pour des images à deux dimensions, en trame
équipes s’y consacrent. cubique pour des images à trois dimensions. Dans la suite, on
Développée à l’origine pour l’étude des matériaux poreux, la note B l’élément structurant et Bx son translaté au point x
morphologie mathématique trouve maintenant ses applications
dans de nombreux domaines du traitement d’images, aussi bien
( )
Bx = {x + b b ∈B } . Notons que l’origine de l’espace peut apparte-
2D que 3D, en biologie et cytologie quantitative, en imagerie médi- nir ou ne pas appartenir à B.
cale, en imagerie aérienne et satellitaire, en robotique et vision par Considérons d’abord le cas d’images binaires. La dilatation d’un
ordinateur, en contrôle industriel non destructif, dans les études
sur les documents et les œuvres d’art. Hors du domaine du traite- ensemble X ( X ⊆ S ) par un élément structurant B est définie par :
ment des images, on trouve des applications par exemple en ana-
lyse de données, sur des données représentées par des graphes, ∨
des hypergraphes, des ensembles flous, etc., en logique, ou encore δB ( X ) = X ⊕ B = {x + y x ∈ X , y ∈B } = x ∈S B x ∩ X ≠ ∅ , (1)
en théorie des jeux.
Elle a été développée initialement dans un cadre ensembliste, et
donc avec des applications immédiates en imagerie binaire, ainsi ∨
que dans le cadre probabiliste des ensembles fermés aléatoires. où B désigne le symétrique de B par rapport à l’origine
Puis elle a été généralisée aux fonctions numériques. Le cadre algé-
∨
B = {− b b ∈B } . Cette définition est cohérente avec la vision
brique des treillis complets, qui unifie la morphologie mathéma-
tique pour différentes structures mathématiques, a été introduit
dans les années 1980 [21] et développé en particulier moderne de la morphologie mathématique reposant sur la notion
dans [9] [16] [17]. d’adjonction dans des treillis complets (voir section 3). Elle diffère,
L’ampleur qu’ont pris cette théorie et ses applications en traite- dans le cas d’éléments structurants qui ne sont pas symétriques
ment d’images est attestée par l’existence, depuis 1993, d’une par rapport à l’origine, de la définition originale où elle était définie
conférence internationale sur le sujet. Celle de 2005 a ponctué les ∨
40 ans de la théorie. Plusieurs logiciels de traitement d’images intè- par X ⊕ B . L’opération ⊕ est aussi connue sous le nom d’addition
grent maintenant des opérations de morphologie mathématique, de Minkowski.
ce qui permet également leur diffusion et leur application plus
large, aussi bien dans des laboratoires académiques que dans des L’érosion de X par B est définie par :
équipes industrielles.
εB ( X ) = {x ∈S Bx ⊆ X } . (2)
γ B ( X ) = δB ( εB ( X )) , (3)
2.1 Définitions et propriétés
Dans cette partie, nous introduisons les quatre opérations de
base de la morphologie mathématique : dilatation, érosion, ouver- ϕB ( X ) = εB (δB ( X )) . (4)
ture et fermeture. Le lecteur souhaitant aller plus loin pourra
92
Référence Internet
AF1515
Citons les principales propriétés de ces opérations : pour effet de boucher les trous des objets qui sont plus petits que
– elles sont croissantes pour la relation d’ordre partiel ⊆ par rap- l’élément structurant. Elle régularise les contours des objets en
rajoutant des points dans les concavités étroites (dans lesquelles
port à l’ensemble à transformer : X ⊆ Y ⇒ δB ( X ) ⊆ δB (Y ) et de
ne peut pas se glisser l’élément structurant). On retrouve l’effet de
même pour les trois autres opérations ; filtrage, dual de celui de l’ouverture.
– la dilatation et la fermeture sont croissantes par rapport à l’élé-
ment structurant, alors que l’érosion et l’ouverture sont
décroissantes ; 2.3 Cas des fonctions
– la dilatation est extensive (X ⊆ δB ( X )) et l’érosion est anti-
extensive (εB ( X ) ⊆ X ) si et seulement si l’origine appartient à B ; Passons maintenant au cas des fonctions, afin de pouvoir mani-
puler des images à niveaux de gris. Soit f la fonction définie sur S
– l’ouverture est anti-extensive tandis que la fermeture est exten-
représentant les niveaux de gris en chaque point de S (à valeurs
sive (et elles ne dépendent pas de l’origine) ;
dans un ensemble ordonné L) et g une fonction structurante (l’équi-
– la dilatation et l’érosion sont duales par rapport à la complé-
valent de l’élément structurant du cas binaire). Les définitions pré-
( )
mentation : (δB ( X )) = ε ∨ X c , où Xc désigne le complémentaire
2
c
cédentes se généralisent sous la forme :
B
de X dans S. De même l’ouverture et la fermeture sont duales ; ∀x ∈S , δg (f )( x ) = sup {f (y ) + g ( x − y )} , (5)
– la dilatation commute avec la réunion et l’érosion commute y ∈S
avec l’intersection :
δB ( X ∪ Y ) = δB ( X ) ∪ δB (Y ) et ε ( X ∩ Y ) = ε ( X ) ∩ ε (Y ) . ∀x ∈S , εg (f )( x ) = inf {f (y ) − g (y − x )} . (6)
y ∈S
93
Gagnez du temps et sécurisez vos projets
en utilisant une source actualisée et fiable
RÉDIGÉE ET VALIDÉE MISE À JOUR 100 % COMPATIBLE SERVICES INCLUS
PAR DES EXPERTS PERMANENTE SUR TOUS SUPPORTS DANS CHAQUE OFFRE
NUMÉRIQUES
Questions aux experts* Articles Découverte Dictionnaire technique multilingue Archives Info parution
Les meilleurs experts techniques La possibilité de consulter 45 000 termes en français, anglais, Technologies anciennes et versions Recevez par email toutes les nouveautés
et scientifiques vous répondent des articles en dehors de votre offre espagnol et allemand antérieures des articles de vos ressources documentaires
*Questions aux experts est un service réservé aux entreprises, non proposé dans les offres écoles, universités ou pour tout autre organisme de formation.
www.techniques-ingenieur.fr
CONTACT : Tél. : + 33 (0)1 53 35 20 20 - Fax : +33 (0)1 53 26 79 18 - E-mail : infos.clients@teching.com
Powered by TCPDF (www.tcpdf.org)