Vous êtes sur la page 1sur 141

  Photogrammétrie & imagerie géomatique 

 
Éléments de photogrammétrie 
Cours de photo‐interprétation 

 
 
 

HEIG‐VD, G2C    F. Gervaix, février 2010 
   

Table des matières 
1. Avant‐propos, buts et plan du cours  5
1.1. Avant‐propos  5
1.2. Buts du cours  7
1.3. Plan du cours et calendrier  10
2. Introduction  11
2.1. Qu’est‐ce que la photogrammétrie ?  11
2.2. Matériel de base  11
2.3. Types d’utilisation  11
2.4. Photogrammétrie et environnement  12
3. Définition et historique  13
3.1. Définition de la photogrammétrie  13
3.2. Historique  14
3.3. « Types » de photogrammétrie  15
3.4. Notions de base  16
3.5. Notion de résolutions  18
3.6. Catalogage des images numériques  21
3.7. Images numériques par caméras aéroportées  22
3.8. Problématique des dévers  23
4. Aspect matériel  27
4.1. Caméras analogiques (ou « film »)  27
4.2. Caméras numériques « moyen format »  29
4.3. Caméras numériques  « grand format »  30
4.4. Tour d’horizon des utilisateurs  36
5. Mesures GPS et inertielles pour la photogrammétrie  37
5.1. GPS  37
5.2. GPS et IMU combinés  41
5.3. Flux des tâches habituel  43
5.4. Points d’appui (GCP)  44
6. Déroulement d’un chantier photogrammétrique  46
6.1. Travaux préparatoires  46
6.2. Plan de vol  50
6.3. Exécution du vol  56
6.4. Scannérisation et suite  57
6.5. Résumé  58
7. Logiciels photogrammétriques  59
7.1. Introduction aux logiciels photogrammétriques  59

HEIG‐VD, G2C  2 / 141  F. Gervaix, février 2010 


   
7.2. Leica Geosystems LPS  59
7.3. BAE Systems Socet Set  60
7.4. KLT Associates Atlas  60
8. Aérotriangulation  61
8.1. Les différentes orientations  61
8.2. Aérotriangulation  64
8.3. Rotations dans l’espace  68
9. MNT par photogrammétrie  72
9.1. Introduction  72
9.2. Définitions  72
9.3. Spécifications  73
9.4. MN_: représentations  74
9.5. Comparaison Grille <> TIN  74
9.6. Mesure de Z = mesure de la parallaxe x  75
9.7. Modes de création d’un MNT  76
9.8. Passage du MNS Î MNT  77
9.9. Passage de Grille Î TIN  77
9.10. MNT‐MO et MNS  78
10. Scanners laser aéroportés (LiDAR)  79
10.1. Introduction  79
10.2. Fonctionnement  79
10.3. Données laser  80
10.4. Définitions  81
10.5. Notion de nuage de points (3D)  81
10.6. Géométrie du LIDAR  83
10.7. Les échos multiples  84
10.8. Considérations de résolution  86
10.9. Résumé des caractéristiques principales  86
10.10. Exemples d’applications  87
10.11. Exemple d’équipement: Leica ALS50  88
10.12. Performances  90
10.13. Précision obtenue  91
10.14. Étalonnage du système  91
10.15. Logiciels pour le LiDAR  92
10.16. Flux des données et des tâches  94
10.17. Glossaire des termes LIDAR (en anglais)  94
11. Orthomosaïque  96
11.1. Introduction  96

HEIG‐VD, G2C  3 / 141  F. Gervaix, février 2010 


   
11.2. Procédé  97
11.3. Enjeux  97
11.4. Critères et facteurs de qualité  99
11.5. Confection des orthophotos numériques  100
11.6. Principe et production de l’orthophotographie  103
11.7. True Ortho™ (ou ortho intégrale)  106
11.8. Lignes de raccord  108
11.9. Égalisation radiométrique  110
12. Restitution vectorielle (3D)  111
12.1. Définitions  111
12.2. Éléments de base  111
12.3. Matériel nécessaire  114
12.4. Modélisation  116
13. Télédétection  118
13.1. Photogrammétrie et télédétection  118
13.2. Éléments de base  119
13.3. Synthèse fauchée / résolution  121
13.4. Analyse des données de la TD  121
13.5. Satellites  122
13.6. Orbite  125
13.7. Période  127
13.8. Orbite héliosynchrone  128
13.9. Satellites utilisés en télédétection  130
14. Bibliographie  139
15. Éléments numériques utiles  140
16. Curriculum Vitae  141

HEIG‐VD, G2C  4 / 141  F. Gervaix, février 2010 


   

1. Avant‐propos, buts et plan du cours 

1.1. Avant‐propos 
La  photogrammétrie  est  une  matière  passionnante,  variée  et  spectaculaire,  mariant  géométrie  et 
esthétique,  offrant  une  vision  différente  de  notre  environnement.  Ce  support  de  cours  a  l’intention  d’en 
donner un aperçu le plus complet et réaliste possible, sans pour autant être exhaustif. 

1.1.1 Motivation 
Durant  ces  10  dernières  années,  la  photogrammétrie  a  vécu  un  tournant  technologique  important :  le 
passage au tout numérique et l'arrivée sur le marché d’images satellites haute résolution. 
Le chamboulement engendré est comparable à l’introduction du système de positionnement mondial GPS 
durant les années nonante. De telles situations se caractérisent par des évolutions technologiques rapides, 
une adaptation souvent superficielle des méthodes de travail et à une obsolescence accélérée du matériel 
et des logiciels. Les critères de qualité sont souvent bafoués, la désorientation de l’utilisateur (et parfois du 
producteur !) est palpable et le besoin de nouveaux repères, standards, normes, etc. est évident. 
Pour  aller  un  peu  plus  loin  dans  la  réflexion,  on  peut  lire  l’éditorial  du  Géomatique  Suisse  de  septembre 
2009 écrit par le Prof. Dr. Stephan Nebiker « Photogrammétrie et télédétection – une diversité florissante 
d’espèces ».  Dans  la  même  parution,  l’article  du  Dr.  Roland  Stengele  « Geodaten  aus  de  Luft :  aktueller 
Status, Trends und Ausblick » brosse un portrait actuel et saisissant  du domaine. 

1.1.2 Rôle de la photogrammétrie 
Dans  le  monde  de  la  géoinformation  se  dessinent  quelques  tendances  ayant  une  influence  directe  sur  la 
mise en œuvre de la photogrammétrie : 
• importance croissante des orthophotos 
o exemple : généralisation des globes virtuels et serveurs de « cartes » 
• augmentation des besoins en modèles numériques de terrain précis 
o exemple : MNT‐MO / MNS par LiDAR 
• tendance au SIG en 3D et demande accrue de modèles urbains 3D 
o exemple : « Bâti 3D » à Genève, MTP au niveau national 
• besoin de mise à jour, spécialement dans les secteurs non bâti 
o exemple : projet SAU (actualisation des surfaces agricoles utiles) 
On peut réagir efficacement et économiquement à ces tendances – et à la demande croissante des produits 
concernés – à l'aide de la photogrammétrie numérique. 
L’intitulé du cours est quelque peu ambigu : il traite un peu de photogrammétrie et beaucoup d’imagerie 
au sens large. L’évolution technologique de ces 15 dernières années a dynamisé une discipline qui était très 
mécanique  et  optique,  lente,  coûteuse,  parfois  austère.  Aujourd’hui,  il  est  possible  de  faire  de  la 
photogrammétrie  à  petit  budget,  même  si  les  logiciels  dédiés  restent  coûteux  (petit  marché,  peu  d’effet 
d’échelle). 
Les éléments essentiels qui seront traités durant ce cours sont : 
- Culture géomatique générale (unités, systèmes de références, systèmes de projection) 
- Mathématiques (trigonométrie, calcul matriciel,  statistiques) 

HEIG‐VD, G2C  5 / 141  F. Gervaix, février 2010 


   
- Physique (radiations électromagnétiques ; optique géométrique, physiologique et atmosphérique) 
- Capteurs optiques (notions fondamentales, photographie, scanners et LiDARs) 
- Acquisition de données optiques (bases ; acquisition terrestre, aérienne et satellitaire) 
- Traitement d’images numériques (images numériques, transformation d’images, visualisation) 
- Photogrammétrie (traitement d’une image, d’une paire d’images, d’une multitude d’images) 
- Télédétection optique (techniques multispectrales et thermiques) 
- Télédétection par micro‐ondes (micro‐ondes, techniques RaDARs) 
- Modélisation (modèle 3D, représentation) 
Ces 10 thèmes correspondent aux 10 chapitres de la bible de la photogrammétrie et de la télédétection de 
Albertz  &  Wiggenhagen  (voir  bibliographie).  Ils  seront  traités  de  façon  variable  en  fonction  de  l’utilité 
immédiate des concepts. 
 

HEIG‐VD, G2C  6 / 141  F. Gervaix, février 2010 


   

1.2. Buts du cours 
Statistiquement, très peu d’entre vous travailleront plus tard dans la photogrammétrie. Par contre, tous ou 
presque utiliseront des produits de la photogrammétrie. Il est donc important de connaître comment ces 
produits sont obtenus et, une fois au moins, les avoir réalisés, ne serait‐ce que pour ce rendre compte de 
leur complexité. C’est donc cette volonté qui conduit aux buts suivants : 

1.2.1 Acquérir la nomenclature usuelle 
Comme  dans  chaque  discipline,  la  photogrammétrie  possède  son  langage  propre,  qui  peut  différer 
légèrement des disciplines voisines. L'ingénieur doit savoir s'exprimer, par écrit et par oral, en utilisant les 
mots justes et ce, idéalement dans une, deux ou trois langues. 

1.2.2 Comprendre ce qu’est la photogrammétrie 
La  photogrammétrie  a  une  position  centrale  dans  la  géomatique,  non  pas  qu’elle  soit  indispensable  aux 
autres  disciplines  de  la  géomatique,  mais  bien  car  faisant  appel  à  de  nombreuses  connaissances  et 
techniques des autres disciplines. Il s'agit  donc  de  bien identifier ces interactions, être  capable de passer 
d'une  discipline  à  l'autre,  de  les  « décloisonner ».  L’illustration  (Figure  1)  ci‐dessous  symbolise  ces  liens 
étroits. 

Scanner laser
vecteur Topométrie
SIG
LiDAR

Traitement Méthodes
raster MNT / MNS

d’image d‘estimation

Visualisation géométrie
3D
radiométrie Comp. par bloc
Modélisation

Images Géodésie
Télédétection

satellites Orthophoto GPS / INS


 
Figure 1 : Liens étroits entre la photogrammétrie et les autres disciplines de la géomatique 

HEIG‐VD, G2C  7 / 141  F. Gervaix, février 2010 


   
1.2.3 Appliquer les principes, méthodes et techniques dans des cas pratiques 
Face à une problématique globale, l’ingénieur doit être capable de décomposer celle‐ci en des problèmes 
spécifiques. « Un problème identifié est un problème à moitié résolu » est le mot d’ordre. Des difficultés 
technologiques  peuvent  se  présenter  (disponibilité  des  données,  logiciel  récalcitrant,  taille  des  données, 
interprétation  des  résultats),  mais  une  exécution  partielle  sur  un  échantillon  ou  un  calcul  a  priori  doit 
permettre de donner l’essentiel de la réponse. 

1.2.4  Analyser les ingrédients, les outils et les produits de la photogrammétrie 
La position centrale de la photogrammétrie nécessite de bien connaître les éléments en amont et en aval. 
La photogrammétrie est composée d’une suite de processus 
qui peut se résumer ainsi : 
• acquisition : plan de vol, aspect matériel 
• géoréférencement : GPS & IMU, aérotriangulation, points 
au sol 
• restitution :  MNT,  extraction  vectorielle  3D,  orthophoto, 
géométrie 
• interprétation :  analyse  d’image,  classification,  SIG, 
fausses couleurs, orthophoto, radiométrie 
• présentation : visualisation 3D, SIG, réalité virtuelle, Web. 
Ce découpage ou chronologie est basé sur une réflexion qui 
avait été faite chez Leica Geosystems Geospatial Imaging en 
2002.  La  réflexion  avait  mené  à  cette  représentation 
graphique : 
 
C’est avec un plaisir non dissimulé que sept ans plus tard on  Figure 2: LGGM, 2002 
retrouve le concept… pour Leica Geosystems dans son 
ensemble ! 

 
Figure 3: Site Web de Leica Geoystems 
(http://www.leica‐geosystems.com/en/Our‐Company‐Breadth_24312.htm) 

 
 
 
Une  illustration  de  ce  processus  (« work‐flow »)  par  un  exemple  très  actuel  et  caractéristique  se  trouve 
dans le travail de Bachelor 2009 de Sébastien Monnier dont voici l’élément central : 

HEIG‐VD, G2C  8 / 141  F. Gervaix, février 2010 


   

HEIG‐VD, G2C  9 / 141  F. Gervaix, février 2010 


   
Dans  de  nombreuses  situations,  il  n’y  a  pas  une  réponse  juste  et  des  réponses  fausses.  L’inventaire  de 
variantes et le choix de la meilleure (ou de la moins mauvaise…) solution nécessite certes de l’expérience, 
mais aussi et surtout une rigueur dans la sélection des critères et l’examen de ces derniers. 

1.3. Plan du cours et calendrier 
1.3.1 Déroulement 2010 
6 séances à 2 périodes = 12 périodes / 9 heures. 

Mardi  S  N°  Contenu  Chapitres  Exercice 

Introduction,  notions  et  principes  de  base, 


23.01.10  8  1  1, 2, 3, 4a    
aspect matériel (argentique) 

Aspect  matériel  (numérique),  déroulement 


02.03.10  9  2  4b, 5, 6, 7, 8    
d’un chantier phot. 

MNT  par  photogrammétrie,  scanners  lasers 


16.03.10  11  3  9, 10    
aéroportés 

23.03.10  12  4  Production d’orthomosaïque, ADS40/80  11, 4c    

Restitution vectorielle,  modélisation 3D, True 
13.04.10  15  5  12     
Ortho 

20.04.10  16  6  Imagerie satellitaire, télédétection  13  Test écrit 

Chapitres utilitaires: 14, 15, 16 

HEIG‐VD, G2C  10 / 141  F. Gervaix, février 2010 


   

2. Introduction 

2.1. Qu’est‐ce que la photogrammétrie ? 
« Toute technique de mesure qui permet de modéliser un espace 3D en utilisant des images 2D » 
Photogrammétrie numérique, ENSG IGN 
« Une technique de mesure pour laquelle les coordonnées en trois dimensions des points d'un objet sont 
déterminées par des mesures faites en deux images photographiques (ou plus) prises à partir de positions 
différentes » 
Wikipedia 
Mais la photogrammétrie n’est pas qu’une technique de mesure et de calcul plus ou moins sophistiquée. 
C’est  un  ensemble  de  domaines  où  se  mélangent  la  précision  et  l’esthétique,  l’infiniment  grand  et 
l’infiniment petit. 

2.2. Matériel de base 
Il  s’agit  en  général  d’un  document  photographique,  c'est‐à‐dire  un  enregistrement  de  l’intensité  et  de  la 
couleur des radiations du spectre visible ou invisible, réfléchie par l’objet considéré. 
La photographie  est  une technique permettant de fixer  une image sur une surface sensible à l'aide de la 
lumière et des objets qui la reflètent. 
Le  mot  image,  du  latin  imago,  désigne  la  représentation  visuelle  d'un  objet  par  différents  moyens  ou 
supports, dessin, image numérique, peinture, photographie, etc. 
A ce stade, on se rend compte de la multitude et de la variété dans le matériel de base. 

2.3. Types d’utilisation 
On peut classer les utilisations du matériel de base en deux catégories : 
  Une approche radiométrique, où la nature de l’objet est étudiée. 
  Une approche géométrique, où la forme de l’objet est étudiée. 
La  première  catégorie  est  plus  couramment  appelée  photo‐interprétation  ou  télédétection  ( remote 
sensing / Fernerkundung ). C’est là qu’on trouve la plus grande variété dans le matériel de base. 
La  deuxième  catégorie  est  la  photogrammétrie  à  proprement  parlé  (détermination  de  la  forme  et  des 
dimensions d’un objet). Le matériel de base est assez limité car très spécifique. 
Les  deux  domaines  étaient  historiquement  assez  éloignés.  Mais  plus  récemment,  un  rapprochement 
évident  s’est  produit  et  la  différenciation  n’est  maintenant  plus  aussi  aisée.  L’apparition  du  numérique  a 
modifié les habitudes de travail et a conduit a ce rapprochement. 

HEIG‐VD, G2C  11 / 141  F. Gervaix, février 2010 


   

2.4. Photogrammétrie et environnement 
Texte repris de l’invitation à la leçon d’honneur du Professeur Kölbl (EPFL), 20 décembre 2005 : 

2.4.1 Photogrammétrie: Une technique par excellence pour la saisie de notre 
environnement 
Catastrophes  naturelles,  sécheresse,  manque  de  planifications  :  ces  titres  inondent  la  presse  et  nous 
insécurisent. Cependant, l'homme a aussi appris à se prémunir contre les forces de la nature, à construire 
des infrastructures solides et à créer un espace de vie en général fort agréable. Ce processus est toujours 
en  cours  et  conditionne  des  actions  et  des  mesures  bien  réfléchies  afin  de  maîtriser  tant  les  défis 
d'aujourd'hui que ceux du futur. 
La géomatique englobe les sciences traitant de la saisie et de la gestion de notre espace de vie et fournit 
ainsi un instrument de planification de premier ordre dans son évolution mais aussi la sauvegarde de notre 
environnement.  Si  les  cartes  et  les  plans  ne  représentent  qu'un  nombre  d'objets  bien  définis,  les  images 
aériennes  et  satellitaires  permettent  le  recours  à  l'information  primaire,  l'interprète  pouvant  en  extraire 
l'information spécifique à son travail sans dépendre des choix d'une présélection telle qu'elle est réalisée 
par exemple par le topographe lors de l'élaboration d'une carte. De plus, ces images ne se limitent pas à la 
représentation  de  l'état  actuel  mais  les  prises  de  vues  archivées  depuis  environ  1930  pour  les  photos 
aériennes et depuis 1972 pour les images satellitaires permettent l'étude de processus de développement 
et l'incorporation de ce dynamisme dans le travail de planification. […] 
 
 
 
 
 

 
source : www.cyber‐swift.com/photogrammetry‐services.html 

HEIG‐VD, G2C  12 / 141  F. Gervaix, février 2010 


   

3. Définition et historique 

3.1. Définition de la photogrammétrie 
En  guise  d’introduction,  décortique‐on  la  définition  de  la  photogrammétrie  disponible  sur  l’encyclopédie 
libre Wikipedia. 
Quelques éléments clé sont soulignés en raison de leur importance et discutés par la suite. 
« La photogrammétrie est une technique de mesure pour laquelle les coordonnées en trois dimensions des 
points d'un objet sont déterminées par des mesures faites en deux images photographiques (ou plus) prises 
à partir de positions différentes. » 
« Dans cette technique, les points communs sont identifiés sur chaque image. Une ligne de vue (ou rayon) 
peut être construite de la position de l'appareil photographique au point de l'objet. C'est l'intersection de 
ses rayons (triangulation) qui détermine la position tridimensionnelle du point. (…) » 
« La  photogrammétrie  est  utilisée  dans  différents  domaines,  tels  que  la  production  de  cartes 
topographiques,  l'architecture,  les  investigations  de  police,  la  géologie  et  par  les  archéologues  pour 
reproduire rapidement des plans de sites vastes et complexes. » 
« Si  les  mêmes  objets  sont  reconnus  sur  deux  photos,  constituant  ainsi  une  photo  en  stéréoscopie,  la 
mesure  de  la  parallaxe  (écart  entre  les  deux  images  du  même  objet)  indique  de  plus  l'altitude  de  cet 
objet. » 
« Les  algorithmes  de  photogrammétrie  se  basent  généralement  sur  un  problème  de  minimisation  de  la 
somme des carrés d'un ensemble d'erreurs. (…) » 

3.1.1 Commentaires 

HEIG‐VD, G2C  13 / 141  F. Gervaix, février 2010 


   

3.2. Historique 
3.2.1 Prises de vues 
Wild C2 –1925 
f = 165 mm, plaques de 
verre 10 x 15 cm 
Dès 1950, négatifs sur film 
18 x 18 cm. 
Dès 1970, négatifs sur film 
23 x 23 cm, noir et blanc, 
puis couleur. 

Leica ADS40 – 2005 
f = 63 mm, barrettes de 
CCD1 équivalentes à une 
matrice de 144 Mégapixels 

                                                            
 
1
 CCD: Charge‐Coupled Device = DTC: Dispositifs à Transfert de Charge 

HEIG‐VD, G2C  14 / 141  F. Gervaix, février 2010 


   

3.3. « Types » de photogrammétrie 
On peut cataloguer les applications photogrammétriques selon plusieurs critères : l’origine des images, le 
mode de traitement utilisé ou la géométrie. 
• Images 
o terrestres (axe ± horizontal, distance de 0 à 100 m) 
o aériennes (axe ± vertical, distance de 100 à 10’000 m) 
o spatiales / satellitaires (axe ± vertical, distance de 200 à 800 km) 
• Traitements 
o analogiques 
o analytiques 
o numériques 
• Modèles mathématiques 
o géométrie conique 
o géométrie cylindro‐conique 

3.3.1 Images terrestres, aériennes et spatiales 
La différence la plus immédiate est certainement la résolution géométrique (taille réel d’un pixel). Mais les 
progrès technologiques diminuent les écarts et cette différence a tendance à ne plus être aussi significative. 
Les images terrestres se différencient des autres principalement par la direction de la prise de vue qui est 
en  général  horizontale  (ou  proche  de  l’horizontale)  alors  que  les  images  aériennes  et  spatiales  sont 
verticales (plus précisément : nadirale). 
Les  images  spatiales  se  différencient  des  autres  principalement  par  leur  largeur  de  champ  qui  est  très 
étroite (≈ 1°), alors que les images terrestres et aériennes sont beaucoup plus larges (60 à 120°). 
Pour le reste, ces images une fois « apprêtées » sont très semblables et sont traitées de façon similaire. 

3.3.2 Traitements analogique, analytique et numérique 
Le traitement analogique des photographies existe depuis l’origine de la photogrammétrie (début du XXème 
siècle). On citera par exemple la série des instruments Wild A (de A1 dès 1922 à A10 dès 1969 → 1984 et 
AG1  dès  1981  →  1990).  Beaucoup  d’appareils  ont  dépassé  les  vingt  ans  de  service !  Ces  instruments 
extrêmement complexes permettaient de recréer la position et l’orientation des photos au moment de la 
prise de vue. C’était des instruments essentiellement mécaniques et optiques. 
Le  traitement  analytique  des  photographies  a  débuté  à  la  fin  des  années  1960.  On  citera  par  exemple  la 
série des instruments Kern DSR  (de DSR1  dès 1980  à DSR 15 dès 1988) et les instruments  Wild AC et BC 
(AC1  dès  1980,  BC1  dès  1982  à  BC3  dès  1989)  et  SD  (SD2/3000  dès  1991,  produits  jusqu’en  2003).  La 
position  et  l’orientation  des  photos  étaient  recrées  par  des  formules  mathématiques  traitées  par 
ordinateur. Ils sont parfois complétés par des systèmes interactifs graphiques, précurseurs des SIG. 
Le traitement numériques des photographies à débuté au début des années 1990. Un élément essentiel est 
le scanner de précision pour film. On citera par exemple la série des scanners Leica DSW (de DSW100 dès 
1989 à DSW700 dès 2004). C’est ce mode de traitement qui nous intéressera tout au long de ce cours. 

HEIG‐VD, G2C  15 / 141  F. Gervaix, février 2010 


   
3.3.3 Géométrie conique et cylindro‐conique 
La géométrie conique est la géométrie traditionnelle des prises de vues discrètes et séquentielles. Elle est 
aussi la géométrie de l’œil humain et de la photographie depuis son invention. On parle aussi de projection 
centrale ou « pyramidale ». Ses particularités seront étudiées en détail par la suite. 
La géométrie cylindro‐conique est la géométrie des capteurs linéaires (à barrettes de CDD), très utilisés par 
les satellites (Landsat, Spot, Ikonos, …) et de nombreux capteurs de télédétection, pour une prise de vue 
continue. Plus récemment, cette géométrie a été adoptée pour le capteur aérien de Leica, l’ADS40 On parle 
aussi de balayage (« push‐broom »). Ses particularités seront étudiées en détail par la suite. 

3.4. Notions de base 
Indépendamment  du  type  de  photogrammétrie  considéré,  certaines  notions  de  bases,  essentiellement 
conceptuelles, sont nécessaires. 

3.4.1 Essence de la photogrammétrie 
En reprenant la définition, on comprend que la photogrammétrie est l’art de passer de deux modèles 2D du 
paysage à un modèle 3D. De façon très raccourcie, on peut écrire : 
  2D + 2D = 3D    
Ou, de façon graphique : 

 
Figure 4: A partir d’objets 2D (des photographies), on obtient des objets 3D 

Un élément important est qu’un objet doit être mesuré au moins deux fois en 2D pour être restituable en 
3D. C’est un paramètre essentiel, le recouvrement entre photographies. 

HEIG‐VD, G2C  16 / 141  F. Gervaix, février 2010 


   

3.4.2 Principe : géométrie conique 

 
Figure 5: Projection centrale et recouvrement 

O1 et O2 sont les centres de projection 
La distance O1 ↔ O2 est appelée base b [mm] (dans l’espace image) ou B[m] (dans l’espace objet) 
La distance O1 au plan objet est appelée hauteur H 
La distance O1 au plan image est appelée distance principale ck (ou hauteur h) 
Le  rapport  B/H  ou  b/ck  est  une  caractéristique  essentielle ;  elle  est  conditionnée  par  l’ange  d’ouverture 
(largeur  de  champ)  et  le  recouvrement  des  deux  photos.  Il  est  identique  dans  l’espace  objet  et  dans 
l’espace image. 
Dans l’espace objet, on détermine la base en fonction de la hauteur. 
H = 3000 m Î B = 780 m, B/H = 0.261 ou 1:3.8 
Dans l’espace image, on règle la hauteur en fonction de la base. 
b = 65 mm  Î h = 250 mm 
Ces deux valeurs ne sont pas anodines : 
65 mm est l’écartement moyen entre les yeux d’un humain 
250 mm est la punctum proximum de convergence (PPC), qui est le point le plus proche pour voir simple 
l'image des deux yeux (ou least distance of distinct vision LDDV) 

                                                            
 
1
 La valeur du rapport B/H ne doit pas être confondue avec le recouvrement longitudinal. Le rapport B/H ne s’exprime 
jamais en %, éventuellement en « 1 sur … » (cf. 6.1.2 Focale de l’objectif, page 46). Le rapport B/H diminue quand le 
recouvrement augmente. 

HEIG‐VD, G2C  17 / 141  F. Gervaix, février 2010 


   

3.5. Notion de résolutions 
La notion de résolutions est extrêmement importante, aussi bien en photogrammétrie pure et dure qu’en 
télédétection. Il faut bien faire la différence entre la résolution spatiale (ou géométrique) et la résolution 
spectrale (ou radiométrique). 
La résolution spatiale peut être résumée par la taille du pixel au sol (GSD pour Ground Sampling Distance, 
taille  d’échantillonnage  au  sol,  taille  d’un  pixel  dans  l’espace  objet),  exprimée  en  mètres  ou  plus 
fréquemment en centimètres. Cette résolution spatiale est à ne pas confondre avec le nombre de pixels de 
la  matrice  CCD.  C’est  une  notion  également  importante,  mais  qui  ne  suffit  pas  à  elle  seule  pour 
appréhender un système. La course à la meilleure résolution spatiale est permanente. 
La  résolution  spectrale  peut  être  expliquée  simplement  par  le  nombre  de  canaux  ou  bandes  spectrales 
acquis simultanément. Ce nombre varie de un (panchromatique, toutes les couleurs visibles résumées en 
un  ton  de  gris),  à  plusieurs  centaines  pour  des  capteurs  hyperspectraux  tels  que  AVIRIS.  La  majorité  des 
capteurs  photogrammétriques  acquièrent  trois,  quatre  canaux  (bleu,  vert,  rouge  et  parfois  proche 
infrarouge). 

[nm] 
Figure 6: spectre électromagnétique visible 

3.5.1 Résolution spatiale vs résolution spectrale 

 
Figure 7: Domaines d'application et résolutions 

A  chaque  application  correspond  une  résolution  spatiale  et  une  résolution  spectrale  optimales.  L’échelle 
logarithmique pour la résolution spatiale n’est pas superflue, car si on inclut les applications « extrêmes » 
comme la météorologie (résolution : 1 km) et l’inventaire d’objets historiques (résolution : 1 mm), on a une 
magnitude de 106. Les valeurs de résolution spectrale seront étudiées plus en détails en télédétection. 

HEIG‐VD, G2C  18 / 141  F. Gervaix, février 2010 


   
Comme on le voit dans le graphique ci‐dessus, la résolution spatiale est inversement proportionnelle à la 
résolution spectrale. On peut le comprendre en réfléchissant en termes de CCD : pour obtenir un pixel RVB 
de l’image, on a besoin d’un CCD pour la valeur de rouge, un pour la valeur de vert et un pour la valeur de 
bleu.  Physiquement,  trois  CCD  ne  s’arrangent  pas  très  bien  et  on  a  en  général  une  configuration  comme 
suit : 
Quatre  CCD  sont  nécessaire  pour  former  un  pixel  couleur,  d’où  la
résolution spatiale deux fois moindre. 
Ce  problème  est  en  partie  résolu  par  le  pan‐sharpening  (voir  ci‐dessous) 
ou  par  des  dispositifs  de  filtrage  du  type  séparateurs  dichroïques  de
faisceau en cascade (voir § ADS40). 
Le rapport de 4 pour 1 surfacique, ou 2 pour 1 linéaire, est amplifié par le
phénomène  de  perte  d’énergie  due  aux  filtres,  donc  nécessitant  de  plus 
grands CCD. Un rapport de GSD (= linéaire) de 4 pour 1 est habituel. 
Une « solution » pour contourner ce problème est le pan‐sharpening (voir 
  ci‐dessous). 

Cet antagonisme résolution spectrale ↔ résolution spatiale conduit à utiliser la résolution spectrale la plus 
basse  (panchromatique  ou  « noir  et  blanc »)  pour  les  applications  à  exigences  géométriques  élevées. 
Inversement, les applications hyperspectrales se font avec des résolutions géométriques faibles. 

3.5.2 Identification vs interprétation 
On considère qu’à une résolution donnée, on peut identifier un objet de taille égale à 3 x la taille du pixel, 
et on peut interpréter un objet de taille égale à 20 x la taille du pixel. 
Par exemple, à une résolution de 1.6 m on peut identifier une voiture (longueur : 5 m) ; à une résolution de 
0.2 m, on peut interpréter cette voiture. 

GSD = 160 cm 

GSD = 20 cm 
Figure 8: Capteurs et résolutions géométriques 

HEIG‐VD, G2C  19 / 141  F. Gervaix, février 2010 


   
3.5.3 Pan‐sharpening 
Le  pan‐sharpening  (traduction  libre :  colorisation)  est  un  procédé  très  utilisé  en  imagerie  satellitaire  afin 
d’améliorer  la  résolution  spatiale  des  images  multispectrales.  En  fait,  les  images  pan‐sharpened  sont  des 
images  panchromatiques  où  des  valeurs  RVB  sont  calculées  pour  chaque  pixel  sur  la  base  des  images 
multispectrales à plus faible résolution spatiale. 

 
Figure 9: Principe du pan‐sharpening 

 
Figure 10: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

HEIG‐VD, G2C  20 / 141  F. Gervaix, février 2010 


   

3.6. Catalogage des images numériques 
On peut cataloguer les images numériques selon trois critères : 
• La source: 
o Photos argentiques numérisées 
o Images numériques issues de caméras CCD à matrices ou à barrettes 
o Images spatiales/satellitaires à haute et très haute résolution 
Ce critère est important en termes de résolution spatiale et pour la procédure de géoréférencement. Par la suite, ce 
critère n’est plus significatif. 
• La largeur de champ : 
o Images à champ large (photographie aérienne) 
o Images à champ étroit (photographie satellitaire) 
Ce critère est très important pour la création d’orthophoto et pour le traitement du sursol en général 
• La géométrie : 
o Conique 
o Cylindro‐conique 
Ce critère est pertinent pour les images satellitaires et, depuis récemment, pour les images aériennes. 
 
 
 
 
 

 
source : San‐Lo Aerial Surveys 

HEIG‐VD, G2C  21 / 141  F. Gervaix, février 2010 


   

3.7. Images numériques par caméras aéroportées 
Curieusement,  alors  que  des  capteurs  optiques  numériques  sont  utilisés  de  façon  standard  dans  la 
télédétection satellitaire depuis des décennies, les deux premières caméras numériques pour les prises de 
vues  aériennes  ont  été  présentées  en  2000  seulement.  La  photogrammétrie  numérique  existait  depuis 
plusieurs  années,  mais  c’était  essentiellement  des  images  analogiques  scannées.  Les  premiers  essais 
d’images  numériques  avec  des  caméras  non  photogrammétriques  n’avaient  que  partiellement  fait  leurs 
preuves. 
De nombreuses raisons plaident en faveur de l’utilisation d’une caméra numérique pour les prises de vues 
aériennes.  Il  faut  dire  qu’une  telle  caméra  rime  avec  des  économies  sur  le  plan  de  l’achat  et  de 
l’entreposage des films et épargne tout le processus de développement. Les données enregistrées sont plus 
rapidement  disponibles  pour  le  traitement  ultérieur  et  sont  indépendantes  du  processus  de 
développement  irréversible.  Les  capteurs  numériques  se  distinguent  des  capteurs  analogiques  par  leurs 
qualités  radiométriques  supérieures  et  leur  meilleure  qualité  géométrique.  De  plus,  ces  capteurs 
numériques  offrent  des  possibilités  d’enregistrement  plus  variées  et  permettent  un  enregistrement 
multispectral (panchromatique, couleur RVB, fausses couleurs infrarouge) simultané et géoréférencé. 
Mais  il  existe  également  quelques  désavantages  compliquant  l’utilisation  pratique  de  ces  caméras 
numériques.  Un  format  d’enregistrement  de  23  x  23  cm  reste  par  exemple  difficile  à  remplacer  et 
l’archivage à  long terme  des données  n’est à l’heure actuelle  pas encore assuré comme  c’est le  cas pour 
tous  les  autres  supports  électroniques.  Les  capteurs  numériques  moyens  et  grands  formats  demandent 
l’adaptation de l’infrastructure existante au sol et dans l’avion. Les plans de vol et les méthodes d’archivage 
doivent également être repensés. 
Deux grandes tendances se dégagent actuellement de la recherche et de l’industrie : 
• Barrettes de CCD 
o DLR HRSC (Allemagne) 
o Leica ADS40 (Suisse/USA) 
• Matrice(s) de CCD 
o IGN‐F (France) 
o Z/I DMC (Allemagne/USA) 
o Vexcel Microsoft UltraCam (Autriche/USA) 
Aucune des deux technologies ne peut prétendre être la solution parfaite à l’heure actuelle. Chacune a ses 
adeptes et ses détracteurs. On s’intéressera par la suite aux deux technologies, sans partisanisme. 

HEIG‐VD, G2C  22 / 141  F. Gervaix, février 2010 


   

3.8.  Problématique des dévers 
La projection centrale a un « défaut » principal : un phénomène de dévers est visible sitôt que l’on s’éloigne 
du centre de la photo. Ce phénomène est d’autant plus important avec des focales courtes (large champ, p. 
ex. ck = 88 mm). 
D’un  point  de  vue 
géométrique,  tous  les 
éléments  du  sursol 
(bâtiments, arbres, mâts, …) 
ont  l’air  de  pencher  vers 
l’extérieur de la photo. Seuls 
les  éléments  au  centre  de 
l’image sont photographiés verticalement. 
L’illustration  à gauche  est très  explicite. La vue  est 
légèrement oblique et seuls les arbres au milieu du 
bas  de  la  photo  sont  vus  verticalement.  Sitôt  que 
l’on s’éloigne (vers la droite, la gauche ou le haut), 
les arbres donnent l’impression de pencher de plus 
Figure 11: Phénomène du déversement  en plus (Photo par F. Pellet, GEO 2007). 
D’un  point  de  vue  radiométrique,  le  soleil  n’étant 
jamais vertical sous nos latitudes, la face sud d’un objet sera toujours plus éclairée que la face nord. 
Ce défaut est particulièrement gênant lors de la création de la mosaïque, tant sur un plan géométrique que 
radiométrique. 
Leica RC30 
Objectif 15/4 UAG‐S 
Focale = 153 mm 
Angle transversal / 
longitudinal: 37° 
Angle diagonal: 47° 
Angle « utile » max: 44° 
La  photo  est  prise  dans  l’hémisphère  nord,  à 
une  latitude  d’environ  45°.  Elle  est  orientée  le 
nord en haut (North up). 

HEIG‐VD, G2C  23 / 141  F. Gervaix, février 2010 


   

A la verticale du centre de projection 
C’est, sous certains aspects, la situation idéale, 
mais très confinée ! 
Les éléments en hauteur ne sont pas déformés 
et  on  ne  voit  pas  les  façades.  C’est  ce  qui  est 
recherché  pour  la  production  de  True  Ortho™ 
(orthophotos intégrales). 
On  peut  mesurer  l’emprise  du  toit,  mais  pas 
celle  du  bâtiment  au  sens  de  la  Mensuration 
Officielle. 
Sur la base de cette seule info, on ne peut pas 
mesurer la hauteur des objets. 

 
Dévers dans une direction 
En haut de la photo (marque fiduciaire n°7), les 
arbres  et  les  poteaux  sont  couchés. 
Visuellement assez dérangeant, mais idéal pour 
mesurer  la  base  et  le  sommet  d’éléments 
verticaux (hauteur). 

 
Dévers dans une direction 
A droite de la photo (marque fiduciaire n°8), les 
bâtiments  sont  vus  « de  biais ».  Visuellement 
assez  dérangeant,  mais  idéal  pour  mesurer 
l’emprise d’un bâtiment (on voit sous les toits), 
d’un côté au moins. 
 

HEIG‐VD, G2C  24 / 141  F. Gervaix, février 2010 


   

Dévers dans les deux directions 
En  haut  à  gauche  de  la  photo  (marque 
fiduciaire  n°3),  combinaison  des  deux  effets 
précédents.  Les  rectangles  (toits)  deviennent 
des  trapèzes.  Visuellement  assez  dérangeant, 
mais  idéal  pour  mesurer  l’emprise  d’un 
bâtiment (on voit sous les toits), de deux côtés. 
 

 
Cas typique de la forêt 
Les lisières de forêt sont soit très nettes (on voit 
la base et le sommet des arbres) soit très floues 
(on  ne  peut  qu’estimer  la  limite  sous  les 
arbres).  Peut  être  utile  pour  des  applications 
forestières  (on    voit  la  canopée  de  façon  plus 
complète) mais le plus souvent gênant (l’angle 
change en fonction de la position sur la photo).  
 

 
Combinaison dévers + ombre 
En bas à droite de la photo (marque fiduciaire 
n°1),  les  bâtiments  sont  vus  « de  biais »  et  on 
ne  voit  que  la  façade  à  l’ombre  des  bâtiments 
et  les ombres portées  paraissent  d’autant plus 
grandes. Situation la pire. 
 

HEIG‐VD, G2C  25 / 141  F. Gervaix, février 2010 


   

Question: 
Pourquoi  le  haut  (nord)  de  l’image  parait 
clair, et le bas (sud) sombre ? 
Réponse : l’accumulation des ombres en bas et 
des  faces  éclairées  en  haut  conduit 
globalement  à  cet  aspect  plus  lumineux  au 
nord et plus sombre au sud ! 

 
 

HEIG‐VD, G2C  26 / 141  F. Gervaix, février 2010 


   

4. Aspect matériel 

4.1. Caméras analogiques (ou « film ») 
La caméra film est le moyen le plus répandu pour l’acquisition d’images aériennes et terrestres. Pour des 
raisons assez évidentes de logistique, ce moyen est pratiquement inexistant pour les images satellitaires. 
Le terme « caméra » est à prendre dans son sens littéral de chambre de prise de vue. L’influence de l’italien 
et  surtout  de  l’anglais  fait  que  l’on  parle  abusivement  de  caméra,  alors  qu’il  s’agit  bel  et  bien  d’un 
« appareil de photo ». 
La technologie du film a remplacé les plaques de verre vers 1950. Tout d’abord dans un format de 18 x 18 
cm, le format 23 x 23 cm s’est imposé rapidement comme le standard, qui est toujours actuel. 
Les  améliorations  technologiques  des  ces  20  dernières  années  sont  la  compensation  du  filé  et  les 
plateformes gyroscopiques. 
Les deux seuls fabricants de caméras analogiques grand format sont Wild à Heerbrugg (CH) et Carl Zeiss à 
Oberkochen  (D).  Les  deux  entreprises  ont  changé  plusieurs  fois  de  noms  et  sont  maintenant  connues 
comme Leica Geosystems Geospatial Imaging et Z/I Imaging. 
L’illustration ci‐contre montre une caméra Leica 
RC30 qui s’est vendue dès 1993 pendant 10 ans 
à  plus  de  400  exemplaires.  Ces  illustres 
prédécesseurs  RC8,  RC10  et  RC20  se  sont 
vendus à plus de 1000 exemplaires et beaucoup 
sont encore en activité. 
On  reconnaît  le  système  d’entraînement,  les 
cassettes (une avec le film vierge et une avec le 
film  exposé),  la  plateforme  gyroscopique 
stabilisatrice  et  l’objectif  qui  apparaît  en 
dessous,  ainsi  que  la  poignée  du  filtre.  Le 
périscope  sur  la  droite  est  avantageusement 
complété  (mais  pas  remplacé)  par  un  système 
de  navigation  et  de  contrôle  de  la  caméra  par 
GPS. 
L’ensemble  est  opéré  par  une  personne  qui 
coordonne le vol avec le pilote de l’avion. 
Ces  caméras  sont  un  concentré  d’optique,  de 
mécanique  et,  depuis  l’apparition  des  microprocesseurs  dans  les  années  80,  d’électronique.  Les 
caractéristiques  essentielles  sont  une  stabilité  excellente  (géométrie  conservée  malgré  les  différences  de 
température, pression et humidité), une fiabilité à toute épreuve (on peut produire jusqu’à 1000 photos en 
une journée et toutes doivent être irréprochables car uniques) et une flexibilité d’utilisation presque sans 
limite (conditions de luminosité, altitude, vitesse de l’avion, etc.). 
La valeur d’une telle caméra est de l’ordre de CHF 500'000, dont la moitié environ pour l’objectif. 

HEIG‐VD, G2C  27 / 141  F. Gervaix, février 2010 


   
4.1.1 Exemple 
23 x 23 cm 
100 lp/mm (lignes par mm) ≈ pixels/mm 
8 marques fiduciaires (fiducials) 
annotations de marge (a)
type d’objectif (b)
compteur 0000 (c)

(a) 
(b)

(c)

 
Figure 12: Détails d’une image analogique 

HEIG‐VD, G2C  28 / 141  F. Gervaix, février 2010 


   

4.2. Caméras numériques « moyen format » 
Les  caméras  numériques  moyen  format  (couramment  appelées  « 4k  x  4k »  en  raison  de  la  taille  de  la 
matrice CCD) ont connu un essor très rapide dès le milieu des années 90. Malgré quelques problèmes de 
jeunesse (instabilités mécanique et optique, manque de standards, changement des habitudes de vol, etc.), 
elles sont devenues très performantes, en particulier en combinaison avec des capteurs comme le LiDAR. 
Elles  ont  aussi  permis  de  démocratiser  l’acquisition  d’images  aériennes  et  d’accélérer  la  disponibilité  des 
données  (rapid‐response  mapping  ou  cartographie  d’urgence).  L’émergence  des  caméras  numériques 
moyen format a également mis une pression technologique et commerciale sur les fabricants de caméras 
analogiques grand format. 

4.2.1 Exemple 
4092 x 4079 pixels 
1 pixel = 9 μm 
(3.6 x 3.6 cm) 
pas de marques fiduciaires 
 
 
 

   

4.2.2 Applanix DSS™ 
« La DSS (Digital Sensor System ou système de capteur numérique) est un système numérique aéroporté de 
prise  de  vue  prêt  à  l’emploi,  directement  géoréférencé  et  de  moyen  format.  C’est  la  solution  numérique 
pour  les  applications  de  levé  aérien  et  la  télédétection  qui  requièrent  une  réalisation  rapide  et  peu 
onéreuse.  Comme  alternative  de  qualité  photogrammétrique  aux  caméras  numériques  grand  format,  la 
DSS offre un système compact, une solution complète et une avance sur la concurrence. » 
Pour  plus  d’informations,  se  référer  au  site  d’Applanix  (www.applanix.com)  ou  à  la  page  spécifique  à  la 
DSS : http://www.applanix.com/solutions/airborne/dss.html  
Le cas de l’Applanix DSS est emblématique puisqu’elle a évolué du modèle 301 (4k x 4k), vers le modèle 322 
(22 Mpixels, 4092x5436) au modèle 439 (39 Mpixels, 5412 x 7216, grâce à une diminution de la taille du 
pixel à 6.8 μm). 
 

HEIG‐VD, G2C  29 / 141  F. Gervaix, février 2010 


   

4.3. Caméras numériques  « grand format » 
En remplacement ou complément des caméras analogiques « grand format », et en réponse à l’émergence 
des caméras numériques « moyen format », les fabricants « historiques » de caméras photogrammétriques 
(essentiellement Wild et Zeiss) ont développé des caméras numériques « grand fomat ». 
Les choix technologiques ont été assez différents chez les uns et chez les autres. 
D’un côté, on essayé de cloner les caméras analogiques en remplaçant le film par un dos numérique, par 
une  matrice  de  CCD.  C’est  ce  qui  s’est  fait  pratiquement  systématiquement  avec  les  appareils  photos  de 
poche. Le modèle géométrique est resté le même (projection conique) 
D’un  autre  côté,  on  a  repris  et  adapté  une  technologie  des  satellites,  qui  eux  étaient  numériques  depuis 
plus d’une décennie. Le modèle géométrique a changé (cylindro‐conique) et certains processus ont du être 
adaptés (en particulier, l’aérotriangulation). 

4.3.1 Leica Geosystems ADS (Wild) 
ADS est l’acronyme pour Airborne Digital Sensor. Il est intéressant que le 
mot  « caméra »  a  disparu.  En  effet,  littéralement,  il  n’y  a  plus  de
chambre et elle est remplacée par un plan focal munis de CCD. 
Le  numéro  40  n’est  là  que  pour  signaler  que  c’est,  dans  un  sens,  le
successeur de la RC30. 
C’est  capteur  « push‐broom »,  littéralement  un  « balais ».  Cela  signifie 
simplement  que  le  capteur  balaye  la  surface  longitudinalement  et  en
continu.  C’est  un  terme  repris  du  domaine  satellitaire  (« push‐broom 
satellite »).  Un  capteur  similaire  est  le  LiDAR,  qui  lui  balaye 
longitudinalement mais également latéralement. 
L’autre caractéristique, liée à la précédente et qui 
est soulignée par le logo ADS40, est l’utilisation de 
barrettes  de  CCD, par opposition aux matrices de 
CCD.  C’est  une  technologie  qui  a  été  développée 
pour les satellites, par exemple les satellites SPOT, 
IKONOS, LANDSAT, etc. 
De  l’acquisition  au  produit  final,  les  données  et  les  traitements  sont
 100%  numériques,  ce  qui  rend  l’ensemble  homogène  et  moins
susceptible aux perturbations environnementales. 
Ci‐contre, le principe du « push‐broom », ou 
balayage  en  continu.  Les  barrettes  de  CCD 
permettent  de  scanner  toute  la  largeur  de 
la  scène  (contrairement  au  LiDAR  qui 
scanne également latéralement. De plus, la 
combinaison  de  plusieurs  barrettes  (au 
minimum  deux)  permet  de  satisfaire  la 
condition  essentielle  de  la 
photogrammétrie. 

HEIG‐VD, G2C  30 / 141  F. Gervaix, février 2010 


   
Exemple d’image 

… 

12000 x n pixels  1 pixel = 6.5 μm  (78 mm de large)  pas de marques fiduciaires 

Détails matériels 
Un  des  éléments  les  plus  intéressants  est  le  tetrachroïde,  constitué  de 
séparateurs  dichroïques  de  faisceau  en  cascade.  Il  permet  l’acquisition 
simultanée des canaux proche‐infrarouge, bleu, vert et rouge. 

HEIG‐VD, G2C  31 / 141  F. Gervaix, février 2010 


   

4.3.2 Z/I Imaging DMC (Zeiss) 
La DMC (Digital Modular Camera) de Zeiss‐Intergraph est, 
comme son nom l’indique, une caméra modulaire. Elle est
en fait un assemblage de huit caméras : 
• 4 caméras haute‐résolution panchromatique 7k x 4k 
• 4 caméras multispectrale 3k x 2k 
Elle  se  monte  dans  la  plateforme  gyroscopique  T‐AS, 
également utilisée pour la Zeiss RMK‐Top. 
 

 
 

HEIG‐VD, G2C  32 / 141  F. Gervaix, février 2010 


   
4.3.3 Microsoft UltraCam (Vexcel) 

 
Composé  de  huit  caméras  (4  panchro  +  R,  G,  B,  PIR),  l’UltraCamD  produit  des  images  couleurs  (pan‐
sharpened) à une résolution de 7500 x 11500 pixels. L’image couleur vraie a une résolution de 2400 x 3680. 
Il y a donc un facteur linéaire de 3.125, resp. surfacique de 9.8, entre l’image panchromatique et l’image 
couleur. 
On parle également de 13 CCD, puisque les objectifs panchro sont composés de resp. 4, 2, 2 et 1 CCD selon 
l’arrangement suivant : 

 
Figure 13: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

L’UltraCamX est similaire, composée de 8 caméras (4 panchro + R, G, B, PIR) et sa résolution est de 9420 x 
14430. 
Voir www.ultracamx.com (qui renvoie à www.microsoft.com/ultracam) 

HEIG‐VD, G2C  33 / 141  F. Gervaix, février 2010 


   
Des  UltraCam  ont  été  utilisées  dans  le  cas  de  la  couverture  d’orthophotos  numériques  du  canton  de 
Genève,  aussi  bien  en  2005  qu’en  2009.  La  comparaison  du  résultat  pour  ce  chantier  emblématique  est 
riche en enseignements. 

 
Figure 14: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

Evolution du capteur en quatre ans : outre le nombre de pixels (la aille physique du capteur reste la même), 
la dynamique radiométrique est augmentée, ce qui permet une meilleure « ecture »dans les ombres. 

 
Figure 15: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

Les axes de vols sont conditionnés par la topographie (Jura, Salève), le lac et l’aéroport. Les lignes de vols 
sont réalisées et traitées en continu, mais seules les images « utiles » sont publiées. Les interruptions sur le 
lac ou sur le canton de Vaud sont virtuelles. 

HEIG‐VD, G2C  34 / 141  F. Gervaix, février 2010 


   
 

 
Figure 16: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

Déjà en 2005, un triple recouvrement longitudinal (habituel) et latéral (peu fréquent) était disponible. Mais 
seule une moitié de la surface bénéficie de cette particularité. 

 
Figure 17: tiré de "Mise à jour des orthophotos et 3D à Genève", VT‐IGSO 2009 

Les  prévisions  2009  (qui  se  sont  pour  l’essentiel  réalisées !)  montrent  une  augmentation  dans  tous  les 
compartiments. 

HEIG‐VD, G2C  35 / 141  F. Gervaix, février 2010 


   

4.4. Tour d’horizon des utilisateurs 
Si l’on fait un tour d’horizon des utilisateurs (end‐users), en Suisse, en Europe et dans le monde, on peut 
observer un certain nombre de points communs. Voici quelques exemples : 
• http://www.swisstopo.ch/ 
• http://www.3001inc.com 
• http://www.sintegra.fr/ 
• http://www.apei.fr/ 
• http://www.cgrit.it/ 
• http://www.ign.fr/ 
• http://www.swissphoto.ch/ 
• http://www.geogra.it/ 
• http://www.gi.leica‐geosystems.com/ Î http://www.erdas.com/ 
Il  est  tout  à  fait  instructif  de  visiter  ces  sites  pour  comprendre  le  fonctionnement  de  ce  domaine,  assez 
différent des autres domaines de la géomatique.  

4.4.1 Enseignements 
Suite à ce petit tour d’horizon, on peut relever les points communs suivants : 
• Importance du matériel (avions, caméras, labo) 
• Tournant technologique (argentique – numérique) 
• Intégration de plusieurs technologies (Πhttp://www.3001inc.com)  
• Tailles variant entre artisanat et industrie (15 – 150 employés) 
• Pas des start‐up! (30 – 60 ans d’existence) 

HEIG‐VD, G2C  36 / 141  F. Gervaix, février 2010 


   

5. Mesures GPS et inertielles pour la photogrammétrie 

5.1. GPS 
Le GPS (Global Positioning System ou système de positionnement mondial) et l’IMU (Inertial Measurement 
Unit  ou  station  de  mesures  inertielles)  sont  devenus  des  éléments  incontournables  des  missions 
photogrammétriques,  aussi  bien  pour  les  caméras  à  film  que  pour  les  caméras  et  autres  capteurs 
numériques. 
Le GPS intervient à trois niveaux : 
• aide à la navigation et au contrôle de la caméra en temps réel 
• détermination précise des centres de projection en post‐traitement 
• détermination précise des points d’appui au sol en temps réel ou post‐traitement. 
L’IMU intervient à deux niveaux : 
• contrôle de l’orientation de la caméra en temps réel 
• détermination précise des orientations externes en post‐traitement. 
Le GPS peut être utilisé avec ou sans IMU, alors que l’IMU requiert un GPS pour son fonctionnement. 

5.1.1 Notions de base et vue d’ensemble 
Le GPS est un système de navigation basé sur les satellites, développé et opéré par le département de la 
défense des USA. Le GPS permet aux utilisateurs sur terre, mer et dans l’air de déterminer leur position tri‐
dimensionnelle, leur vitesse et le temps, 24h par jour, par tous les temps, partout dans le monde. 

HEIG‐VD, G2C  37 / 141  F. Gervaix, février 2010 


   

Il existe de nombreux modes d’utilisation du GPS selon les critères suivants : 
• utilisation du code seulement ou du code et de la phase 
• positionnement absolu ou relatif 
• en temps réel ou en post‐traitement 
• en cinématique ou en statique 

 
• En théorie, 16 modes sont donc imaginables. En fait, techniquement, seuls 11 sont possibles. 
• Parmi ces 11 modes possibles, la photogrammétrie a recours à cinq d’entre eux. 
• L’aide à la navigation et le contrôle de la caméra fait appel au plus imprécis des modes (code / absolu / 
temps‐réel / cinématique), voire sa version améliorée différentielle. 

 
La détermination des centres de projection fait appel au deuxième mode le plus précis (phase / différentiel 
/ post‐traitement / cinématique) et la détermination des points d’appui au sol aux modes voisins en termes 
de précision. 

HEIG‐VD, G2C  38 / 141  F. Gervaix, février 2010 


   
Il  ne  faut  pas  oublier  que  l’appellation  cinématique  peut  signifier  une  vitesse  de  moins  d’un  mètre  par 
seconde (marche lente) ou de plus de 200 m/s ! (p. ex. : Cessna Citation à 800 km/h de vitesse de croisière). 

5.1.2 Effets du GPS 
Le GPS a deux effets principaux : 
• diminution (voire suppression) des points d’appui 
• recouvrement latéral et marge de sécurité réduits 
Ci‐dessous un bloc d’aérotriangulation traditionnel, avec de nombreux points d’appui 3D et encore plus de 
points d’appui 1D. Le nombre de points d’appui augment pratiquement linéairement avec les dimensions 
du bloc. 

 
Ci‐dessous  un  bloc  d’aérotriangulation  assisté  par  GPS,  avec  quelques  points  d’appui  3D  et  des  bandes 
transversales (cross‐strips) 

 
Les  bandes  transversales  peuvent  être  remplacées  par  des  points  d’appui  altimétriques  (1D),  mais  en 
général il est moins coûteux de voler et traiter les bandes transversales que d’établir une dizaine de points 
au sol. 
Le GPS « rigidifie » le bloc traditionnel. Un peu comme en mécanique des structures, la combinaison du GPS 
et des mesures dans les images forme un treillis (assemblage de barres rigides axialement qui s’articulent à 
leurs extrémités). Un tel bloc sera moins sensible à une faiblesse localisée (nuage, lac, forêt). 

HEIG‐VD, G2C  39 / 141  F. Gervaix, février 2010 


   
Le  GPS  géoréférence  un  bloc  «  absolu ».  Les  centres  de  projection  étant  connus  assez  précisément  en 
planimétrie  et  en  altimétrie  (X,  Y,  Z),  c’est  la  moitié  de  l’orientation  externe  qui  est  connue.  Les  points 
d’appui sont toujours utiles, plus pour le contrôle que pour la détermination. Même si un bloc sans GCP, ni 
point  de  contrôle  est  pensable,  on  essayera  toujours  d’inclure  quelques  uns  de  chaque  pour  le  contrôle 
qualité. 
Un  autre  effet  positif  est  l’économie  de  vol.  Grâce  à  la  navigation  plus  précise,  les  exigences  en 
recouvrement latéral peuvent être abaissées (de 30% en vol « à vue », on passe à 20%, 18% voire 15% en 
terrain  plat).  Le  facteur  de  sécurité  latéral  peut  également  être  abaissé.  Ceci  génère  des  réductions  du 
nombre de lignes de vol, qui sont coûteuses. 
Le  déclanchement  automatique  et  précis  des  « tops  caméra »  permet  également  un  recouvrement 
longitudinal mieux contrôlé ; sa valeur nominale peut donc être abaissé (par exemple, 60% au lieu de 65%). 
Néanmoins, on fait encore souvent au réglage continu du v/H (rapport vitesse / hauteur de vol ajusté par le 
navigateur grâce au périscope. 

5.1.3 Positionnement des « tops caméra » 
Les  mesures  GPS  sont  prises  à  intervalle  régulier  (« époque »)  pour  les  applications  cinématique, 
habituellement 1 sec ou mieux. La caméra est déclanchée selon le plan de vol (anticipation). 
Les tops caméra ne coïncident pas avec le GPS. La position des tops caméra est interpolée de la trajectoire 
GPS. Le temps du top caméra est critique et doit être précis par rapport au temps GPS. En conséquence, il 
faut utiliser la même source de temps que le GPS ; c’est le rôle du « event input ». 

5.1.4 Précision nécessaire (et suffisante…) 

Règle 
  1:4’000  1:10’000  1:25’000 
empirique 

1 : échelle photo 
Temps réel (emplacement des images)  40 m  100 m  250 m 
100 

Post‐traitement (coordonnées des  1 : échelle photo 
8 cm  20 cm  50 cm 
centres de projection)  50’000 

5.1.5 Recommandations pratiques pour l’exécution du vol 
Si le GPS est utilisé pour la détermination des centres de projection (GPS différentiel en post‐traitement), 
au minimum une station de référence GPS se trouvera dans le périmètre du chantier ou dans ses environs 

HEIG‐VD, G2C  40 / 141  F. Gervaix, février 2010 


   
immédiats. Deux stations  de référence sont préférables pour des raisons de fiabilité  (la précision ne sera 
pas meilleure). 
La  distance  maximale  de  l’avion  par  rapport  à  la  station  est  un  paramètre  controversé,  mais  un  modèle 
simple d’erreur moyenne à craindre est : σ = 50 mm + 2 ppm. Usuellement, une distance de 40 à 50 km est 
considérée comme limite. Au‐delà, les ambiguïtés risquent d’être perdues (ou pas du tout résolues), ce qui 
dégrade considérablement la précision atteignable. 
L’utilisation d’un modèle du géoïde ou, dans le pire des cas, de l’altitude orthométrique pour la station de 
référence  est  fortement  recommandée.  L’utilisation  de  points  d’appui  lors  de  l’aérotriangulation  mitige 
cette exigence. 
Le vecteur « antenne GPS ↔ centre de projection » doit être appliqué et, dans la mesure du possible, en 
incluant la dynamique de l’avion, c'est‐à‐dire ses variations d’attitude. Le vecteur doit donc être déterminé 
par des méthodes topométriques classiques avant ou après le vol. L’assiette de l’avion doit être enregistrée 
en  continu  ou  au  minimum  à  chaque  instant  de  prise  de  vue.  On  peut  par  exemple  enregistrer  les 
corrections réalisées par la plateforme gyroscopique. 

5.2. GPS et IMU combinés 
Le GPS fournit une position absolue à une fréquence basse (e.g. 2 Hz). L’IMU fournit une position relative et 
une  orientation  absolue  à  une  fréquence  élevée  (e.g.  200  Hz).  Le  GPS  aide  la  solution  de  navigation 
inertielle. La combinaison GPS/IMU fournit à une fréquence élevée: 
• position 
• vitesses 
• accélérations 
• roulis et tangage (« roll & pitch ») 
• lacet (« heading ») 
• vitesses angulaires 
On obtient ainsi la position 3D et l’orientation 3D de la plateforme ou du capteur, donc des images. 

 
Figure 18: Principe de la correction de l’IMU par le GPS 

HEIG‐VD, G2C  41 / 141  F. Gervaix, février 2010 


   
5.2.1 Précision obtenues 
Solution de navigation (temps réel, naturelle) 
• position: σ = 3‐10 m 
• vitesse: σ = 0.5 m/s 
• roll & pitch: σ = 1’ 
• heading: σ = 5’‐10’ 
Solution post‐traitée 
• position: σ = 10‐30 cm 
• vitesse: σ = 0.05 m/s 
• roll & pitch: σ = 20’’ 
• heading: σ = 30’’ 

5.2.2 Applanix POS (Position and Orientation System) 

 (2005) 

 (2009) 

 
Ci‐dessus un IMU tel que intégré par l’entreprise Applanix (Toronto, Canada). 

Logiciel POSPac 
• POSPac 
o Lecture et décompactage des données brutes 
o Distribution des données dans des fichiers spécifiques (GPS, IMU, solution temps réel) 
o Création d’un fichier d’information (log file) 
o Présentation de la solution temps réel 
• POSGPS 
o Conversion du des données des GPS aérien et au sol 
o Calcul de la trajectoire en avant et en arrière 
o Contrôle qualité de la trajectoire (différences) 
o Exportation de la trajectoire en format « Applanix » 
• POSProc 
o Combinaison des infos GPS (trajectoire) et INS (accélération, angles) 
o Définition des nombreux paramètres GPS et INS 

HEIG‐VD, G2C  42 / 141  F. Gervaix, février 2010 


   
o Exécution de BET (Best Estimate of Trajectory) 
o IIN (Integrated Inertial Navigation) = en avant 
o résultat intermédiaire: snv (strapdown navigation) 
o SMTH (Smoother) = en arrière 
o CORRECT_NAV = combinaison avant/arrière 
o Résultat final: SBET (Smoothed Best Estimate of Trajectory) 

 
Figure 19: Séquence jusqu'à la trajectoire lissée 

5.3. Flux des tâches habituel 
Aujourd’hui,  le  GNSS  est  quasi‐systématiquement  présent  lors  d’un  chantier  photogrammétrique. 
Qu’importe  sa  précision,  il  sera  au  minimum  utile  pour  la  mise  en  place  du  bloc.  Cela  a  nécessité  un 
« recyclage »  de  l’opérateur  photogrammétrique  traditionnel.  Les  données  en  jeu  sont  également  plus 
nombreuses, toutes sources potentielles d’erreurs. 
Ce  qui  était  révolutionnaire  il  y  a  dix  ans  (voir  ci‐dessous)  est  désormais  classique.  L’IMU  n’est  qu’un 
élément supplémentaire facilitant le traitement du chantier, surtout dans des cas « non‐verticaux ». 

 
Figure 20: Flux de données et logiciels (LH Systems, 1999) 

HEIG‐VD, G2C  43 / 141  F. Gervaix, février 2010 


   

5.4. Points d’appui (GCP) 
Les points d’appui (ou points d’ajustage ou points de calage) sont des éléments matériels très importants. 
Ils  sont  essentiels  pour  l’aérotriangulation  et  demandent  une  planification  logistique  et  géographique 
précise. 
Les  points  d’appui  servent  à  la  détermination  de  la  référence  absolue  au  sol.  Ces  points  sont  connus  en 
coordonnées  planimétriques  et/ou  altimétriques.  Ils  peuvent  être  signalisés  ou  pas.  Ils  doivent  être 
mesurés manuellement (ou interactivement dans le cas de mesure automatique supervisée), et ce dans le 
plus grand nombre d’images, idéalement six et plus. 
Auparavant,  les  points  d’appui  formaient  le  seul  lien  avec  la  référence  absolue  du  sol  et  du  système  de 
coordonnées.  De  nos  jours,  le  GPS  embarqué  fournit  une  excellente  approximation  de  cette  référence, 
aussi bien planimétrique qu’altimétrique. 
L’abréviation  anglaise  GCP  (Ground  Control  Point)  est  très  répandue  et  simplifie  la  dénomination.  Par 
contre,  c’est  un faux ami  dans le sens  que le GCP est à ne  pas confondre avec le  checkpoint ou  point  de 
contrôle. En d’autres termes, le Ground Control Point n’est pas un point de contrôle ! 
Le point de contrôle (ou checkpoint) ne sert pas à la détermination de la référence absolue du sol, mais sert 
au contrôle de celle‐ci. Statistiquement parlant, c’est un point d’appui avec un poids nul (= contribution à la 
détermination  nulle).  Pour  le  reste,  c’est  un  point  connu  en  coordonnées,  signalisé  ou  pas,  qui  doit  être 
mesuré manuellement, donc très similaire à un GCP. 

 
Figure 21: Point d'appui (GCP) peint au sol 

Le nombre de points d’appui est essentiellement fonction de la taille du bloc et de l’utilisation ou non du 
GPS aéroporté. Le nombre et surtout la disposition des points d’appui n’est pas une science exacte et, dans 
le doute, on préférera se placer du côté de la sécurité. Quelques recommandations sont néanmoins utiles : 
• L’utilisation de groupes de GCP (grappes ou cluster) est très efficace, en particulier pour les points non 
signalisés.  En  effet,  la  logistique  est  très  similaire  et  le  risque  de  mauvaise  surprise  (point  détruit  ou 
caché, point mesuré de façon imprécise, identification fausse, etc.) est fortement réduit. 

HEIG‐VD, G2C  44 / 141  F. Gervaix, février 2010 


   
• Quelques  points  altimétriques  permettent  d’éviter  le  basculement  autour  de  l’axe  longitudinal  des 
bandes. Ces points sont en général peu « onéreux ». 
• Quelques points de contrôle permettent de bien « sentir » la précision du bloc, en complément de tous 
les indicateurs statistiques habituels. Une proportion 2/3 de GCP et 1/3 de points de contrôle a fait ses 
preuves. 
Les  points  d’appui  peuvent  être  signalisés
ou  non.  Dans  les  deux  cas  ils  peuvent  être 
déterminés en coordonnées avant, pendant 
ou  après  le  vol.  Chaque  situation  a  son  lot 
d’avantages et de risques. 
Ça  peut  être  des  points  existants,  par 
exemple  de  la  Mensuration  Officielle,  qui 
sont simplement signalisés pour l’occasion.
Les  GCP  (et  les  points  de  contrôle)  sont  en 
général  documentés  par  une  fiche 
descriptive  comprenant  une  situation 
générale  et  un  croquis  pour  une 
identification  sans  ambiguïté.  Cette 
exigence a diminué avec l’usage intensif du 
GPS  aéroporté  (Π très  bon 
prépositionnement  du  réticule). 
Néanmoins,  l’usage  de  protocoles  est 
vivement encouragé, en particulier pour les 
points non signalisés. 
Le contraste peut être fortement augmenté 
en  encadrant  le  signal  blanc  de  peinture 
noire. 

Pour les points « naturels » (sans signalisation propre), des situations présentant une bonne visibilité et un 
bon  contraste  seront  choisies.  Par  exemple,  le  marquage  au  sol  de  places  de  parc  ou  de  ligne  médiane 
traitillée  est  couramment  utilisé.  Attention  à  ce  que  la  taille  ou  l’épaisseur  du  marquage  soit  compatible 
avec l’échelle de l’image ou la GSD. Il faut prendre garde également à bien définir l’emplacement exact du 
point (bord gauche ou droite de la ligne, etc.). 

HEIG‐VD, G2C  45 / 141  F. Gervaix, février 2010 


   

6. Déroulement d’un chantier photogrammétrique 

6.1. Travaux préparatoires 
Selon  les  cas,  les  paramètres  suivants  sont  à  déterminer  (choix)  ou  sont  imposés  par  le  mandant  ou  les 
circonstances (disponibilité du matériel, délais à respecter, …). Ces paramètres sont par exemple : 
• période de l’année et heure à laquelle le vol aura lieu 
• type de caméra, de film et d’objectif 
• échelle de restitution (ou « échelle de la carte ») 
• direction (et éventuellement sens) des axes de vol 
• recouvrements longitudinal et latéral (ou fonction du produit recherché). 

6.1.1 Paramètres temporels du vol 
Période de l’année 
La  période  de  l’année  à  laquelle  le  vol  photogrammétrique  est  réalisé,  si  elle  n’est  pas  imposée  par  le 
mandant  ou  par  les  délais  à  respecter,  est  un  choix  très  important  et  est  fonction  du  produit  final 
recherché. 
Fourchette : 

Heure du jour 
L’heure du jour à laquelle le vol photogrammétrique est réalisé, si elle n’est pas imposée par le mandant ou 
par les conditions de trafic aérien, est un choix très important et peut faire varier grandement la qualité du 
produit final, en particulier dans le cas d’orthophotos. En effet, la longueur des ombres est un paramètre 
esthétique prépondérant. 
Fourchette : 

Nébulosité 
La nébulosité est un autre facteur incontrôlable, auquel on ne peut que s’adapter. En général, on ne volera 
que  par  nébulosité  et  voile  nuls.  Les  conditions  du  projet  (délais,  produit  final  recherché,  exigences  de 
qualité, …) peuvent conduire à des entorses à cette règle. A contrario, si l’on recherche l’absence d’ombre 
(milieu  très  urbanisé),  on  choisira  le  moment  du  vol  quand  les  nuages  hauts  (cirrus,  cirrocumulus  et 
cirrostratus) atténuent ou suppriment les ombres. 

6.1.2 Type de caméra, de film et d’objectif 
Caméra analogique ou numérique 
Ce choix est surtout fonction de la disponibilité de l’une ou de l’autre. A l’heure actuelle, il est difficile de les 
départager d’un point de vue économique. Un avantage indiscutable de la caméra numérique est la quasi 
instantanéité de la disponibilité des images. 

Film noir/blanc, couleur ou infrarouge 
Ce  choix  se  pose  pour  les  caméras  analogiques  (type  de  film),  mais  également  pour  certaines  caméras 
numériques  qui  peuvent  acquérir  soit  de  la  couleur  (R,  V  et  B),  soit  de  la  fausse  couleur  (PIR,  R  et  V).  La 
notion de fausses couleurs sera étudié plus en détails en télédétection. 

HEIG‐VD, G2C  46 / 141  F. Gervaix, février 2010 


   
Focale de l’objectif 
Ce  choix  est  lié  à  la  précision  exigée,  au(x)  produit(s)  final(s)  recherché(s),  au  type  de  terrain  et  aux 
conditions de vol (type d’avion, hauteurs de vol maximum et minimum imposées ou pas, présence ou non 
de nuages ou voile). 
Attention !  L’angle  Ω  est  souvent  exprimé 
en  degrés  plutôt  qu’en  grades,  et  est 
souvent défini comme l’angle diagonal. Par 
exemple,  le  grand‐angle  est  défini  comme 
étant  un  « 90° »  (dimensions  utiles  du 
cliché : 216 x 216 mm) 

6.1.3 Échelle de restitution 
L’échelle  de  restitution  (ou  « échelle  de  la  carte »)  est  définie,  directement  ou  indirectement,  par  le 
mandant. C’est l’échelle à laquelle on veut restituer, sous forme vectorielle ou raster, les photos. 
Ce paramètre en conditionne un autre, essentiel pour la préparation du projet, l’échelle de l’image. Pour 
les capteurs numériques, ainsi qu’avec les clichés analogiques numérisés, cette notion est remplacée par la 
taille d’échantillonnage au sol (GSD pour Ground Sampling Distance), exprimée en [m] ou en [cm]. 

HEIG‐VD, G2C  47 / 141  F. Gervaix, février 2010 


   
La  relation  entre  l’échelle  de  restitution  (1  : 
mk,  m  pour  Massstab  et  k  pour  Karte)  et 
l’échelle de l’image (1 : mb, m pour Massstab 
et  b  pour  Bild)  n’est  pas  linéaire.  Le  tableau 
ci‐contre  permet  de  déterminer  l’un  par 
rapport à l’autre. 
Ce tableau est valable pour des prises de vue 
analogiques (caméras « film »). 

Pour des prises de vues numériques (p. ex. caméras « 4k x 4k » ou ADS40), l’échelle de l’image n’est pas 
relevante. On calculera plutôt la GSD en fonction de l’échelle de restitution ainsi : 
Résolution de l’œil humain ≈ 10 pixels par mm (= 254 dpi) 
1 mm sur l’image = 10‐3 ∙ mk sur le terrain = 10 ∙ GSD [m] 
ΠGSD [m] =  10‐4 ∙ mk  
ou GSD [cm] = mk : 100 
Une échelle de l’image indicative peut alors être calculée comme : 
1 : mb = taille du CCD / GSD 
Le  tableau  ci‐contre  donne  les
équivalences  pour  des  GSD  et  des
échelles classiques. Ces valeurs sont
assez  subjectives,  d’où  l’utilisation
de  fourchettes.  Elles  donnent
néanmoins  de  bonnes  indications
préalables au vol. 

 
 

6.1.4 Direction des axes 
Pour autant qu’elle ne soit pas imposée par le mandant, une direction principale est choisie pour le projet. 
Dans un terrain sans relief particulier, on choisira la parallèle au plus long coté du rectangle. Dans un terrain 
avec un relief marqué, on s’alignera sur les courbes de niveau. Le but est le plus souvent de minimiser le 

HEIG‐VD, G2C  48 / 141  F. Gervaix, février 2010 


   
nombre d’axes de vol (mais pas nécessairement la longueur) et d’avoir altitude du sol « constante » le long 
d’un axe. Par « constante », on admet une altitude qui ne varie pas de plus de ±10% de la hauteur de vol. 
Très souvent, la direction est <> ouest est choisie pour des raisons de simplicité. La direction nord <> sud 
est  également  très  populaire,  en  particulier  pour  des  raisons  radiométriques  (voir  la  problématique  des 
dévers). 

6.1.5 Recouvrements longitudinal et latéral 
Recouvrement longitudinal 
Le  recouvrement  longitudinal  est  indispensable  pour  satisfaire  la  condition  sine  qua  non  de  la 
photogrammétrie : les objets doivent être mesurés dans deux (ou plus) images. Un recouvrement de 50% 
semble  satisfaire  cette  condition  (la  moitié  de  l’image  recouvre  l’image  précédente  et  l’autre  moitié 
recouvre l’image suivante). Néanmoins, par sécurité, on utilise généralement un recouvrement longitudinal 
de 60% (50%.des objets sont mesurés 3x). 
Pour des travaux particuliers, ce recouvrement peut être augmenté jusqu’à 80% (2x  plus  d’images, 100% 
des objets sont mesurés cinq fois) ou diminué jusqu’à 20% (2x moins d’images, aucun objet mesuré 3x, 25% 
sont mesurés 2x). 

Recouvrement latéral 
Le  recouvrement  latéral  sert  à  assurer  une  couverture  continue  bande  après  bande.  Si,  en  théorie,  un 
recouvrement de quelques pourcents est suffisant, un recouvrement latéral d’au moins 15% (terrain plat) 
ou 25% (terrain accidenté) est nécessaire. Si la navigation n’est pas assistée par GPS, un recouvrement de 
30% est même recommandé. 

Facteurs de sécurité 
Deux paramètres supplémentaires sont usuels : les facteurs de sécurité longitudinal et latéral. Ils servent à 
prévenir une erreur de pilotage ou de navigation, un retard de déclanchement de la caméra (« tops »), un 
plan de vol approximatif ou un terrain accidenté. Dans tous ces cas, l’empreinte planifiée des photos n’est 
pas  exactement  celle  réelle  et  donc  un  décalage  est  à  craindre.  Les  facteurs  de  sécurité  permettent  de 
parer à ce genre de problème. Par exemple, on ajoute une photo en début et en fin de bandes (facteur de 
sécurité longitudinal de 50%), et on décale le premier axe de vol et le dernier axe de vol sur le bord de la 
surface à photographier (facteur de sécurité latéral de 50%). 

HEIG‐VD, G2C  49 / 141  F. Gervaix, février 2010 


   

6.2. Plan de vol 
6.2.1 Paramètres initiaux 
Les  paramètres  ci‐contre  doivent  être 
définis avant de commencer le  calcul  du 
plan de vol à proprement parlé. 
Ils le sont  par des  choix judicieux (voir § 
précédent)  ou  par  les  instructions  du 
mandant. 

6.2.2 Élément incontournable : la carte 
L’objet à traiter peut être défini par des coordonnées ou simplement nommé, par exemple dans l’exemple 
ci‐dessous « Colline de Chamblon ». 
Il  s’agit  d’abord  d’encadrer  la  zone  d’intérêt.  Quand  la  possibilité  est  donnée,  on  choisira  un  rectangle, 
aligné ou non dans le système de coordonnées. Des polygones avec plus que quatre angles sont possibles, 
mais en général le nombre de photos par km² augmente significativement. 
La  carte  est  un  excellent  moyen  de  connaître  les  altitudes  moyennes,  minimale  et  maximale  de  la  zone 
d’intérêt. On peut également appréhender le « sens » (ou les grandes lignes) du relief. 

 
Dans cet exemple les directions est <> ouest et nord <> sud ne sont pas appropriées. La colline a un axe 
principal sud‐ouest <> nord‐est qui sera celui choisi pour le plan de vol (par exemple, une parallèle au plus 
grand côté). 

HEIG‐VD, G2C  50 / 141  F. Gervaix, février 2010 


   
6.2.3 Calcul du plan de vol 
Il s’agit ensuite de calculer les différents paramètres définissant le bloc, en particulier la hauteur de vol (hg), 
la longueur de base (b) et la distance entre bandes (a). 

 
La  hauteur  de  vol  détermine 
l’altitude  de  vol  AGL  (Above 
Ground Level, au‐dessus du sol) en 
mètres,  utile  au  photogrammètre. 
En  plus,  on  calculera  l’altitude  de 
vol  AMSL  (Above  Mean  Sea  Level, 
au‐dessus  du  niveau  de  la  mer)  en 
pieds (feet, ft), utile au pilote. 
Si  des  facteurs  de  sécurité,  les 
valeurs  de  lp  et  lq  devront  être 
augmentées d’autant. 

HEIG‐VD, G2C  51 / 141  F. Gervaix, février 2010 


   
 

 
 
Quelques  échelles 
classiques  et  leurs 
  paramètres 
  n est le nombre de  
clichés pour 
  100 km² 
 
Des  logiciels  dédiés  calculent 
tous  ces  éléments,  par 
exemple  ASCOT  de  Leica 
Geosystems. 
C’est  un  logiciel  développé 
durant  les  années  90, 
fonctionnant  sous  MSDOS, 
avec  une  interface  graphique 
incroyable pour l’époque ! 
 

HEIG‐VD, G2C  52 / 141  F. Gervaix, février 2010 


   
Et  affichent  le  résultat  sous 
forme  graphique,  avec  ou 
sans carte en arrière‐plan. 
L’effet  des  facteurs  de 
sécurité longitudinal et latéral 
est clairement visible. 

 
Sans  facteurs  de  sécurité,  les 
empreintes au sol des photos 
couvrent  exactement  la  zone 
du projet, à un léger décalage 
longitudinal près. 

 
Une superposition du plan de vol sur la carte permet de se rendre compte de l’emprise des clichés et de la 
position des axes de vols (voir ci‐après). 

6.2.4 Alternative : application en ligne sur gecweb.info 
Lors  de  la  HES  d’été  –  Outils  Web  en  2009,  la  volée  GEO2011  a  réalisé  une  moulinette  disponible  sur 
www.gecweb.info/2011. La particularité de l’application est de disposer d’une base de données extensible 
de  capteurs,  de  calculer  le  minimum‐bounding  rectangle  de  n’importe  quel  polygone,  de  déterminer  les 
paramètres photogrammétriques et d’afficher les tops caméras en s’appuyant sur l’interface graphique de 
Google Maps (au travers de son API). 
Une comparaison des deux résultats est donnée ci‐dessous. Il y a 20 ans d’intervalle entre une technologie 
et l’autre… 

HEIG‐VD, G2C  53 / 141  F. Gervaix, février 2010 


   

 
Figure 22: Superposition de la carte nationale, des axes de vols, des « tops caméra » et des empreintes au sol 

 
Figure 23: Alternative à l'aide de l'application en ligne gecweb.info 

HEIG‐VD, G2C  54 / 141  F. Gervaix, février 2010 


   
L’organigramme (flux de tâches et de données) pour la programmation de l’interface est donné ci‐dessous. 
Il reste valable quelque soit la technologie utilisée… 

 
Figure 24: Organigramme du calcul d'un plan de vol 

HEIG‐VD, G2C  55 / 141  F. Gervaix, février 2010 


   

6.3. Exécution du vol 
La  bonne  exécution  du  vol  est  une  question  de  bon  plan  de  vol,  de  systématisme,  d’expérience  et…  de 
chance ! 
La caméra et le film doivent correspondre aux exigences et choix faits préalablement. 
L’altitude  de  vol  est  en  général  gérée  par  l’autopilote.  L’altitude  barométrique,  ajustée  au  moment  du 
décollage, fait foi en cas de différence avec l’altitude par GPS ! 
Le plus souvent, le GPS est utilisé pour la navigation mais il ne peut pas asservir directement d’autopilote. 
C’est  donc  bien  le  pilote  qui  transmet  les  corrections  de  cap  à  l’avion.  Attention  aux  petites  corrections 
brusques  et  souvent  inutiles.  Une  capacité  d’anticipation  est  souvent  la  clé  d’un  vol  harmonieux.  Des 
réactions (plutôt que des actions) sont sources de mouvements parasites néfastes. 
Idéalement, le système  de navigation est également un système  de  contrôle  de la caméra. C’est donc  ce 
système qui envoie les tops caméras de façon précise, et donc en anticipant le déclanchement de la prise 
de vue. Une demi seconde de temps de préparation n’est pas inhabituel, ce qui représente plus de 50m à 
200 m. 
Les  clichés  ou  les  images  TIFF,  ainsi  que  les  métadonnées  comme  le  GPS,  l’IMU,  etc.  devraient  être 
examinés dans les plus brefs délais afin d’éviter toute mauvaise surprise postérieure. 
Ci‐contre,  une  exécution  assez 
typique  d’un  petit  chantier.  Les 
lacets en début et fin de trajectoire 
sont  en  partie  dus  aux  manœuvres 
d’initialisation de l’IMU. 

HEIG‐VD, G2C  56 / 141  F. Gervaix, février 2010 


   

6.4. Scannérisation et suite 
La  scannérisation  (l’action  de  scanner  les  clichés  analogiques  afin  de  pouvoir  les  traiter  par 
photogrammétrie  numérique)  fait  partie  intégrante  de  l’acquisition  des  données.  C’est  en  général  la 
dernière tâche qui est réalisée par l’avionneur au sens large. 
C’est  un  passage  obligé  et,  malheureusement,  source  de  beaucoup  d’erreurs,  voire  de  fautes.  Par 
l’émergence des capteurs numériques, c’est (heureusement !) une activité en voie de disparition que nous 
n’abordons que de façon très superficielle. Là aussi, du soin et de l’expérience sont les clés de la qualité. 
Les  scanners  photogrammétriques,  contrairement  au  scanner  de  bureau,  ont  une  résolution  très  élevée, 
jusqu’à 120 lignes par mm (soit 3000 dpi). L’autre particularité est la possibilité de scanner des bobines de 
film entière, avec une régularité excellente. 
Les  points  critiques  de  la  scannerisation  sont  la  sensibilité  aux  poussières  et  l’altération  irréversible  des 
clichés par des rayures. Les films doivent donc être scannés aussi immédiatement que possible et avec le 
plus grand soin. 
Les clichés doivent être scannés de façon systématique (orientation, température, calibrations géométrique 
et radiométrique). 
Si une compression des images est utilisée, elle doit être bien évaluée car elle est irréversible. L’archivage 
devrait se faire sans compression. 
La résolution de scannage influence la taille des fichiers (et le temps de scannage) et doit aussi être choisie 
de façon judicieuse. 
La radiométrie est l’aspect le plus délicat et nécessite une très grande expérience… et de la patience ! C’est 
une  question  subjective  et  le  mieux  est  d’obtenir  la  satisfaction  du  mandant  sur  un  échantillon  avant  de 
scanner l’ensemble des clichés. 
Le  format  et  le  support  des  données  est  un  élément  peu  critique,  mais  qui  doit  être  coordonné  entre  le 
producteur des données en amont et l’utilisateur de ces données en aval. 
Ici  se  termine  la  phase  d’acquisition  des  données.  Les  étapes  suivantes,  consacrées  au  traitement  et  à 
l’exploitation de ces données, seront développés de façon approfondie dans les chapitres suivants. Il s’agit 
essentiellement des tâches suivantes : 
• Aérotriangulation 
• Génération de MNT 
• Génération d’orthophotos 
• Restitutions 

HEIG‐VD, G2C  57 / 141  F. Gervaix, février 2010 


   

6.5. Résumé 
Une  illustration  de  ce  processus  («  work‐flow  »)  par  un  exemple  peu  récent  mais  caractéristique  a  été 
retrouvé dans un document destiné à la formation des clients de LH Systems (1998 – 2001): 

HEIG‐VD, G2C  58 / 141  F. Gervaix, février 2010 


   

7. Logiciels photogrammétriques 

7.1. Introduction aux logiciels photogrammétriques 
Il existe une bonne dizaine de logiciels de photogrammétrie qui couvrent toutes les tâches de l’importation 
de données brutes à la production de délivrables, tels qu’orthomosaïques, semis de points (grille ou TIN) et 
courbes de niveau, vecteurs 3D, etc. 
Si le principe est très similaire dans tous les logiciels, la succession des tâches, l’ergonomie, la nomenclature 
varie sensiblement. Comme souvent, on se lie à un logiciel un peu par hasard, un peu par affinité, un peu 
par confort. 
Le  département  EC+G  a  la  chance  de  disposer  de  trois  logiciels  qui  sont  probablement  les  trois  plus 
répandus  dans  la  pratique.  Attention  néanmoins,  la  pénétration  de  ces  logiciels  est  bien  inférieure  à  des 
logiciels de DAO ou de SIG, donc il ne faut pas s’attendre à les rencontrer dans de nombreux bureaux ! 

7.1.1 Caractéristiques importantes 
• Rendu graphique rapide 
• Zoom continu dans les images (pas de seuil) 
• Positionnement du curseur à l’intérieur d’un pixel 
• Chargement « intelligent » des images 
• Conversion instantanée du système de coordonnées 
• Auto‐corrélation rapide et fiable 
• Auto‐corrélation basée sur la structure (≠ texture)  
• Contrôles de qualité intégrés 
• Données crées en formats compatible SIG (p. ex. shapefiles) 
• Photogrammétrie et télédétection intégrées 

7.2. Leica Geosystems LPS 
LPS  –  Leica  Photogrammetry  Suite  ‐    est  en  fait  un  module  de  la  suite  ERDAS  Imagine  (logiciel  de 
télédétection). C’est le logiciel utilisé en D61 pour l’initiation car il a une interface très didactique. 
LPS  Core  est  le  nouveau  module  standard  de  photogrammétrie.  A  l’aide  de  ce  module  il  est  possible  de 
réaliser sur des chantiers complets l’ensemble de la chaîne de traitements pour passer des images brutes à 
des images géométriquement et planimétriquement juste : orientation interne, orientation externe, prise 
de points d’appuis et liaison, triangulation, création d’orthoimages, création d’orthomaosaïques. 
LPS  Core  incorpore  en  entrée  un  grand  nombre  de  modèles  de  capteurs  en  entré  dont  les  caméras 
métriques, les satellites SPOT, IRS 1C/D, IKONOS, Quickbird. 
Les points clefs : 
• Initialisation et gestion des projets avec le tableur CellArray™ 
• Import et export d'un grand nombre de types de données et de formats 
• Travail dans un grand nombre de coordonnées systèmes, de projections de cartes et de datums 
• Emploi de diverses unités de périphériques XYZ 
• Visualisation  et  manipulation  des  images  avec  la  fenêtre  de  visualisation  GLTGeospatial  Light  Table™ 
d'IMAGINE 

HEIG‐VD, G2C  59 / 141  F. Gervaix, février 2010 


   
• Définition et sauvegarde de propriétés des caméras 
• Orientation interne automatique et semi‐automatique 
• Génération d'orthomosaïques singulières ou en bloc avec orthorectification équilibrage des couleurs et 
mosaïquage 
• Production de cartes numériques images 
• Création et manipulation de MNT 
Le module de triangulation n’est pas ou peu utilisé, au profit d’un logiciel spécifique pointu : 

7.2.1 Leica Geosystems ORIMA 
ORIMA ‐ Orientation Management software ‐ est le logiciel de Leica Geosystems écrit pour l'orientation des 
modèles et l'aérotriangulation. ORIMA est moderne, facile d'emploi, d'une grande productivité; il permet 
de traiter des grands blocs d'images avec des points d'appui, des points GPS et de détecter les erreurs et 
fautes tout en minimisant les phases de remesure. 
Les points clefs: 
• Le must en compensation par faisceaux avec auto‐calibration des clichés film et de l'imagerie ADS40 
• Aérotriangulation en système de coordonnées non‐3D‐cartésiennes 
• Traite les données GPS et IMU aéro (Inertial Measurement Unit) 
• Technique  de  détection  des  erreurs  et  des  fautes  par  méthode  statistique  avec  élimination  et 
détermination des zones de faiblesse dans le bloc 
• Facile à appréhender, interface graphique d'emploi aisé pour analyse du bloc 
• Numérotation des points, conduite sur le point, orientations internes, relative et absolue 
• Mesure des points automatique et transfert des points d'appui sol 

7.3. BAE Systems Socet Set 
Socet Set est un logiciel plus mûr, avec un passé militaire qui se ressent dans son apparence sobre. C’est le 
logiciel  utilisé  en  D58  pour  la  production  car  il  a  une  efficacité  incomparable.  Il  fournit  d’excellents 
résultats, robustes et rapides. 

7.4. KLT Associates Atlas 
Atlas  est  un  logiciel  en  constante  évolution,  avec  ses  inconditionnels  et  ses  détracteurs.  C’est  un  logiciel 
utilisé  ponctuellement  en  D58,  car  il  s’adresse  à  des  utilisateurs  avancés  avec  une  interface  originale  et 
déroutante. 

HEIG‐VD, G2C  60 / 141  F. Gervaix, février 2010 


   

8. Aérotriangulation 
L’aérotriangulation  est  une  tâche  très  importante  qui  concerne  le  géoréférencement  des  images  à  l’aide 
des paramètres métriques de la caméra, du GPS et l’IMU embarqués, des points au sol (points d’appui et de 
contrôle)  et,  surtout,  des  lignes  de  vues  ou  rayons  de  l’image  à  l’objet  en  passant  par  le  centre  de 
projection. 
Il  s’agit  de  créer  une  relation  entre  le  système  de  coordonnées  « image »  et  le  système  de  coordonnées 
« objet » 

8.1. Les différentes orientations 
Une  des  difficultés  de  l’aérotriangulation  est  la  multitude  de  translations  et  de  rotations  dans  le  plan  et 
dans l’espace. La combinaison de translations et de rotations est appelée orientation. Chaque orientation 
est caractérisée par un certain nombre de paramètres, donc d’inconnues I à déterminer. Parallèlement, on 
dispose en général d’un nombre beaucoup plus grand d’observations (mesures N) et ces orientations sont 
toujours largement surdéterminées (surabondantes : redondances R).  N‐I=R 

8.1.1 Orientation interne 
L’orientation  interne  consiste  en  la  mise  en  correspondance  de  la  géométrie  de  la  caméra  et  celle  de 
l’image.  Le  lien  entre  les  deux  se  fait  par  les  marques  fiduciaires  (fiducial  marks  ou  fiducials),  également 
appelées repères de fond de chambre. 
Il  s’agit  de  reconstruire  la  pyramide  « centre  de  projection  –  cliché »  pour  chaque  prise  de  vue.  La 
géométrie  de  la  caméra  est  décrite  par  le  certificat  de  calibration.  On  y  trouve,  entre  autre,  la  distance 
focale  calibrée  ck  (ou  CFL  pour  Calibrated  Focal  Length),  la  position  de  chaque  marque  fiduciaire  et  la 
position du centre de projection. 
Les quatre ou huit marques fiduciaires permettent de déterminer une orientation dans le plan à quatre ou 
six paramètres. 
4 paramètres : deux translations (x et y), une rotation (des axes orthogonaux x et y), un facteur d’échelle. 
C’est une transformation de similitude. 
6 paramètres : deux translations (x et y), deux rotations (de l’axe x et de l’axe y) et deux facteurs d’échelle 
(selon x et selon y). C’est une transformation affine. 
Kreiling, page 204 / Albertz & Wiggenhagen, page 246. 

HEIG‐VD, G2C  61 / 141  F. Gervaix, février 2010 


   

8.1.2 Orientation (externe) relative 
L’orientation  externe  relative  consiste  en  la  mise  en  correspondance  de  deux  images  voisines  (=  un 
modèle). Le lien entre les deux se fait par des points de liaisons ou de rattachement (tie points), c'est‐à‐dire 
des  points  quelconques  du  terrain  mesurés  dans  les  deux  images.  Les  lignes  de  vues  des  deux  images  à 
l’objet passant par les centres de projection respectifs sont 
appelés rayons homologues. 
On  mesure  en  général  six  points  dans  chaque  zone  de 
recouvrement  (appelé  points  de  von  Gruber).  Ces  points 
permettent  de  (sur‐)déterminer  une  orientation  dans 
l’espace à six paramètres. 
6 paramètres : trois translations (x, y et z) et trois rotations 
(autour des axes x, y et z). 
Cependant,  l’orientation  étant  relative,  le  paramètre  x  ne 
sert qu’à donner l’échelle  du modèle. Ce n’est donc  pas à 
proprement  parler  une  inconnue  (voir  ci‐dessous  la 
parallaxe). 
Pour  un  modèle,  on  peut  considérer  que  l’image  de  gauche  (celle  prise  en  premier)  est  fixe  et  que  l’on 
cherche à replacer l’image de droite (celle prise en deuxième). 
Une autre approche est de considérer uniquement les rotations par rapport à un système de coordonnées 
ad hoc (voir Kreiling, pages 213ss). Cette géométrie est plus difficile à appréhender. 

HEIG‐VD, G2C  62 / 141  F. Gervaix, février 2010 


   
Tant  que  l’orientation  relative  n’est  pas  réalisée,  les  rayons  homologues  ne  se  coupent  pas,  ils  sont 
gauches. L’intersection de deux rayons homologues avec un plan horizontal définit deux points. La distance 
en  x  entre  ces  deux  points  est  appelée  parallaxe  longitudinale  (ou  horizontale) ;  celle  en  y  est  appelée 
parallaxe transversale (ou verticale). On peut se déplacer le long des rayons jusqu’à ce que la parallaxe x 
soit nulle. La parallaxe y éventuelle est alors un indicateur de la qualité de l’orientation externe. 
Mathématiquement, on utilise les équations de coplanarité appliquées aux points OG, OD, P’1 et P’’1 (mesure 
stéréoscopique de P1 dans les images droite et gauche), puis pour P2 à P5 (et P6 pour la surabondance). 
On  obtient  finalement  des  coordonnées‐modèle  (à  mi‐chemin  entre  des  coordonnées‐image  et  des 
coordonnées‐objet). 
Kreiling, pages 213 à 220 / Albertz & Wiggenhagen, page 254. 

8.1.3 Orientation (externe) absolue 
L’orientation  externe  absolue  consiste  en  la  mise  en  correspondance  d’un  modèle  avec  le  système  de 
coordonnées « objet » (du terrain). 
Il  s’agit  donc  de  déterminer  une  transformation  à  sept  paramètres  entre  le  système  « modèle »  et  le 
système « objet ».  
7 paramètres : trois translations (X, Y et Z), trois rotations (autour des axes X, Y et Z) et un facteur d’échelle. 
C’est une transformation d’Helmert. 
Pour ce faire, on utilise des points d’appui (GCP pour Ground Control Point). Comme les points de liaisons, 
ils sont mesurés dans les deux images du modèle, mais contrairement aux points de liaison, ils sont bien 
définis et connus en coordonnées (X, Y, Z) dans le système « objet ». 

⎡ xij ⎤ ⎡X i − X j ⎤
⎢ y ⎥ = λ R (ω , ϕ , κ ) ⎢ Y − Y ⎥
⎢ ij ⎥ ij j⎢ i j ⎥  

⎢⎣ c ⎥⎦ ⎢ Zi − Z j ⎥
⎣ ⎦
Pour  déterminer  les  sept  paramètres,  deux  points  3D  et  un  point  1D  (altimétrique)  suffisent  pour  une 
détermination sans surabondance. 
On  parle  de  transformation  spatiale  de  similitude  des  coordonnées‐modèle  xyz  dans  le  système  de 
coordonnées‐objet XYZ des points d’appui. 
Kreiling, pages 44 à 46 et 220 / Albertz & Wiggenhagen, page 50 et 256. 

HEIG‐VD, G2C  63 / 141  F. Gervaix, février 2010 


   

8.2. Aérotriangulation 
La séquence précédente est valable pour une approche « manuelle » où chaque paire de clichés est traitée 
séparément.  Cette  démarche  était  la  seule  possible  avec  les  instruments  analogiques  et  les  premiers 
instruments  analytiques.  Or,  l’apparition  des  instruments  analytiques  a  permis  d’automatiser  certaines 
tâches,  d’accélérer  les  calculs  et  d’imbriquer  certaines  opérations.  Actuellement,  en  photogrammétrie 
numérique,  il  est  très  rare  de  pratiquer  une  orientation  relative  ou  une  orientation  absolue.  On  travaille 
généralement  par  bloc  photogrammétrique,  regroupant  plusieurs  dizaines  ou  centaines  de  clichés.  Le 
travail  est  bien  plus  efficace  et  économique.  En  une  seule  étape  on  détermine  l’orientation  externe 
(relative + absolue) de chaque cliché dans le système de coordonnées national. Cette opération unique est 
appelée aérotriangulation. 
Kreiling, pages 205 à 212 / Albertz & Wiggenhagen pages 257 à 264. 
L’aérotriangulation fait intervenir simultanément : 
• les paramètres géométriques de la caméra, plus des paramètres de déformation éventuels. 
• les mesures (x, y) dans le système de référence « image » 
• les coordonnées (X, Y, Z) des points d’appui 
• les coordonnées (X, Y, Z) ± approchées des centres de projection (par GPS) 
• les rotations (ω, φ, κ) ± approchées des clichés (par IMU) 
C’est donc une opération passablement complexe. Nous nous contenterons d’en comprendre les principes 
et le modèle stochastique. 
Une  approche,  relativement  facile  à 
appréhender  mais  peu  rigoureuse  et  peu 
précise,  est  la  méthode  des  modèles 
indépendants et compensation de bandes 
d’aérotriangulation. 
pp. 221‐227 / p. 257 
On  oriente  complètement  un  modèle  en 
bout de bande et on y joint modèle après 
  modèle le reste de la bande. 
Une évolution de la méthode ci‐dessus, 
plus précise et surtout plus robuste, est 
la  compensation  par  bloc  de  modèles 
indépendants. 
pp. 228‐234 / p. 258 
Cette  méthode  fait  intervenir 
massivement le calcul matriciel  
 

HEIG‐VD, G2C  64 / 141  F. Gervaix, février 2010 


   

La méthode la plus efficace et pratiquement la seule utilisée aujourd’hui est la compensation par faisceaux 
(avec paramètres additionnels). 
Les éléments d’orientation de chaque image, ainsi que les coordonnées « objet » des points de liaisons sont 
déterminés simultanément. 
Kreiling, pages 235 à 243 / Albertz & Wiggenhagen, page 259. 

 
Cette méthode est basée sur le modèle mathématique de la géométrie perspective et utilise directement 
les coordonnées « image » comme observation. Pour le calcul, on considère les faisceaux de rayons allant 
du  centre  de  projection  vers  les  points  « images »  en  s’appuyant  sur  les  équations  de  colinéarité  (à 

HEIG‐VD, G2C  65 / 141  F. Gervaix, février 2010 


   
comparer  avec  les  équations  de  coplanarité  vue  précédemment).  Un  point  « image »,  le  centre  de 
projection et le point « objet » correspondant (point de liaison ou point d’appui) sont alignés. 
Ceci  est  la description mathématique  qui,  bien qu’essentielle et très intéressante,  ne donne  pas la vision 
globale  du  problème.  Une  approche  plus  intuitive  de  la  question  est  une  représentation  graphique  des 
éléments essentiels. 
Ces éléments sont : 
• les centres de projections   
• les empreintes au sol des images 
• les points de liaison   (intra‐bande) et   (inter‐bande) 
• les points d’appui   
• les points de contrôle   

 
Figure 25: Représentation schématique des éléments essentiels d’un bloc d’aérotriangulation 

La  représentation  schématique  bidimensionnelle  d’un  petit  bout  de  bloc  est  déjà  assez  complexe.  En  y 
ajoutant les faisceaux de rayons dans une vue perspective, on perçoit le principe de la compensation par 
bloc (voir ci‐après) 

HEIG‐VD, G2C  66 / 141  F. Gervaix, février 2010 


   

 
Figure 26 : Représentation schématique en perspective des faisceaux de rayons 

 
Figure 27: Autre représentation en perspective 

HEIG‐VD, G2C  67 / 141  F. Gervaix, février 2010 


   

8.3. Rotations dans l’espace 
Le  géomaticien  est  habitué  à  travailler  avec  des  coordonnées  dans  l’espace  (X,  Y,  Z  ou  E,  N,  H  ou  autres 
coordonnées tridimensionnelles). Moins commun est le travail avec des rotations dans l’espace. Quelques 
mises au point ne sont pas inutiles : 
Une rotation, dans le plan ou dans l’espace, est définie de façon synthétique par une matrice orthogonale1, 
2x2 dans le  plan, 3x3 dans l’espace.  Une  matrice  orthogonale R peut être  décomposée  en trois rotations 
partielles successives, par exemple Rω, Rφ, Rκ  
Rappel : définition des rotations 
Rω (ou ω) est la rotation autour de l’axe X, de l’axe Y sur l’axe Z 
Rφ (ou φ) est la rotation autour de l’axe Y, de l’axe Z sur l’axe X
Rκ (ou κ) est la rotation autour de l’axe Z, de l’axe X sur l’axe Y 
Sens : en regardant le long de l’axe depuis l’origine, dans le sens des aiguilles d’une montre (visser) 
Pour  des  raisons  historiques  (origines 
germaniques  de  la  photogrammétrie),  les 
rotations sont souvent abrégées par D (pour 
Drehung). 

 
Deux situations peuvent se présenter : la rotation autour d’axes tournants et la rotation autour d’axes fixes. 
Cela  influencera  la  séquence  des  rotations.  Dans  le  cas  d’axes  tournants,  on  applique  les  rotations  dans 
l’ordre direct, Rω puis Rφ puis Rκ Dans le cas d’axes fixes, on applique les rotations dans l’ordre indirect, Rκ 
puis Rφ puis Rω Pour rappel, la multiplication des matrices n’est pas commutative (A · B ≠ B · A), donc la 
séquence des rotations est importante. Par convention, les rotations sont définies d’un système‐image xyz 
mobile vers un système‐objet XYZ fixe ; les axes sont donc généralement tournants. 

                                                            
 
1
 Conditions entre les éléments d’une matrice orthogonale A 

 
A · AT= E (matrice unité), ou A‐1 = AT 

HEIG‐VD, G2C  68 / 141  F. Gervaix, février 2010 


   
Connaissant  la  matrice  globale  R  =  Rω  ·  Rφ  ·  Rκ  il  est  aisé  de  déterminer  les  angles  des  rotations 
individuelles, tant pour un système d’axes fixes que pour un système d’axes tournants. En pratique, il est 
beaucoup plus sûr d’indiquer la matrice de rotation plutôt que les angles de rotation. Malheureusement, il 
est assez commun  de « craindre » les  matrices, plus difficiles à  afficher,  manipuler et enregistrer. Le plus 
souvent on rencontre les angles de rotation avec une indication de la séquence, ou en assumant l’ordre Rω, 
Rφ, Rκ  ce qui est une pratique dangereuse. 

8.3.1 Illustration par un exemple 
Pour se convaincre, on peut étudier un exemple axonométrique, perspectif ou numérique. 

Axes tournants 

 
Figure 28: Séquence axonométrique, axe tournants 

La  figure  ci‐dessus  illustre  une  succession  de  trois  rotations  (φ,  θ,  ψ)  =  (−60°,  30°,  45°)  avec  des  axes 
tournants (les rotations s’effectuent autour des axes noirs); X0Y0Z0 devient X1Y1Z0 après la première rotation 
de ‐60° autour de Z0, X1Y1Z0 devient X1Y2Z2 après la deuxième rotation de 30° autour de X1 et X1Y2Z2 devient 
X3Y3Z2 après la troisième rotation de 45° autour de Z2 
 

 
Figure 29: Séquence perspective, axe tournants 

 
0 ‐0.952  ‐0.305  0.000  Θ 30 1.000 0.000 0.000   0 0.525  ‐0.851  0.000
0 0.305  ‐0.952  0.000  0 0.000 0.154 0.988   0 0.851  0.525  0.000
Φ -60 0.000  0.000  1.000  0 0.000 ‐0.988 0.154   Ψ 45 0.000  0.000  1.000

‐0.952 ‐0.047 ‐0.301   ‐0.540  0.786  ‐0.301


0.305 ‐0.147 ‐0.941   0.035  ‐0.337  ‐0.941
0.000 ‐0.988 0.154   ‐0.841  ‐0.519  0.154

Figure 30: Séquence numérique, axe tournants 

HEIG‐VD, G2C  69 / 141  F. Gervaix, février 2010 


   
Axes fixes 

 
Figure 31: Séquence axonométrique, axes fixes 

La figure ci‐dessus illustre une succession de trois rotations (φ, θ, ψ) = (45°, 30°, ‐60°) avec des axes fixes 
(les rotations s’effectuent autour des axes bleus). 
 

 
Figure 32: Séquence perspective, axes fixes 

 
0 0.525  ‐0.851  0.000    Θ 30 1.000 0.000 0.000   0 ‐0.952  ‐0.305  0.000
0 0.851  0.525  0.000    0 0.000 0.154 0.988   0 0.305  ‐0.952  0.000
Φ 45 0.000  0.000  1.000    0 0.000 ‐0.988 0.154   Ψ -60 0.000  0.000  1.000

0.525 ‐0.851 0.000 ‐0.540  0.786  ‐0.301


0.131 0.081 0.988 0.035  ‐0.337  ‐0.941
‐0.841 ‐0.519 0.154 ‐0.841  ‐0.519  0.154

Figure 33: Séquence numérique, axes fixes 

HEIG‐VD, G2C  70 / 141  F. Gervaix, février 2010 


   
Les éléments constitutifs de la matrice peuvent être définis de façon synthétique (utile en programmation) 
ainsi : 

HEIG‐VD, G2C  71 / 141  F. Gervaix, février 2010 


   

9. MNT par photogrammétrie 
La production d’un MNT est le plus souvent l’étape qui suit immédiatement l’aérotriangulation. Le MNT est 
parfois  (de  plus  en  plus  rarement)  une  fin  en  soi,  mais  le  plus  souvent  c’est  une  étape  obligée  avant 
l’orthorectification, l’extraction vectorielle 3D, etc. 
Cette  nécessité  était  absolue  il  y  a  quelques  années  encore :  la  photogrammétrie  était  le  seul  moyen 
d’obtenir une MNT pour une large superficie. De nos jours, cette opération est souvent remplacée par des 
MNT globaux par LiDAR, RADAR, interférométrie (SAR), etc. 

9.1. Introduction 
Le MNT joue un rôle très important dans tous les processus photogrammétriques. Que ce soit pour le MNT 
en lui‐même, l’orthorectification ou la restitution 3D, le MNT a une fonction sous‐jacente essentielle. Une 
faute dans le MNT peut avoir des conséquences irréversibles sur les produits subséquents. 

9.1.1 Modélisation mathématique d’un paysage = une étape très importante des 
processus photogrammétriques 
• cartographie d’intervisibilité (télécoms) 
• études hydrologiques 
• éléments cartographiques (courbes de niveau) 
• orthophotos 

9.2. Définitions 
Dans tous les cas, il s’agit de modèles, avec ce que cela implique de généralisation et subjectivité. Attention 
à ne pas donner à un MN plus de signification qu’il en a intrinsèquement. 
• MNE : modèle numérique d’élévation (générique) 
• MNT : MNE du terrain uniquement 
• MNS : MNE de valeur maximale 

 
Figure 34: MNT versus MNS 

On dit parfois que le MNS drape ou épouse les éléments du sursol. Par nature, le MNS est plus subjectif que 
le MNT. 
• MNH : MN de hauteur = MNS – MNT 
Généralement MNS – MNT ≥ 0, mais il n’est pas rare de rencontrer des valeurs légèrement négatives, pour 
cause d’imprécision numérique, de généralisation ou de décalage temporel. 

HEIG‐VD, G2C  72 / 141  F. Gervaix, février 2010 


   

9.3. Spécifications 
Un  certain  nombre  de  paramètres  sont  nécessaires  pour  caractériser  un  modèle  numérique  d’élévation. 
Certains sont liés à l’aspect géographique de la donnée, d’autres sont liés à leur aspect informatique. 

9.3.1 Paramètres « analogiques » 
• géodésiques (ellipsoïde, projection, origine des altitudes, …) 
• localisation géographique (coordonnées des coins, …) 

9.3.2 Paramètres « numériques » 
• format numérique (entier, réel, nombre d’octets …) 
• unité 
• structure de la grille 
• dimension de la maille 
Un  exemple  typique  et  très  courant  est  le  format  ArcInfo  ASCII  GRID  Il  s’est  imposé  comme  un  standard 
grâce à sa simplicité et son efficacité. Une en‐tête de six lignes permet de diminuer la taille d’un MN par un 
facteur cinq par rapport à un MN en format trois colonnes xyz. 

         

         

         

         
 
Figure 35: En‐tête de fichier ArcInfo ASCII GRID et séquence 
         

HEIG‐VD, G2C  73 / 141  F. Gervaix, février 2010 


   

9.4. MN_: représentations 
Une difficulté récurrente est la représentation de l’objet à modéliser (terrain, sursol, etc.). Il s’agit toujours 
d’un modèle qui s’approche de la réalité de l’objet, le mieux possible, mais jamais parfaitement. Plusieurs 
modes sont envisageables, avec leurs forces et leurs faiblesses. 

9.4.1 Grille à trame régulière GR (Grid, raster) 
Posts alignés régulièrement dans le système de coordonnées. Ces posts ne sont pas forcément des points 
réels  du  terrain.  Ils  sont  « placés »  selon  le  système  de  coordonnées  à  intervalle  régulier  (pas  ou  maille) 
sans tenir compte du contenu du paysage. 
Il existe une variante, peu fréquente, de grille à trame irrégulière. 

9.4.2 Réseau irrégulier de triangles RIT (Triangulated Irregular Network TIN) 
Mass Points et Breaklines répartis de façon judicieuse. Ces mass points et breaklines sont en principe des 
points réels du terrain. Ils sont « placés » en fonction de leur pertinence dans la modélisation du paysage. 
Leur distribution est très dépendante du contenu du paysage. 

9.4.3 Surface décrite par courbes de niveau (intersection surface / plan) 
C’est le moyen historique de modéliser le paysage, à l’ère graphique mais également à l’ère numérique. Le 
plus souvent cependant on se contente de produire des courbes de niveau à partir d’une grille ou d’un TIN, 
mais le contraire est possible et parfois judicieux. 

9.5. Comparaison Grille <> TIN 
9.5.1 Grille 
• supporté par tous les logiciels 
• gros fichiers simples 
• niveau de détail dépendant du pas (spacing = maille) ; si on augmente le pas de la maille, on perd du 
détail, donc de l’information 
• très similaire à une image raster (tons de gris) 
• bien adapté aux surfaces 2.5 D  Z = f (X, Y) 
• échantillonnage spatial critique 
• régions urbaines = discontinuités 3D 
• modélisation facile mais pas générale 

9.5.2 TIN 
• supporté par les logiciels évolués 
• petits fichiers complexes 
• niveau de détail dépendant du choix des points critiques 
• nécessite un algorithme d’interpolation (p. ex. Delaunay) 
• z fonction des trois sommets voisins   z = f (x,y,x1,y1,z1,x2,y2,z2,x3,y3,z3) 
• échantillonnage adapté 
• pente identique sur une facette, discontinuité entre facette 

HEIG‐VD, G2C  74 / 141  F. Gervaix, février 2010 


   

9.6. Mesure de Z = mesure de la parallaxe x 
En  photogrammétrie,  la  mesure  de  l’altitude  Z  (ou  H,  selon  la  référence  choisie)  revient  à  mesurer  la 
parallaxe horizontale dans une paire d’images orientées. 
La  parallaxe  x  est  qualifiée  d’horizontale  car  il  s’agit  de  l’axe  gauche‐droite  lorsqu’on  observe  une  paire 
d’image en stéréoscopie (épipolaire), donc l’axe horizontal de l’écran en face de soi. La parallaxe y est dite 
« verticale » (axe bas‐haut de l’écran), bien qu’elle n’intervienne pas dans la mesure de l’altimétrie ! 
Pour rappel, si malgré le réglage soigneux de la parallaxe x, on observe encore un décalage entre l’image 
gauche  et  l’image  droite  (parallaxe  y  résiduelle),  cela  signifie  que  l’orientation  des  images  est  imparfaite. 
Pour remédier à ça, il faut remonter à l’aérotriangulation ou le géoréférencement direct. 

 
Figure 36: Z = f (parallaxe x) 

HEIG‐VD, G2C  75 / 141  F. Gervaix, février 2010 


   

9.7. Modes de création d’un MNT 
9.7.1 Photogrammétrie 
• corrélation automatique 
• corrélation manuelle (édition) 
• utilisation des points de liaisons de l’aérotriangulation 
• très bonne précision (calculée) 
• fiabilité questionnable (urbain) 
• densité faible et variable (forêt) 

9.7.2 LiDAR 
Le LiDAR ne produit ni une grille, ni un TIN, mais bien un nuage de points. Ce n’est qu’après filtrage et 
classification qu’on obtient un TIN ou une grille après rééchantillonnage régulier. 

9.7.3 RADAR ou SAR (Synthetic Aperture Radar = radar à synthèse d’ouverture RSO) 
Depuis le milieu des années 2000, les RADAR (SAR) se sont fortement développé, aussi bien en satellitaire, 
mais également en aérien, ce qui est nouveau. 
• aérien et satellitaire = mondial 
• exemple : Shuttle Radar Topography Mission (SRTM) ftp://e0srp01u.ecs.nasa.gov/srtm/version2/  
• très sensibles aux ondulations de terrain (interférométrie). 

9.7.4 Interpolation de courbes de niveau 
L’exemple  parfait  est  le  MNT25,  qui  a  été  (et  est  encore !)  utilisé  comme  la  référence  absolue  en 
altimétrie.  Il  s’agit  pourtant  d’une  interpolation  de  courbes  de  niveau  sur  les  cartes  au  1 :  25'000, 
elles‐mêmes crées de façon graphique et parfois artistique ! 

9.7.5 Importation 
Souvent, lors de la réalisation d’un chantier photogrammétrique, le MNT ou MNS est simplement importé. 
Sa provenance est très variable et son actualité parfois questionnable (orthomosaïque sur la base d’images 
récentes mais de MNT ancien ?!) 
• de plus en plus répandu (MNT25, MNT‐MO) 
• attention aux formats (simple = lourd, léger = complexe) 

HEIG‐VD, G2C  76 / 141  F. Gervaix, février 2010 


   

9.8. Passage du MNS Î MNT 
Cette  tâche  s’apparente  au  filtrage  /  classification  LiDAR.  Voir  le  chapitre  10.15,  p.  92  pour  plus 
d’informations. 

9.8.1 Trois approches: 
• filtrage du sursol 
o zones connexes 
o emprises limitées 
o contraste d’altitude 
o reconnaissance de forme 
• à partir d’une ortho 
o remplacement des valeurs initiales par des valeurs interpolées 
o sélection des points sols dans le MNS 
• propagation à partir de point « seed » 
o technique utilisée dans le LiDAR (TerraScan) 

9.9. Passage de Grille Î TIN 
C’est  une  opération  délicate,  souvent  nécessaire  pour  des  raisons  de  volume  de  données,  mais 
malheureusement dommageable en terme de qualité. On ne fait pas d’omelettes sans casser d’œufs ! 
• Gain en volume jusqu’à 90% 
• Plus performant 
• Triangulation de Delaunay optimisée pour la 3D 
• Critère: « volume ajouté » 

HEIG‐VD, G2C  77 / 141  F. Gervaix, février 2010 


   

9.10. MNT‐MO et MNS 
La  Suisse  dispose  depuis  2002/3  d’un  nouveau  MNT/MNS  acquis  par  LiDAR.  C’est  un  effet  collatéral  du 
projet SAU. En 2009, la mise à jour du MNT est réalisée au coup par coup. Le MNS n’est pas mis à jour pour 
l’instant. 

 
Figure 37: ortho + MNT‐MO brut 

 
Figure 38: ortho + MNT‐MO grille 1m 

HEIG‐VD, G2C  78 / 141  F. Gervaix, février 2010 


   

10. Scanners laser aéroportés (LiDAR) 

10.1. Introduction 
Les scanners laser aéroportés existent depuis les années 90. Leurs performances n’ont cessé de s’améliorer 
et peut estimer qu’elles doublent chaque trois ans. Montés dans un avion ou à bord d'un hélicoptère, les 
systèmes  lasers  sont  souvent  combinés  avec  des  caméras  numériques  matricielles  genre  4k  x  4k. 
L'acquisition  simultanée  des  données  laser  et  des  images  numériques  est  un  avantage  important.  Le  cap 
des  100'000  mesures  par  seconde  a  été  franchi  en  2005  par  les  différents  fabricants  tels  que  Optech  ou 
Leica  Geosystems.  En  fonction  des  applications,  le  scanner  laser  est  réglé  pour  exécuter  des  mesures 
d'altitude avec une densité de points au sol variant de un point par 10 m² à près de cinq points par m², et 
une précision altimétrique de 5 à 20 centimètres. Les images numériques acquises en simultanée peuvent 
également avoir des résolutions aussi élevées que 3 cm pour un vol en hélicoptère et 10 cm pour un vol en 
avion. 

10.2. Fonctionnement 
Une  même  impulsion  laser  émise  par  le  scanner  sera  réfléchie  par  différents  objets  se  trouvant  sur  son 
chemin. Le premier écho décrit la surface des objets ou de la végétation (MNE/MNS), tandis que le dernier 
décrit la surface du sol (MNT). 
Le  principe  de  mesure  se  base  sur  le  fait  que  les  coordonnées  de  chaque  point  sur  la  surface  terrestre 
peuvent être calculées en déterminant d'une part la position de l'aéronef, et d'autre part les distances et 
direction entre le scanner embarqué et le point mesuré sur la surface terrestre. 
Le système laser est composé de trois éléments principaux : 
‐ Un GPS, qui mesure la position de l'aéronef avec une précision de quelques centimètres. Comme un GPS 
embarqué seul ne permet pas d'obtenir la position de l'aéronef avec une précision suffisante, celle‐ci est 
déterminée  relativement  à  un  ou  plusieurs  récepteurs  GPS  situés  sur  des  points  de  terrain  dont  les 
coordonnées sont connues (méthode de positionnement relatif, dGPS) ; 
‐ Une centrale inertielle, qui permet de mesurer les orientations du scanner laser. Cette mesure permet de 
tenir compte des mouvements de l'aéronef au cours du vol ; 
‐ Un scanner laser, qui mesure avec une précision centimétrique la distance au sol en enregistrant le temps 
de vol aller‐retour des impulsions laser. Ces mesures de distance sont complétées par la mesure de l'angle 
de l'impulsion laser par rapport au scanner. Un miroir rotatif permet de scanner la surface terrestre avec 
une fauchée définie en fonction de l'angle de scannage et de la hauteur de vol. 
En  plus  des  données  altimétriques,  les  données  d'intensité  sont  enregistrées  par  le  système  laser.  Ces 
données d'intensité consistent en l'intensité du signal retour des impulsions laser, et peuvent être utilisées 
pour la classification de l'occupation du sol, pour déterminer les attributs et propriétés des objets. 
Les produits laser aéroporté sont utilisés dans les domaines suivants : 
• Production de modèle numérique d'élévation à l'échelle nationale d'un pays 
• Evaluation et cartographie de l'état des digues, barrages et autres ouvrages d'arts 
• Gestion des risques 
• Détection de changements et altération des données topographiques 
• Modélisation urbaine du bruit, développement urbain 
• Modèles hydrauliques, plans de prévention au risque d'inondation 
• Réseau de télécommunications 

HEIG‐VD, G2C  79 / 141  F. Gervaix, février 2010 


   
• Sylviculture 

10.3. Données laser 
La définition la plus simple des données de laser est une collection de points X, Y, Z. L'explication la plus 
fondamentale des mesures de laser aéroporté est un nuage de points 3D décrivant la surface terrestre et 
chaque élément la composant (= MNT et sursol). 
A partir des réflexions multiples émises par les objets observés/scannés, les systèmes lasers permettent de 
discriminer  les  échos  reçus.  Il  est  donc  possible  de  différencier  le  dernier  écho  du  premier  écho,  voire  le 
second  et  le  troisième  avec  certains  systèmes.  Le  scanner  laser  capte  également  l'intensité  de  chaque 
impulsion.  En  combinant  l’information  de  la  caméra  numérique,  à  chaque  impulsion  laser  peut  être 
associée une valeur RGB (couleur). 
Le  dernier  écho  caractérise  le  modèle  numérique  de  terrain,  c'est‐à‐dire  le  sol  proprement  dit  n'incluant 
donc  pas  les  obstacles  comme  les  arbres,  les  maisons,  les  voitures  etc.  En  ajoutant  le  premier  écho,  le 
modèle numérique d'élévation peut alors être calculé, comprenant tous les objets présents sur la surface 
terrestre au moment de l'acquisition. 
La  différence  entre  le  premier  et  le  dernier  écho  peut  servir  à  modéliser  certains  éléments,  comme  la 
canopée par exemple. 
Les  données  d'intensité  permettent  d'ajouter  une  information  supplémentaire  aux  résultats  décrits 
précédemment.  En  effet,  grâce  à  la  mesure  de  réflectivité  des  objets,  il  est  maintenant  possible  de  les 
classifier. Lorsque la valeur RGB est ajoutée ‐ autrement dit la couleur ‐ à l'élément scanné par le laser, il est 
possible  de  générer  une  image  3D,  permettant  alors  d'automatiser  plus  facilement  la  classification  des 
objets mesurés. C’est donc un véritable outil cartographique 3D. 
A partir de logiciels spécialisés, il est possible de générer rapidement et efficacement des produits laser de 
base, des MNT et de MNE de très haute qualité. 
 

 
Figure 39: Vue isométrique d'un nuage partiellement classé 

HEIG‐VD, G2C  80 / 141  F. Gervaix, février 2010 


   

10.4. Définitions 
L’acronyme LiDAR signifie : Light Detection And Ranging = mesure d’intensité et de distance. Le principe (et 
l’acronyme) est similaire à celui du RADAR (Radio Detection And Ranging). Très brièvement, il s’agit de la 
mesure du décalage temporel entre l’émission d’une impulsion d’énergie laser et la détection d’un écho de 
cette  impulsion  (« return »).  En  général,  le  LiDAR  n’utilise  qu’une  longueur  d’onde ;  le  plus  souvent  1064 
nm, à cause de sa disponibilité. 
On  parle  également  de  « Hard‐target  LiDAR »  ou  LiDAR  topographique  par  opposition  au  « Differential 
Absorption  LIDAR »  (DIAL)  qui  utilise  des  longueurs  d’onde  multiples  et  détecte  la  quantité  d’énergie 
absorbée par longueur d’onde. Ses usages typiques sont : monitoring environnemental, détection d’agent 
biologique ou chimique. 

10.5. Notion de nuage de points (3D) 
Le nuage de points (« point cloud ») est le produit brut du LiDAR. Ses caractéristiques essentielles sont : 
• Les  points  suivent  la  distribution  du  système :  on  peut  donc  la  paramétrer  et  la  prédire  (canevas).  On 
cherche en général à décrire une grille à maille aussi carrée que possible. 
• Les points ne tombent en général pas sur les lignes de structure/rupture, même à très haute densité de 
points.  Certaines  situations  particulières  permettent  de  détecter  des  lignes  de  structures,  mais  il  y  a 
encore une grande part d’extrapolation. 
Les informations contenues dans le nuage de points sont : 
•  (X, Y, Z)Æ(E, N, H) pour chaque point, mais pas seulement. 
• Coordonnées WGS 84 (GPS), à transformer en coordonnées usuelles. 
• Points séparés lors d’échos multiples, une impulsion peut produire jusqu’à cinq échos. 
• Liens entre échos multiples, caractéristique « first of many », « intermediate », ... 
• Intensité de l’écho, en général exprimée sur un octet (0 – 255). 
• Par la nature du laser (1064 nm), similaire à une image proche infrarouge (NIR). 
Attention : un nuage de points n’est pas un MNS ! 

 
Figure 40: Vue isométrique d'un nuage brut 

HEIG‐VD, G2C  81 / 141  F. Gervaix, février 2010 


   
 

 
Figure 41: Exemple de représentation par intensité (à g.) et par altitude (à d.) 

Il est particulièrement intéressant de jouer avec les différents modes de représentation afin d’identifier les 
éléments du paysage, tantôt « en relief » comme une colline ou une forêt, tantôt « plat » comme une piste 
d’aéroport ou  un champ.  Certains objets s’observent  très  bien  dans les deux  représentations  (bâtiments, 
ruisseau creux). 
 

 
Figure 42 : Vues isométrique après restitution (source: F. Bonzon, GEO2010) 

HEIG‐VD, G2C  82 / 141  F. Gervaix, février 2010 


   

10.6. Géométrie du LIDAR 
Calcul de (X, Y, Z) ou des points à partir de: 
• Position de l’appareil (X, Y, Z), ou plus précisément (latitude, longitude, altitude) 
• Données GPS brutes acquises en l’air et au sol  
• Attitude de l’appareil (roulis, tangage, lacet) (= roll, pitch, heading) 
• Données IMU brutes acquises en l’air (impératif) 
• Angle de scannage Ö fauchée, mono‐ ou bi‐directionnel (sinusoïdale) 
• Temps de propagation aller‐retour de l’impulsion laser 
• Éléments atmosphériques 

 
Figure 43: géométrie du LiDAR 

En pratique, on détermine d’abord la trajectoire de la plateforme (trajectographie) en (lat, lon, alt, roulis, 
tangage,  lacet).  Ensuite,  cette  trajectoire  est  transformée  dans  le  système  de  coordonnées  usuelles  et 
interpolée pour chaque impulsion laser. La distance (range) et l’angle de scannage (scan angle) est calculée 
pour chaque écho reçu. A l’aide de ces informations, on calcul un point lancé pour chaque écho, auquel on 
ajoute la valeur d’intensité et le numéro de retour. En répétant cette opération 100'000 fois par seconde, 
on  génère  le  nuage  de  points.  Chaque  impulsion  peut  produire  un,  deux  ou  plus  échos,  d’où  un  nuage 
encore plus dense. 
Pour  rappel,  le  GPS  associé  fonctionne  à  2  ou  5  Hz  et  l’IMU  à  200  ou  400  Hz.  Le  laser  est  donc 
considérablement plus dense que ces deux informations. 
Jusqu’à  peu,  la  technologie  ne  permettait  pas  d’avoir  plusieurs  impulsions  dans  l’air  simultanément.  Cet 
obstacle à une fréquence plus élevée à haute altitude a été levé par la technologie du MPiA (Multiple Pulse 
in the Air). Voir le paragraphe 10.12, p. 90. 

HEIG‐VD, G2C  83 / 141  F. Gervaix, février 2010 


   

10.7. Les échos multiples 
Le phénomène des échos multiples (« multiple returns ») est une propriété très intéressante du LiDAR. 
En  terrain  nu  (sans  sursol),  à  une  impulsion  émise  correspond  le  plus  souvent  exactement  un  écho  reçu 
(taux de retour proche de 100%) 
Dans les zones de végétation, à une impulsion émise peut correspondre plusieurs échos reçus. Le taux de 
retour est plus variable, théoriquement supérieur à 100% (plus d’un écho en moyenne par impulsion), en 
fait il est de l’ordre de 60‐90%, un certain nombre d’impulsions ne remontant jamais jusqu’au récepteur. 
Les échos multiples permettent d’égaliser quelque peu la densité de point en terrain couvert et découvert. 

 
Figure 44: principe des échos multiples (1) 

HEIG‐VD, G2C  84 / 141  F. Gervaix, février 2010 


   
Les conditions requises pour recevoir des échos multiples sont telles qu’ils ne sont pas garantis, comme il 
n’est pas garanti que le premier écho soit au sommet de l’arbre ou que le dernier soit au sol. 
Une des conditions est que le signal traverse le feuillage lors des
trajets aller et retour. 
Une  autre  condition  est  que  le  signal  retour  soit  suffisamment 
fort pour être détecté et suffisamment éloigné des autres échos
pour être discerné. 
Une  valeur  typique  de  divergence  du  laser  est  0.25  mrad,  soit
25 cm à 1000 m. 
Attention :  le  décalage  temporel  entre  deux  échos  est
infinitésimal  (2  m  aller‐retour  =  13  ns),  également  comparé  à  la 
durée d’une  impulsion  (1000 m aller‐retour = 7 μs). Il faut donc 
être  conscient  de  la  technologie  pointue  utilisée,  en  particulier
pour le récepteur d’échos. 
 

 
Figure 45: principe des échos multiples (2) 

 
Figure 46: Vue isométrique d'une maquette réalisée à partir de données LiDAR uniquement (source F. Bonzon, GEO2010). Voir p. 
82 pour plus d’information 

HEIG‐VD, G2C  85 / 141  F. Gervaix, février 2010 


   

10.8. Considérations de résolution 
Un LIDAR génère ~500 ‐ 1000 points par demi‐scan alors qu’une caméra génère ~4000 – 24’000 pixels par 
ligne. Il n’y a donc pas de comparaison possible en termes de résolution. 

 
Figure 47: Comparaison de résolution (~1 m vs 0.25 m) 

Par contre, l’image d’intensité du LiDAR est immédiatement une orthoimage.  
Le LIDAR se combine très bien avec des caméras numériques de moyen format, en particulier en termes de 
largeur de champ et d’altitude d’acquisition. 

10.9. Résumé des caractéristiques principales 
Ce que le LiDAR fait : 
9 Produit des données spatiales à haute densité, haute précision 
9 Peut servir à orthorectifier des images aériennes 
9 Voit la nuit 
9 Révèle des éléments sous les arbres 

Ce que le LiDAR ne fait pas : 
8 Trouve les angles de bâtiments, les arrêtes et autres éléments identifiables sur des photos images 
aériennes 

HEIG‐VD, G2C  86 / 141  F. Gervaix, février 2010 


   
8 Produit des photos haute‐résolution 
8 Voit à travers les nuages 

10.10. Exemples d’applications 
• Études de côtes marines et estuaires 
• Zones inondables (cartographie et simulation) 
• MNT sous végétation (en toutes saisons) 
• Modèles urbains 
• Évaluation de dommages (« rapid response mapping » 
• Hydrologie, érosion 
• « Corridor mapping », cartographie d’éléments linéaires (ligne HT, pipeline, autoroute, …) 
• Activités minières (volumes, déblai/remblai, …) 
•   
•   

 
Figure 48: Exemple de détection d’une ligne à haute tension (« first of many ») 

HEIG‐VD, G2C  87 / 141  F. Gervaix, février 2010 


   

10.11. Exemple d’équipement: Leica ALS50 
L’ALS50 se compose de trois éléments principaux : 
• Ensemble « scanner » : 56 x 37 x 24 cm, 30 kg 
• Caisson (« rack ») de contrôle : 48 x 52 x 64 cm, 64 kg 
• Laptop : pour l’opérateur avec logiciel de contrôle 

 
Figure 49: Leica ALS50 (scanner, laptop et rack, ancien modèle) 

Le scanner prend la place d’une RC30 (plaque d’interface) et permet, en option, le montage d’une caméra 
4kx4k. 
Les composants principaux du scanner sont: 
• Source laser 
• Obturateur / atténuateur 
• Mécanisme d’oscillation 
• Basé sur le principe du galvanomètre: le courant, en traversant la bobine, induit dans celle‐ci un champ 
électromagnétique,  ce  qui  provoque  un  pivotement  par  répulsion  des  champs  magnétiques.  Plus  le 
courant est intense plus la bobine bascule. 
• L’autre  principe  également  très  utilisé  est  le  prisme  rotatif.  Techniquement  plus  simple  (pas  ou  peu 
d'accélérations / décélérations), il est moins souple pour le réglage du FOV. 
• Encodeur pour angle de scan 
• Récepteur d’écho laser 
• IMU 
Le  caisson  de  contrôle  peut  être  éloigné  du  scanner  (utile  sur  hélicoptère).  Les  composants  principaux 
sont : 
• SC – Contrôleur du système 
• POS – Position and Orientation System (IMU + GPS) 

HEIG‐VD, G2C  88 / 141  F. Gervaix, février 2010 


   
• GC – Contrôleur de l’oscillateur 
• DL – Enregistreur des données 
• LC – Contrôleur du laser 
Le laptop permet le contrôle en vol des paramètres d’acquisition: 
• FOV (« fiel of view » ou fauchée): 10° – 75° 
• Scan rate: ajusté afin d’obtenir une distribution « carrée », calculé dans AeroPlan 
• Pulse rate: fonction de la hauteur de vol et du FOV 
• Range gate: fourchette de distances, permet de filtrer les nuages 
• %R: taux de retour (80 ‐ 99% pour le premier écho, 0 à 20% pour le deuxième) 
• Messages d’erreur éventuels des différents composants 

 
Figure 50: GUI durant l'acquisition 

10.11.1 Récepteur d’échos 
Un  élément  très  important  du  système  est  le  récepteur  d’écho.  Celui‐ci  est  prépondérant  dans  les 
situations suivantes : 
• Permet de détecter des petits objets/surfaces à haute altitude 
• Moins de “trous” dans les zone à faible réflectivité (e.g. asphalte) 
• Haute altitude de vol: 
• Plus large couverture pour des tâches à faible densité 
• Vol à altitude constante, même en terrain montagneux 
• Permet le vol dans des conditions difficiles (e.g. voile « haze », fumée, légère humidité) 

HEIG‐VD, G2C  89 / 141  F. Gervaix, février 2010 


   

10.12. Performances 
Les chiffres ci‐dessous sont ceux de l’ALS50 en 2004 (systèmes installés) et en 2007 (infos sur le Web). 
FOV  ou  FoV :  field  of  view,  largeur  de  champ  ou  fauchée,  paramètre  essentiel  (et  souvent  réglable)  d’un 
LiDAR 
 
  2004  2007   
Altitude :   200 – 4,000 m AGL  up to 6 km AGL   
FOV :  10 ‐ 75 degrés  up to 75°   
Scan rate max :  412.33 (FOV°) ‐0.6548  up to 90  Plus le FOV est grand, plus le scan rate 
max est petit 
= 36 Hz @ 40 FOV 
Pas un facteur limitant, car ajusté pour 
= 24 Hz @ 75 FOV  obtenir une distribution « carrée » 
Pulse rate :  22 à 58 kHz  max. 150 kHz  Plus le FOV est grand, plus le pulse rate 
est petit 
Voir remarque ci‐dessous 
Multi‐écho :  3  4 (1st, 2nd, 3rd   
and last) 
Compensation  automatique;  Automatic   
du roulis :  fourchette = 75 – FOV°  adaptive  roll 
compensation 
 
Le « pulse rate » est l’argument principal dans la concurrence entre constructeurs. Il est aussi le plus délicat 
à comparer, car il faut savoir pour quelle hauteur de vol et quelle FOV une valeur est valable. Par exemple, 
les  150  kHz  annoncées  par  Leica  Geosystems  ne  sont  valables  que  pour  une  hauteur  de  vol  inférieure  à 
500 m.  Au‐delà,  les  performances  sont  limitées  par  la  vitesse  de  la  lumière  (eh  oui !).  Par  exemple,  à 
4000 m AGL et 40° FOV, la distance oblique (« slant range ») est de 4257 m. Une impulsion mettra donc 28 
μs à parcourir l’aller‐retour. La fréquence maximum théorique n’est donc plus que de 35 kHz. 
Cette limite a longtemps été une barrière infranchissable. La solution réside dans le MPiA pour « Multiple 
Pulse in the Air » ou « impulsions multiples dans l’air ». Cette nouvelle technologie a été annoncée fin 2006 
est maintenant bien documentée, mais est encore en cours de déploiement  

HEIG‐VD, G2C  90 / 141  F. Gervaix, février 2010 


   

10.13. Précision obtenue 
L’erreur  due  au  GPS  est  à  peu  près  constante 
(pas influencé par l’altitude). 
L’effet  de  l’erreur  de  l’IMU  et  de  l’encodeur 
augmente  de  façon  quasi‐linéaire  avec 
l’altitude  et  avec l’éloignement  de  la  verticale 
(« off‐nadir angle »). 40° de FOV est une valeur 
typique. 
La  planimétrie  (H  pour  horizontal)  est  2  à  3 x 
plus influencé que l’altimétrie (V pour vertical)
(Les sauts sont dus à l’atténuateur du laser) 

Figure 51: Précisons H et V (source: Leica Geosystems) 

10.14. Étalonnage du système 
Une  des  caractéristiques  importantes  du  LiDAR  est  l’absence  de  points  d’appui.  En  effet,  il  n’est  pas 
possible de mesurer un point prédéterminé au sol. Des points de contrôle altimétriques peuvent/doivent 
être  utilisés  pour  contrôler  les  nuages  de  points  (voir  la  procédure  « Control  Report »  de  l’exercice  avec 
TerraScan). 
Le système a donc besoin d’être étalonné très précisément, en particulier les paramètres de désalignement 
(« misalignment ») entre l’encodeur d’ange de scan et l’IMU. 
Pour ce faire, des points de liaison doivent être mesurés. Il s’agit de points d’intensité très contrastée (par 
exemple : limite asphalte – herbe). L’opérateur mesure les (x, y) dans l’espace image (image d’intensité) et 
le  système  détermine  l’altimétrie  en  fonction  du  nuage  de  points.  C’est  cette  procédure  qui  est  utilisée 
dans le logiciel d’étalonnage Attune (to attune : accorder) 
Afin d’être efficace, l’acquisition d’une même zone doit être faite dans deux directions orthogonales, dans 
les deux sens et à deux altitudes de vol bien différentes (total : jusqu’à huit passages au‐dessus de la même 
zone). 

HEIG‐VD, G2C  91 / 141  F. Gervaix, février 2010 


   

 
Figure 52: Interface pour la mesure des points de liaison 

10.15. Logiciels pour le LiDAR 
Le  traitement  des  données  LiDAR  nécessite  des  logiciels  optimisés  pour  cette  tâche.  En  effet,  il  n’est  pas 
rare de traiter plusieurs millions de points simultanément. Les logiciels de DAO ne sont pas adaptés à cette 
tâche. 
Une  suite  de  logiciels  très  performants  est  la  suite  Terra  de  TerraSolid  (Finlande)  (www.terrasolid.fi).  Il 
s’agit d’un paquet de MDL pour MicroStation. Ce n’est pas le seul logiciel de traitement des données LiDAR, 
mais c’est le plus performant et le plus répandu. En particulier, le module TerraScan permet les opérations 
suivantes : 
• Classification automatique et manuelle des points d’un nuage 
• Réduction des nuages de points 

HEIG‐VD, G2C  92 / 141  F. Gervaix, février 2010 


   
• Visualisation 2D et 3D des points 
• Outils  spécifiques  pour  l’aide  à  la  détection  et  modélisation  de  toits,  lignes  à  haute  tension,  lignes  de 
chemin de fer, etc. 
L’efficacité  du  logiciel  TerraScan  réside  dans  sa  capacité  à  digérer  des  nuages  de  plusieurs  dizaines  de 
millions), à travailler avec les vues de dessus et de côté et à proposer des modes d’affichage variés, comme 
illustrés ci‐dessous. 

 
Figure 53: Représentations des données LiDAR dans TerraScan 

TerraScan  est  non  seulement  utilisé  pour  le  traitement  des  données  LiDAR,  mais  est  également  très 
performant pour la manipulation de MNT sous forme de grille (p. ex ArcInfo ASCII Grid) ou de nuages de 
points (x, y, z). Il permet de travailler avec plusieurs couches et permet de faire des profils aisément. 
L’autre module très utilisé est TerraModeler, qui permet les opérations suivantes : 
• Création de TIN et courbes de niveau 
• Import et ajout manuel de lignes de rupture 
• Calcul de déblai et remblai 

HEIG‐VD, G2C  93 / 141  F. Gervaix, février 2010 


   

10.16. Flux des données et des tâches 
Il  existe  une  certaine  similarité  entre  la  préparation,  l’acquisition  et  le  traitement  d’un  chantier  LiDAR  et 
celle  d’un  chantier  photogrammétrique.  Le  principe  GIGO  (« garbage  in,  garbage  out »)  s’applique 
également, alors attention à la planification et l’acquisition ! 

 
Figure 54: Flux de données et des tâches (source: Leica Geosystems) 

10.17. Glossaire des termes LIDAR (en anglais) 
LIDAR  –  acronym  for  LIght  Detection  And  Range,  a  radar‐like  technology  for  measuring  distance  by 
measuring the length of time needed for a pulse of laser radiation to travel from the system to the target 
and back. For topographic LIDAR systems, the target is the ground. 
Point cloud – the fundamental output of a LIDAR system, consisting of lat/lon/el triplets for each point on 
the ground that a laser pulse provided a reflection. 
Point  density  –  a  measure  of  how  tightly  spaced  the  point  cloud  is  on  the  planimetric  view,  typically 
described in terms of points per square meter. Since the pattern of the points varies with scan position, it is 
also  useful  to  refer  to  “across‐track”  and  “along‐track”  spacing  at  various  points  in  the  field  of  view.  The 
“track” is the direction of flight. 
Bare earth  –  a type of  digital  elevation  data  set, or  point  cloud,  where data points falling  on buildings  or 
vegetation have been removed 
Slant  range  ‐  the  distance  between  the  aircraft  and  the  ground.  This  distance  is  greater  than  the  flying 
height above terrain for points not at the nadir position. 
Laser divergence – a measure of the amount the laser “footprint” expands as it leaves the system, typically 
and angle measured in milliradians. Typical LIDAR systems have laser divergences around 0.25 – 2.0 mr. The 

HEIG‐VD, G2C  94 / 141  F. Gervaix, février 2010 


   
footprint, or spot size of a 0.25 mr laser grows by 0.25 meters for every 1000 meters travelled away from 
the system. At 1000 m slant range, the laser footprint would be ~0.25 meters in diameter. 
Galvanometer –an electromechanical device used to rotate the LIDAR scan mirror. The device is similar in 
concept to a DC motor, where a rotational actuation force is generated when a drive current is applied to 
the  windings.  The  direction  of  force  reverses  when  the  drive  current  is  reversed.  Unlike  motors, 
galvanometers do not have brushes, and are thus restricted to a limited rotational excursion 
Attenuator – a coated  optical element used  to reduce  the amount of optical  energy released  by the laser 
system, particularly at low altitude. The amount of attenuation is measured in terms of optical density, or 
OD… a high OD attenuator transmits less laser energy than a low OD attenuator. The transmission is related 
to OD by the following equation: 
transmission = 1/(10OD). 
An OD 2.0 attenuator transmits 1/100 the laser energy hitting it. 
Multiple  targets  –  secondary  return  reflections  from  a  single  outbound  laser  pulse,  typically  from  ground 
below trees or power lines. 
Intensity  mapping  –  measuring  the  strength  of  the  reflected  laser  pulses  to  create  lat/lon/intensity  point 
clouds.  This  feature  yields  an  intensity  image  that  looks  like  a  grainy  photograph,  but  is  the  result  of 
illumination at the laser’s 1064 nm wavelength. 
Pulse rate – the rate at which the laser is fired, typically measured in kHz (kilohertz). A laser firing at 25 kHz 
fires 25,000 times per second. Each firing of the laser results in one or more return reflections that result in 
data points in the point cloud. 
Return  signal  amplitude  –  the  highest  voltage  recorded  at  the  LIDAR  receiver  from  a  given  reflection, 
indicative of the strength of the reflection. 
AGC – initialism for Automatic Gain Control, a circuit that automatically adjusts the sensitivity of the LIDAR 
receiver depending on the strength of a typical reflection. 
Scan rate – the rate at which the scan pattern is repeated, typically measured in Hz. A scanner operating at 
20  Hz  performs  a  left‐to‐right‐and‐back  scan  cycle  20  times  per  second.  Maximum  possible  scan  rate 
decreases with increasing FOV. 
FOV  –  initialism  for  Field  Of  View,  in  this  case  a  measure  of  the  coverage  angle  of  the  LIDAR  scanner.  In 
conventional optical systems, the FOV is determined by the film size and lens focal length. In LIDAR systems, 
the FOV is determined by the scanning device used. Galvanometer scanners can be driven at any FOV up to 
the mechanical limit of the galvanometer. 
Along‐track spacing – distance between successive scans in the flight direction. 
Cross‐track spacing – distance between successive points perpendicular to the flight direction 
Range  gate  –  electronic  circuit  that  sets  the  minimum  slant  range  at  which  the  LIDAR  will  record  the 
distance for a return signal, typically used to reject false range readings due to atmospheric backscatter. 

HEIG‐VD, G2C  95 / 141  F. Gervaix, février 2010 


   

11. Orthomosaïque 
L’orthorectification est l’étape qui suit la génération ou l’importation du MNT. Elle est parfois (de plus en 
plus  souvent)  une  fin  en  soi.  Elle  est  le  plus  souvent  liée,  voire  confondue,  avec  la  confection  de  la 
mosaïque.  C’est  pourquoi  les  deux  aspects  sont  traités  dans  un  chapitre  commun.  L’orthorectification 
classique  est  indépendante  de  l’extraction  vectorielle  3D,  alors  que  la  True  Ortho™  est  absolument 
dépendante de ces informations vectorielles. 
L’orthomosaïque  (orthorectification  +  mosaïquage)  est  devenue  omniprésente  dans  les  SIG  et  est 
maintenant un produit numérique classique, alors que c’était un processus laborieux en photogrammétrie 
analogique  et  analytique.  Des  phénomènes  comme  Google  Earth  ont  démocratisés  l’orthomosaïque  au 
point de la banaliser, mais sa confection reste une science délicate. 
Les thématiques incluses dans l’orthomosaïque sont l’orthorectification, la mosaïque, les lignes de raccord 
(« coutures ») et les ajustements radiométriques 

11.1. Introduction 
11.1.1 Niveaux de rectification 
Une prise de vue (analogique ou numérique) est en projection conique (film, 4kx4k, « frame ») ou cylindro‐
conique  (ADS40,  la  plupart  des  satellites).  Elle  ne  peut  donc  pas  être  superposée  à  une  carte  pour  deux 
raisons : 
• le relief (au sens large) dans l’image : la topographie et le sursol. 
• l’axe de visée n’est jamais parfaitement vertical, respectivement perpendiculaire à la surface terrestre. 
On peut apporter une correction rigoureuse ou approchée : 
• approchée = image redressé ou rectifiée 
• rigoureuse = image orthorectifiée 
Exemple de correction approchée: Microsation > Raster Manager > Déformer 
La précision maximum de cette méthode: 1% (= 10’000 ppm…). Si cette méthode est intéressante pour des 
petites surfaces, pour des étendues de plusieurs km, ce niveau de précision est insuffisant. 

11.1.2 Définition 
L’orthophoto  est  une  photographie  rééchantillonnée  pour  la  rendre  superposable  en  tout  point  à  une 
carte. Elle a donc une orientation constante (en général le Nord en haut), une échelle constante (en général 
exprimée en taille du pixel au sol GSD) et une référence géographique absolue. 
Elle peut être enrichie de surcharges graphiques, par exemple : 
• limites administratives 
• toponymie 
• aide à la lecture: tracés de routes, contours des bâtiments 
Πcf. cours de Cartographie 
Une définition synthétique personnelle est : « l’orthophoto est une image qui a la qualité graphique d’une 
photo aérienne et la qualité géométrique d’une carte ». 
Rappel utile: 
• image géoréférencée = modèle géométrique associé 
• exemple: photo brute et fichiers .sup 

HEIG‐VD, G2C  96 / 141  F. Gervaix, février 2010 


   
• image géocodée = (ortho‐) rectifiée 
• exemple: GeoTIFF ou TIFF et fichier .tfw 

11.2. Procédé 
La bonne nouvelle est que le processus est 100% automatique en photogrammétrie numérique, MAIS... 
La mauvaise nouvelle est que de nombreuses tâches connexes ne sont que semi‐automatiques. 
• MNT (voir chapitre précédent) 
• édition manuelle indispensable et lourde 
• mosaïque (voir ci‐après) 
• radiométrie 
• géométrie des lignes de raccord 
• surcharge graphique (cours de Cartographie) 
• symbologie et généralisation 

11.3. Enjeux 
Les enjeux de l’orthophoto sont énormes. On peut en citer quelques uns : 
• Plus d’usagers de l’information géographique = moins de capacité à lire la carte (proportionnellement) 
• Support de communication 
• Exemple: aménagement du territoire, etc. 
• Automatique = plus de compromis sur la qualité  
• Mise à jour facile 
• Exemple: SIG urbains = seule couche mise à jour systématiquement 

11.3.1 Tendance générale 
Exemple en Suisse: SWISSIMAGE  
http://www.swisstopo.admin.ch/internet/swisstopo/fr/home/products/images/ortho.html  
« La  mosaïque  d'orthophotos  SWISSIMAGE  est  un  assemblage  d'images  aériennes 
numériques en couleurs sur l'ensemble de la Suisse et est mis à jour tous les 3 ans. » 
(source : swisstopo) 
Il  existe  deux  autres  orthomosaïques  à  l’échelle  du  pays :  la  mosaïque  SPOT 
(GSD : 5 m au mieux) et la mosaïque Landsat (GSD : 25 m au mieux), proposée 
par le NPOC.  

Exemple en France: BD‐ORTHO 
http://professionnels.ign.fr/ficheProduitCMS.do?idDoc=5287262  
« Base de données Raster, la BD ORTHO® est devenue le support géographique de nombreuses 
applications dans les domaines de l'aménagement et de l'urbanisme, de l'environnement ou de 
l'agriculture, grâce à sa richesse en informations et à sa qualité géométrique. Elle est également 
présentée comme image géographique du territoire sur de nombreux sites Internet, en particulier 
sur le Géoportail. 
Elle est disponible sur l'ensemble du territoire national une résolution de 50 cm. 
La BD ORTHO® est également disponible à de meilleures résolutions (20, 30 ou 40 cm) sur de nombreux départements. 
La BD ORTHO® est mise à jour tous les cinq ans. » (source : IGN)  

HEIG‐VD, G2C  97 / 141  F. Gervaix, février 2010 


   
11.3.2 SWISSIMAGE: mise à jour 

 
Figure 55 : État de la mise à jour (tel que fin 2009) 

Level 1 et Level 2 
Depuis  l'année  2005,  la  grande  partie  des  prises  de  vue  aériennes  est  effectuée  à  l'aide  d'une  caméra 
numérique  de  type  ADS40.  Cette  nouvelle  caméra  remplace  la  caméra  analogique  de  type  RC30  utilisée 
jusqu'ici. Avec ce changement, le processus de production ainsi que la qualité finale du produit se trouvent 
largement améliorés. Afin de différencier les images issues du processus analogique de celles enregistrées 
avec la caméra numérique, la notion de «level» a été introduite. Ainsi, le Level 1 contient toutes les images 
photographiées  avec  la  caméra  RC30,  alors  que  le  Level  2  regroupe  celles  enregistrées  par  la  caméra 
numérique ADS40. 

HEIG‐VD, G2C  98 / 141  F. Gervaix, février 2010 


   

11.3.3 SWISSIMAGE : système de numérotation 
La mosaïque SWISSIMAGE est découpée en tuiles de taille raisonnable (17500 x 12000 soit 210 Mpixel, 600 
Mo  en  format  TIFF  sans  compression).  Chaque  tuile  couvre  1/16  d’une  carte  nationale  au  1:25'000.  Un 
système de numérotation ingénieux permet d’identifier de manière univoque chaque tuile. 

xxxx_11  xxxx_12 xxxx_21 xxxx_22

xxxx_13  xxxx_14 xxxx_23 xxxx_24

xxxx_31  xxxx_32 xxxx_41 xxxx_42

xxxx_33  xxxx_34 xxxx_43 xxxx_44

Figure 56: système de numérotation par tuile 

11.4. Critères et facteurs de qualité 
Le  processus  d’orthorectification  incluant  des  aspects  géométriques  et  radiométriques,  le  risque 
d’imperfections est double. C’est pourquoi cette question est très importante. 

11.4.1 Critères de qualité 
Les critères de qualité définis par l’ENSG, respectivement l’IGN, sont les suivants : 
• précision de la correspondance dans le système de référence national officiel 
• stabilité de l’échelle de l’image 
• inclusion des objets au‐dessus du sol 
• qualité visuelle du mosaïquage 
• présence de grands bâtiments 

11.4.2 Facteurs de qualité (influence sur la qualité de l’image) 
• Précision du MNT 
• précision de la stéréopréparation, qualité de la restitution altimétrique (si créé) 
• précision des altitudes du MNT (si importé) 
• Paramètres de prise de vues 
• aérotriangulation, y compris les paramètres du capteur 
• Connaissance du système de référence planimétrique et altimétrique 
• altitude usuelle, orthométrique, GPS 
• Qualification, entraînement et soin de l’opérateur 
• dans toutes les phases semi‐automatiques 

HEIG‐VD, G2C  99 / 141  F. Gervaix, février 2010 


   

11.5. Confection des orthophotos numériques 
11.5.1 Séquence des opérations 

 
Figure 57 : Flux des taches pour l'orthomosaïque 

11.5.2 Différence entre projection centrale et orthogonale 
Les ingrédients étant établis lors des étapes précédentes, le calcul des orthoimages (ou orthorectification) 
peut avoir lieu. Il s’agit de passer de la projection centrale (celle des capteurs d’images) à une projection 
orthogonale (celle des cartes et plans). 
En fait, l’orthoimage est établie (étendue et résolution). Ensuite l’altitude de chaque pixel est déterminée 
grâce au MNT. 

 
Figure 58: En projection orthogonale, lien direct entre pixel de l’orthoimage et terrain 

Connaissant  alors  la  position  tridimensionnelle  du  pixel,  il  est  possible  de  remonter  dans  l’espace  image 
grâce au modèle mathématique du capteur qui décrit la projection centrale et aux éléments d’orientation 
de l’image. 

HEIG‐VD, G2C  100 / 141  F. Gervaix, février 2010 


   

 
Figure 59: En projection centrale, pas de lien entre pixel de l’image et terrain 

11.5.3 Problèmes pratiques de production 
Beaucoup d’éléments contradicteurs viennent rendre la production délicate. 
• L’orthophoto est une image numérique artificielle (image « de synthèse ») 
o « Elle  n’est  ni  la  photo  ni  la  carte,  et  le  client  la  veut  tour  à  tour  belle  comme  la  photo  et  précise 
comme la carte » 
• La taille 
o n’est plus (vraiment) une limitation, quoi que… 183 Go pour le canton de Vaud 
• L’interprétation des dévers du sursol 
o cf. Figure 61 : focales large/courte et étroite/longue 
• Étirement des pixels 
o cf. Figure 60 : principe de l'orthophoto 
• Type de paysage 
o certains problèmes sont insolubles Î au mieux, « contourner » le problème 
• Géométrie 
o qui incriminer: le MNT ou la géoréférence des images ? 

HEIG‐VD, G2C  101 / 141  F. Gervaix, février 2010 


   

11.5.4 Fichier World (*.tfw) 
Le  World  file  est  un  méta‐fichier  minuscule,  mais  d’une  grande  utilité.  Il  est  facile  à  manipuler  dans  un 
éditeur de texte et permet de transformer de simple TIFF en GeoTIFF ! 
Il n’est pas réservé aux TIFF, et les logiciels reconnaissent les fichiers *.jgw ou *.pgw 
Son équivalent MapInfo est le fichier *.tab. L’information contenue est la même, mais le format est assez 
différent. Il est toujours de savoir passer de l’un à l’autre... 
Le fichier World permet également de géoréférencer des orthoimages avec rotation, cas plus rare. 

HEIG‐VD, G2C  102 / 141  F. Gervaix, février 2010 


   

11.6. Principe et production de l’orthophotographie 
Ceci  est  une  retranscription  de  l’audition  de  sélection  du  27  mai  2005  pour  le  poste  de  prof  en 
photogrammétrie et imagerie géomatique. Elle constitue un bon résumé de la problématique. 

11.6.1 Caractéristiques essentielles 
• Image 
9 Plaisant à l’œil, « joli », accessible et facilement interprétable. 
8 Image raster (gros fichier difficile à stocker et manipuler). 
• Projection orthogonale 
9 « Sans projection ». Modèle du capteur pas nécessaire. 
8 Pas de vision stéréoscopique. 
• Fidélité géométrique 
9 Angles et distances conservés. 
8 Contraintes pour la création (acquisition, traitement). 

11.6.2 Terrain jamais plat, caméra jamais verticale ! 
Conséquence : 1 pixel de l’ortho ≠ 1 pixel de la photo orientée. 
Pour chaque pixel de l’orthophoto, on cherche la correspondance dans le terrain (espace objet) à l’aide du 
MNT, puis dans la photo orientée (espace image) grâce au modèle mathématique du capteur. 

 
Figure 60 : principe de l'orthophoto 

HEIG‐VD, G2C  103 / 141  F. Gervaix, février 2010 


   
11.6.3 Focales et zones masquées 
En fonction de la focale utilisée, le dévers (cf. Première partie, § 3.9) sera plus ou moins important. Pour la 
production d’orthophoto, ces dévers conduisent à des zones masquées. C’est le cas régulièrement avec les 
bâtiments (d’où l’intérêt de la True Ortho™ (ou ortho intégrale), § 11.7). C’est parfois également le cas avec 
le  terrain,  ce  qui  est  bien  plus  fâcheux.  Dans  tous  les  cas,  une  vue  rasante  du  terrain  est  à  éviter,  car  le 
contenu des pixels (et non pas le pixel...) est déformé et rend l’orthophoto inesthétique. 
Pour  cette  raison,  on  utilisera  le  plus  souvent  une  focale  étroite  (longue)  pour  des  chantiers 
photogrammétriques  en  vue  d’une  orthomosaïque  en  milieu  urbain.  En  volant  plus  haut,  on  obtient  la 
même surface couverte qu’avec un grand‐angulaire, mais avec des zones masquées moindres. 

 
Figure 61 : focales large/courte et étroite/longue 

HEIG‐VD, G2C  104 / 141  F. Gervaix, février 2010 


   

11.6.4 Complexité de l’orthophoto intégrale 
L’orthophoto intégrale est la réponse à ce problème de dévers et de zones masquées. Malheureusement, 
sa  confection  est  très  complexe  et  génère  des  contraintes  sur  le  plan  de  vol  et  sur  le  traitement  des 
données. 
Schématiquement, il est nécessaire d’avoir une vue « tous azimuts » des objets et un modèle numérique de 
surface (raster, mais idéalement vectoriel). 

 
Figure 62 : principe de la True Ortho (source : Infoterra ‐ ISTAR) 

Figure 63 : 
 
exemple de 
TrueOrtho 

Important : Un 
peu d’ombre 
permet d’estimer 
intuitivement la 
hauteur des 
bâtiments 

HEIG‐VD, G2C  105 / 141  F. Gervaix, février 2010 


   

11.7. True Ortho™ (ou ortho intégrale) 
Limitations des orthophotos classiques 
Les  extensions  du  terrain,  tels  que  les  ponts,  créent  des  problèmes  dans  les  orthophotos  classiques.  Les 
MNT modélisent le sol, alors les ponts sont « tirés » vers le sol, leur donnant une apparence distordue. Les 
éléments élevés comme les bâtiments, les arbres, les pylônes) créent également des problèmes à cause du 
déplacement  radial.  La  distorsion  augmente  avec  l’éloignement  des  objets  du  centre  l’image ;  ainsi,  les 
bâtiments donnent l’impression de pencher. Le dévers de l’objet dépend de la focale utilisée pour la prise 
de  vue,  du  recouvrement  entre  images  et  de  la  hauteur  de  l’objet.  Une  focale  de  303 mm  et  un 
recouvrement  de  80%  réduisent  grandement  l’effet  de  déversement  des  bâtiments.  Les  distorsions 
dégradent l’orthophoto d’un point de vue esthétique et fonctionnel. 

Images « True Ortho » 
The True Ortho method, developed by Sanborn Colorado, L.L.C., produces imagery that is rectified without 
building lean. Surrounding streets and other cultural features, ordinarily not visible in standard orthophotos, 
are clearly shown. This innovative process, using sophisticated production software and procedures, is called 
Method  for  the  Elimination  of  Terrain  and  Relief  Displacement  in  Orthophotography  (METRO).  With  this 
method, more cadastral information can be captured from digital orthophoto imagery. 
The METRO system uses stereometrically derived DTMs to fully rectify aerial images. DTMs are processed 
into triangulated irregular networks (TINs) to provide a more accurate representation of the terrain surface. 
This  method  reduces  errors  caused  by  interpolation  from  a  regular  grid  of  masspoints.  TINs  eliminate  the 
waviness  around  sharp  terrain  breaks  such  as  steep  embankments,  road  edges,  railway  grades,  and 
hydrographic features. 
This process straightens bridges and buildings in images. It requires the collection of DTM data for bridges 
and buildings as well as for the ground below these features. Bridges and buildings are captured as separate 
polygons  with  true  elevations,  while  the  ground  below  each  is  also  modeled.  When  the  scanned  image  is 
rectified, both the bridge and the ground below will be accurately represented. 
The most impressive and useful component of the METRO process is its ability to make buildings "stand up 
straight" so that all the information can be captured by the digital orthophoto. It involves collecting detailed 
data  describing  the  tops  of  buildings.  Compilers  must  photogrammetrically  capture  and  model  every 
building  at  roof  level  and  every  feature  that  rises  more  than  10  feet  from  a  rooftop  (e.g.,  vents,  elevator 
shafts, turrets, slopes, and other changes in elevation). The highest point of  each  enclosed feature is also 
captured. 
Compilers must also capture any outstanding features at ground level such as stairwells or courtyards that 
are  part  of  the  building.  This  data  also  includes  the  standard  ground  DTM  capture.  This  raw,  yet  highly 
detailed,  data  can  be  used  by  ArcView  3.x  with  the  ArcView  3D  Analyst  extension  to  provide  a  three‐
dimensional view that can be scaled, rotated, and expanded and that is useful for city planning, developing, 
and marketing. 
Once compilation of the planimetric features is complete, the digital orthophoto technician edits the DTM 
data. The technician builds two offset polygons from the original building polygon. The inner polygon will 
have  the  elevation  of  the  rooftop  taken  from  the  captured  roof  spot.  The  outer  polygon  will  have  the 
elevation  of  the  ground  taken  from  the  captured  building.  After  building  the  offset  polygons,  the  original 
polygon is discarded. 
This  data  is  used  to  automatically  place  building‐top  imagery  directly  over  the  footprint  of  the  building. 
Corresponding pieces of images available from the increased overlap are used to fill the imagery holes left 
after the building lean is corrected. When aerial photography is created, the amount of overlap and sidelap 
of the flight lines is very important. Ideally, the project area should be flown with an 80 percent overlap and 
60  percent  sidelap.  A  decrease  in  either  of  these  values  will  eliminate  the  imagery  that  is  inserted  to 

HEIG‐VD, G2C  106 / 141  F. Gervaix, février 2010 


   
compensate for the distortion of buildings in the original image. The result will be a blank area where the 
camera could not see the ground. 
Source :  « Stand  Up  Straight—Ortho  Perspective  on  Downtown  Denver »  de  Lisa  Haskell  et  Rob  O'Donnell,  Sanborn 
Colorado, L.L.C. 

 
Figure 64 : Exemple de ponts "tirés" vers le sol (source : LH Systems) 

 
Figure 65 : exemple de TrueOrtho dan Socet Set 

HEIG‐VD, G2C  107 / 141  F. Gervaix, février 2010 


   

11.8. Lignes de raccord 
Les lignes de raccord entre images se recouvrant ont plusieurs noms synonymes : 
• « coutures » 
• seamlines   
• cutlines   

11.8.1 Zone de superposition de deux (ou plus) orthoimages 
Chaque point au sol a deux (ou plus) représentations Î choix 
La  ligne  de  raccord  sert  donc  à  décider  quelle  image  sera  prise  en  considération.  Ces  lignes  de  raccord 
forment en général des polygones délimitant la « zone d’influence » de chaque image. 

11.8.2 But: frontière invisible ou presque 
Critère: différence entre les valeurs des pixels à droite et à gauche de la ligne de raccord. C’est une solution, 
en général difficile à réaliser, surtout si la radiométrie des deux images est très différente. L’autre solution 
étant de profiter des différences existant déjà dans les images, par exemple entre un champ en culture et 
en champ labouré. 

11.8.3 Approche très différente selon le milieu 
• urbain: géométrique (unité par quartier) ; dans ce cas, la préoccupation est de maintenir une unité 
de dévers entre des bâtiments voisins. La situation la pire serait évidemment un bâtiment traversé 
par une ligne de raccord… 
• rural:  radiométrique  (unité  par  champ) ;  dans  ce  cas,  on  s’appuie  sur  les  différences  existant  dans  le 
paysage et donc dans les images originales. C’est en général assez facile si on dispose de suffisamment 
de recouvrement pour bien « détourer » les champs. 

11.8.4 Exemple pratique 
Il  s’agit  de  raccorder  trois  « tapis  de  pixels »  ADS40  volés  d’est  en  ouest  afin  de  confectionner  une  tuile 
d’orthomosaïque. La question des raccords ne se pose que transversalement (au nord et au sud), les images 
étant  continues  dans  le  sens  longitudinal.  Le  recouvrement  latéral  nominal  est  de  45%,  la  zone  de 
recouvrement est donc confortable pour poser une ligne de raccord avec beaucoup de liberté. 
Dans la Figure 66, on reconnait les zones de superposition en couleurs pleines (2 x 40%), les zones de non‐
superposition voilées (5% en haut, 10% au milieu, 5% en bas) et les lignes de raccord manuelles en rouge. 
Total 110%, car la hauteur de la tuile considérée est plus grande que la largeur d’une image originale ! 
Dans la Figure 67, on peut voir la situation pour la mosaïque. L’image 1 forme la base, les images 2 et 3 la 
compléteront. 

HEIG‐VD, G2C  108 / 141  F. Gervaix, février 2010 


   

.  
Figure 66: Images superposées et lignes de raccord 

 
Figure 67: Situation pour la mosaïque 

HEIG‐VD, G2C  109 / 141  F. Gervaix, février 2010 


   

11.9. Égalisation radiométrique 
11.9.1 Différences radiométriques entre clichés 
• importantes = gênantes 
Si les différences dans les images originales sont importantes, la meilleure ligne de raccord ne permettra 
pas de masquer les transitions. L’adage « rubbish in, rubbish out » est tout à fait approprié. Une situation 
classique est le cas des lacs : il est pratiquement impossible d’obtenir une radiométrie uniforme entre deux 
clichés et encore moins entre deux lignes de vol. 

11.9.2 Causes 
• mouvement  du  soleil ;  ceci  est  particulièrement  vrai  entre  deux  lignes  de  vol  (plusieurs  minutes  ou 
heures, voire jours entre deux lignes voisines) 
• bords opposés de l’image (nord ≠ sud) ; ceci conduit à privilégier des vols sud – nord afin de mitiger les 
différences  et  d’utiliser  au  mieux  le  recouvrement  longitudinal,  en  principe  plus  important  que  le 
recouvrement latéral. 
• réglage du scanner ; c’est vrai pour l’argentique numérisé, mais ça reste valable pour le numérique, une 
matrice de CCD n’étant jamais parfaitement homogène et la calibration pas toujours à jour. 

11.9.3 Remèdes 
Le mot de la fin, pour se rassurer : 
« Le  problème  de  la  modélisation  des  différences  est  très  complexe,  voire  impossible.  Les  méthodes 
utilisées  sont  donc  généralement  empiriques.  Elles  possèdent  des  paramètres  qui  doivent  être  réglés 
manuellement et demandent une certaine expérience. » (ENSG – IGN) 

HEIG‐VD, G2C  110 / 141  F. Gervaix, février 2010 


   

12. Restitution vectorielle (3D) 

12.1. Définitions 
L’«  extraction  d’objets »  (Feature  Extraction  ,  Feature  Collection  )  est  utilisée  pour  créer  et 
modifier des éléments vectoriels tri‐dimensionnels représentés dans les images raster. 
Ces éléments peuvent être des points, des polylignes ou des polygones. 
On parle aussi de digitalisation ou, plus classiquement, de restitution. 
En raccourci, c’est de la DAO 3D sur la base d’images géoréférencées. 

12.2. Éléments de base 
12.2.1 Quelques faits singuliers 
• L’extraction vectorielle est l’activité la plus ancienne et la plus simple de la photogrammétrie 
o suivi de courbes de niveau sur restituteur 
o photo‐interprétation sur photo papier 
• L’apport du numérique est faible 
o procédure essentiellement manuelle 
o la 3D ne date pas du numérique 
o enrichissement au niveau des attributs 
• L’aspect le plus visible de la photogrammétrie 
o réalité virtuelle 3D/ augmentée 3D 
o bases de données, SIG vectoriels 
o portabilité du vectoriel vs. raster  

HEIG‐VD, G2C  111 / 141  F. Gervaix, février 2010 


   

 
Figure 68: Principe de base, 2D + 2D = 3D 

12.2.2 Éléments vectoriels 
• Points: 
o arbres, lampadaires, hydrantes, PFP (matérialisés), antennes, … ; texte 
• Polylignes: 
o routes (axe et bords), limites de couverture du sol, rivières, lignes HT, … 
• Polygones: 
o bâtiments (somme de polygones ≈ faces), lacs, … 
Tous ces éléments sont déterminés en 3D en une seule opération 

12.2.3 Quelques particularités 
• Importance du MNT 
o Détermine l’altitude de nombreux points ; on peut estimer que 90% des points sont « au sol » 
o Pieds de bâtiments ; doivent se trouver au sol, sinon c’est une faute 
o Rivières, routes (pas toujours!), objets divers 
Un MNT de qualité (détaillé, actuel) est indispensable avant de commencer une restitution vectorielle. 
 

HEIG‐VD, G2C  112 / 141  F. Gervaix, février 2010 


   

Figure 69: Rappel du principe de la mesure de Z en  fonction de la parallaxe x 

 
• Extension: base de données ‐> SIG 
o Propriétés d’affichage: couleur, symbole, … 
o Topologie (3D!) (volume fermé) 
o Attributs numériques ou textuels; acquisition simultanée 
Comme  tout  ou  partie  du  travail  de  restitution  est  semi‐automatique,  il  est  intéressant  d’utiliser 
l’intelligence de l’opérateur pour les tâches sémantiques plutôt que géométriques. 
 et   créent  une  base  de  données,  pas  seulement  un  fichier  DXF.  Mais  le  format  d’échange  en  val 
est, malheureusement, le DXF (plus petit dénominateur commun). 
Le  module  Stereo  Analyst  de  Leica  Geosystems  fait  partie  de  la  suite  LPS.  Il  existe  un  module 
supplémentaire  appelé  «  Stereo  Analyst  for  ArcGIS  »  qui,  comme  son  nom  l’indique,  permet  la 
restitution stéréoscopique dans ArcGIS. Ainsi la compatibilité en aval est garantie car les données sont 
directement enregistrées dans ArcGIS. 

12.2.4 Exemples d’applications 
• Bâtiments et autres polyèdres pour des scènes 3D plus réalistes. 
• Import/export de fichiers vectoriels (genre DXF) depuis/vers des logiciels de DAO 
• Fusionner des fichiers d’éléments géomorphologiques comme les fonds de fossé et les lignes de crête 
pour enrichir un MNT 
• Utiliser le MNT pour « tri‐dimensionnaliser » un fichier de vecteurs 2D 
• Habiller une orthophoto pour impression sur papier  

12.2.5 Fonctions de « mensuration » 
Comme  n’importe  quelle  DAO,  les  modules  de  restitution  vectorielle  disposent  des  fonctions  habituelles 
telle que : 
• Mesure de distance 3D (distance oblique, horizontale, verticale, azimut, pente) 
• Mesure de surface et de volume 
• Mesure de coordonnées 3D 
Des fonctions supplémentaires sont souvent incluses ou développées en fonction des besoins, comme des 
canevas de toits (deux pans, quatre pans, chiens assis, …). 

HEIG‐VD, G2C  113 / 141  F. Gervaix, février 2010 


   

12.3. Matériel nécessaire 
12.3.1 Extraction stéréoscopique 
• dispositif de visualisation stéréoscopique (voir ci‐dessous) 
• deux images géoréférencées se superposant 
• (un MNT) 

 
Figure 70: Dispositif de visualisation stéréoscopique 

12.3.2 Extraction monoscopique 
• pas de dispositif spécial 
• une image géocodée (orthophoto) 
• un MNT (impératif) 
• un MNS et/ou un MNH ou des informations de hauteur 

HEIG‐VD, G2C  114 / 141  F. Gervaix, février 2010 


   

 
Figure 71: extrait du "20 Minutes" du 13.10.09 (http://3d.panasonic.net) 

HEIG‐VD, G2C  115 / 141  F. Gervaix, février 2010 


   
 

12.4. Modélisation 
La  modélisation  du  paysage  s’effectue  à  partir  de  données  géographiques  décrivant  l'altimétrie  d'un 
territoire et d'orthophotos décrivant sa texture. Différentes couches de données sont ensuite ajoutées dans 
un référentiel géographique commun.  
Des  objets  3D  géoréférencés  dans  une  maquette  3D  ajoute  du  réalisme  et  augmente  la  réalité  virtuelle. 
Selon  l’application  ou  le  contexte  de  la  maquette  et  l’échelle  de  visualisation,  les  objets  doivent  être 
modélisés avec plus ou moins de détails. On parle aussi de LOD (level of detail ou niveau de détail) ou NDR 
(niveau  de  représentation).  Une  des  récentes  normes  en  matière  de  modèles  urbains  3D  (CityGML) 
comprend cinq LODs. En voici un aperçu des cinq niveaux de LOD pour illustration : 
 
LOD 0  Modèle  Modèle  numérique  de  terrain 
régional  permettant de montrer l’ensemble 
d’un paysage. 

 
LOD 1  Modèle  Modèle  avec  les  bâtiments  sous 
urbain  forme  de  blocs  sans  structures  de 
toit,  donnant  ainsi  une  idée  de  la 
hauteur  des  bâtiments,  hauteur 
réelle. 
 
LOD 2  Modèle  Modèle  semblable  au  précédent 
urbain  mais  avec  les  toitures  réelles 
(forme,  hauteur  et  orientation)  et 
les surfaces texturées. 

 
LOD 3  Modèle  Modèle  semblable  au  précédent 
urbain  mais  plus  détaillé  d’un  point  de 
vue architectural. 

LOD 4  Modèle  Modèle  architectural 


intérieur  « parcourable »  avec  des 
informations  sur  l’intérieur  des 
bâtiments. 
     
Figure 72 : Niveaux de détails selon norme CityGML 

 
 
 
 
 

HEIG‐VD, G2C  116 / 141  F. Gervaix, février 2010 


   
Comme  exemple  particulier  et  très  actuel,  on  peut  mentionner  l’exemple  de  « Bâti  3D »,  composant  du 
« Socle 3D » du Canton de Genève. Le niveau de détail est un peu hybride, avec toitures et infrastructures, 
mais sans texture. 
 
LOD 1b  Modèle  Modèle  à  mi‐chemin  entre  LOD  1 
urbain  et le LOD 2. Il est sans texture (LOD 
1),  mais  avec  les  toitures  réelles 
(LOD  2),  y  compris  les 
superstructures  >  1  m2.  Les  es 
éléments  sont  répartis  en  cinq 
couches (base, façades principales, 
toits  principaux,  façades  des 
superstructures,  toits  des 
superstructures), avec des couleurs 
génériques.   

En  ce  qui  concerne  la  végétation  et  en  particulier  les  arbres,  la  modélisation  s’avère  très  complexe  et 
couteuse. Le recours à des outils très spécialisés est indispensable. 

 
Figure 73: Exemple de LOD 2 (source : J. Comte, GEO2009) 

HEIG‐VD, G2C  117 / 141  F. Gervaix, février 2010 


   

13. Télédétection 
Dans son acception la plus large, la télédétection désigne la mesure ou l'acquisition d'informations sur un 
objet ou un phénomène, par l'intermédiaire d'un instrument de mesure n'ayant pas de contact avec l'objet 
étudié. 
C'est  l'utilisation  à  distance  (par  exemple,  d'un  avion,  d'un  engin  spatial,  d'un  satellite  ou  encore  d'un 
bateau) de n'importe quel type d'instrument permettant l'acquisition d'informations sur l'environnement. 
On fait souvent appel à des instruments tels qu'appareils photographiques, laser, radar, sonar, sismographe 
ou gravimètre. La télédétection moderne intègre normalement des traitements numériques mais peut tout 
aussi bien utiliser des méthodes non numériques. 
La  télédétection  spatiale,  dans  le  domaine  de  l'astronautique,  est  l'ensemble  des  connaissances  et  des 
techniques  utilisées  pour  déterminer  les  caractéristiques  de  la  surface  et  de  l'atmosphère  de  la  Terre  ou 
d'une autre planète, par des mesures effectuées à partir d'un engin spatial évoluant à distance convenable 
de cette dernière. Le terme correspondant en anglais est remote sensing from space. 
Ce  type  de  méthode  d'acquisition  utilise  normalement  la  mesure  des  rayonnements  électromagnétiques 
émis  ou  réfléchis  des  objets  étudiés  dans  un  certain  domaine  de  fréquence  (infrarouge,  visible,  micro‐
ondes).  Ceci  est  rendu  possible  par  le  fait  que  les  objets  étudiés  (plantes,  maisons,  surfaces  d'eau  ou 
masses d'air) émettent ou réfléchissent du rayonnement à différentes longueurs d'onde et intensités selon 
leur état. Certains instruments de télédétection utilisent des ondes sonores de façon similaire, et d'autres 
mesurent des variations dans des champs magnétiques ou gravitaires. 
Alors que l'astronomie pourrait être considérée comme de la télédétection (poussée à l'extrême), le terme 
télédétection est généralement réservé aux observations terrestres. 
Les exemples de télédétection sont très nombreux : 
• Les  cartes  topographiques  sont  souvent  produites  à  l'aide  de  paires  stéréographiques  de  photos 
aériennes permettant de recréer une image en trois dimensions. 
• Les  cartes  thématiques  sont  produites  à  partir  d’images  prises  à  de  multiple  longueurs  d’onde  de 
radiation électromagnétique (multispectral) habituellement obtenues par des satellites d’observation de 
la Terre (« earth observation satellites »), par exemple le programme Landsat et le satellite IKONOS. Les 
cartes de couverture et d’utilisation du sol sont utilisées pour la prospection minière, la quantification 
de l’utilisation du sol ou évaluer la santé de la végétation, par exemple des cultures ou des forêts. 
• Les  modèles  numériques  de  terrain  peuvent  être  produits  par  interférométrie  (à  l'aide  du  radar  à 
ouverture  synthétique  (Synthetic  aperture  radar  SAR),  méthode  consistant  à  enregistrer  une  série  de 
mesures  de  la  cible  à  partir  d'un  avion,  d'un  satellite  ou  d'une  navette  spatiale.  La  combinaison  des 
données issues de ces mesures offre une carte détaillée contenant de l'information sur la couverture du 
sol, le relief ou encore le mouvement à une échelle centimétrique. Les données couvrent généralement 
des bandes de plusieurs kilomètres de largeur. 

13.1. Photogrammétrie et télédétection 
Quelques mises au point... 
La photogrammétrie est l’approche géométrique (forme) de l’imagerie; la télédétection est l’approche 
radiométrique (nature) 
La télédétection ne fait pas partie de la photogrammétrie, mais bien la photogrammétrie qui fait partie 
de la télédétection! 
La photogrammétrie est un outil de la télédétection 
La télédétection couvre un domaine plus large que la photogrammétrie 

HEIG‐VD, G2C  118 / 141  F. Gervaix, février 2010 


   
La télédétection est associée (de façon réductrice) aux satellites 

13.2. Éléments de base 
13.2.1 Images satellitaires vs autres sources 
Argumentation « marketing » 
9 100% numérique 
9 disponibilité quasi‐immédiate 
9 riche en détails géométriques (pas sûr…) et radiométriques (certainement !) 
9 prête pour l’interprétation, déjà géocodées 
9 concurrence 
8 dépendance du fournisseur (encore peu de fournisseurs) 
8 résolution géométrique limitée (en particulier en multi‐spectral) 
8 dépendance des conditions météo (plus marquée qu’en aérien) 
8 stéréoscopie pas toujours idéale 
8 prix 

Avantages indiscutables 
• Grandes surfaces à petite échelle 
• Zones très éloignées 
• Investissement initial raisonnable 
• Compatibilité avec les SIG 
• Archives déjà existantes 
• Requiert peu de connaissances initiales 

13.2.2 Caractéristiques fondamentales 
Rappels à propos de la notion de résolutions 

Résolution spatiale 
• Taille de la zone couverte par un pixel 
• GSD (Ground Sampling Distance) ou « taille d’échantillonnage au sol » 

Résolution spectrale 
• aptitude du capteur à distinguer des rayonnements électromagnétiques de fréquences différentes 
• plus les intervalles de longueur d’onde sont étroits, plus la résolution spectrale est élevée 
• dépend du dispositif de filtrage optique qui décompose l’énergie captée en bandes spectrales plus ou 
moins larges 
Panchromatique 
• meilleure résolution spatiale 

HEIG‐VD, G2C  119 / 141  F. Gervaix, février 2010 


   
• utile pour extraire des informations géométriques 
• pas utile pour de l’interprétation spectrale 
Multispectrale 
• 3 à 8 bandes spectrales 
• résolution spatiale réduite d’autant 
• En général: 0.50μm à 0.9μm (B à proche‐IR) 
• Thematic Mapper: 0.45μm à 12.5μm (B à IR thermique) 
Hyperspectrale 
• >100 bandes spectrales hyper‐étroites (qq nm), contiguës 
• résolution spatiale faible 
• courbe de réflectance (permet de déterminer la nature du sol) 

13.2.3 Domaines d’applications 

 
Figure 74 : Domaines d'application et résolutions 

HEIG‐VD, G2C  120 / 141  F. Gervaix, février 2010 


   

13.3. Synthèse fauchée / résolution 

 
Figure 75 : Synthèse fauchée / résolution (source: Spotimage) 

13.4. Analyse des données de la TD 
13.4.1 Indice de végétation NDVI 
Il s’agit d’un index parmi des centaines, qui est simple et utile. Le nom est une définition en‐soi :  
Normalised Difference Vegetation Index ou Indice de végétation différentiel normalisé. 

PIR − R
NDVI =  
PIR + R
Utilise la particularité de la végétation 
• creux dans le rouge (absorbé par la photosynthèse) 
• pic dans l’infrarouge 
Ö différentiel 
Le dénominateur atténue l’éclairement différentiel Ö normalisé 
Sert à évaluer l’importance de la biomasse végétale et l’intensité de la photosynthèse 
En théorie, peut varier entre ‐1 et +1 
En pratique, varie entre ‐0.5 et 0.8 
Valeurs typiques : 0Æ 0.2 faible activité ; 0.2Æ 0.4 activité moyenne ; > 0.4 forte activité 

HEIG‐VD, G2C  121 / 141  F. Gervaix, février 2010 


   

13.5. Satellites 
Un satellite, en astronomie, est un objet naturel ou artificiel qui se déplace en orbite autour d'un autre. 

Satellites naturels 
Un satellite naturel est un corps d'origine naturelle accomplissant sa révolution autour d'un astre principal 
(planète ou étoile) auquel il est lié par la gravitation et qu'il accompagne en même temps dans sa propre 
révolution. 
Par exemple, la Lune est le satellite naturel de la Terre. Saturne et Jupiter en possèdent de nombreux. 

Satellites artificiels 
Un satellite artificiel est un objet issu de l'activité humaine et mis en orbite par l'Homme. Il s'agit d'un engin 
spatial lancé dans l'espace à une vitesse suffisante pour décrire une révolution autour de la Terre ou d'une 
autre  planète,  et  destiné  à  transporter  des  cosmonautes  ou  à  apporter  des  informations  sur 
l'environnement de la planète considérée (photographiques ou données diverses) à des fins scientifiques, 
militaires ou de télécommunications. 
De façon abrégée, le terme satellite désigne tout objet fabriqué par l'homme qui est destiné à devenir un 
satellite artificiel. 
Le premier satellite artificiel Spoutnik I fut lancé par les soviétiques en 1957. Depuis cette époque, plus de 5 
000 satellites artificiels ont été mis en orbite, ce qui engendre une pollution spatiale. 
De  nombreux  satellites  artificiels  tournent  actuellement  autour  de  la  Terre,  mais  aussi  autour  d'autres 
planètes du système solaire. 

13.5.1 Classement des satellites en fonction de leur orbite 
Orbite basse ou LEO (low Earth orbit), à défilement1 
Une LEO est une orbite autour de la Terre entre l’atmosphère et la ceinture de radiations de Van Allen avec 
un  angle  d’inclinaison  faible.  Ces  limites  ne  sont  pas  précisément  définies,  mais  sont  typiquement  aux 
environs de 200 km à 1200 km au dessus de la surface de la Terre. C’est en dessous de l’orbite circulaire 
intermédiaire (ICO) et bien en dessous de l’orbite géostationnaires. Les orbites en dessous de LEO ne sont 
pas  stables  et  se  dégradent  rapidement  à  cause  du  frottement  de  l’atmosphère.  Les  orbites  plus  élevées 
que LEO sont sujettes à des casses électroniques à cause des radiations intenses et de l’accumulation de 
charges. Les orbites avec une inclinaison plus élevées sont appelées orbites polaires. 
La plupart des vols habités sont en LEO, y compris  toutes les missions du la navette spatiales américaine 
Space Shuttle, avec l’exception notable du projet Apollo vers la Lune, qui a été au‐delà de LEO. 
La  plupart  des  satellites  artificiels  sont  en  LEO,  où  ils  voyagent  à  27'400  km/h  (8  km/s),  faisant  une 
révolution  en  90  minutes.  L’exception  principale  est  les  satellites  de  communication  qui  nécessitent  une 
orbite géostationnaire. Cependant, il est plus facile de placer un satellite en LEO et la puissance nécessaire 
pour  la  transmission  de  données  est  plus  faible,  c’est  pourquoi  LEO  est  encore  utilisé  pour  beaucoup 
d’applications de télécommunication.  Comme  ces  orbites ne sont pas  géostationnaires,  une constellation 
(ou réseau) de satellites est nécessaire pour garantir une couverture continue. Les orbites bases sont aussi 
intéressantes  pour  les  satellites  de  télédétection  car  le  niveau  de  détail  obtenu  est  plus  élevé.  Il  y  a  un 

                                                            
 
1
 Satellites les plus bas 

HEIG‐VD, G2C  122 / 141  F. Gervaix, février 2010 


   
grand intérêt pour les LEO héliosynchrones à une altitude d’environ 800 km avec une inclinaison polaire. 
ENVISAT utilise ce type d’orbite. 
La gravité n’est pas beaucoup moindre que sur la surface de la Terre (elle diminue de 1% par 30 km), mais 
les personnes et objets sont en apesanteur (équilibre entre la gravité et la force centripète). 

Géosynchrones GSO 
L'orbite géosynchrone est une orbite située à 36 000 km d'altitude au‐dessus de la Terre. La caractéristique 
de l'orbite  géosynchrone  est qu'un  corps se  trouvant sur  cette orbite possède une  période de révolution 
très exactement égale à la période de rotation de la Terre, et paraît décrire un analemme1. 

Géostationnaires GEO 
L'orbite géostationnaire, parfois appelée orbite de Clarke, est une orbite située à 35 786 km d'altitude au‐
dessus de l'équateur de la Terre, dans le plan équatorial et d'une excentricité nulle. C'est un cas particulier 
de  l'orbite  géosynchrone.  Sa  caractéristique  est  qu'un  corps  se  trouvant  sur  cette  orbite  possède  une 
période de révolution très exactement égale à la période de rotation de la Terre (c'est la caractéristique de 
l'orbite géosynchrone) et paraît immobile par rapport à un point de référence à la surface de la Terre. Cette 
caractéristique  est  particulièrement  importante  pour  les  satellites  de  télécommunications  ou  bien  de 
diffusion  de  télévision.  L’expression  courante  « satellite  géostationnaire  au‐dessus  de  l'Europe »  (ou  des 
États‐Unis)  est  donc  erronée.  La  plupart  des  corps  célestes  possèdent  une  orbite  présentant  une  telle 
caractéristique. 

Héliosynchrones (télédétection) 
Une  orbite  héliosynchrone  est  une  orbite  géocentrique  qui  combine  altitude  et  inclinaison  de  façon  à  ce 
que  l'objet  passe  au‐dessus  d'un  point  donné  de  la  surface  terrestre  à  la  même  heure  solaire  locale  à 
chaque fois. 
Une description plus détaillée est donnée en page 128. 

Polaire 
Un satellite en orbite polaire passe au‐dessus ou presque au‐dessus des deux pôles de la planète (ou d’un 
autre corps céleste) à chaque révolution. Il a donc uns inclinaison de (exactement ou à peu près) 90° par 
rapport à l’équateur. Comme le satellite a un plan orbital fixe perpendiculaire à la rotation de la planète, il 
passe  au‐dessus  d’une  région  avec  une  longitude  différente  pour  chacune  de  ses  orbites.  Les  orbites 
polaires  sont  souvent  utilisées  pour  l’observation  et  la  cartographie  de  la  Terre,  les  satellites  de 
reconnaissance  et  certains  satellites  météo.  Les  satellites  pour  l’observation  des  pôles  (plus  exactement, 
d’un  pôle)  ont  une  grande  excentricité  avec  l’apogée  au‐dessus  le  pôle  considéré  (long  passage,  mais 
grande distance). 

13.5.2 Domaines d'utilisation des satellites 
La séquence est tirée d’une information générale sur les satellites. Il est intéressant de constater que les satellites de 
télédétection  sont  en  deuxième  position,  après  les  satellites  de  télécommunications,  mais  avant  les  satellites  de 
positionnement GPS ! 

                                                            
 
1
 Analemme :  figure  en  « 8 »  tracée  par  les  différentes  positions  du  Soleil  relevées  à  un  instant  donné  et  depuis  un 
même lieu au cours d’une année calendaire dans le ciel lorsqu'il est observé depuis un point fixe de la surface de la 
Terre 

HEIG‐VD, G2C  123 / 141  F. Gervaix, février 2010 


   
Satellite de télécommunications 
Ces satellites sont utilisés pour transmettre des informations d'un point à l'autre de la Terre, notamment 
des communications téléphoniques ou de la transmission de données, les communications satellitaires et 
les  programmes  télévisés.  Ces  derniers  transitent  principalement  par  la  flotte  Eutelsat  (Hot‐Bird,  Atlantic 
Bird 3, W1,2,3, etc.) et celle de la SES ou Société Européenne de Satellites, Astra 1 et 2. Ces satellites dits 
aussi de diffusion directe émettent les bouquets payants (cryptés) TPS, AB SAT et C+ Canalsat, ainsi que des 
centaines de chaînes tv&radio en clair (gratuites), reçues sur une antenne, type parabole, domestique de 
petite dimension (parabole >60 cm) à faible prix, vue la forte puissance d'émission des engins orbitaux. 

Satellite de télédétection 
Ces  satellites  observent  la  Terre,  dans  un  but  scientifique  (température  de  la  mer,  manteau  neigeux, 
sécheresse,  ...),  économique  (ressources  naturelles,  agriculture,  ...)  ou  militaire.  Le  spectre  d'observation 
est  vaste,  optique,  radar,  infrarouge,  ultraviolet,  écoute  de  signaux  radioélectriques…  Par  exemple,  les 
satellites SPOT, Landsat, IKONOS, QuickBird, OrbView, ENVISAT, ERS‐1 & 2, Formosat. 
Tous ces satellites sont décrits en détail en pages 130 à 138 

Satellite de positionnement 
Ces  satellites  permettent  de  connaître  la  position  d'objets  à  la  surface  de  la  Terre,  dans  les  airs  (avions, 
missiles)  et  dans  l'espace.  Exemples  :  le  système  américain  GPS,  le  système  russe  GLONASS,  le  futur 
système européen Galileo, DORIS (Doppler Orbitography by Radiopositioning Integrated on Satellite). 

Satellite d'observation spatiale 
Ces satellites observent l'espace dans un but scientifique. Il s'agit en fait de télescopes en orbite. Là aussi, le 
spectre d'observation est large. Exemple : le satellite Hubble. 

Station spatiale 
Ces satellites sont destinés à être habités par l'homme, dans un but scientifique. Après les stations russes 
Soyouz et Mir et la station américaine Skylab, la Station spatiale internationale est en orbite depuis 1998. 
Elle est habitée en permanence depuis 2002. 

Sonde spatiale 
Une  sonde  spatiale  est  destinée  à  observer  un  autre  corps  céleste  et  doit  donc  être  en  mesure  de  se 
déplacer dans l’espace en orbitant temporairement ou définitivement autour de la Terre, d'autres planètes, 
de satellites de planètes ou d'astéroïdes. 

HEIG‐VD, G2C  124 / 141  F. Gervaix, février 2010 


   

13.6. Orbite 
En  mécanique  céleste,  une  orbite  est  la  trajectoire  que  décrit  dans  l'espace  un  corps  autour  d'un  autre 
corps sous l'effet de la gravitation. 
L'exemple  classique  est  celui  du  système  solaire  où  la  Terre,  les  autres  planètes,  les  astéroïdes  et  les 
comètes sont en orbite autour du Soleil, de même que les lunes sont en orbite autour des planètes. 
De nos jours, beaucoup de satellites artificiels sont en orbite autour de la Terre. 
Les  trois  lois  de  Kepler  (Loi  des  orbites,  Loi  des  aires,  Loi  des  périodes)  permettent  de  déterminer  par  le 
calcul le mouvement orbital. 

13.6.1 Éléments orbitaux 
Une  orbite  elliptique  peut  se  définir  dans  l'espace  selon  six  paramètres  permettant  de  calculer  très 
précisément la trajectoire complète. Deux de ces paramètres (excentricité et demi‐grand axe) définissent la 
trajectoire dans un plan, trois autres (inclinaison, longitude du nœud ascendant et argument du péricentre) 
définissent  l'orientation  du  plan  dans  l'espace  et  le  dernier  (instant  de  passage  au  péricentre)  définit  la 
position de l'objet. Voici la description plus détaillée de ces paramètres : 
Demi‐grand  axe  a :  la  moitié  de  la  distance  qui  sépare  le  péricentre  de  l'apocentre  (le  plus  grand 
diamètre de l'ellipse). Ce paramètre définit la taille absolue de l'orbite. Il n'a de sens en réalité que dans 
le cas d'une trajectoire elliptique ou circulaire (le demi‐grand axe est infini dans le cas d'une parabole ou 
d'une hyperbole) 
Excentricité  e :  une  ellipse  est  le  lieu  des  points  dont  la  somme  des  distances  à  deux  points  fixes,  les 
foyers (S sur le diagramme), est constante. L'excentricité mesure le décalage des foyers par rapport au 
centre de l'ellipse (C sur le diagramme); c'est le rapport de la distance "centre foyer" au demi‐grand axe. 
Le type de trajectoire dépend de l'excentricité :    

e=0  : trajectoire circulaire 
0<e<1  : trajectoire elliptique 
e=1  : trajectoire parabolique 
e>1  : trajectoire hyperbolique 

 
Figure 76 : Orbite elliptique 

HEIG‐VD, G2C  125 / 141  F. Gervaix, février 2010 


   

 
Figure 77 : Paramètre orbitaux

Inclinaison  i :  l'inclinaison  (entre  0  et  180  degrés)  est  l'angle  que  fait  le  plan  orbital  avec  un  plan  de 
référence.  Ce  dernier  étant  en  général  le  plan  de  l'écliptique  dans  le  cas  d'orbites  planétaires  (plan 
contenant la trajectoire de la Terre). 

Longitude  du  nœud  ascendant  ☊ : il s'agit de l'angle entre la direction du point vernal et la ligne des 


nœuds, dans le plan de l'écliptique. La direction du point vernal γ est la droite contenant le Soleil et le 
point  vernal  (point  de  repère  astronomique  correspondant  à  la  position  du  Soleil  au  moment  de 
l'équinoxe du printemps). La ligne des nœuds est la droite à laquelle appartiennent les nœuds ascendant 
(le point de l'orbite où l'objet passe du côté nord de l'écliptique) et descendant (le point de l'orbite où 
l'objet passe du côté sud de l'écliptique). 
Argument du périhélie ω : il s'agit de l'angle formé par la ligne des nœuds et la direction du périhélie (la 
droite à laquelle appartiennent le Soleil et le périhélie de la trajectoire de l'objet), dans le plan orbital. La 
longitude du périhélie est la somme de la longitude du nœud ascendant et de l'argument du périhélie. 
Instant τ de passage au périhélie : La position de l'objet sur son orbite à un instant donné est nécessaire 
pour pouvoir la prédire pour tout autre instant. Il y a deux façons de donner ce paramètre. La première 
consiste  à  spécifier  l'instant  du  passage  au  périhélie.  La  seconde  consiste  à  spécifier  l'anomalie 
moyenne M de l'objet pour un instant conventionnel (l'époque de l'orbite). Il faut noter que l'anomalie 
moyenne  n'est pas un angle physique  mais spécifie la fraction de l'orbite accomplie par l'objet depuis 
son dernier passage au périhélie, exprimée sous forme angulaire. Par exemple, si l'objet a parcouru le 
quart de son orbite, son anomalie moyenne est 0,25×360° = 90°. La longitude moyenne de l'objet est la 
somme de la longitude du périhélie et de l'anomalie moyenne. 

HEIG‐VD, G2C  126 / 141  F. Gervaix, février 2010 


   

13.7. Période 
Lorsqu'on  parle  de  la  période  d'un  objet,  il  s'agit  en  général  de  sa  période  sidérale,  mais  il  y  a  plusieurs 
périodes possibles : 
Période sidérale ‐ Temps qui s'écoule entre deux passages de l'objet devant une étoile distante. C'est la 
période « absolue » au sens newtonien du terme. 
Période anomalistique ‐ Temps qui s'écoule entre deux passages de l'objet à son périastre. Selon que ce 
dernier précesse1 ou récesse, cette période sera plus courte ou longue que la sidérale. 
Période  draconitique  ‐  Temps  qui  s'écoule  entre  deux  passages  de  l'objet  à  son  nœud  ascendant  ou 
descendant. Elle dépendra donc des précessions des deux plans impliqués (l'orbite de l'objet et le plan 
de référence, généralement l'écliptique). 
Période tropique ‐ Temps qui s'écoule entre deux passages de l'objet à l'ascension droite zéro. À cause 
de la précession des équinoxes, cette période est légèrement et systématiquement plus courte que la 
sidérale. 
Période  synodique  ‐  Temps  qui  s'écoule  entre  deux  moments  où  l'objet  prend  le  même  aspect 
(conjonction,  quadrature,  opposition,  etc.).  Par  exemple,  la  période  synodique  de  Mars  est  le  temps 
séparant  deux  oppositions  de  Mars  par  rapport  à  la  Terre;  comme  les  deux  planètes  sont  en 
mouvement, leurs vitesses angulaires relatives se soustraient, et la période synodique de Mars s'avère 
être 779,964 d (1,135 années martiennes). 

                                                            
 
1
 La  précession  est  le  changement  graduel  d'orientation  de  l'axe  de  rotation  d'un  objet  quand  un  couple  lui  est 
appliqué. Ce phénomène est très visible avec une toupie. Lorsqu'un objet précesse, l'inclinaison de son axe se déplace 
en  cercle  dans  la  direction  opposée  à  celle  de  la  rotation  de  l'objet.  Si  la  vitesse  de  rotation  et  le  couple  sont 
constants, l'axe de rotation décrira un cône dont le mouvement sera à tout moment perpendiculaire à la direction du 
couple. 
La précession des équinoxes est le lent changement de direction de l'axe de rotation de la Terre. Ce changement de 
direction  est  provoqué  par  le  couple  qu'exercent  les  forces  de  marées  de  la  Lune  et  du  Soleil  sur  le  renflement 
équatorial de la Terre. Ces forces tendent à amener l'excès de masse présent à l'équateur vers le plan de l'écliptique. 
La Terre étant en rotation, ces forces ne peuvent changer l'angle entre l'équateur et l'écliptique mais provoquent un 
déplacement  de  l'axe  de  rotation  de  la  Terre  dans  une  direction  perpendiculaire  à  cet  axe  et  au  couple.  Ce 
déplacement  s'appelle  précession  et  a  pour  résultat  que  l'axe  de  rotation  de  la  Terre  décrit  un  cône  dont  un  tour 
complet est effectué en environ 25 800 ans. 
Comme  l'orbite  de  la  Lune  est  inclinée  par  rapport  à  l'écliptique,  l'action  de  la  Lune  vient  légèrement  perturber  la 
précession  en  y  ajoutant  de  petites  oscillations  dont  la  période  est  de  18,6  ans  et  l’amplitude  de  17.2’’  (secondes 
d'arc). Cet effet s'appelle la nutation. 

HEIG‐VD, G2C  127 / 141  F. Gervaix, février 2010 


   

13.8.  Orbite héliosynchrone 
De  façon  rigoureuse,  une  orbite  héliosynchrone,  par  analogie  avec  l'orbite  géosynchrone,  est  une  orbite 
héliocentrique de rayon ~24,360 Gm (0,1628 ua1) telle que la période de révolution de l'objet coïncide avec 
la  période  de  rotation  du  Soleil.  L'orbite  héliostationnaire  est  l'orbite  héliosynchrone  d'inclinaison  et 
d'excentricité zéro. 
Une orbite héliosynchrone est aussi une orbite géocentrique qui combine altitude et inclinaison de façon à 
ce  que l'objet passe au‐dessus d'un point  donné de la surface terrestre à la  même heure solaire locale  à 
chaque  fois.  Ceci  est  désirable  lorsqu'on  prend  de  photographies  en  lumière  visible,  car  l'angle 
d'illumination  solaire  sera  quasiment  le  même  lors  de  chaque  cliché  (satellites  météos,  espions,  de 
télédétection, etc.). Il y aura, bien entendu, une oscillation annuelle de l'heure solaire du passage à cause 
de l'excentricité de l'orbite terrestre (analemme, voir en page 122). 
Ces  orbites  sont  possibles  pour  une  gamme  d'altitudes  (typiquement  600–800  km,  pour  des  périodes  de 
96–100 min) parce que le bourrelet équatorial de la Terre fait précesser l'orbite du satellite à un rythme qui 
dépend  de  son  inclinaison  (environ  98°  pour  les  altitudes  susmentionnées),  ce  qui  permet  de  choisir  une 
inclinaison qui donnera le taux désiré (360° par an). Des variations sont possibles sur ce type d'orbite; un 
satellite pourrait avoir une orbite  héliosynchrone fortement  excentrique, auquel cas « l'heure solaire fixe 
de  passage »  n'est  pertinente  que  pour  un  point  donné  de  l'orbite  (typiquement  le  périgée).  La  période 
orbitale choisie dépend, elle, du taux de revisite désiré; le satellite traverse le plan équatorial à la même 
heure solaire à chaque passage, mais à une longitude différente lors de chaque passage car la Terre tourne 
sous lui. Par exemple, une période orbitale de 96 min, qui se divise entièrement dans un jour solaire (15 
fois)  signifiera  que  le  satellite  traversa  l'équateur  à  quinze  longitudes  différentes  lors  d'orbites 
consécutives, pour revenir à la première longitude à chaque quinzième passage, une fois par jour. 
L'orbite midi/minuit est un cas particulier de l'orbite héliosynchrone où l'heure solaire fixe de passage est 
aux environs de midi ou minuit pour les longitudes équatoriales. L'orbite crépusculaire, similairement, est 
une orbite héliosynchrone dont l'heure solaire fixe de passage coïncide avec le lever ou le coucher du Soleil. 
Au fur  et à  mesure que l'altitude du satellite augmente, l'inclinaison requise  augmente aussi, si bien que 
l'utilité de l'orbite diminue doublement : premièrement parce que les clichés du satellite sont pris de plus 

                                                            
 
1
 L'unité astronomique (symbole ua) est la longueur moyenne du demi‐grand axe de l'orbite terrestre. Elle sert d'unité 
de  distance  dans  le  système  solaire  ou  dans  des  systèmes  planétaires.  C'est  une  unité  en  dehors  du  système 
international (SI) en usage avec lui mais dont la valeur est obtenue expérimentalement. 
La définition précise doit tenir compte du fait que la Terre a une orbite elliptique autour du Soleil. En 1976, elle a été 
définie comme la distance au Soleil d'une particule de masse négligeable sur une orbite non perturbée et qui aurait 
une période orbitale de 365,256 898 3 jours. Depuis 1996, l'unité astronomique peut‐être évaluée à 149'597'870'691 
m ou 1.5⋅1011 m. Une année‐lumière vaut approximativement 63 241 ua. 
Source documentaire : 

http://fr.wikipedia.org 
« Wikipédia,  encyclopédie  librement  distribuable  que  chacun  peut 
améliorer » 
Divers auteurs. 
Source : Wikipédia – mot‐clé (http://fr.wikipedia.org/wiki/mot‐clé). 
Ces articles sont sous licence GFDL 
 
 

HEIG‐VD, G2C  128 / 141  F. Gervaix, février 2010 


   
en plus loin, et deuxièmement parce que l'inclinaison croissante implique que le satellite ne survolera pas 
les hautes latitudes. Un satellite héliosynchrone conçu pour survoler la France, par exemple, devrait avoir 
une inclinaison de 129° ou moins, ce qui implique une altitude de ~4450 km ou moins. 
L'orbite héliosynchrone est également possible autour de certaines autres planètes, comme Mars. 

13.8.1 Orbite circulaire quasi‐polaire 

 
Figure 78: Orbite quasi‐polaire et trace (pas à l'échelle) 

HEIG‐VD, G2C  129 / 141  F. Gervaix, février 2010 


   
13.8.2 Passages successifs (descendants) 

 
Figure 79: Représentation schématique des nœuds descendants (et ascendants) 

13.9. Satellites utilisés en télédétection 
13.9.1 Ikonos 
Ikonos  est  un  satellite  d’observation  de  la  Terre  commercial  qui  collecte  des  images  à  1  et  4  m  de 
résolution.  Il  acquiert  des  images  multispectrales  et  panchromatiques.  Il  fournit  des  images  depuis  le  1er 
janvier 2000. La compagnie Space Imaging, Inc. commercialise ces images sous le nom de produit Carterra. 
Space Imaging est sur le point (état : décembre 2005) de se faire racheter par OrbImage (voir OrbView ci‐
dessous). 

Historique 
Ikonos vient du mot grec signifiant « image ». Ikonos‐1 était planifié pour un lancement en 1999, mais le 
lancement  a  échoué.  Ikonos‐2  était  planifié  pour  un  lancement  en  2000,  mais  a  été  renommé  Ikonos  et 
lancé  le  24  septembre  1999  pour  remplacer  Ikonos‐1.  Il  a  une  orbite  polaire,  circulaire,  héliosynchrone  à 
681 km d’altitude et les deux senseurs (multi et pan) ont une fauchée de 11 km. Son poids est de 720kg. 

Caractéristiques 
Résolution spatiale : 
• 1 m panchromatique (1‐m PAN) 
• 4 m multispectral (4‐m MS) 
• 1 m « pan‐sharpened » (1‐m PS) 

HEIG‐VD, G2C  130 / 141  F. Gervaix, février 2010 


   
Résolution spectrale : 
• 1‐m PAN 
• 0.450‐0.900 µm 
• 4‐m MS & 1‐m PS 
• 1 (bleu B)   0.445‐0.516 µm 
• 2 (vert V)   0.506‐0.595 µm 
• 3 (rouge R)   0.632‐0.698 µm 
• 4 (proche infrarouge)  0.757‐0.853 µm 
Résolution temporelle : 
La fréquence de revisite est de 3 à 5 jours dépointé (« off-nadir ») et de 144 jours pour le nadir
véritable (« true-nadir »).
Fauchée / empreinte au sol : 
11 km x 11 km pour une scène

13.9.2 QuickBird 
QuickBird  est  un  satellite  d’observation  à  haute  résolution  de  la  Terre  commercial,  propriété  de 
DigitalGlobe, qui a été lancé le 18 octobre 2001. Il acquiert des images panchromatiques à une résolution 
de 60‐70 cm et multispectrales à une résolution de 2.4‐2.8 m. 

Caractéristiques 
Capteurs 
• 61 cm panchromatique au nadir 
• 2.44 m multispectral au nadir 
• Bandes: bleu, vert, rouge, proche infrarouge 
Fauchée et empreinte au sol 
• Fauchée nominal : 16.5 km au nadir 
• Largeur au sol accessible : 544 km, centrée sur la trace au sol du satellite (jusqu’à 30° dépointé). 
• Surface considérée : 
• Surface simple: 16.5 km par 16.5 km 
• Bande (ou scène): 16.5 km par 165 km 
Orbite 
• Altitude: 450 km – inclinaison : 98° héliosynchrone. 
• Fréquence de revisite: 1 à 3.5 jour, en fonction de la latitude, à une résolution de 70 cm. 
• Angle de vue : appareil agile, dépointage longitudinal et latéral. 
• Période 93.4 minutes 
Véhicule spatial 
• Carburant pour 7 ans 
• 950 kg, 3.04 m de long 

13.9.3 Spot 
Les satellites Spot (Satellite Pour l'Observation de la Terre) sont une série de satellites civils d'observation 
du sol terrestre. 

HEIG‐VD, G2C  131 / 141  F. Gervaix, février 2010 


   
Historique 
Décidé  en  1978  par  la  France,  le  programme  Spot  est  réalisé  par  le  CNES  (Centre  national  d'études 
spatiales)  en  collaboration  avec  la  Belgique  et  la  Suède.  Il  est  composé  d'une  série  de  satellites  et 
d'infrastructures terrestres pour le contrôle et la programmation des satellites ainsi que pour la production 
des images. 
Les images Spot sont commercialisées par la société Spot Image. 
Orbite : quasi polaire, circulaire, héliosynchrone. 
Altitude : 832 km 

1ère génération : Spot 1, 2, 3 
Résolution des images : 10 mètres en noir et blanc, 20 mètres en couleur 
Lancement : 
Spot‐1, lancé le 22 février 1986 (Ariane 1) 
Spot‐2, lancé le 22 janvier 1990 (Ariane 40) 
Spot‐3, lancé le 26 septembre 1993 (Ariane 40), fin de fonctionnement en novembre 1996) 

2ème génération : Spot‐4 (conçu en synergie avec Helios 1) 
Résolution  des  images :  idem  Spot  1‐3  avec  des  capacités  infrarouges  améliorées  et  un  ensemble  de 
quatre instruments spécialisés dans l'étude de la végétation. 
Passager :  PASTEL  (PAssager  Spot  de  Télécommunication  Laser),  un  des  deux  terminaux  optiques 
constitutifs du système de communication spatiale SILEX (Semi conductor Intersatellite Link EXperiment). 
Lancement : Spot‐4 a été lancé le 23 mars 1998 (Ariane 40, Vol 107) 

3ème génération : Spot‐5 (conçu en synergie avec Helios 2) 
Résolution des images : 
2.5 mètres en noir et blanc 
10 mètres en couleur 
Capacités d'acquisition de couples stéréoscopiques améliorés 
Lancement : Spot‐5 a été lancé le 3 mai 2002 (Ariane 42P, Vol 151) 
Stations de réception au sol : 17 stations sur les 5 continents. 
Intérêts et utilisations des images Spot (source : Spot Image) 
Les images issues de la télédétection spatiale (Spot ou autres satellites) présentent les avantages
suivants : couverture mondiale, pouvoir de synthèse grâce à la dimension des surfaces couvertes,
répétitivité.
Un des atouts de Spot est sa banque d'images couvrant la planète depuis plus de 20 ans avec des
capteurs similaires. Cette banque permet d'étudier facilement des phénomènes évoluant dans le
temps et dans l'espace (déforestation, etc.).

Quelques exemples d'utilisation : 
Défense : 
• utilisation des images stéréoscopiques pour la réalisation de modèles numériques de terrain, 
• renseignement en temps de paix, 

HEIG‐VD, G2C  132 / 141  F. Gervaix, février 2010 


   
• utilisation  de  stations  de  réception  mobiles  pour  alimenter  le  commandement  sur  le  théâtre 
d'opération. 
Agriculture : 
• la Communauté européenne utilise les images Spot pour le contrôle des déclarations dans le cadre de la 
politique  agricole  commune  (le  capteur  infrarouge  permet  l'identification  des  plantes  et  du  stade  de 
maturation), 
• évaluation des dégâts causés par des intempéries importantes (vent, grêle, etc.). 
Cartographie : 
• Spot 5 et son capteur panchromatique (résolution de 2.5 m) permet la réalisation de cartes au 1:50'000 
(soit 20 pixels par mm) 

13.9.4 Eros 
EROS (Earth Resources Observation Satellite) est une série de satellites d’observation de la Terre israéliens 
commerciaux, développés et fabriqués par Israel Aircraft Industries (IAI), avec la partie optique fournie par 
El‐Op. Les satellites sont propriété et opérés par ImageSat International, une autre compagnie israélienne 
avec 35 employés, faisant partie des 50 de IntelSat's. A ce jour, seulement le premier satellite de la série 
(EROS A) a été lancé le 5 décembre 2000. 

EROS A 
EROS  A  a  été  lancé  par  le  lanceur  russe  Start‐1  le  5  décembre  2000  depuis  le  cosmodrome  sibérien  de 
Sbovodni  sur  une  orbite  basse  (LEO)  de  480  km.  Le  satellite  produit  des  images  commerciales  avec  une 
résolution  de  1.8  mètres.  Le  satellite  est  en  orbite  héliosynchrone,  afin  que  sa  cible  soit  toujours  à  la 
lumière du jour. Il coupe l’équateur à 09:45 heure locale. 
Ces  dimensions  sont :  hauteur  2.3m,  diamètre  1.2m.  Il  pesait  250kg  au  moment  du  lancement.  Il  a  été 
construit sur la base du satellite de reconnaissance militaire Ofeq 3, qui avait également été construit par 
IAI et El‐Op pour l’usage du gouvernement israélien. 

Plans futurs 
EROS  B  est  prévu  pour  un  lancement  en  mars  2006.  Il  devrait  offrir  une  résolution  spatiale  de  70  cm. 
ImageSat  avait  prévu  initialement  de  lancer  un  satellite  similaire  à  EROS  A  tous  les  six  mois,  mais  la 
demande pour ses images était faible ce qui a causé d’importantes pertes initiales et le retard de EROS B et 
suivants. 
EROS C est prévu pour un lancement en 2009 et sa résolution n’est par encore décidée. 
ImageSat a annoncé le plan de lancer un total de trois satellites supplémentaires plus tard, afin de couvrir 
l’ensemble de la planète avec une six satellites en activité simultanée. 

HEIG‐VD, G2C  133 / 141  F. Gervaix, février 2010 


   

13.9.5 Landsat 
The Landsat program is the longest running enterprise for acquisition of imagery of Earth from space. The 
first Landsat satellite was launched in 1972; the most recent, Landsat 7, was launched on April 15, 1999. 
The  instruments  on  the  Landsat  satellites  have  acquired  millions  of  images.  The  images,  archived  in  the 
United States and at Landsat receiving stations around the world, are a unique resource for global change 
research  and  applications  in  agriculture,  geology,  forestry,  regional  planning,  education  and  national 
security. Landsat 7 has a 15m to 30m resolution. 

History 
The program was called the Earth Resources Observation Satellites Program when it was initiated in 1966, 
but  the  name  was  changed  to  Landsat  in  1975.  In  1979,  Presidential  Directive  54  under  President  Jimmy 
Carter  transferred  Landsat  operations  from  NASA  to  NOAA,  recommended  development  of  long  term 
operational  system  with  four  additional  satellites  beyond  Landsat  3,  and  recommended  transition  to 
private sector operation of Landsat. This occurred in 1985 when the Earth Observation Satellite Company 
(EOSAT), a partnership of Hughes Aircraft and RCA, was selected by NOAA to operate the Landsat system 
under a ten year contract. EOSAT operated Landsat 4 and 5, had exclusive rights to market Landsat data, 
and was to build Landsat 6 and 7. 
In 1989, this transition had not been fully completed when NOAA's funding for the Landsat program ran out 
and NOAA directed that Landsat 4 and 5 be shut down, but an act of Congress provided emergency funding 
for  the  rest  of  the  year.  Funding  ran  out  again  in  1990  and  once  again  Congress  provided  emergency 
funding  to  NOAA  for  six  more  months  of  operations,  requesting  that  agencies  that  used  Landsat  data 
provide the funding for the other six months of the upcoming year. The same funding problem and solution 
was repeated in 1991. In 1992, various efforts were made to finally procure funding for follow on Landsat 
and continued operations, but by the end of the year EOSAT ceased processing Landsat data. Landsat 6 was 
finally launched on October 5, 1993, but was lost in a launch failure. Processing of Landsat 4 and 5 data was 
resumed by EOSAT in 1994. NASA finally launched Landsat 7 on April 15, 1999. 
The value of the Landsat program was recognized by Congress in October, 1992 when it passed the Land 
Remote Sensing Policy Act (Public Law 102‐555) authorizing the procurement of Landsat 7 and assuring the 
continued availability of Landsat digital data and images, at the lowest possible cost, to traditional and new 
users of the data. 
Landsat 1 (originally named Earth Resources Technology Satellite 1) ‐ launched July 23, 1972, terminated 
operations in 1978 
Landsat 2 ‐ launched January 22, 1975, terminated in 1981 
Landsat 3 ‐ launched March 5, 1978, terminated 1983 
Landsat 4 ‐ launched July 16, 1982, terminated 1993 
Landsat 5 ‐ launched March 1, 1984, still functioning 
Landsat 6 ‐ launched October 5, 1993, failed to reach orbit 
Landsat 7 ‐ launched April 15, 1999, still functioning 

13.9.6 Envisat et ERS‐1 & 2 (ESA) 
The  Envisat  (Environmental  Satellite)  satellite  is  an  Earth‐observing  satellite  built  by  the  European  Space 
Agency.  It  was  launched  on  March  1,  2002  aboard  an  Ariane  5  into  a  Sun  synchronous  polar  orbit  at  a 
height of 790 km (±10 km). It orbits the Earth in about 101 minutes with a repeat cycle of 35 days. 
Envisat  carries  an  array  of  nine  Earth‐observation  instruments  that  gather  information  about  the  earth 
(land, water, ice, and atmosphere) using a variety of measurement principles. 

HEIG‐VD, G2C  134 / 141  F. Gervaix, février 2010 


   
Several of the instruments are advanced versions of instruments that were flown on the earlier ERS‐1 and 
ERS‐2 missions and other satellites. 
ASAR  (Advanced  Synthetic  Aperture  Radar)  can  detect  changes  in  surface  heights  with  sub‐millimetre 
precision. 
MERIS  (MEdium  Resolution  Imaging  Spectrometer)  produces  two‐dimensional  images  using  a  15‐band 
spectrometer 
AATSR (Advanced Along Track Scanning Radiometer) can measure the temperature of the sea surface 
RA‐2 (Radar Altimeter 2) is a dual‐frequency Nadir pointing Radar operating in the S band and Ku bands, 
it is used for measuring ocean topography, map/monitor sea ice and measure land heights. 
MWR (Microwave Radiometer) for measuring water vapour in the atmosphere and give corrections for 
the Altimeter 
DORIS  (Doppler  Orbitography  and  Radiopositioning  Integrated  by  Satellite)  for  orbit  determination  to 
within 10 cm or less 
GOMOS (Global Ozone Monitoring by Occultation of Stars) looks to stars as they descend through the 
Earth's  atmosphere  and  change  colour,  which  also  tells  a  lot  about  the  presence  of  gases  such  as  O3 
(ozone), and  allows for the first  time a space‐based measurement of  the vertical  distribution of these 
trace gases. 
MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) is a spectrometer 
SCIAMACHY (SCanning Imaging Absorption SpectroMeter for Atmospheric CHartographY) compares light 
coming  from  the  sun  to  light  reflected  by  the  Earth,  which  provides  information  on  the  atmosphere 
through which the earth‐reflected light has passed. 

Predecessor: ERS‐1 ERS‐2 
European Remote‐Sensing satellite (ERS) was the European Space Agency's first Earth‐observing satellite. It 
was launched on July 17, 1991 into a Sun synchronous polar orbit at a height of 782–785 km. 
ERS‐1 carried an array of earth‐observation instruments that gathered information about the Earth (land, 
water, ice and atmosphere) using a variety of measurement principles. These included: 
A nadir‐pointing Radar Altimeter operating in the Ku band 
A  Four  channel  Infrared  Radiometer  for  measuring  temperatures  at  the  sea‐surface  and  the  top  of 
clouds. 
A Microwave Sounder 
A Synthetic aperture radar 
A Wind Scatterometer 
To  accurately  determine  its  orbit,  the  satellite  included  the  PRARE  (Precision  Range  and  Range‐Rate 
Equipment)  and  a  Laser  Retroreflector.  The  PRARE  was  non‐operational  since  launch.  The  Retroreflector 
was used for calibrating the Radar Altimeter to within 10 cm. 
ERS‐1  had  various  mission  phases  using  3‐day,  35‐day  and  a  336‐day  repeat  cycle.  The  336‐day  mission 
(Geodetic Mission) allowed for accurate mapping of the Earth's bathymetry and geoid over the seas. 
ERS‐1 failed on March 10, 2000, far exceeding its expected lifespan. 
Its successor, ERS‐2, was launched on April 21, 1995. It is largely identical to ERS‐1, with the addition of the 
GOME  (Global  Ozone  Monitoring  Experiment)  and  absorption  spectrometer.  When  ERS‐2  was  launched, 
ERS‐1 shared the same orbital plane. This allowed a tandem mission, with ERS‐2 passing the same point on 
the ground 1 day later than ERS‐1. ERS‐1 & 2 have a repeat cycle of 35 days. 

HEIG‐VD, G2C  135 / 141  F. Gervaix, février 2010 


   
ERS‐2  has  been  operating  without  gyroscopes  since  February  2001,  resulting  in  some  degradation  of  the 
data provided by the instruments. The tape drive aboard failed on June 22, 2003, leaving the instruments 
operating only within visibility of a ground station. Since the tape drive failure additional ground stations 
have been brought online to increase the data gathering abilities of the satellite. The Wind Scatterometer 
and GOME are the only instruments of their kind currently in orbit (until 2006 when MetOp launches). 
The successor to ERS‐2 is Envisat. 

13.9.7 OrbView 
Source: www.orbimage.com 

OrbView‐2 
“THE WORLD'S FIRST DAILY COLOR IMAGERY OF THE EARTH” 
The  OrbView‐2  satellite,  successfully  launched  in  August  1997,  provides  unprecedented  multispectral 
imagery of the Earth's land and ocean surfaces every day. By detecting subtle colour changes on the Earth's 
surface,  OrbView‐2's  imagery  is  valuable  for  monitoring  plankton  and  sedimentation  levels  in  the  oceans 
and assessing the health of land‐based vegetation on a global basis. 
OrbView‐2  provides  Fish  Finding  Maps  useful  for  locating  surface  dwelling  fish.  Its  imagery  is  useful  for 
estimating  crop  yields  around  the  world.  It  provides  valuable  laser  penetration  depth  imagery  for  naval 
operations. OrbView‐2 provides the world's first daily colour imagery of the Earth. 
The  satellite's  imaging  instrument  has  eight  channels,  six  in  the  visible  and  two  in  the  near  infrared 
spectrum, with a spatial resolution of 1.1 km. It provides daily coverage of the Earth with a swath width of 
2,800 km from a polar orbital path. Its imagery is continuously downlinked in real‐time and can be acquired 
with a standard High Resolution Picture Transmission (HRPT) ground station. 
OrbView‐2  is  useful  for  a  variety  of  applications  such  as  fishing,  agriculture,  naval  operations,  scientific 
research and environmental monitoring.OrbView‐3 

OrbView‐3 
ORBIMAGE's OrbView‐3 satellite is among the world's first commercial satellites to provide high‐resolution 
imagery  from  space.  OrbView‐3  produces  one‐meter  resolution  panchromatic  and  four‐meter  resolution 
multispectral  imagery.  One‐meter  imagery  enables  the  viewing  of  houses,  automobiles  and  aircraft,  and 
makes  it  possible  to  create  highly  precise  digital  maps  and  three‐dimensional  fly‐through  scenes.  Four‐
meter  multispectral  imagery  provides  colour  and  infrared  information  to  further  characterize  cities,  rural 
areas and undeveloped land from space. 
OrbView‐3  is  one  of  the  first  commercial  satellites  to  provide  high‐resolution  images  from  space.  Its 
imaging instrument provides both one‐meter panchromatic imagery and four‐meter multispectral imagery 
with a swath width of 8 km. 
The satellite revisits each location on Earth in less than three days with an ability to turn from side‐to‐side 
up to 45 degrees. 
OrbView‐3 imagery can be downlinked in real‐time to ground stations located around the world or stored 
on‐board the spacecraft and downlinked to ORBIMAGE's master U.S. ground stations. 
To  access  OrbView‐3  imagery,  customers  can  either  purchase  imagery  from  our  family  of  partners  and 
distributors,  or  order  individual  images  from  ORBIMAGE  or  its  online  data  store,  located  at 
www.orbimage.com. 
OrbView‐3 provides imagery useful for a variety of applications such as telecommunications and utilities, oil 
and  gas,  mapping  and  surveying,  agriculture  and  forestry,  and  national  security.  Its  multispectral  data 
enables early detection of crop stress. Its stereo imaging capability provides 3‐D terrain images. 

HEIG‐VD, G2C  136 / 141  F. Gervaix, février 2010 


   
OrbView‐3 Specifications 

Imaging Mode  Spatial Resolution  Imaging Channels  Spectral Range 

Panchromatic  1 meter  1 channel  450‐900 nm 

Multispectral  4 meter  4 channels  450‐520 nm 


520‐600 nm 
625‐695 nm 
760‐900 nm 
• Swath Width : 8 km 
• Image Area : User Defined 
• Revisit Time : Less than 3 days 
• Orbital Altitude : 470 km 
• Nodal Crossing : 10:30 A.M. 
• System Life : Minimum 5 years 

OrbView‐5 
ORBIMAGE  will  continue  its  tradition  of  innovation  in  mapping,  monitoring  and  measuring  the  Earth’s 
surface  with  the  launch  of  OrbView‐5,  its  next‐generation  satellite  with  the  highest  resolution  and  most 
advanced collection capabilities of any commercial imaging satellite ever developed. 
Scheduled  for  launch  in  early  2007,  OrbView‐5  will  offer  unprecedented  spatial  resolution  by 
simultaneously acquiring 0.41‐meter panchromatic and 1.64‐meter multispectral imagery. It can collect in 
excess  of  800,000  square  kilometres  of  imagery  in  a  single  day,  downlink  imagery  in  real‐time  to 
international ground station customers, and can store 1.2 terabytes of data on its solid‐state recorders. 
The detail and geospatial accuracy of OrbView‐5 imagery will further expand the applications for satellite 
imagery in every commercial and government market sector. 

OrbView‐5 Specifications 

Imaging Mode  Spatial Resolution  Imaging Channels  Spectral Range 

Panchromatic  0.41 meter  1 channel  450‐900 nm 

Multispectral  1.64 meter  4 channels  450‐520 nm 


520‐600 nm 
625‐695 nm 
760‐900 nm 
• Swath Width : 15.2 km 
• Off‐Nadir Imaging : Up to 60 degrees 
• Dynamic Range : 11 bits per pixel 
• Mission Life : Expected > 7 years 
• Image Area : User Defined 
• Revisit Time : Less than 3 days 

HEIG‐VD, G2C  137 / 141  F. Gervaix, février 2010 


   
• Orbital Altitude : 684 km 
• Nodal Crossing : 10:30 A.M. 
• System Life : Minimum 5 years 

13.9.8 Formosat 
Début 2005, la NSPO (National Space Organization) taiwanaise a choisi de renommer les satellites Rocsat 
en Formosat, rappelant l’ancien nom portugais de l’île de Taiwan, Ilha Formosa ou Formose. 
Formosat‐2  est  sur  une  orbite  géosynchrone  et  effectue  un  nombre  entier  de  révolutions  par  jour,  14 
exactement.  Cette  propriété  lui  permet  d’acquérir  quotidiennement  un  même  site  sous  les  mêmes 
conditions de prises de vues latérales, l’agilité du satellite autorise des prises de vues latérales et avant / 
arrière ave un dépointage très rapide (jusqu’à ±45°). 
L’orbite  de  Formosat‐2  est  également  héliosynchrone :  chaque  région  du  globe  est  observée  à  la  même 
heure locale solaire, 9h30, contre 10h30 pour la majorité des systèmes optiques actuels. Ce léger décalage, 
couplé à la revisite quotidienne, permet d’augmenter les chances de succès d’acquisition exploitables dans 
les  zones  équatoriales  au‐dessus  desquelles  les  nuages  de  convection  se  forment  tout  au  long  de  la 
matinée. 
A  l’instar  des  satellites  très  haute  résolution,  Formosat‐2  dispose  de  quatre  bandes :  bleu,  vert,  rouge  et 
proche  infrarouge.  Cela  permet  de  réaliser  sans  traitement  particulier  des  compostions  en  couleurs 
naturelles et fausses couleurs. 
Les images ont une emprise de 24 x 24 km, une résolution de 8m en couleurs et de 2 m en noir & blanc. 

HEIG‐VD, G2C  138 / 141  F. Gervaix, février 2010 


   

14. Bibliographie 
Michel Kasser & Yves Egels : « Photogrammétrie numérique », Collection ENSG ‐ IGN (2001) 
Karl Kraus : « Photogrammetry: Geometry from Images and Laser Scans », de Gruyter (2007) 

    
Albertz  &  Wiggenhagen :  « Taschenbuch  zur  Photogrammetrie  und  Fernerkundung  /  Guide  for 
Photogrammetry and Remote Sensing » (2008) 
François Gervaix : « Mise  à jour des orthophotos et 3D à  Genève », Veille technologique  IGSO, 28 janvier 
2009, HEIG‐VD. 

HEIG‐VD, G2C  139 / 141  F. Gervaix, février 2010 


   

15. Éléments numériques utiles 
Foot  Inch 
1 ft = 0.3048 m  1’’ = 0.0254 m = 25.4 mm 
1 m = 3.28084 ft  1 m = 39.3701’’ 
3 ft = 1 yard  1 ft = 12’’ 
1760 yard = 1 mile  9’’ ≈ 230 mm 
1 mile = 1609.34 m  Objectifs analogiques: 
1 nautical mile (n.m.) = 1852.28 m  88 mm = 3½’’   super‐wide 
  153 mm = 6’’   wide 
  303 mm = 12’’   normal 
  213 mm 
Plan de vol 
c = 153 mm ≈ 0.15 m 
dimension d’un cliché :  23 x 23 cm = 530 cm2 
rapport côté/hauteur  230 : 153 = 1.5 
recouvrement longitudinal :   60% 
recouvrement latéral :  30% 
surface utile : 0.6 x 0.7 = 0.28  148 cm2 
  Échelle de prise de vue : 1:10'000 
hauteur = c x 1/échelle = (1/échelle : 10) + 50%  = 1500 m 
                                    = 1/échelle : 2 [ft]  = 5000 ft 
côté = 1.5 x hauteur  = 2250 ou 2300 m ; surface ≈ 5 km2 
base = (1/échelle : 10) – 10%  = 900 m 
       = hauteur – 60% 
espacement = altitude + 5%    (1.5 x 0.7 = 1.05)  = 1575 m 
espacement [q=20%] = altitude + 20% = 2 x côté  = 1800 m 

surface utile = (1/échelle : 10)2  x 1.4 = 0.28 x surface  = 1.4 km2 
Vitesse 
100 knots = 51.5 m/s = 185.2 km/h 
50 m/s < 100 knots < 200 km/h 
Ouverture 
f : 4 Î f : 22 (f : 16 pour super‐wide) f : 4  5.6  8  11  16  22 
Angle 
1 mgon = 3.24’’ (sec‐arc)  1’’@ 2000 m = 1 cm 
1 pixel ADS40 = 20.6’’ = 6.2 mgon  6∙10‐3 deg = 22’’ 

HEIG‐VD, G2C  140 / 141  F. Gervaix, février 2010 


   

16. Curriculum Vitae 
François Gervaix, né à Lausanne en 1970. 
Ingénieur EPFL du Génie Rural, spécialisation Mensuration, 1995 
7 ans avec Leica (1998‐2005) : 
3 ans LH Systems à Heerbrugg ; 
3 ans Leica Geosystems GIS & Mapping à Singapour ; 
1 an consultant à Bangkok. 
Spécialiste en capteurs aéroportés et traitement de données. 
Professeur de photogrammétrie et imagerie géomatique à la HEIG‐VD depuis septembre 2005. 
Membre du comité de l’IGSO (Association des Ingénieurs‐géomètres de Suisse occidentale), responsable de 
la Formation Continue. 
Membre  du  comité  scientifique  du  cours  « La  3D  comme  outil  d’expertise,  de  décision  et  de 
communication » donné à Genève en 2008, 2009 et 2010. 
Membre  de  la  Société  suisse  de  photogrammétrie,  analyse  d’image  et  télédétection  (SSPIT/SGPBF) 
http://www.sgpbf.ch/  
En cas de retard ou absence: 
SMS au 078 647 6736 (n’oubliez pas votre nom!) 
Numéros fixes: 
Labo D58: 024 557 6369 
Bureau D59: 024 557 6378 

HEIG‐VD, G2C  141 / 141  F. Gervaix, février 2010 

Vous aimerez peut-être aussi