Vous êtes sur la page 1sur 101

Étude de l’automatisation de relevé de façade par

photogrammétrie aérienne
Guilhem Batifol

To cite this version:


Guilhem Batifol. Étude de l’automatisation de relevé de façade par photogrammétrie aérienne. Sci-
ences de l’ingénieur [physics]. 2022. �dumas-03978944�

HAL Id: dumas-03978944


https://dumas.ccsd.cnrs.fr/dumas-03978944
Submitted on 8 Feb 2023

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
CONSERVATOIRE NATIONAL DES ARTS ET METIERS

ECOLE SUPERIEURE DES GEOMETRES ET TOPOGRAPHES

___________________

MEMOIRE
présenté en vue d'obtenir

le DIPLOME D'INGENIEUR CNAM

SPECIALITE : Géomètre et Topographe

par

Guilhem BATIFOL
___________________

Etude de l’automatisation de relevé de façade par photogrammétrie aérienne

Soutenu le 6 Septembre 2022

_________________

JURY

Madame Elisabeth SIMONETTO Président du jury


Monsieur Maxime ASSELIN Maître de stage
Monsieur Christophe CHARLET Enseignant référent
Remerciements

Je tiens à remercier toutes les personnes ayant contribué au bon déroulement de ce TFE,
et qui m'ont aidé à la rédaction de ce mémoire.

Je souhaite remercier tout particulièrement Messieurs Maxime Asselin et Arnaud


Berson, pour m’avoir accueilli pour une durée de 6 mois au sein de leur entreprise. Je remercie
également l’ensemble des personnes que j’ai pu côtoyer au cours de ce stage et qui ont su
apporter leurs aides.

Je souhaite aussi remercier toute l'équipe pédagogique de l’ESGT pour leurs


enseignements durant ces 5 dernières années. Je remercie tout particulièrement Monsieur
Christophe Charlet, pour les corrections du mémoire ainsi que pour les pistes de réflexion
apportées.

Je souhaite également témoigner toute ma reconnaissance aux personnes suivantes pour


leurs aides sur l'écriture de mon mémoire : mes amis Clément, Thomas et Eva pour ces moments
d'échanges et d'entraide, ma famille et ma compagne, pour leurs soutiens.

2
Liste des abréviations

APN : Appareil Photo Numérique

CE : Conformité Européenne

EMQ : Erreur Moyenne Quadratique

ESC : Electronic Speed Controllers

GCP : Ground Control Point (Point de contrôle)

GNSS : Global Navigation Satellite System (Positionnement global par système satellitaire)

IMU : Inertial Measurement Unit

M3C2 : Multi-Scale Model-to-Model Cloud Comparison

MVS : Multi View Stereo

NRTK : Network Real Time Kinematic (Cinématique temps réel en réseau)

PDRA : Pre-Defined Risk Assessment

RTK : Real Time Kinematic (Cinématique temps réel)

SDK : Software Development Kit

SfM : Structure for Motion

SIFT : Scale Invariant Feature Transform

SLT : Scanner Laser Terrestre

UAV : Unmanned Aerial Vehicle (aéronef sans personne à bord ou drone)

VPS : Visual Positionning System (Système de positionnement visuel)

VSLAM : Visual Simultaneous Localization and Mapping

3
Table des matières
I Etat de l’art ...................................................................................................................................... 8
I.1 Les drones civils ....................................................................................................................... 8
I.1.1 Définition et bref historique sur les drones ........................................................................ 8
I.1.2 Les différents types de drone .............................................................................................. 8
I.1.2.1 Drone à voilure fixe ..................................................................................................... 8
I.1.2.2 Drone à voilure tournante ........................................................................................... 9
I.1.3 La législation en vigueur ...................................................................................................... 9
I.1.3.1 La réglementation européenne................................................................................... 9
I.1.3.1.1 Catégorie ouverte................................................................................................. 10
I.1.3.1.2 Catégorie spécifique ............................................................................................. 10
I.1.3.1.3 Catégorie certifiée ................................................................................................ 11
I.1.3.2 La réglementation française ...................................................................................... 11
I.2 La photogrammétrie par drone............................................................................................. 12
I.2.1 Reconstruction automatique de nuages de points 3D ...................................................... 12
I.2.1.1 Détection automatique des points de liaison ........................................................... 13
I.2.1.2 Orientation des images ............................................................................................. 13
I.2.1.2.1 Orientation interne .............................................................................................. 13
I.2.1.2.2 Orientation relative .............................................................................................. 14
I.2.1.2.3 Orientation absolue.............................................................................................. 14
I.2.1.3 La corrélation d’images ............................................................................................. 14
I.2.2 Recommandations concernant les paramètres d’acquisition photogrammétrique ......... 15
I.2.2.1 Calibration de la caméra............................................................................................ 15
I.2.2.2 Taux de recouvrement .............................................................................................. 15
I.2.2.3 Mise en place de visées obliques .............................................................................. 16
I.2.2.4 Utilisation de GCP ...................................................................................................... 16
I.2.2.5 Vitesse du drone........................................................................................................ 17
I.2.2.6 Condition Météorologique ........................................................................................ 17
I.2.3 Méthode de comparaison des résultats............................................................................ 18
I.3 Programmation de vols ......................................................................................................... 18
I.3.1 Etudes existantes sur l’automatisation des vols par drone .............................................. 18
I.3.2 Logiciels de programmation de vols existants .................................................................. 20
I.3.2.1 DJI GS RTK .................................................................................................................. 20
I.3.2.2 Tap2Map.................................................................................................................... 22
I.3.2.3 UgCS........................................................................................................................... 23
I.3.2.4 Drone Harmony ......................................................................................................... 24

4
II ELABORATION D’UNE MÉTHODOLOGIE POUR L’AUTOMATISATION D’UN RELEVÉ DE FAÇADE PAR
DRONE ................................................................................................................................................... 26
II.1 Moyens mis à disposition ...................................................................................................... 26
II.1.1 Drone ............................................................................................................................. 26
II.1.1.1 DJI Phantom 4 Pro V2.0 ............................................................................................. 26
II.1.1.2 DJI Phantom 4 RTK..................................................................................................... 27
II.1.1.3 Capacité à détecter les obstacles durant le vol ......................................................... 29
II.1.2 Scanner laser terrestre .................................................................................................. 30
II.2 Acquisition des données de référence .................................................................................. 31
II.3 Elaboration des protocoles pour l’automatisation d’un relevé de façade par drone sans RTK
32
II.3.1 Protocole 1 (Tap2Map).................................................................................................. 33
II.3.2 Protocole 2 (UgCS)......................................................................................................... 34
II.3.3 Protocole 3 (Drone Harmony) ....................................................................................... 35
II.3.4 Récapitulatif des acquisitions ........................................................................................ 37
III TRAITEMENT DES DONNÉES, ANALYSE ET COMPARAISON DES RÉSULTATS OBTENUS ................ 38
III.1 Traitement des données pour la construction d’un nuage de référence et calcul des
précisions obtenues .......................................................................................................................... 38
III.1.1 Traitement des données GNSS et tachéométriques ..................................................... 38
III.1.2 Traitement des données lasergrammétriques .............................................................. 40
III.2 Traitement des données photogrammétriques issues des vols automatisés ....................... 40
III.3 Analyse des données issues des vols automatisés et comparaison des différents protocoles
41
III.3.1 Nuage 3D ....................................................................................................................... 41
III.3.2 Orthomosaïques ............................................................................................................ 44
III.3.3 Récapitulatif .................................................................................................................. 45
III.4 Comparaison d’un vol automatisé et d’un vol manuel sur une façade remarquable........... 46
III.5 Elaboration d’une méthodologie pour le traitement de données photogrammétriques sans
utiliser de points d’appui pour un levé de façade ............................................................................. 49
III.5.1 Acquisitions des données photogrammétriques .......................................................... 49
III.5.2 Traitement des données photogrammétriques ............................................................ 50
III.5.3 Analyse des résultats ..................................................................................................... 52
III.5.3.1 Nuage 3D ............................................................................................................... 52
III.5.3.2 Orthomosaïque...................................................................................................... 54
IV Evolutions futures : le BLK2FLY ..................................................................................................... 56
V Conclusion ..................................................................................................................................... 58

5
Introduction
Au fil des années, les méthodes de relevé de façade ont beaucoup évolué. Le relevé de
façade par station totale a longtemps été la méthode la plus utilisée, cependant, comme chacun
des points de la façade doit être relevé, cela peut se révéler être très chronophage,
spécifiquement pour les façades d’immeubles haussmanniens que l’on retrouve fréquemment
dans l’Hypercentre d’Orléans.

Avec l’augmentation de la capacité de calcul des ordinateurs, les méthodes de relevés


par photogrammétrie terrestre, combinées à des données tachéométriques, présentaient une
solution intéressante, mais cela devenait très compliqué à mettre en place pour de grands
bâtiments.

Une opportunité d’outrepasser ces problématiques se présenta avec l’arrivée sur le


marché de scanners laser terrestre (SLT) mais le coût de ces appareils reste encore aujourd’hui
très élevé et tous les cabinets de géomètre n’ont pas la possibilité d’en acquérir un. De plus, des
éléments de façade, comme des balcons, peuvent empêcher l’acquisition de points
caractéristiques de la façade depuis le sol.

Avec la démocratisation des drones, le relevé de façade par méthode de


photogrammétrie aérienne devient une alternative très intéressante à toutes les autres méthodes
citées ci-dessus. Avec un coût nettement inférieur au SLT, le relevé de façade par drone permet
l’acquisition d'images de manière homogène sur toute la façade avec la génération d’un nuage
de points. Mais cette méthode, bien que très employée par un grand nombre de cabinets,
présente encore des inconvénients.

Le Cabinet de Géomètre-Experts AB ASSOCIÉS utilise depuis de nombreuses années


la technologie drone. Que ce soit pour des relevés de carrières, de toitures ou bien des relevés
topographiques classiques, les plans de vols sont, dans la grande majorité des cas, réalisés de
manière automatique afin d’obtenir les clichés les plus adaptés pour les calculs
photogrammétriques. Cependant, ces applications d’automatisation ne sont valables que pour
des relevés au nadir.

En effet, de nos jours, un grand nombre de logiciels proposent la planification de vols


automatiques pour des vols au nadir mais encore très peu de logiciels intègrent la planification
de vols automatiques pour des relevés de façade. L’automatisation de vols verticaux apporterait
de nombreux avantages : l’acquisition d'images nettes, une meilleure gestion du recouvrement
lors de l’acquisition, une distance entre la façade et le drone constante ou bien un potentiel gain

6
de temps sur le terrain et donc une économie de charge des batteries. Mais quelles sont les
limites du vol autonome et sont-ils réellement adaptés aux relevés de façade ?

L’arrivée récente du drone DJI Phantom 4 RTK nous laisse aussi une opportunité d’un
gain de temps important sur le terrain et lors du traitement. En effet, en intégrant un module
RTK sur le drone, ce dernier est capable de se positionner dans l’espace avec une précision
centimétrique. L’utilisation d’un drone RTK permettrait-elle alors de rendre facultative la mise
en place de points d’appui ?

Afin de répondre au mieux à ces problématiques, le présent rapport s’articule autour de


quatre grandes parties.

La première partie permet d’effectuer une rapide présentation des drones et précisera la
législation encadrant l’utilisation des drones en France et au sein de l’Union Européenne. Nous
présenterons un état de l’art détaillé sur les différentes études qui ont déjà été menées sur les
relevés de façade par photogrammétrie, l’utilisation des drones pour l’acquisition
photogrammétrique et leur automatisation.

Dans la seconde partie nous nous intéresserons aux méthodologies mises en place pour
l’acquisition des données photogrammétriques et des données de référence.

Suite à cela, nous détaillerons les traitements qui ont été effectués sur les données
acquises. Les résultats obtenus seront alors comparés entre eux. Nous aborderons aussi la
possibilité d’effectuer des traitements de données photogrammétriques sans utiliser de points
d’appui.

Avant de conclure nous nous intéresserons également aux évolutions futures dans
l’acquisition de données par drone.

7
I Etat de l’art

I.1 Les drones civils

I.1.1 Définition et bref historique sur les drones

La législation française définit un drone comme étant “un aéronef opéré sans personne
à bord”. La distinction entre un avion conventionnel et un drone se fait donc par l'absence de
pilote à son bord. Dans le monde de l’aéronautique, il est plus habituel d’employer le terme
UAV (Unammed Aerial Vehicle) pour désigner un drone.

Le télépilote est, quant à lui, défini, selon la loi du 24 octobre 2016 comme “[...] la
personne qui contrôle manuellement les évolutions d'un aéronef circulant sans personne à bord
ou, dans le cas d'un vol automatique, la personne qui est en mesure à tout moment d'intervenir
sur sa trajectoire ou, dans le cas d'un vol autonome, la personne qui détermine directement la
trajectoire ou les points de passage de cet aéronef ».

C’est le 2 Juillet 1917 que le premier drone de l’histoire décolla de la base militaire
d’Avord. Ce fut avant tout une invention militaire puisque ce drone a été conçu pour effectuer
une mission de reconnaissance. Les drones se sont ensuite développés pour effectuer une grande
variété de missions jusqu’à l’apparition des drones civils.

Aujourd’hui le monde des drones civils est très occupé par l’entreprise chinoise DJI (Da
Jiang Innovation) qui a su imposer au fil des années un certain monopole. Le géant chinois
détient aujourd’hui près de 50% des parts de marché dans ce domaine. Une grande variété de
drones est disponible à la vente allant du petit drone de loisir jusqu’au drone conçu pour un
usage professionnel.

I.1.2 Les différents types de drone

Comme expliqué par [R.D.E Ruiz et al, 2021] ou bien dans les travaux de [Authie
Florent, 2020], il est possible de diviser les drones en deux catégories : les drones à voilure fixe
et les drones à voilure tournante.

I.1.2.1 Drone à voilure fixe

Très souvent propulsé par un seul moteur, ce type de drone est spécialisé dans
l’acquisition de photographies sur de grandes étendues. En effet, sa grande autonomie

8
(généralement supérieure à 1h) et sa vitesse de croisière élevée (généralement autour de 60
km/h) en fait un candidat idéal. Evidemment, ce type de drone n’est pas du tout adapté pour le
relevé de façade, leur utilisation étant réservée pour des vols programmés sur un plan horizontal.

I.1.2.2 Drone à voilure tournante

Les drones à voilure tournante se différencient des drones à voilure fixe par leur capacité
à se déplacer verticalement ou à voler en stationnaire. Leur grande manœuvrabilité permettant
des vols à proximité des bâtiments fait de ces drones des candidats idéaux pour des relevés de
façade par photogrammétrie aérienne.

Ces drones restent tout de même plus sensibles aux conditions météorologiques ce qui
peut, en cas de vent fort, dégrader fortement la qualité des images acquises. De plus, leur
autonomie est beaucoup plus restreinte, limitant les vols sur un plan horizontal à une durée de
30 min et les vols sur un plan vertical à une durée de 20 min. Les drones à voilure tournante
peuvent être classifiés en différentes catégories en fonction du nombre de rotors :

 Les hélicoptères classiques sont motorisés par un seul rotor principal et d’un rotor anti-
couple situé à la queue de ce dernier.

 Les drones à rotors coaxiaux sont constitués de deux rotors tournants chacun dans un
sens opposé.

 Les drones de type quadricoptère sont constitués de quatre rotors. Simple dans leurs
structures, résistants, faciles à diriger et souvent moins chers, ce sont les drones les plus
répandus et faisant le plus souvent le sujet de recherches [Song Chunlin et al, 2018].

 Il existe aussi d’autres types de drones constitués de 6 ou 8 rotors mais ces derniers
restent beaucoup moins répandus que les drones de type quadricoptère.

I.1.3 La législation en vigueur

I.1.3.1 La réglementation européenne

Avec l’apparition très récente d’une réglementation européenne en Janvier 2021, les
restrictions pour les drones se complexifient. Etant donné qu’il est impossible de créer une
réglementation uniforme pour tous les types de drones qui ne soit pas trop limitative, des
catégories de vols et des classes de drones sont créées. Il est alors primordial de suivre cette

9
législation très changeante et de bien en comprendre le fonctionnement. Le descriptif des
différentes classes de drones est disponible en annexe 1.

Jusqu’au 31 Décembre 2020, des catégories de vol étaient définies en fonction de la


finalité du vol (aéromodélisme, professionnel, expérimentation ...). Depuis le 1er Janvier 2021,
les drones sont répertoriés en fonction du degré de risque pour la sécurité aérienne.

I.1.3.1.1 Catégorie ouverte

Les vols jugés à faible risque sont répertoriés dans la catégorie ouverte. Les drones C0
à C4 peuvent alors voler sans autorisation particulière mais doivent tout de même être déclarés
sur la plateforme en ligne Alpha Tango. Les vols de drone de plus de 25 kg et les vols hors vue
sont interdits dans cette catégorie. Il est aussi important de préciser que seuls les vols dans les
zones dites de “loisir” sont autorisés dans la catégorie ouverte. Les vols à proximité
d'aérodrome, en agglomération ou dans les parcs nationaux sont interdits.

La catégorie ouverte est composée de 3 sous catégories : A1, A2 et A3. Ces dernières
dépendent des risques de l’opération prévue :

 A1 : Vol autorisé à proximité des personnes et toléré au-dessus des personnes pour les
drones de moins de 900 g. (classes C0 et C1)

 A2 : Vol autorisé jusqu’à 30 m de personnes (ou bien à 5 m si la fonction basse vitesse


est activée, c’est-à-dire avec une vitesse plafonnée à 5 m/s) pour les drones de moins de
4 kg. (Classe C2)

 A3 : Vol autorisé à plus de 150 m des zones résidentielles, commerciales ou industrielles


pour les drones de moins de 25 kg. (Classes C3 et C4)

A partir du 1er Juillet 2022, les anciens drones sans marque CE et sans indication de
classe pourront voler en catégorie A1 pour les drones de moins de 250 g et en catégorie A3
pour les drones de moins de 25 kg.

I.1.3.1.2 Catégorie spécifique

Les vols jugés à risque modéré sont répertoriés dans la catégorie spécifique. Les vols
dits hors vue et au sein d’une agglomération ou à proximité d'un aérodrome sont autorisés.

10
Jusqu’au 2 Décembre 2023, il est encore possible de voler suivant les démarches propres
aux anciens scénarios S-1, S-2 et S-3. Depuis le 2 Décembre 2021, deux scénarios ont été mis
en place au niveau européen :

 STS-01 : Vol à vue et sous contrôle en zone peuplée autorisé pour des drones de classe
C5.

 STS-02 : Vol hors vue mais sous contrôle et à une distance maximale de 1 km du
télépilote pour des drones de classe C6 et hors zone peuplée.

Après le 2 Décembre 2023, il sera obligatoire de voler suivant ces deux scénarios
européens ou avec une autorisation spécifique ou avec PDRA (pre-defined risk assessment).

I.1.3.1.3 Catégorie certifiée

La catégorie certifiée correspond aux vols jugés à risque élevé. Cela comprend des
missions de transport de marchandises ou de personnes.

I.1.3.2 La réglementation française

Apparue en 2012, la réglementation française est la première réglementation concernant


les drones à être apparue dans le monde. Cette dernière prévoit 4 scénarios de vol :

 S1 : Vol à vue, hors agglomération, à une distance horizontale maximale de 200 m du


télépilote et une hauteur maximale de 120 m, uniquement pour les drones de moins de
25 kg. Cela correspond dans une grande partie des cas à la catégorie ouverte A1 de la
réglementation européenne.

 S2 : Vol hors vue, hors agglomération, à une distance horizontale maximale de 1 km


du télépilote et une hauteur maximale de 50 m pour les drones de moins de 25 kg, ou
bien à une hauteur maximale de 120 m pour les drones de moins de 2 kg. Cela
correspond dans une grande partie des cas à la catégorie ouverte STS-02 de la
réglementation européenne.

 S3 : Vol à vue, en agglomération, à une distance horizontale maximale de 100 m du


télépilote et une hauteur maximale de 120 m, uniquement pour les drones de moins de
8 kg. Cela correspond dans une grande partie des cas à la catégorie ouverte STS-01 de
la réglementation européenne.

11
Il n’est plus possible de voler suivant l’ancien scénario S4 depuis l’entrée en vigueur de
la nouvelle réglementation européenne, c’est-à-dire depuis le 1er Janvier 2021.

Il est encore possible de voler suivant les scénarios nationaux S1, S2 et S3 jusqu’au 1er
Janvier 2026.Une fois cette date passée, seuls les scénarios européens resteront en vigueur.

La réglementation française vient aussi apporter des restrictions supplémentaires


indépendamment des scénarios décrits précédemment, comme par exemple :

 Interdiction de voler durant la nuit aéronautique. La nuit aéronautique commence 30


min avant le coucher du soleil et se termine 30 min après le lever du soleil.

 Interdiction de voler au-dessus de l’espace public en agglomération sans accord.

 Interdiction de voler dans certaines zones ou limite de vol en hauteur.

 Interdictions de prises de vue dans certaines zones (certaines réserves naturelles, centre
pénitencier, centrale nucléaire ...).

 Interdiction de filmer des personnes sans leur accord.

 Le drone doit obligatoirement diffuser un signal électronique à distance.

 Obligation d’enregistrer les drones de plus de 800 g sur la plateforme Alpha Tango et
d’apposer le numéro d'identification en plus du numéro UAS propre à la réglementation
européenne.

I.2 La photogrammétrie par drone

I.2.1 Reconstruction automatique de nuages de points 3D

La reconstruction 3D est possible tant qu'au moins 2 images de la même scène sont
obtenues à partir de différentes positions telles que, à partir de la position, de l’orientation et de
la distance focale, il devient possible de déterminer la position de points dans l’espace à partir
des coordonnées bidimensionnelles des images suivant les principes de la géométrie épipolaire.

Afin de pouvoir calculer un nuage de points 3D à partir d’images, les logiciels de


photogrammétrie utilisent 3 étapes distinctes. La première étape est la détection automatique
de points de liaison entre les différents couples d’images stéréoscopiques, la seconde étape est
l’orientation automatique des images et enfin la troisième et dernière étape est la densification
du nuage de points reposant sur la corrélation épipolaire dense.

12
La détection et l’appariement des points homologues, l’estimation des poses des
caméras et la génération d’un premier nuage de points peu dense est assuré par l’algorithme
SfM (Structure for Motion) [Özyeşil Onur et al, 2017]. L’algorithme MVS (Multi View Stereo)
permet par la suite de produire un nuage de points dense.

I.2.1.1 Détection automatique des points de liaison

Auparavant, la détection des points homologues entre les différents couples d’images se
faisait manuellement. Aujourd’hui, les logiciels de photogrammétrie utilisent des algorithmes
tels que SIFT (ou bien ses variantes) afin de décrire l’environnement radiométrique des points
[Egels Yves, 2011]. Ces points homologues détectés sont souvent des points dont la couleur ou
la texture diffère des points voisins.

I.2.1.2 Orientation des images

L’orientation des images se décompose en 3 orientations : l’orientation interne,


l’orientation relative et l’orientation absolue.

I.2.1.2.1 Orientation interne

L'orientation interne correspond au calcul des paramètres de calibration de l’APN utilisé


lors de l’acquisition des images. Parmi ces paramètres de calibration on retrouve :

 La longueur focale ou distance principale (f).

 Les coordonnées clichées du point principal d’autocollimation (PPA), c’est à dire de


l’intersection de l’axe optique de la lentille avec le plan du capteur (cx, cy).

 Les coordonnées clichées du point principal de symétrie (PPS).

 Les coefficients de distorsions radiales (k1, k2, k3, k4).

 Les coefficients de distorsions tangentielles (p1, p2, p3, p4).

Les coefficients de distorsions sont les coefficients du polynôme servant à modéliser les
distorsions optiques. Cependant, la composante radiale reste la variable dominante dans la
déformation géométrique de l’image. Les composantes tangentielles sont alors souvent
négligées lors de la calibration de la caméra. De plus, selon [Wang Aiqi et al, 2009], la
distorsion radiale est représentée à 90% par le coefficient k1 et donc peut se simplifier à ce
paramètre.

13
I.2.1.2.2 Orientation relative

L’orientation relative a pour objectif de déterminer l'orientation des images les unes par
rapport aux autres. Pour cela, un lien va être établi entre chaque image à l’aide des points
homologues définis précédemment. Ce sont les équations de coplanéité qui sont utilisées
indiquant que les deux sommets et les rayons homologues sont coplanaires, avec comme valeurs
approchées des axes parallèles perpendiculaires à la base [Egels Yves, 2011].

C’est un procédé itératif : le logiciel va orienter dans un système local et aléatoire une
première image puis va orienter la deuxième par rapport à la précédente et ainsi de suite jusqu’à
orienter l’ensemble des images dans un système local. Pour chaque image, 7 paramètres vont
alors être calculés : 3 translations (Tx, Ty, Tz), 3 rotations (Rx, Ry, Rz) ainsi qu’un facteur
d’échelle. Ce calcul est la similitude 3D.

Un groupe d’images est l’ensemble des images ayant déjà été relié par la similitude 3D.
Une fois que toutes les similitudes 3D ont été calculées, un calcul de compensation est effectué
au sein du groupe d’images.

I.2.1.2.3 Orientation absolue

L’orientation absolue va permettre, à la suite de l’orientation relative, de référencer le


groupe d’images dans le système de coordonnées souhaité. Une transformation spatiale à 7
paramètres (3 translations, 3 rotations et 1 facteur d’échelle), nommée similitude spatiale, va
alors être réalisée. Etant donné que 7 paramètres sont à déterminer, 3 points d’appui connus
dans le système de coordonnées souhaité, sont nécessaires afin d’effectuer cette orientation.

I.2.1.3 La corrélation d’images

Les différentes méthodes de corrélation d’images s’appuient sur la corrélation épipolaire


dense. Cette méthode repose sur la stéréoscopie permettant de reconstituer une scène en trois
dimensions à partir de mesures de parallaxe entre points homologues. Lorsqu’un point est
pointé sur un cliché, la recherche des points homologues sur un autre cliché est restreinte à la
projection centrale du rayon sur cette image.

Auparavant réalisée uniquement sur des couples d’images, la puissance de calcul des
ordinateurs permet aujourd’hui de procéder à des corrélations multi-images, c'est-à-dire de
procéder à des appariements sur une multitude de clichés à la fois. Il existe de nombreuses

14
méthodes pour reconstruire une scène en 3D, mais la majorité se base sur une carte de
profondeur des images.

I.2.2 Recommandations concernant les paramètres d’acquisition photogrammétrique

I.2.2.1 Calibration de la caméra

La calibration (ou étalonnage) consiste à estimer le plus précisément possible les


paramètres internes d’une caméra. C’est une étape préalable quasi obligatoire à tous travaux de
photogrammétrie puisque la qualité de l’estimation de pose de caméra dépend directement de
la qualité de la calibration [Bertrand Cannelle et al, 2015].

La méthode classique d’étalonnage consiste à photographier un réseau de cibles


connues, appelé aussi polygone d’étalonnage.

Une autre méthode, appelée auto calibration, consiste à capturer de nombreuses fois une
même scène. Le logiciel va alors pouvoir calculer les paramètres de calibration à partir de
paramètres initiaux que l’utilisateur aura précisés (les paramètres indiqués par le constructeur
par exemple) [Lavest Jean-Marc et al, 1998].

Il est aussi possible d’effectuer une calibration de caméra à l’aide d’images


panoramiques, comme l’a expérimenté [Ramalingam Srikumar et al, 2010] ou plus récemment
[Bertrand Cannelle et al, 2015].

I.2.2.2 Taux de recouvrement

La reconstruction 3D d’une scène est possible tant qu’au moins 2 images de cette même
scène sont obtenues depuis des positions différentes. Cette partie commune de deux images est
alors appelée recouvrement. Ce recouvrement permettant la redondance de l’information est un
facteur majeur à prendre en compte. Il en existe deux types : le recouvrement longitudinal et le
recouvrement transversal.

Le recouvrement longitudinal correspond au recouvrement entre deux clichés


successifs. Lors d’un relevé de façade, cela équivaut au recouvrement au sein d’une même
bande. Le recouvrement transversal correspond quant à lui au recouvrement entre deux bandes
successives.

15
Les travaux de [Caudal Philippe, 2021] ont permis de montrer qu’un recouvrement
longitudinal de 80% était idéal pour une acquisition depuis le sol mais qu’un recouvrement de
70% était à privilégier pour des prises de vue par drone.

Une étude menée par [R.D.E Ruiz et al, 2021] a permis de montrer que pour un relevé
de façade, en utilisant le drone DJI Phantom 4 Pro V2.0, une distance par rapport à la façade de
8 m, avec une distance entre station de 1.8 m verticalement et 3.2 m horizontalement permettrait
d’obtenir les meilleurs résultats.

I.2.2.3 Mise en place de visées obliques

Les visées obliques sont des prises de vue supplémentaires apportées au levé avec un
angle de prise de vue par rapport à la surface à photographier non perpendiculaire.

Lors d’un levé photogrammétrique d’une façade, la mise en place de visées obliques
permet une plus grande redondance de l’information et donc une meilleure construction du
modèle. Dans certains cas de façade, cela permet aussi de limiter fortement les zones
d’occlusion. Une étude menée par [James Mike R et al, 2017] montre que pour un levé aérien
nadiral, la mise en place de visées obliques permettrait d’améliorer significativement la
précision du levé. Les travaux menés par [Nesbit Paul Ryan et al, 2022] ont permis de montrer
que le ratio d’images collectées sous différents angles a un impact direct sur la précision des
résultats, et cet impact est d’autant plus important lorsque le nombre de GCP est inférieur à 3.

I.2.2.4 Utilisation de GCP

Les Ground Control Point (GCP) sont des points connus en coordonnées. Afin de
pouvoir procéder à un bon alignement des photos lors du traitement, il est nécessaire d’utiliser
des points d’appui. Théoriquement, seuls 3 points d’appui sont nécessaires pour un bon
alignement mais dans les faits, un nombre plus important de ces points est nécessaire. Pour un
levé de façade il est conseillé de répartir les points d’appui de manière homogène sur la face et
spécifiquement sur les bords afin de “fixer” le modèle.

A partir de ce constat on peut alors se demander le nombre de cibles à mettre en place


qui offrirait le meilleur compromis entre rapidité de mise en place, vitesse de traitement et
précisions obtenues. Une étude de [Shahbazi Mozhdeh et al, 2015] nous montre alors que
lorsque le recouvrement entre clichés est suffisant, un nombre plus réduit de cibles permet
d’acquérir des précisions similaires.

16
Le manuel utilisateur Metashape (https://www.agisoft.com/pdf/metashape-
pro_1_8_en.pdf, consulté en mars 2022) recommande l’utilisation d’au moins 10 GCP répartis
uniformément sur le sol lors d’un vol horizontal pour une bonne reconstruction.

L’utilisation de GCP permet non seulement d’améliorer les précisions mais aussi de
limiter au maximum l’effet « bowl » comme le montre l'étude menée par [Nocerino Erica et al,
2013]. L’effet « bowl » apparaît lors de prises de vue linéaires et déforme la géométrie globale
du nuage de points en produisant un nuage de points courbé.

Après avoir évalué l’impact du nombre de points d’appui pour un levé de façade
automatisé par drone (annexe 10), nous avons pu en conclure que, pour une façade d’environ
16 m de long et 6 m de haut, la mise en place de 5 GCP semble être le meilleur compromis
entre temps de traitement et précisions obtenues pour un levé automatisé par drone.

I.2.2.5 Vitesse du drone

La vitesse du drone lors de l’acquisition d’images est un facteur important à prendre en


compte dû à l’effet shutter. L’effet shutter correspond à un décalage dans l’espace du drone
entre le début et la fin de prise de vue. Plus la vitesse du drone est élevée, plus l’effet shutter
sera important et donc la qualité de l’image dégradée. Pour qu’une image soit nette il faut que
la taille pixel sol soit inférieure à la distance parcourue par le drone lors de l’ouverture de
l’obturateur.

Une étude menée par [Vautherin Jonas et al, 2016] montre alors l'intérêt de compenser
cet effet indésirable à l’aide de logiciel de photogrammétrie tel que Metashape ou alors
d’effectuer un vol stationnaire lors de prise de vue. Mais aujourd’hui, la majorité des drones
sont dotés d’une technologie nommée “global shutter” compensant automatiquement cet effet
indésirable lors de la prise de vue et permettant alors l’acquisition d'images pendant le
déplacement du drone.

I.2.2.6 Condition Météorologique

Les drones à voilure tournante sont très sensibles aux conditions météorologiques. Leur
utilisation, même en mode manuel, est très fortement déconseillé les jours de pluie ou bien avec
des vents supérieurs à 30 km/h. Les caractéristiques techniques fournies par le constructeur,
disponibles en annexe 2 et 3, mentionnent une résistance maximale au vent de 36 km/h pour le
drone DJI Phantom 4 Pro V2.0 et Phantom 4 RTK.

17
De plus, il faut prêter attention à ce que la luminosité ne soit pas trop changeante avec
le passage de nuages, cela dégraderait la qualité des orthomosaïques.

I.2.3 Méthode de comparaison des résultats

Afin de pouvoir comparer les différents nuages de points, nous avons choisi le logiciel
open source Cloud Compare. Différents algorithmes sont disponibles sur Cloud Compare :

L’algorithme Cloud to Cloud (C2C) permet la comparaison de deux nuages de points.


Cette méthode calcule, pour chaque point du nuage à comparer, la distance du point le plus
proche issu du second nuage (souvent le nuage de référence).

L’algorithme Cloud to Mesh (C2M) permet la comparaison entre un nuage et un


maillage, le maillage constituant obligatoirement l’entité de référence. Cette méthode va alors
calculer, pour chaque point du nuage, la distance le plus courte séparant le point du maillage. Il
est important de préciser que cette méthode trouve un intérêt lorsque le nombre de face du
maillage est suffisamment important. En effet, la construction d’un maillage se basant sur le
calcul d’une interpolation, l’utilisation de cette méthode pour un maillage pas assez
suffisamment dense ou pour une surface rugueuse entrainerait des approximations trop grandes
[Brizard Benoit, 2020].

L’algorithme Multi-Scale Model-to-Model Cloud Comparison (M3C2) est une méthode


de comparaison entre deux nuages, disponible sous la forme d’un plug-in. Pour commencer,
l’algorithme va estimer, pour chaque point du nuage à comparer, sa normale en fonction du
nuage de référence. A partir des vecteurs calculés, le logiciel va calculer une surface. Prenant
compte de la rugosité, c’est la surface la plus proche de la réalité. La distance entre les deux
nuages de points va pouvoir alors être calculée en fonction de cette surface précédemment
estimée [Lague Dimitri et al, 2013]. Dans les travaux de [Nesbit Paul Ryan et al, 2022] et [Paul
Ryan Nesbit et al, 2019], on peut comprendre l’intérêt de cet algorithme pour identifier une
variation de la surface d’un nuage de points et identifier les différences locales dans une
topographie complexe.

I.3 Programmation de vols

I.3.1 Etudes existantes sur l’automatisation des vols par drone

Grâce à leur développement récent et leur démocratisation dans le monde civil, les
drones ont pu trouver leur place dans de nombreux domaines. Comme nous l’explique [R.D.E

18
Ruiz et al, 2021], le fait que les drones soient pilotés à distance permet de remplir des tâches
auparavant dangereuses et représente un gain de temps non négligeable pour bon nombre de
missions. Malgré cela, le relevé par drone présente encore de nombreux inconvénients.
L’automatisation des drones lors d’une mission permettrait de répondre à de nombreuses
problématiques et apporterait de nombreux avantages : garder un cap et une vitesse constante,
assurer une meilleure stabilité de l’appareil, économiser du temps sur le terrain et donc de
charge de batterie …

De ce fait, l’automatisation des drones a déjà été abordée dans de nombreuses études, il
est alors primordial de connaitre les problématiques qui ont déjà été rencontrées et les solutions
qui ont été apportées. Bien que des études ont été réalisées pour des drones à voilure fixe
([Elbanna E. A. Ahmed et al, 2018] par exemple), nous nous concentrerons dans cette partie,
sur les travaux menés sur des drones à voilure tournante.

[Sebbane Yasmina Bestaoui, 2015] définit un véhicule autonome comme un véhicule


capable de prendre des décisions et de réagir à des événements imprévus sans intervention
humaine. De cette définition, nous pouvons retenir deux aspects dans l’autonomie du drone qui
sont absolument à prendre en compte : le déplacement du drone sans intervention humaine et
la capacité à éviter des obstacles.

C’est pour cela que la capacité d’un drone à éviter des obstacles est une problématique
très importante dans l’autonomie des drones et d’autant plus pour des relevés de façades où le
drone est contraint de voler en basse altitude, à proximité de bâtiments et souvent en milieu
urbain. Malheureusement, même avec l’installation de capteurs sensibles, l’exécution d’un vol
en autonomie à basse altitude reste complexe. [Dashuai Wang at al, 2020] proposent alors un
algorithme de « deep learning » permettant au drone, à partir de caméra, de détecter et
reconnaitre un obstacle (arbre, personne, pilonne électrique ...) et d’adapter sa trajectoire en
fonction. Malheureusement, la détection des obstacles ne reste pas encore assez fiable pour
pouvoir assurer un vol autonome suffisamment sécurisé.

Nous pouvons aussi mentionner les travaux réalisés par [Samaniego Franklin et al,
2019] proposant un algorithme, RR-MACD, capable de planifier un itinéraire 3D de vol en
prenant en compte l’environnement de vol à partir d’un maillage de ce dernier.

Le positionnement du drone par GNSS joue un rôle vital pour permettre au drone
d’effectuer une trajectoire définie. Seulement ce positionnement du drone par GNSS peut
fortement être dégradé voir perdu lors de vols réalisés à basse altitude, dans des zones urbaines

19
ou à proximité de bâtiments, comme c’est très souvent le cas pour des relevés de façades.
Aujourd’hui, sans positionnement GNSS, il est très difficile pour un drone d’atterrir de manière
sécurisée. Cependant, à l’aide d’un équipement optique et d’un algorithme de reconnaissance
d’image, le VSLAM (Visual Simultaneous Localization and Mapping), la position et
l’orientation du drone peuvent théoriquement être calculées. C’est à partir de cela que [Tao
Yang et al, 2018] proposent un algorithme permettant au drone d’atterrir de manière sécurisée
dans un environnement inconnu.

Toujours dans le même but, [Armendariz Saul et al 2019] proposent, en s’inspirant de


la théorie générale du tau (traitant de la direction des mouvements corporels en fonction de
l’environnement chez les êtres vivants) un algorithme permettant au drone d’atterrir sans
positionnement GPS.

I.3.2 Logiciels de programmation de vols existants

L’utilisation des drones étant devenue très répandue, il existe maintenant une grande
variété de logiciels permettant la programmation de vols autonomes horizontaux. Ces logiciels
peuvent venir directement des constructeurs de drones comme DJI qui proposent l’application
DJI GO téléchargeable sur smartphone ou bien d’entreprises indépendantes comme Pix4D
proposant des fonctions propres à une utilisation professionnelle des drones. Malgré cela, très
peu de ces logiciels proposent la programmation de vols autonomes verticaux destinés aux
relevés de façade.

DJI met à disposition du public un kit de développement logiciel appelé DJI SDK qui
permet alors à des applications tierces de se connecter aux drones DJI et d'exécuter des
commandes pour, principalement, automatiser des vols.

Afin de mener à bien cette étude, il est primordial de connaître les principaux logiciels
proposant la programmation de vols verticaux. Un état de l’art fait sur ces logiciels permettra
de savoir quels sont les logiciels qui sont le plus susceptible de répondre à la problématique
posée.

I.3.2.1 DJI GS RTK

Installé directement sur la radiocommande, DJI GS RTK est un logiciel réservé


uniquement au drone DJI Phantom 4 RTK. Il permet au télépilote de pouvoir contrôler son
drone en direct, de lui communiquer les informations concernant le drone (niveau de batterie,

20
réception des satellites, localisation du drone...), mais aussi de programmer des missions de vol.
Parmi les différents types de vol que nous proposent DJI, un mode de vol semble être adapté
aux levés de façade : c’est le vol incliné. Normalement conçu pour réaliser des vols inclinés
afin de suivre une pente, ce mode permet aussi d’effectuer des vols verticaux.

La programmation d’un vol vertical se base sur le mode RTK du drone. Le télépilote
doit dans un premier temps rentrer 3 points afin de matérialiser la façade : les points a, b et c.
Pour cela il suffit de placer le drone en stationnaire sur les points souhaités et d’enregistrer leurs
coordonnées calculées par le drone. Par la suite, l’utilisateur doit rentrer les paramètres
d’acquisition : taux de recouvrement longitudinal, taux de recouvrement transversal, vitesse du
drone, distance par rapport à la façade. Une fois ces étapes préliminaires réalisées, le vol
automatisé peut commencer.

Figure 1 : Photo de l’interface de planification d’un vol vertical avec DJI GS RTK

Mais, après plusieurs tentatives nous nous sommes confrontés à divers problèmes. Tout
d’abord, les points a, b et c doivent normalement permettre de définir le plan de la façade. Les
points a et b se situent donc théoriquement au pied de la façade et le point c au niveau de la
toiture. Bien entendu, il est impossible de faire voler le drone en stationnaire à ces positions et
doivent alors s’enregistrer en retrait par rapport à la façade (à une distance d’environ 3 m). Ce
retrait de 3 m n’étant pas pris en compte par le logiciel, la distance de prise de vue enregistrée
n’est pas la même que celle sur le terrain ce qui entraine des erreurs dans les calculs des bases
et donc du recouvrement obtenu.

Le second problème majeur avec cette application est la géométrie du plan de vol qu’il
nous propose. Nous pouvons bien voir sur la figure 2 que le plan de vol prévu par le drone ne
correspond pas réellement à nos attentes et peut poser soucis dans la gestion des obstacles.

21
Schéma d’un plan de vol calculé par
DJI GS RTK Schéma du plan de vol souhaité

Figure 2 : Comparaison entre le plan de vol calculé par DJI GS RTK et le plan de vol souhaité.

Après avoir multiplié les essais en modifiant les divers paramètres, nous n’avons pas
réussi à passer outre ces importantes contraintes. Bien que DJI GS RTK dispose d’une fonction
nommée « vol incliné », présentée comme une option permettant d’effectuer des relevés de
façade, nous avons finalement conclu que cet outil ne semblait pas du tout adapté pour effectuer
des vols verticaux.

I.3.2.2 Tap2Map

Tap2Map est une application mobile disponible sur IOS permettant la planification de
vol. Cette application est compatible avec la quasi-totalité de la gamme DJI mais n’est
cependant pas compatible avec des drones d’une autre marque. C’est une application
développée par une entreprise tierce, indépendante des constructeurs de drones.

Le choix des types de missions est varié, du vol horizontal classique au vol linéaire, en
passant par la lecture de points au format KML depuis un drive pour définir des points de
passage. Mais cette application prévoit aussi, comme très peu d’autres applications, la création
de plans de vol verticaux spécifiquement pensés pour effectuer des relevés de façade.

La planification d’un vol vertical passe dans un premier temps par la création d’un plan
vertical, parallèle à la façade, dans lequel le drone va évoluer. Pour définir ce plan, il faut
enregistrer les coordonnées de deux points, les points a et b, situés respectivement au coin haut
gauche et au coin bas droit de ce plan de vol. Une fois ce plan de vol défini géométriquement,
un certain nombre de paramètres est à renseigner afin que l’application puisse calculer le
nombre de bandes horizontales ainsi que le nombre de stations par bande (distance de prise de
vue, taux de recouvrement, vitesse du drone).

22
Figure 3 : Capture d’écran de l’interface de planification d’un vol vertical avec Tap2Map

L'utilisation de l’application nécessite un abonnement mensuel de 30 euros ou bien un


abonnement annuel de 300 euros, cependant, un essai gratuit limité dans le temps et incluant
toutes les fonctionnalités est disponible.

I.3.2.3 UgCS

UgCS (Universal Ground Control Software) est un logiciel développé par SPH
Engineering, une entreprise indépendante des constructeurs de drones. Ce logiciel est
compatible avec la majorité des drones de la gamme DJI et Mavlink. Ce logiciel propose un
panel d’outil pour la photogrammétrie mais aussi pour des systèmes LiDAR.

Contrairement aux autres applications citées ci-dessus, UgCS ne permet pas de planifier
un vol directement sur le terrain sans un ordinateur portable. L’application mobile sert
uniquement d’intermédiaire entre l’ordinateur et la radiocommande. Afin de planifier nos
relevés de façade, nous avons utilisé l’outil « balayage vertical ».

La première étape consiste à créer des sommets afin de définir le plan de vol vertical
dans lequel le drone va évoluer. Grace à ce système, il est alors possible de réaliser un relevé
sur plusieurs façades en un seul vol, ce qui constitue un atout par rapport aux deux autres
applications. Ces sommets peuvent être placés visuellement sur un fond de carte ou bien en
renseignant des coordonnées en WGS84.

Une fois que le plan de vol vertical est défini un certain nombre de paramètres sont à
renseigner afin que le logiciel puisse calculer la trajectoire du drone. On retrouve alors les
paramètres indispensables à tous relevés de façade (recouvrement, distance par rapport à la
façade, caméra utilisée, hauteur de la façade) mais aussi des paramètres plus avancés afin
d’adapter le vol à la situation (type de virage, vitesse horizontale, vitesse verticale).

Par la suite l’utilisateur peut ajouter des actions que le drone va effectuer durant son vol
dans l’ordre souhaité : attendre, changer le POI (Point Of Interest), changer l’orientation de la

23
caméra, passage en mode vidéo, passage en mode photo, acquisition de photo par intervalle de
temps, acquisition de photos par intervalle de distance.

La version Pro de UgCS est disponible à l’achat pour 600$ et nécessite en supplément
un abonnement annuel de 120$ à partir de 1 an après l’achat du logiciel. La version entreprise
de UgCS, comprenant un panel de fonctionnalités supplémentaires propres aux LIDAR, est
disponible à l’achat au prix de 2000$ (nécessitant un abonnement annuel de 400$) ou bien pour
un abonnement mensuel de 239$. Ces prix placent alors l'application dans la gamme de prix la
plus élevée avec des abonnements mensuels 5 à 10 fois plus élevés par rapport aux autres
logiciels ou applications présentées dans ce rapport.

Figure 4 : Capture d’écran de l’interface de planification d’un vol vertical avec UgCS

I.3.2.4 Drone Harmony

Drone Harmony, dont son utilisation a déjà été évoqué dans les travaux de [Brizard
Benoit, 2020], est un logiciel permettant la programmation de vol depuis un ordinateur ou un
téléphone mobile. Bien que l’application mobile soit disponible sur IOS et Android, seule la
version sur Android permet la programmation de vol. La version disponible sur IOS permet
uniquement d'exécuter des plans de vol préalablement définis sur ordinateur.

Drone Harmony se différencie des autres outils par la possibilité de définir des volumes
3D afin de créer des plans de vols. Ces volumes 3D peuvent être créés manuellement en
dessinant directement sur l’interface ou bien peuvent être importés depuis OSM (Open Street
Map). Il est aussi possible d’importer des aires sous le format GeoJSON. Il est alors possible
de créer automatiquement un plan de vol vertical pour un relevé de façade en précisant quel

24
volume représente le bâtiment à relever et quels sont les volumes qui représentent des zones à
risques (autres bâtiments, mobilier urbain, arbres ...) dans lesquelles le drone ne doit pas aller.
Cet outil nous permet alors de créer des plans de vol tout en prenant en compte les obstacles
présents dans l’environnement. Il est aussi possible de créer des zones interdites de vol (no-fly
zone) ou des zones dans lesquelles le drone est contraint de rester (geo-fense). Ces fonctions
peuvent se révéler très utiles pour représenter des zones à proximité d’aérodrome ou
d’agglomération.

Les principaux paramètres permettant de définir un plan de vol tel que le recouvrement
ou bien l’orientation de la caméra peuvent aussi être définis.

L’utilisation de ce logiciel nécessite un abonnement mensuel de 33$, ce qui le place


dans la même gamme de prix que Tap2Map.

Figure 5 : Capture d’écran de l’interface de planification d’un vol vertical avec Drone Harmony

25
II ELABORATION D’UNE MÉTHODOLOGIE POUR
L’AUTOMATISATION D’UN RELEVÉ DE FAÇADE PAR
DRONE
II.1 Moyens mis à disposition

Avant de procéder à une acquisition photogrammétrique, il est primordial de connaître


les caractéristiques du matériel qui va être utilisé. Une étude menée par [R.D.E Ruiz et al, 2021]
indique les équipements minimums nécessaires pour pouvoir faire une acquisition de façade
par drone. Parmi ces équipements on retrouve : un drone à voilure tournante, une caméra de 20
mégapixels et permettant la visualisation en direct des images, une nacelle stabilisatrice ainsi
qu’une batterie d’une autonomie de 30 min.

De plus, au cours de cette étude, nous utiliserons un scanner laser terrestre, un récepteur
GNSS et une station totale dans le but de produire des données de référence aux précisions déjà
connues.

II.1.1 Drone

Le cabinet de géomètre expert AB ASSOCIES dispose au total de 3 drones. Cependant


nous limiterons notre étude à l’utilisation de deux drones, tous deux de la marque DJI.

II.1.1.1 DJI Phantom 4 Pro V2.0

Le DJI Phantom 4 Pro V2.0 est un drone de type quadricoptère d’une taille de 350 mm
de diagonale et d’une masse de 1.375 kg. Le drone est aussi équipé d’un récepteur GNSS et
d’une centrale inertielle. Selon le constructeur, le drone est alors capable de se positionner dans
l’espace avec une précision absolue de 1,5 m en planimétrie et 0,5 m en altimétrie.

Il embarque avec lui une caméra de 20 millions de pixels comprenant une dimension
d’image de 5472 x 3648 pixels. La caméra est fixée à une nacelle s'orientant dans les 3
dimensions. Cette dernière permet d’orienter la caméra pour la prise d’image mais aussi de
réduire grandement les effets de flou sur les images en compensant les vibrations et les
mouvements du drone pendant le vol.

Cependant, le drone possède aussi un système de positionnement visuel (VPS) lui


permettant d’améliorer nettement son calcul de positon. Le VPS est un système utilisant des

26
ultrasons et des données images via les capteurs et les caméras situées en dessous de l’appareil
permettant au drone d’améliorer nettement la précision de la mesure de son déplacement.

Le VPS est activé automatiquement dès que le drone est mis sous tension. Le système
ne fonctionne pas très bien lorsque le drone survole une surface absorbant les ondes sonores,
monochrome, avec des motifs répétitifs, très inclinées ou au-dessus d’un plan d’eau. Lorsque
cela arrive, il est conseillé de désactiver le système dans les réglages. Les caractéristiques
techniques fournies par le constructeur, disponibles en annexe 2, annonce alors une précision
relative planimétrique de 0,3 m et altimétrique de 0.1 m lorsque le VPS est activé dans de
bonnes conditions. L’expérience que j’ai menée (décrite en annexe 7) a permis de démontrer
que dans les faits, lors de l’exécution d’un plan de vol vertical, la précision de positionnement
relative planimétrique est d’environ 0,6 m.

Comme pour la majorité des drones actuels, le DJI Phantom 4 Pro V2.0 dispose d’un
système IMU (Inertial Measurement Unit). Un IMU calcule le roulis tangage et lacet à l’aide
d’un ou plusieurs gyroscopes, et parfois en incluant un magnétomètre. En intégrant
l’accélération détectée ainsi qu’une valeur approchée de la gravité, il est alors possible de
calculer la vitesse du drone, et donc connaissant sa position précédente, sa position actuelle.
Pour voler dans n’importe quelle direction, le contrôleur de vol recueille les données IMU sur
le positionnement actuel, puis envoie de nouvelles données aux ESC (Electronic Speed
Controllers) du moteur. Ces régulateurs de vitesse électroniques signalent aux moteurs le niveau
de poussée et la vitesse nécessaire pour que le quadricoptère vole dans la direction souhaitée.
C’est un calcul qui est fait continuellement pour détecter toutes les variations extérieures. Sans
ce système, il serait impossible de maintenir une trajectoire correcte avec du vent. Le DJI
Phantom 4 Pro V2.0 est connecté avec une radiocommande de type SDK contrôler.

II.1.1.2 DJI Phantom 4 RTK

Le DJI Phantom 4 RTK est très similaire au précédent dans ses caractéristiques
techniques avec une masse légèrement supérieure au DJI Phantom 4 Pro V2.0 (350 mm de taille
de diagonale et 1391 kg). La caméra repose là aussi sur un système de nacelle. Le Phantom 4
Pro V2.0 et le Phantom 4 RTK possèdent tous deux le même capteur CMOS 1 pouce pour 20
mégapixels.

Mais la plus grande différence avec le DJI Phantom 4 Pro V2.0 réside dans la
technologie RTK que le drone embarque. Bien que des drones RTK à voilure fixe existaient
déjà auparavant, DJI est le premier constructeur à proposer un drone de type quadricoptère

27
embarquant un récepteur RTK à un prix accessible et offrant des possibilités d’utilisation très
intéressantes.

Il existe plusieurs manières d’exploiter la technologie RTK embarquée par le drone. La


première méthode est la cinématique temps réel classique (Real Time Kinematic ou RTK) se
basant alors sur la mise en place d’un récepteur GNSS appelé pivot (ou base) sur un point aux
coordonnées connues. Cette base va alors envoyer ses observations ainsi que sa position toutes
les secondes au mobile, dans notre cas, le drone. Le mobile va alors pouvoir effectuer un calcul
appelé double différence lui permettant de calculer des corrections qu’il va pouvoir directement
appliquer sur ses observations. Pour atteindre les précisions voulues, il faut s’assurer d’une
bonne communication entre la base et le mobile, ainsi qu’une distance réduite entre la base et
le mobile. Pour pouvoir mettre en place cette méthodologie, DJI propose à la vente la station
mobile D-RTK 2 qui assure alors un mode de transmission fiable avec le mobile grâce au
système OcuSync 2.0.

La seconde méthode, très similaire, est la cinétique temps réel en réseau (Network Real
Time Kinematic ou NRTK). Cette méthode ne consiste plus à la mise en place d’un pivot mais
repose sur un réseau de station permanente. Chaque station permanente du réseau envoie ses
observations à un centre de calcul où vont alors être calculées les différentes corrections. Les
corrections sont alors envoyées au mobile à l’aide d’une communication GSM. Pour que cette
méthode fonctionne, il est nécessaire de souscrire à un abonnement d’un réseau de station
permanente et d’avoir une bonne connexion au réseau GSM (pas de zone blanche).

Les deux méthodes (RTK et NRTK) apportent des précisions similaires dans les
résultats lorsqu’elles sont correctement mises en place. Le constructeur, DJI, annonce une
précision de 1 cm ± 1 ppm en planimétrie et 1.5 cm ± 1 ppm en altimétrie (annexe 3).

Les fichiers Rinex sont aussi enregistrés par le drone si l’utilisateur souhaite effectuer
des calculs en post-traitement (Post Processing Kinematic et Network Post Processing
Kinematic).

Connaissant la position du centre de phase du récepteur lors d’une prise de vue ainsi que
la distance 3D entre le centre de phase du récepteur et le centre du capteur, appelée bras de
levier, le drone est alors capable de calculer la position du centre de prise de vue en WGS84.

Pour pouvoir être dirigé, le DJI Phantom RTK utilise une radiocommande avec un écran
intégré. Ce drone se pilote donc uniquement avec l’application DJI GS RTK et ne permet pas
l’utilisation d’une application tierce. Il existe tout de même un drone, le DJI Phantom 4 RTK

28
SDK, pouvant être piloté avec une radiocommande de type SDK contrôler et permettant alors
l’utilisation d’applications tierces, comme pour le DJI Phantom 4 Pro V2.0.

II.1.1.3 Capacité à détecter les obstacles durant le vol

Les drones DJI Phantom 4 Pro V2.0 et DJI Phantom 4 RTK disposent de capteurs
stéréoscopiques à l’arrière permettant la détection d’obstacles à une portée de 30 mètres et de
capteurs infrarouges au niveau des côtés, à l’avant et en dessous de l’appareil permettant la
détection d’obstacles à partir de 7 m. Les capteurs latéraux ont pour principal objectif d’alerter
le télépilote de la présence d’obstacles sur la trajectoire du drone. Les capteurs situés en dessous
de l’appareil permettent d’effectuer des atterrissages automatiquement mais aussi d’améliorer
les vols stationnaires.

Pour que le drone puisse détecter les obstacles correctement, il est indispensable
d’effectuer une calibration des capteurs visuels régulièrement. Pour les drones dont nous
disposons, cette calibration s’effectue avec DJI Assistant for Phantom. C’est une manipulation
simple et rapide à faire (10 minutes environ).

Grâce à l’ensemble de ces détecteurs et caméras embarqués sur le drone, ce dernier est
théoriquement capable de détecter des obstacles dans 5 directions et d’éviter les obstacles dans
4 directions. Mais bien que la fiche technique des drones (disponible en annexes 2) mentionne
une portée de détection des obstacles allant de 0,7 m à 30 m, nous n’avons aucune information
sur les dimensions minimales des objets pouvant être détectés.

Afin d’avoir une réponse à cette absence d’information, nous avons mis en place une
expérience. À l’aide de l’application Tap2Map, nous avons planifié un vol à basse altitude (2
m de hauteur par rapport au sol), puis j’ai disposé des obstacles (tous de couleurs opaques) sur
la trajectoire prévue par le drone :

 Obstacle 1 : élément carré de 50 cm de côté représentant un obstacle important


(bâtiment, voiture ...)

 Obstacle 2 : élément linéaire de 10 cm de diamètre pouvant représenter un lampadaire


ou un poteau

29
 Obstacle 3 : élément linéaire de 1 cm de diamètre pouvant représenter un câble
électrique ou de petits branchages.

Figure 6 : Schéma de l’expérience réalisée afin de tester la capacité de détection des obstacles du drone.

Suite à cela, nous nous sommes aperçus que les obstacles 1 et 2 étaient toujours détectés
par le drone. Lorsque le drone arrive à une distance d’environ 1 m de l’obstacle, ce dernier
s'arrête automatiquement. Cependant, le drone n’était pas en capacité de détecter l’obstacle 3
dans tous les cas et poursuivait son vol même si l’obstacle se trouvait sur sa trajectoire ou à
moins d’un mètre de sa position.

Nous pouvons en conclure qu’en situation réelle, le drone est capable de détecter des
obstacles importants comme des bâtiments ou des obstacles de moins grande taille comme des
éléments du mobilier urbain. Lorsque le drone détecte un obstacle, ce dernier passe en vol
stationnaire immédiatement et n’est malheureusement pas capable d’adapter son plan de vol en
fonction de cet obstacle.

Cependant, la détection des obstacles a des limites et les capteurs actuellement présents
sur le DJI Phantom 4 Pro V2.0 ne permettent pas d’éviter dans 100% des cas des lignes
électriques ou bien de petits branchages. De ce fait, nous ne pouvons pas nous reposer sur les
détecteurs présents sur le drone pour pouvoir détecter des éléments de végétation. Afin de
pouvoir effectuer un plan de vol sécurisé, il sera alors important de prendre en compte la
végétation environnante.

II.1.2 Scanner laser terrestre

Il est impossible techniquement de produire un nuage de points 3D qui soit parfaitement


exact par rapport à la réalité. Cependant, l’utilisation d’un scanner 3D dans cette étude permet
de constituer un jeu de données dont les précisions sont connues. Les nuages de points 3D
produits ainsi seront appelés nuages de référence.

30
Le scanner laser terrestre (SLT) balaie horizontalement et verticalement son champ de
vision à l’aide de deux axes rotatifs. En se basant sur le fonctionnement du LASER (Light
Amplification by Stimulated Emission of Radiation), le SLT est capable de mesurer la distance,
l’angle horizontal et vertical correspondant pour chaque point. Les coordonnées des points ainsi
relevés sont alors calculées dans un référentiel local ayant pour origine l’appareil à l’aide des
formules suivantes :

X = di * cos θ *cos Φ
Y = di * cos θ * sin Φ
Z = di * sin θ
Avec : θ Angle vertical
Φ Angle horizontal
di Distance mesurée
XYZ Coordonnées d’un point

Le SLT que j’ai utilisé est le RTC360 de la marque Leica. D’après la fiche technique
située en annexe 4, ce scanner permet d’obtenir des données avec une précision angulaire de
18’’ (soit 0,005 gon) et une précision de portée de 1,0 mm ± 10 ppm. Selon l’étude théorique
portant sur la qualification de l’exactitude des données lasergrammétriques (disponible en
annexe 18), le RTC360 permet d’obtenir une emq planimétrique et altimétrique de ± 4 mm. Il
est important de préciser que cette étude théorique porte uniquement sur le relevé de points et
ne prend pas en compte les calculs d’assemblage et de consolidation des nuages de points.

II.2 Acquisition des données de référence

Afin d’acquérir des points avec une haute précision et pouvoir géoréférencer nos
résultats, l’utilisation d’un récepteur GNSS et d’une station totale est primordiale. Pour cela,
j’ai utilisé le récepteur GNSS Spectra Geospatial SP60 et la station totale Leica TS16. Les
caractéristiques techniques de ces appareils sont disponibles en annexe 5 et 6.

Etant donné que la station depuis laquelle je pouvais viser l’ensemble des GCP présents
sur la façade était située en dessous d’un arbre, j’ai décidé de mettre en place une station libre.
Pour cela, j’ai stationné sur un point dont je ne connaissais pas les coordonnées et j’ai visé 4
références.

31
Chacune de ces références a été relevée à l’aide d’un GNSS, en levé statique, durant 10
à 15 sec, à 3 reprises.

En ce qui concerne le levé lasergrammétrique, les différentes stations ont été placées à
une distance d’environ 15 m de la façade et de sorte à obtenir un nuage de points suffisamment
dense.

II.3 Elaboration des protocoles pour l’automatisation d’un relevé de façade


par drone sans RTK

Afin de pouvoir mettre en place une méthodologie pour l’automatisation d’un relevé de
façade par drone, j’ai élaboré 3 protocoles qui seront présentés ci-dessous. Chacun de ces
protocoles utilise un logiciel différent et ne nécessite pas le même matériel. Pour chacun de ces
protocoles, j’ai choisi d’appliquer un recouvrement longitudinal et transversal de 70%. J’ai fixé
la distance de prise de vue à 8 m ce qui me permettrait d’obtenir une taille pixel sol de 0,27
cm/px. La vitesse du drone restera égale 1 m/s durant l’exécution du vol. De plus, ce dernier ne
volera pas à une altitude inférieure à 2 m pour des raisons de sécurité.

Afin de pouvoir comparer correctement les 3 protocoles, je devais tester les différents
protocoles sur une façade d’une superficie suffisante nécessitant un plan de vol comprenant
plusieurs bandes horizontales. C’est pour cela que mon choix s’est porté sur la façade Sud de
la mairie d’OLIVET situé au 283 rue Général de Gaulle (45160). D’une hauteur de 16 m et
d’une longueur de 22 m, cette façade comprend aussi certains détails intéressants sur lesquels
pourra être basée notre comparaison.

Figure 7 : Répartition des points d’appui (PA) et des points de contrôle (PC) sur la façade Sud de la mairie d’Olivet

32
Pour cette façade, j’ai décidé de mettre en place 7 points d’appui (PA.1 à PA.7) ainsi
que 9 points de contrôle (PC.1 à PC.9).

Lors de l’exécution des différents protocoles les conditions météorologiques étaient


idéales : pas de vent et bonne luminosité.

II.3.1 Protocole 1 (Tap2Map)

Le premier protocole que nous proposons est un protocole simple et rapide à mettre en
place. Au niveau du matériel, nous aurons besoin uniquement d’un drone de la marque DJI,
d’un téléphone portable fonctionnant sous IOS, d’un multi-décamètre ainsi qu’une bombe de
peinture. Nous utiliserons l’application mobile Tap2Map.

La première étape consiste à définir le plan vertical dans lequel le drone va évoluer pour
effectuer le relevé. Après avoir repéré une zone de vol ne présentant aucun risque, nous pouvons
matérialiser avec des marquages au sol les deux extrémités du plan (les points a et b), puis
relever à l’aide d’une chaine ou d’un distancemètre la distance entre ce plan vertical et la façade.

Après avoir choisi le drone correspondant et la fonction « Façade » dans l’application,


nous devons enregistrer les points a et b. Pour cela, nous allons faire voler le drone en
stationnaire au-dessus du point a et à hauteur maximale de la façade puis au-dessus du point b
à hauteur minimale souhaitée (il est tout de même déconseillé de voler à une hauteur du sol
inférieure à 2,50 m). Afin de placer le drone correctement au-dessus des points a et b, il est
possible de diriger la caméra du drone au nadir, puis de se repérer en visualisant dans le retour
caméra le marquage au sol.

Figure 8 : Capture d’écran du plan de vol effectué pour le protocole 1 avec Tap2Map

33
Une fois le plan de vol définit géométriquement, nous pouvons renseigner la distance
de prise de vue (mesuré précédemment), le taux de recouvrement et la vitesse du drone.
L’application va alors calculer la trajectoire du drone, il ne reste plus qu’à exécuter le plan de
vol.

II.3.2 Protocole 2 (UgCS)

Le second protocole que nous proposons est plus long et contraignant à mettre en place
mais permet de planifier de manière bien plus précise un plan de vol. Nous aurons besoin d’un
récepteur GNSS, d’un multi-décamètre, d’un drone, d’un smartphone, d’un ordinateur portable
et d’une connexion Internet.

La première étape consiste à relever les sommets des plans verticaux dans lesquelles le
drone va évoluer à l’aide d’un récepteur GNSS. Les points doivent être relevés en WGS84.
Suite à cela, à l’aide de la chaine, nous relevons la distance de prise de vue.

Après cette première étape préliminaire, nous pouvons planifier le vol sur ordinateur
portable à l’aide du logiciel UgCS. Afin de définir le plan de vol vertical, il est nécessaire de
définir les sommets du ou des plans où le drone va évoluer. Bien qu’il soit possible de placer
ces sommets visuellement sur un fond de carte (issu de OSM Mapnik), nous renseignerons les
coordonnées en WGS84 des points précédemment relevés afin de définir de manière précise le
plan de vol. Suite à cela, nous pouvons renseigner tous les paramètres propres aux relevés de
façade (taux de recouvrement, distance de prise de vue, caméra utilisée, hauteur de la façade,
orientation de la caméra ...).

Figure 9 : Capture d’écran du plan de vol effectué pour le protocole 2 avec UgCS

34
Une fois que le plan de vol vertical est défini, nous devons connecter l’ordinateur
portable au drone. Pour cela, nous devons établir une connexion entre l’ordinateur portable et
un smartphone (avec l’application mobile UgCS installée) via un partage de connexion Internet
par exemple. Une fois cette connexion établie, le téléphone doit être connecté à la
radiocommande du drone à l’aide du câble de charge approprié. Le smartphone va alors servir
d’intermédiaire entre l’ordinateur portable et la radiocommande. La radiocommande pourra
alors envoyer les commandes au drone qui les exécutera.

II.3.3 Protocole 3 (Drone Harmony)

Le dernier protocole, utilisant le logiciel Drone Harmony, permet de prendre en compte


d’éventuels obstacles et de réaliser un plan de vol adapté à son environnement. Nous aurons
besoin d’un drone, d’un smartphone, d’un ordinateur portable et d’une connexion Internet.

La planification du vol est réalisée sur un ordinateur portable. La première étape consiste
à définir les contours du bâtiment à relever ainsi que les contours des bâtiments environnants.
Pour faire cela, deux possibilités s’offrent à nous :

 La méthode la plus rapide est d’importer les contours des bâtiments depuis
OpenStreetMap au format GeoJSON. Cependant la précision des contours des bâtiments
ainsi importés serait de l’ordre du mètre, ce qui peut être suffisant dans un terrain dégagé
mais risqué en milieu urbain.

 Une autre méthode est d’importer les contours des bâtiments depuis un plan
topographique de la zone qui a déjà été réalisé, ou alors issu d’un levé préalable au
drone. Cependant, il est là aussi nécessaire d’avoir les contours du bâtiment au format
GeoJSON. Si ce n’est pas le cas, de nombreux convertisseur en ligne (MyGeodata
Converter par exemple) permettent de convertir les fichiers au format souhaité. De plus,
les données importées doivent être dans le système de coordonnées WGS84. Si ce n’est
pas le cas, il est possible d’effectuer un changement de système de coordonnées avec le
logiciel QGIS.

Dans notre étude de cas, nous utiliserons la seconde méthode puisque nous effectuons
le vol en agglomération et possédons déjà un plan topographique de la zone.

Les obstacles tels que des arbres, des ponts ou bien des pylônes électriques par exemple
peuvent aussi être définis par des polygones. Une fois que tous les contours des bâtiments ou

35
autres obstacles ont été dessinés, l’utilisateur doit alors mentionner la hauteur de chacun des
polygones afin de modéliser des volumes 3D.

Le logiciel propose deux types de vol vertical :

 « Perimeter horizontals » qui est un plan de vol avec des bandes horizontales.

 « Perimeter vertical » qui est un plan de vol avec des bandes verticales.

Après essai, j’en ai conclu qu’il valait mieux privilégier des trajectoire horizontales et non
verticales dans un soucis d’économie de charge de batterie du drone. Après avoir sélectionné le
polygone représentant le bâtiment à relever, le logiciel va alors définir un plan de vol en fonction
des autres obstacles et des zones (no-fly-zone et geo-fense) définies auparavant.

De nombreux paramètres sont réglables par l’utilisateur afin de bien définir le


recouvrement et la partie du bâtiment à relever. Chaque prise de vue peut être modifiée
indépendamment. Cela peut se révéler très utile afin d’effectuer des visées inclinées vers le bas
et capturer le bas de la façade qui peut être parfois complexe à relever en vol automatisé lorsque
de la végétation est présente à proximité. Une fois le plan de vol définit, ce dernier peut être
exporté dans un cloud. Le téléphone peut maintenant être connecté au drone. Grace à
l’application mobile, nous avons accès au plan de vol créé sur ordinateur depuis le smartphone.
Le plan de vol peut alors été importé depuis le cloud puis exécuté.

Figure 10 : Capture d’écran du plan de vol effectué pour le protocole 3 avec Drone Harmony

36
II.3.4 Récapitulatif des acquisitions

Le récapitulatif des 4 acquisitions effectuées par vol automatisé et par vol manuel est
présenté sous forme de tableau ci-dessous :

Vol manuel Protocole 1 Protocole 2 Protocole 3

Temps de préparation 0 min 3 min 15 min 15 min

Temps de vol 9 min 5 min 30 4 min 4 min 30

Nombre de photos 54 42 45 50

Tableau 1 : Récapitulatif des acquisitions

Nous pouvons remarquer dans un premier que le protocole 1 est le plus rapide à mettre
en place, après le vol manuel bien évidement. C’est aussi le protocole nécessitant le moins de
matériel. Les protocoles 2 et 3 demandent le même temps de préparation.

Cependant, même si le vol manuel ne demande pas de temps de préparation, le temps


de vol est supérieur aux vols automatisés. En effet, lors du vol manuel il est nécessaire de garder
en vue le drone tout le long du vol tout en vérifiant le recouvrement sur le retour caméra de la
radiocommande. De ce fait, pour pouvoir assurer un bon recouvrement ainsi qu’un vol en toute
sécurité, la vitesse du drone lors du vol est souvent bien inférieure aux vols automatisés.

37
III TRAITEMENT DES DONNÉES, ANALYSE ET

COMPARAISON DES RÉSULTATS OBTENUS

III.1 Traitement des données pour la construction d’un nuage de référence et


calcul des précisions obtenues

III.1.1 Traitement des données GNSS et tachéométriques

Tout d’abord, nous allons nous intéresser aux données acquises avec le récepteur GNSS.
Chaque point a été levé 3 fois, ce qui va nous permettre d’effectuer une moyenne. Les
coordonnées obtenues en RGF93 CC48 et NGF-IGN69 sont rassemblées dans le tableau ci-
dessous.

Point X (m) Y (m) Z (m)

1617554,354 7185625,225 102,840

1 1617554,346 7185625,224 102,846

1617554,346 7185625,225 102,838

Moyenne : 1617554,349 7185625,225 102,841

Écart-type : 0,005 0,001 0,004

1617560,106 7185643,511 102,986

2 1617560,108 7185643,506 102,983

1617560,104 7185643,508 102,984

Moyenne : 1617560,106 7185643,508 102,984

Écart-type : 0,002 0,003 0,002

1617508,015 7185649,144 102,486

3 1617508,010 7185649,147 102,481

1617508,010 7185649,149 102,481

Moyenne : 1617508,012 7185649,147 102,483

38
Point X (m) Y (m) Z (m)

Écart-type : 0,003 0,003 0,003

1617517,945 7185672,018 102,771

4 1617523,918 7185689,088 102,766

1617523,914 7185689,080 102,772

Moyenne : 1617523,918 7185689,085 102,770

Écart-type : 0,005 0,005 0,003


Tableau 2 : Coordonnées des points de référence obtenus par GNSS

Connaissant les coordonnées de nos points de référence, j’ai pu effectuer un recalage


Helmert à 6 paramètres (facteur d’échelle = 1) sur les GCP levés avec la station totale jusque-
là référencée dans un système local. Après avoir effectué un premier recalage Helmert nous
nous sommes rendu compte d’un écart plus important en X concernant le point de référence 2.
Pour ne pas trop dégrader la précision de notre recalage tout en prenant en compte ce point,
nous avons décidé de pondérer les points 1, 3 et 4 avec un poids de 3 et le point 2 avec un poids
de 1. Le tableau des écarts entre les coordonnées des points levés au GNSS et les coordonnées
des points levés par tachéométrie après recalage Helmert est visualisable ci-dessous :

GNSS Coordonnées transformées Écart


Point
X Y X Y dX dY Planimétrique

1 1617554,349 7185625,225 1617554.353 7185625.229 0,004 0,004 0,006

2 1617560.106 7185643.508 1617560.056 7185643.513 0,05 0,005 0,050

3 1617508.012 7185649.147 1617508.017 7185649.149 0,005 0,002 0,005

4 1617517.949 7185672.014 1617517.957 7185672.006 0,008 -0,008 0,011


Tableau 3 : Ecarts entre les coordonnées des points levés au GNSS et les points levés par tachéométrie après recalage
Helmert

Nous obtenons alors une emq de 1,7 cm ce qui est cohérent avec les précisions du
récepteur GNSS. Selon l’étude théorique portant sur la qualification de l’exactitude des données
tachéométriques (disponible en annexe 19), nous obtenons alors une emq planimétrique de ± 2
mm et une emq altimétrique de ± 5 mm concernant les points de façade levé par tachéométrie.

39
III.1.2 Traitement des données lasergrammétriques

Le traitement de l’ensemble des données lasergrammétriques a été réalisé avec le


logiciel Leica Cyclone REGISTER 360. Afin d’obtenir un unique nuage de points à partir des
différentes stations, nous avons procédé à une consolidation. Une consolidation consiste à
regrouper l’ensemble des nuages de points acquis dans un même système de coordonnées par
identification de points de jonction entre les différents nuages. Ces points de jonction peuvent
être des cibles, des sphères ou des points caractéristiques.

À l’issu du traitement, nous obtenons alors un nuage de points géoréférencé dans le


système planimétrique RGF93 CC48 et dans le système altimétrique NGF-IGN69.

III.2 Traitement des données photogrammétriques issues des vols automatisés

Une étude menée par [Berson Arnaud, 2015] a permis d’établir une comparaison entre
différents logiciels disponibles sur le marché (PhotoScan version 1.1.3, Pix4Dmapper version
1.4.1 et Correlator3D version 6.0) et l’influence de leur utilisation sur les données finales.
D’après cette étude, Correlator3D est le logiciel permettant les temps de traitement les plus
réduits. Cependant, le logiciel est extrêmement simplifié et de ce fait, très peu de paramètres
peuvent être définis par l’utilisateur. Pix4Dmapper et Metashape proposent tous deux un grand
nombre de paramètres réglables. Cependant, la durée des traitements réalisés par Pix4D reste
supérieure à Metashape. En effet, pour un même jeu de données composé de 2000 clichés et en
utilisant des paramètres équivalents, Metashape permet de générer une orthomosaïque en 3h50
environ contre 5h45 pour Pix4Dmapper. Il est a noté que, actuellement, pour un même nombre
de photos, les temps de traitements ont été réduits au vu de l’augmentation de la puissance de
calcul des ordinateurs et de l’évolution des algorithmes utilisés.

Metashape, par l’optimisation de ses algorithmes de traitement et sa grande modularité


reste aujourd’hui, parmi les 3 logiciels mentionnés précédemment, la solution idéale pour des
utilisateurs souhaitant mener des travaux de photogrammétrie.

De plus, après plusieurs essais, il semblerait que Pix4Dmapper n’était pas dans tous les
cas en capacité d’effectuer des traitements pour des vols verticaux, contrairement à Metashape.
C’est pour ces raisons que nous avons préféré réaliser l’ensemble des traitements avec le
logiciel Metashape.

Les différentes étapes suivies pour le traitement par le logiciel Metashape sont
récapitulées en annexe 8. Nous ne détaillerons pas dans ce rapport les manipulations à effectuer

40
et le fonctionnement de chacune des étapes faites par le logiciel puisque cela a déjà été décrit
dans de nombreux travaux ([Authie Florent, 2020] par exemple). Tous les paramètres choisis
dans le logiciel sont les mêmes pour les 4 jeux de données de sorte à ce que seuls les clichés
aient une influence sur les résultats finaux.

L’ensemble des nuages de points et orthomosaïques produits sont géoréférencés dans le


système de coordonnées planimétriques RGF93 CC48 et altimétriques NGF IGN69.

Vol manuel Protocole 1 Protocole 2 Protocole 3

Erreur d’orientation
0,704 0,595 0,728 0,654
des clichés (en pixel)

Erreur de reprojection
0,5993 0,4852 0,5780 0,5228
(en cm)

Taille du nuage de
5 891 771 5 196 060 5 345 070 6 518 732
points

Taille pixel sol 2,78 3,06 2,95 2,90

Tableau 4 : Tableau récapitulatif des traitements

III.3 Analyse des données issues des vols automatisés et comparaison des
différents protocoles

III.3.1 Nuage 3D

Afin de pouvoir évaluer la précision des nuages de points produits, j’ai comparé les
coordonnées des points d’appui calculées par tachéométrie et ceux issus des nuages
photogrammétriques.

∆X = valeur absolue (X point levé par photogrammétrie – X point levé par tachéométrie)
∆Y = valeur absolue (Y point levé par photogrammétrie – Y point levé par tachéométrie)
∆Z = valeur absolue (Z point levé par photogrammétrie – Z point levé par tachéométrie)

En effectuant une moyenne sur l’ensemble des points de contrôle, nous obtenons les
résultats ci-dessous :

41
∆X (cm) ∆Y (cm) ∆Z (cm)

Vol manuel 0,012 0,011 0,013

Protocole 1 0,008 0,012 0,014

Protocole 2 0,013 0,014 0,012

Protocole 3 0,010 0,012 0,012


Tableau 5 : Ecart types (en cm) obtenus pour les nuages 3D

A partir des moyennes calculées ci-dessus, il est alors possible de calculer les écarts-
types planimétriques et altimétriques :

Figure 11 : Graphique des écart types planimétries

Figure 12 : Graphique des écart types altimétrique

42
Au vu des graphiques ci-dessus, nous pouvons constater que les précisions entre les
différents protocoles et le vol manuel sont très similaires. Nous remarquons tout de même, de
moins bonnes précisons concernant le protocole 2 par rapport aux autres protocoles. En effet,
le logiciel UgCS ne permettant pas de voler à une hauteur par rapport au sol inférieur à 5 m, le
bas de la façade n’a pu être reconstitué uniquement à partir de visées obliques dirigées vers le
bas, entrainant alors certains défauts dans le nuage de points à ce niveau-là.

En visualisant les différents nuages de points situés en annexe 15 nous pouvons noter
des différences notables.

En ce qui concerne le protocole 1, nous pouvons observer que les côtés de la façade
n’ont pas pu être reconstruits. En effet, sur le terrain, de la végétation était présente sur les côtés.
Etant donné que Tap2Map ne permet pas d’effectuer des visées obliques ou de s’adapter en
fonction de la configuration du terrain, certaines photos n’ont pas pu être prises pour pouvoir
construire un nuage de point pour l’ensemble de la façade.

Le protocole 3 est le seul protocole qui nous a permis d’obtenir un nuage de points
satisfaisant, avec une bonne reconstruction au niveau des arêtes du bâtiment et de la toiture.
Nous pouvons remarquer, sur la figure ci-dessous, les avantages du protocole 3 par la mise en
place de visées obliques par rapport au protocole 1.

Figure 13 : Comparatif des nuages de points du protocole 3 (à gauche) et du protocole 1 (à droite)

43
Afin de visualiser les erreurs sur le nuage de points, j’ai effectué une comparaison entre
les nuages de points photogrammétriques et le nuage de points lasergrammétrique. Pour cela
j’ai utilisé le plug-in M3C2 de CloudCompare. Au niveau des paramètres, j’ai défini un rayon
des normales de 5 cm.

Les résultats obtenus situés en annexe 16 nous permettent de confirmer notre première
analyse au niveau des nuages de points. Le comparatif du nuage de points issu du protocole 1
nous permet bien de nous rendre compte des erreurs situées sur les côtés du bâtiment dû à
l’absence de clichés pour ces parties de la façade.

III.3.2 Orthomosaïques

Les orthomosaïques issues des différents traitements ont été contrôlées à partir de 6
distances directement mesurées avec les points de contrôle. Le graphique ci-dessous représente
alors la moyenne des ∆d calculée pour chaque orthomosaïque

Figure 14 : Résultats du contrôle des orthomosaïques

Comme pour le nuage de points, nous remarquons que les précisions entre les différents
protocoles et le vol manuel sont très similaires.

Cependant, en analysant les orthomosaïques situées en annexe 17, nous remarquons des
défauts pour l’orthomosaïque issue du protocole 1 au niveau du bas de la façade et du côté droit,
toujours dû à un manque de clichés. Cette orthomosaïque ne nous permettrait donc pas de
dessiner correctement les bords de la façade. Les déformations importantes au niveau des

44
marches situées devant la façade constituent là aussi un manque d’information pouvant être
problématique en vue de la réalisation d’un dessin de la façade.

Concernant le protocole 2, nous pouvons noter quelques déformations au niveau du bas


de la façade. Ces déformations, situées au niveau des marches ainsi qu’au pas de la porte, restent
tout de même moins importantes par rapport au protocole 1.

Contrairement aux deux premiers, le protocole 3 a permis la construction d’une


orthomosaïque exploitable avec un niveau de détail suffisamment important pour pouvoir
restituer les moulures que l’on retrouve fréquemment sur les façades des immeubles
haussmanniens. Les quelques déformations, notamment au niveau de la gouttière, située à
gauche de la façade, ne constitue pas réellement un frein pour le dessin de la façade.

Figure 15 : Détails visibles sur l’orthomosaïque issue du protocole 3

III.3.3 Récapitulatif

En ce qui concerne le protocole 1, le principal inconvénient est que le plan de vol est
nécessairement rectangulaire. De ce fait, on ne peut pas adapter le plan de vol à la forme du
bâtiment. De plus, nous devons nous limiter à un seul plan lors de la planification du vol. Il
n’est donc pas possible de réaliser le levé de plusieurs façades d’un bâtiment en un seul vol.
Outre ces problématiques, le protocole 1 garde un énorme avantage par rapport aux deux

45
autres : c’est sa facilité et rapidité de mise en place. Ce protocole est parfaitement adapté pour
le levé d’une façade dans un environnement ne présentant pas d’obstacles importants.

Concernant le protocole 2, ce dernier est plutôt complexe à mettre en place et nécessite


beaucoup de matériel sur le terrain. Même si ce dernier permet de programmer un plan de vol
de manière précise, la méthode perd tout son intérêt si le drone utilisé n’est pas équipé d’un
récepteur RTK. De plus, le logiciel UgCS nous empêche de programmer un vol à une hauteur
au-dessus du sol inférieur à 5 m. Cette restriction devient rapidement très contraignante. Même
si l’on peut toujours effectuer des visées obliquées dirigées vers le bas, le recouvrement entre
les clichées pour le bas de la façade reste moins important et entraine alors des déformations
pour l’orthomosaïque produite.

Le protocole 3 me semble le plus adapté pour effectuer des levés de façade de manière
automatique. En effet, c’est le seul protocole permettant de prendre en considération
l’environnement dans lequel le drone vole et de s’adapter en conséquence. La capacité du
logiciel à adapter son plan de vol en fonction de la forme du bâtiment permet de produire une
orthomosaïque présentant très peu de déformations.

III.4 Comparaison d’un vol automatisé et d’un vol manuel sur une façade
remarquable

Lors de la partie précédente, nous avons pu comparer différents protocoles


d’automatisation pour un relevé de façade et ainsi mettre en évidence les atouts et les défauts
de chaque protocole. L’objectif de cette partie est alors de comparer un de ces protocoles avec
un vol manuel sur une façade remarquable.

Nous qualifions de « façade remarquable » une façade d’un bâtiment à l’architecture


complexe et comprenant de nombreux détails. Pour cela, j’ai choisi de porter mon étude sur la
façade Sud de l’Eglise Saint-Jean-Baptiste, située dans la commune de Saint-Jean-de-la-Ruelle,
à proximité d’Orléans. Avec une hauteur de 35 m et une largeur de 16 m, cette façade comprend
de nombreux détails et moulures.

Le protocole qui semble le plus adaptés pour l’acquisition de cette façade est le protocole
3. En effet, les deux autres protocoles ne permettent pas de prendre en compte les obstacles or
un grand arbre situé à gauche de la façade nous oblige à adapter notre plan de vol. De plus, les
protocoles 1 et 2 ne sont adapté uniquement pour des façades rectangulaires ce qui n’est pas le
cas pour l’église Saint-Jean-Baptiste. Des captures d’écran de la planification du vol avec Drone
Harmony sont disponibles en annexe 11.

46
Pour cette partie, j’ai appliqué les mêmes paramètres d’acquisition décrits dans la partie
II.4, à savoir un recouvrement transversal et longitudinal de 70%, une distance de prise de vue
de 8 m ainsi qu’une vitesse de drone de 1 m/s. La répartition des GCP sur la façade (au nombre
de 8) est disponible en annexe 12.

Vol manuel Vol automatique

Nombre de photos 72 59

Temps de préparation 0 min 15 min

Temps de vol 8 min 4 min


Tableau 6 : Tableau bilan d’acquisition

Suite à l’acquisition des photos, on remarque que le vol automatique demande un temps
de préparation plus important mais permet alors d’économiser du temps de vol et de réduire le
nombre de photos.

Les traitements effectués avec Metashape sont réalisés de manière similaire que pour la
façade traitée dans la partie III.2.

Ayant déjà analysé et comparé les précisions et la qualité des nuages de points entre
différents vols automatisés et un vol manuel lors de la partie III.3, nous nous concentrerons
dans cette partie sur la comparaison des deux orthomosaïques (les nuages de points obtenus à
l’issu de ces deux vols sont tout de même visualisable en annexe 14).

Au niveau des orthomosaïques (visualisables en annexe 13), nous pouvons remarquer


des déformations plus importantes pour le vol effectué manuellement. Ces déformations sont
surtout présentes au niveau des gouttières, des faitages ainsi que autour de la porte d’entrée.
Nous savons déjà que les méthodes de relevés photogrammétriques pour les façades rendent la
restitution des arrêtes des bâtiments plus difficile (contrairement aux méthodes de levés
lasergrammétriques). Cependant, un vol automatisé permettant alors un meilleur contrôle du
recouvrement, de la distance par rapport à la façade et de la vitesse du drone permet de pallier
en partie à ce problème.

47
Vol manuel Vol automatique

Gouttière

Entrée
principale

Faitage

Figure 16 : Comparatif des orthomosaïques issues d’un vol manuel et d’un vol automatique

Les distances mesurées sur les orthomosaïques issues de chacun des traitements ont été
comparés avec des distances mesurées à partir d’un levé tachéométrique. On remarque alors un
léger gain en précision (4 mm) pour le vol automatique. Les résultats obtenus sont décrits dans
le tableau ci-dessous :

48
Traitement Vol manuel Vol automatique

Différence entre les distances


1,5 cm 1,1 cm
mesurés
Tableau 7 : Ecarts moyen entre des distances mesurées sur orthomosaïques et des distances mesurées par tachéométrie

III.5 Elaboration d’une méthodologie pour le traitement de données


photogrammétriques sans utiliser de points d’appui pour un levé de
façade

III.5.1 Acquisitions des données photogrammétriques

Afin de mettre en place une méthodologie pour le traitement de données


photogrammétriques sans utiliser de point d’appui, nous avons choisi d’utiliser le drone DJI
Phantom 4 RTK. Le vol sera réalisé manuellement. Dans cette partie, nous nous focaliserons
dans le cas d’un levé de façade. Cependant, une expérience portant sur un levé au nadir avec
un drone RTK est disponible en annexe 9.

L’objectif de cette partie est d’évaluer la précision d’un nuage de points et d’une
orthomosaïque d’une façade qui a été produite sans utiliser de point d’appui. Comme
précédemment, les modèles obtenus seront comparés avec un nuage de points
lasergrammétrique mais aussi avec des modèles produits avec les mêmes photographies mais
utilisant des points d’appui.

La façade qui a été choisie pour cette expérience est la façade Ouest du cabinet AB
ASSOCIES. Cette façade fait une longueur de 30 m pour une hauteur de 7 m.

Figure 17 : Répartition des points d’appui (PA.) et points de contrôle (PC.) sur la façade

49
Lors du vol, 4 bandes ont été réalisées assurant un recouvrement interbande de 80%.
Chacune des bandes comprend 20 photos, permettant alors d’assurer un recouvrement
longitudinal de 80%. Une bande supplémentaire a été réalisée permettant d’effectuer des visées
obliques vers le bas et ainsi capturer les points d’appui PA.101 et PA.102 situés sur le sol. Il est
important de vérifier fréquemment durant le vol que le positionnement du drone reste bien en
RTK afin que sa position puisse être calculée avec une précision centimétrique.

III.5.2 Traitement des données photogrammétriques

Suite à l’acquisition, 6 traitements seront réalisés sur ce même jeu de données.


L’ensemble des traitements seront réalisés avec le logiciel Metashape. Les chaines de traitement
et les différents paramètres choisis pour chacun des protocoles sont décrits en annexe 8.

L’ensemble des nuages de points et orthomosaïques produits seront géoréférencés dans


le système de coordonnées planimétrique RGF93 CC48 et dans le système altimétrique NGF
IGN69. L’ensemble des traitements effectués sont rassemblés dans le tableau ci-dessous :

Utilisation du
Traitement Nombre de GCP GCP utilisés
mode RTK

T8-RTK Oui 8 PA.1 à PA.8

T8-C Non 8 PA.1 à PA.8

T3-RTK Oui 3 PA.1, PA.3 et PA.5

T3-C Non 3 PA.1, PA.3 et PA.5

T2-RTK Oui 2 PA.101 et PA.102

T0-RTK Oui 0 /
Tableau 8 : Tableau descriptif des différents traitements réalisés

Le traitement T0-RTK consiste à produire, à partir des images précédemment acquises,


un nuage de points et une orthomosaïque de la façade, en utilisant les coordonnées images
calculées en RTK, sans utiliser de point d’appui.

Pour cela, nous allons dans un premier temps, importer les images ainsi que leurs
positions, orientations, et les précisions de ces positions et orientations se trouvant dans les

50
métadonnées des images. Les paramètres d’import sont accessibles depuis Tools / Metashape
Preferences / Advanced.

Les coordonnées images sont données en WGS84. Il est possible de convertir ces
coordonnées dans un autre système de coordonnées depuis Reference / Convert Reference.
Cependant, si l’on souhaite convertir des hauteurs ellipsoïdales en altitude, le modèle du géoïde
correspondant doit être téléchargé. Dans notre étude, nous travaillerons dans le système RGF93
CC48 et en altitude IGN69.

Suite à cela, nous pouvons suivre les étapes classiques d’un traitement : alignement des
images, optimisation des caméras, construction d’un nuage dense, construction d’un maillage,
construction de l’orthomosaïque.

Le traitement T2-RTK utilise les coordonnées images calculées en RTK mais aussi deux
points d’appui (P.101 et P.102) qui ont été relevés à l’aide d’un récepteur GNSS. L’objectif de
ce traitement est de voir si l’ajout de 2 points d’appui ne nécessitant pas l’utilisation d’une
station totale permet d’obtenir un modèle avec de meilleures précisions que le traitement T0-
RTK. Ces deux points d’appui sont situés à une distance suffisante par rapport à la façade afin
d’assurer une réception correcte des satellites mais par conséquent ne sont visibles que depuis
certaines prises de vues dirigées vers le bas.

Pour ces deux traitements, avant de procéder à l’alignement des images, j’ai modifié les
précisions des coordonnées images pour que celles-ci soient à 3 cm en planimétrie et 5 cm en
altimétrie. En effet, les précisions des coordonnées images importées depuis les métadonnées
des images sont souvent très réduites (entre 1 et 2 cm), ce qui ne me semble pas cohérent avec
les précisions théoriques que nous connaissons des récepteurs RTK.

Les traitements T8-C et T3-C sont deux traitements qui n’utilisent pas les coordonnées
images calculées par le drone lors des étapes de calcul du logiciel. Ces deux traitements nous
permettrons de comparer les traitements T8-RTK et T3-RTK avec des méthodes « classiques »
et donc d’évaluer le potentiel gain en précision lors de l’utilisation d'un module RTK pour un
drone en fonction du nombre de GCP.

Les temps de traitements pour chacune des étapes et pour chaque protocole sont
rassemblés dans le tableau ci-dessous :

51
Temps de traitement T8-RTK T8-C T3-RTK T3-C T2-RTK T0-RTK

Correspondance des
points et alignements des 10 min 13 min 10 min 13 min 7 min 5 min
images

Pointage manuel des


20 min 24 min 8 min 11 min 3 min 0 min
GCP

Carte de profondeur et
génération d’un nuage 25 min 26 min 25 min 24 min 25 min 25 min
dense

Modèle 3D 6 min 6 min 7 min 7 min 6 min 6 min

Orthomosaïque 1 min 1 min 1 min 1 min 1 min 1 min

Total 1h 2 min 1h 10 min 51 min 56 min 42 min 37 min

Tableau 9 : Descriptif des temps de traitements pour chacun des protocoles

En analysant le tableau ci-dessus, nous remarquons facilement que, plus le nombre de


GCP est important, plus le temps de traitement sera important. Cependant, l’utilisation d’un
drone RTK permet de réduire le temps de traitement. Tout d’abord en diminuant le temps de
traitement lors de l’alignement des images (on économise environ 5 min de temps de traitement
durant cette étape) mais surtout en facilitant grandement le pointage manuel des GCP. En effet,
la précision du géoréférencement des images permet au logiciel de positionner asses
précisément les GCP sur les images. Il suffit alors de rectifier légèrement leur position pour
obtenir de bonnes précisions. Bien entendu, le traitement T0-RTK est le traitement le plus
rapide puisque aucun pointage manuel de GCP n’est nécessaire dans ce traitement.

III.5.3 Analyse des résultats

III.5.3.1 Nuage 3D

En comparant les coordonnées des points de contrôle et ceux issus des traitements
photogrammétriques, nous obtenons les résultats présentés dans le tableau ci-dessous :

52
Traitement ∆X (cm) ∆Y (cm) ∆Z (cm)

T8-RTK 0,3 0,4 0,3

T8-C 0,2 0,5 0,4

T3-RTK 0,6 0,5 0,4

T3-C 0,8 0,7 0,5

T2-RTK 1,4 1,3 1,1

T0-RTK 1,2 1,7 1,7

Tableau 10 : Ecart types (cm) obtenus pour les nuages de points photogrammétriques

A partir des moyennes calculées ci-dessus, il est alors possible de calculer les écarts-
types planimétriques et altimétriques.

Figure 18 : Graphique des écart types planimétriques (en cm) obtenus pour les nuages de points photogrammétriques

53
Figure 19 : Graphique écart types altimétriques (en cm) obtenus pour les nuages de points photogrammétriques

Sur les graphiques situés ci-dessus, nous pouvons observer que pour les protocoles
utilisant 8 GCP (T8-C et T8-RTK), les précisions sont quasi similaires. Ce sont aussi les
protocoles qui nous ont permis d’obtenir les meilleures précisions. En comparant les
protocoles T3-C et T3-RTK, nous pouvons voir que lorsque nous nous limitons à 3 points
d’appui, l’utilisation du drone RTK nous permet un très léger gain en précision.

Cependant, au vu des précisions obtenues avec le protocole T0-RTK, nous pouvons


conclure que l’utilisation de points d’appui reste primordiale pour garder des précisions en
dessous du cm. L’ajout de deux points d’appui au niveau du sol (protocole T2-RTK) permet
un gain de précision en altimétrie mais pas en planimétrie.

III.5.3.2 Orthomosaïque

Les orthomosaïques issues des différents traitements ont été contrôlées à partir de 5
distances directement mesurées avec les points de contrôle levés par tachéométrie. Le graphique
ci-dessous représente alors la moyenne des ∆d calculée pour chaque orthomosaïque.

54
Figure 20 : Résultat du contrôle des orthomosaïques

En confrontant les protocoles T3-RTK et T3-C ainsi que les protocoles T8-RTK et T8-
C, nous constatons que l’utilisation des positions RTK dans les calculs nous permet un vrai gain
de précision, avec une réduction des écarts moyens de 0,4 cm dans les deux cas. Aussi, nous
pouvons voir dans ce cas de figure, que le nombre de GCP n’a que très peu d’impact sur la
qualité de l’orthomosaïque produite.

Les mesures effectuées sur l’orthomosaïque issue du protocole T0-RTK nous montrent
bien que l’utilisation d’un module RTK sur un drone nous permet alors de produire des
orthomosaïques de façade de bâtiments sans utiliser de GCP. Avec un ∆d égale à 1 cm, les
résultats obtenus sont même plus satisfaisants que les orthomosaïques issues des traitements
n’utilisant pas de données RTK. L’ajout de deux GCP au niveau du sol, devant la façade, ne
permet pas un gain significatif dans les précisions par rapport au traitement T0-RTK.
Cependant, l’ajout de GCP au niveau de la façade permet de diminuer significativement les
erreurs. Avec l’utilisation d’un drone RTK, à partir de 3 GCP, l’augmentation du nombre de
GCP ne permet pas d’améliorer la qualité des orthomosaïques pour des levés de façade de
dimensions équivalentes.

55
IV Evolutions futures : le BLK2FLY

Parmi les solutions récentes destinées aux relevés de façade, nous pouvons citer le drone
BLK2FLY produit par la société Leica Geosystems. Ce drone est en réalité un outil embarquant
la technologie BLK déjà connue du public mais montée sur une plateforme volante.

Figure 21 : Illustration du drone Leica BLK2FLY (https://leica-geosystems.com)

Le drone est contrôlable depuis une tablette comprenant l’application BLK2FLY live.
Il n’y a donc pas de radiocommande à proprement parler, mais il est possible de faire apparaitre
des joysticks sur l’écran pour pouvoir piloter manuellement. La connexion entre la tablette et
le drone se fait en Wi-Fi et est donc limité à une portée de 100 m. Bien que cela semble
contraignant, le drone a été conçu pour effectuer dans la très grande majorité des cas des vols
automatisés, il n’est donc pas nécessaire d’avoir une connexion permanente entre la tablette et
le drone.

Programmer un vol autonome pour un levé de façade devient très simple avec la
fonctionnalité « Surface Recording ». L’utilisateur doit dans un premier temps placer le drone
face à la façade. A partir du retour caméra, il est possible de dessiner un polygone délimitant la
façade à relever. Le drone va alors définir son plan de vol automatiquement et l’adapter en
temps réel en fonction des obstacles qui se trouveront sur sa trajectoire.

Il est aussi possible de réaliser le scan d’une toiture avec le mode « Aera Recording ».
Il suffit de délimiter la zone à lever à partir d’une photographie aérienne. Le drone va là aussi
définir automatiquement son plan de vol et l’adapter en temps réel.

Pour pouvoir voler en parfaite autonomie, le drone est équipé d’un système d’évitement
d’obstacle très avancé. En effet c’est le premier drone fonctionnant avec la technologie
GrandSLAM (Simultaneous Localization And Mapping) permettant de combiner en direct les

56
données issues du LiDAR, du SLAM visuel, du GNSS et des radars, ce qui lui permet de
modéliser son environnement et de se situer dans ce modèle avec une précision centimétrique.
Le drone peut alors se positionner par rapport à l’environnement qui l’entoure. Cette
technologie permet de le différencier des autres drones LiDAR qui peuvent être définit comme
passifs puisque le LiDAR ne sert uniquement dans l’acquisition des données.

Il est aussi équipé de 3 radars situés sur les protections des hélices pour pouvoir détecter
les obstacles dans les zones d’ombre du LiDAR crées par ces protections.

Le drone possède 5 caméras permettant de coloriser le nuage de points acquis ainsi


qu’un récepteur RTK lui permettent de se positionner dans l’espace avec une précision
centimétrique. Le constructeur annonce une précision relative de 2 cm et une précision absolue
de 4 cm. Le nuage de point produit par le drone est au format .b2g, un format de fichier peu
rependu mais peut tout de même être lu par le logiciel REGISTER360 pour être transformé en
un autre format (.las ou .e57 par exemple).

Son autonomie de 13 min lui permet de couvrir une superficie de 4100 m² avec une
densité de 0,17 pt/cm (ou bien 1350 m² avec une densité de 0,5 pt/cm). Une autonomie moins
grande que les drones classiques mais Leica compense ce défaut en proposant la possibilité de
changer de batterie à chaud, c’est-à-dire sans éteindre l’appareil. Lorsque le drone vole en
autonomie, ce dernier est capable de revenir automatiquement à son point de départ en
empruntant le chemin le plus court et le plus sûr lorsque son niveau de batterie le nécessite. Il
est important de préciser que ces chiffres sont ceux annoncés par le constructeur et peuvent être
légèrement différent de la réalité. Il n’existe à ce jour aucune étude fiable concernant les
précisions apportées par ce drone.

En ce qui concerne la législation, le drone peut actuellement être utilisé en catégorie


ouverte (A3) si le vol se situe à 150 mètres de zones commerciales, industrielles ou récréatives.
Les vols en catégorie spécifique (scénario S1) sont aussi possibles.

Cependant son prix, d’environ 65.000 euros, constitue aujourd’hui un énorme frein pour
grand nombre d’entreprises.

57
V Conclusion

Au cours de ces dernières années, les méthodes de levés de façade ont beaucoup évolué.
Aujourd’hui le drone est devenu un outil très efficace pour effectuer des levés de façade par
photogrammétrie. Ce travail de fin d’étude, réalisé sur une période de 6 mois, au sein du cabinet
de Géomètres-Experts AB ASSOCIES, m’a permis d’étudier différentes méthodologies pour
automatiser un plan de vol vertical, connaitre les limites du vol autonome et savoir si ces
derniers sont réellement adaptés aux levés de façade.

La première partie de l’étude nous a permis de bien connaitre le contexte législatif actuel
qui, au fil des nombreux changements qu’il a subi, peut parfois être difficile à bien appréhender.
L’état de l’art nous a quant à lui, renseigné sur les nombreuses études qui ont déjà été menées
sur la photogrammétrie par drone, sur les levés de façade ainsi que sur l’automatisation des
drones. Une recherche approfondie des logiciels existants nous a permis de sélectionner les
outils permettant au mieux de répondre à notre problématique.

Suite aux phases d’acquisitions et de traitements des données, nous avons pu étudier
différentes approches de l’automatisation des levés de façade par drone.

Bien que l’automatisation du vol pour un drone demande un temps de préparation et de


planification supplémentaire par rapport à un vol réalisé manuellement, ce dernier permet de
réduire le temps de vol. De plus, un vol automatisé va permettre d’assurer un recouvrement et
une distance par rapport à la façade constante tout le long de l’acquisition. Cette meilleure
gestion de la trajectoire du drone et du recouvrement va alors permettre de diminuer le nombre
de photo par rapport à un levé effectué manuellement, ce qui va directement réduire le temps
de traitement. De plus, en comparant des orthomosaïques issues de vols manuels et de vols
automatisés, nous avons pu voir que l’automatisation des vols permet d’améliorer la qualité des
orthomosaïques en réduisant certaines déformations, pour des façades de bâtiments complexes,
comprenant de nombreux détails. Cette qualité accrue dans les orthomosaïques, conséquence
d’un recouvrement homogène entre les clichés lors du vol, permet alors de faciliter le dessin de
la façade.

Cependant, l’automatisation d’un levé de façade par drone a ses limites : la gestion des
obstacles. Bien que les drones soient équipés de détecteurs, ces derniers ne sont pas infaillibles,
ils ne permettent pas la détection de certains éléments comme le feuillage des arbres ou bien les
câbles électriques. De plus, les capteurs présents sur le drone permettent uniquement une
détection des obstacles et non une réelle modélisation de l’environnement de vol. Un vol en

58
parfaite autonomie passe nécessairement par cette modélisation de l’environnement afin
d’adapter le vol en fonction des obstacles présents. Le logiciel Drone Harmony nous propose
tout de même une solution avec la possibilité pour le télépilote d’indiquer au drone les obstacles
présents dans son environnement lors de la programmation du vol.

Cependant, un nouveau type de drone, le BLK2FLY, permet aujourd’hui de dépasser


cette limite technique. En effet, le scanner laser permet une modélisation fiable et asses précise
de l’environnement pour pouvoir effectuer des vols en parfaite autonomie. Mais bien que cet
outil semble très prometteur, aucune étude fiable n’a encore été réalisé, pour une raison simple :
la sortie de cet appareil est encore trop récente à ce jour.

Au cours de ce mémoire, nous avons aussi pu étudier les différents avantages que
peuvent apporter un module RTK sur un drone. Dans un premier temps, nous pouvons affirmer
que ce type de drone permet de diminuer les temps de traitements de manière significative. Ce
gain de temps se fait sur les phases de calcul, notamment lors de l’alignement des images, mais
aussi et surtout lors du pointage manuel des GCP. Cette étape, qui peut parfois être fastidieuse,
est fortement simplifiée avec un drone RTK puisque ce dernier ne nécessite que très peu de
GCP par rapport à un drone classique pour des précisions similaires. Aussi, nous avons pu voir
que, pour un même nombre de GCP, l’utilisation d’un drone RTK permet d’améliorer nettement
les précisions des nuages de points et orthomosaïques produites.

Au-delà du gain de temps et de précisions qu’un drone RTK peut apporter par rapport à
un drone classique, la capacité à se positionner dans l’espace avec une précision centimétrique
rendrait l’automatisation des vols par drone bien plus simple et sécurisé. En effet, un drone
classique ne pouvant se positionner dans l’espace qu’avec une précision supérieure au mètre, il
peut parfois être difficile pour ce dernier de suivre une trajectoire sur une longue distance. Or,
dans un environnant présentant de nombreux obstacles, il est primordial que le drone soit en
capacité de suivre la trajectoire prévue avec une précision en dessous du mètre.

59
Bibliographie

Travaux universitaires

BRIZARD Benoit. 2020, Mise en place d’un système d’auscultation par photogrammétrie
aérienne et comparaison avec un scanner laser 3D, Mémoire d’ingénieur, Spécialité « Géomètre
et Topographe », ESGT Le Mans, 70 p.

AUTHIE Florent. 2020, Acquisition par drone et le récolement en VRD, Mémoire d’ingénieur,
Spécialité « Géomètre et Topographe », ESGT Le Mans, 76 p.

CAUDAL Philippe. 2021, Apport de la photogrammétrie et de l’intelligence artificielle à la


détection des zones amiantées sur les fronts rocheux, Thèse de Doctorat, Spécialité
« Mécanique des solides, des matériaux, des structures et des surfaces », Le Cnam laboratoire
GεF, 290 p.

BERSON Arnaud. 2015, Etude de la qualité des données issues de relevés photogrammétriques
par drones, Mémoire d’ingénieur, Spécialité « Topographie », INSA Strasbourg, 110p.

Articles de périodiques électroniques

JAMES M.R, ROBSON S, SMITH M.W (2017). 3-D uncertainty-based topographic change
detection with structure-from-motion photogrammetry: precision maps for ground control and
directly georeferenced surveys: 3-D uncertainty-based change detection for SfM surveys. Earth
Surf Process Landforms. Volume 42 (n°12).

SHAHBAZI M, SOHN G, THEAU J, MENARD P (2015). Development and Evaluation of a


UAV-Photogrammetry System for Precise 3D Environmental Modeling. Sensors. Volume 15
(n°11).

NOCERINO E, MENNA F, REMONDINO F, SALERI R (2013). Accuracy and block


deformation analysis in automatic UAV and terrestrial photogrammetry - Lesson learnt -.
Remote Sensing and Spatial Information Sciences. Volume II-5/W1.

VAUTHERIN J, RUTISHAUSER S, SCHNEIDER-ZAPP K, FAI CHOI H, CHOVANCOVA


V, GLASS A, STRECHA C (2016). Photogrammetric accuracy and modeling of rolling shutter
cameras. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information
Sciences. Volume VIII-3.

RUIZ R.D.B, LORDSLEEM JUNIOR A.C, ROCHA J.H.A (2021). Inspection of facades with
Unmanned Aerial Vehicles (UAV): an exploratory study. Revista de la Asociación
Latinoamericana de Control de Calidad, Patología y Recuperación de la Construcción.
Volume 11 (n°1).

60
ERDELJ M, SAIF O, NATALIZIO E, FANTONI I (2019). UAVs that fly forever:
Uninterrupted structural inspection through automatic UAV replacement. Ad Hoc Networks.
Volume 94.

SEBBANE Y.B (2015). Smart Autonomous Aircraft: Flight Control and Planning for UAV,
1st ed.; CRC Press: Boca Raton, FL, USA.

SAMANIEGO F, SANCHIS J, GARCIA-NIETO S, SIMARRO R (2019). Recursive


Rewarding Modified Adaptive Cell Decomposition (RR-MACD) : A Dynamic Path Planning
Algorithm for UAVs. Electronics. Volume 8 (n°3).

ARMENDARIZ S, BECERRA V, BAUSCH N (2019). Bio-Inspired Autonomous Visual


Vertical and Horizontal Control of a Quadrotor Unmanned Aerial Vehicle. Electronics. Volume
8 (n°2).

SONG C, WEI C, YANG F, CUI N (2018). High-Order Sliding Mode-Based Fixed-Time


Active Disturbance Rejection Control for Quadrotor Attitude System. Electronics. Volume 7
(n°12).

WANG D, LI W, LIU X, LI N, ZHANG C (2020). UAV environmental perception and


autonomous obstacle avoidance: A deep learning and depth camera combined solution.
Computers and electronics in agriculture. Volume 175.

EGELS Y (2011). La photogrammétrie, principes généraux et terminologie. Collection


EDYTEM. Cahiers de géographie, numéro 12. Images et modèles 3D en milieux naturels. pp.
41-50.

(AP15) WANG A, QIU T, SHAO L (2009). A Simple Method of Radial Distortion Correction
with Centre of Distortion Estimation. Journal of Mathematical Imaging and Vision. Volume
35 (n°3).

CANNELLE B, PAPARODITIS N, PAPELARD J.P (2015). Calibration de caméra par


acquisition de type panoramique.

LAVEST J.M, VIALA M, Dhome M (1998). Do we really an accurate calibration pattern to


achieve a reliable camera calibration ?. European Conference on Computer Vision. Volume 1.

RAMALINGAM S, STURM P, LODHA S.K (2010). Generic self-calibration of central


cameras. Comput. Vis. Image Underst. Volume 114.

NESBIT P.R, HUBBARD S.M, HUGENHOLTZ C.H (2022). Direct Georeferencing UAV-
SfM in High-Relief Topography: Accuracy Assessment and Alternative Ground Control
Strategies along Steep Inaccessible Rock Slopes. Remote Sensing. Volume 14 (n°3).

LAGUE D, BRODU N, LEROUX J (2013). Accurate 3D comparison of complex topography


with terrestrial laser scanner : application to the Rangitikei canyon (N-Z). ISPRS Journal of
Photogrammetry and Remote. Volume 82.

NESBIT P.R, HUGENHOLTZ C.H (2019). Enhancing UAV–SfM 3D Model Accuracy in


High-Relief Landscapes by Incorporating Oblique Images. Remote Sens. Volume 11 (n°3).

61
ÖZYESIL O, VORONINSKI V, BASRI R, SINGER A (2017). A survey of structure from
motion. Acta Numerica. Volume 26.

E. A. ELBANNA A, H. M. SOLIMAN T, A. N. OUDA, M. HAMED E (2018). Improved


Design and Implementation of Automatic Flight Control System (AFCS) for a Fixed Wing
Small UAV, Radioengineering, Volume 27 (n°3).

YANG T, LI P, ZHANG H, LI J, LI Z (2018). Monocular Vision SLAM- Based UAV


Autonomous Landing in Emergencies and Unknown Environments. Electronics. Volume 7
(n°5).

LANDES T, GRUSSENMEYER P (2011). Les principes fondamentaux de la lasergrammétrie


terrestre : systèmes et caractéristiques (partie ½). Revue XYZ. N°128. 13 pages.

STRAIGER R (2005). The Geometrical Quality of Terrestrial Laser Scanner (TLS). Actes de
conférence de FIG Working Week 2005 and GSDI-8. Le Caire, 16-21 Avril, 11 pages.

Textes législatifs

LOI n° 2016-1428 du 24 octobre 2016 relative au renforcement de la sécurité de l'usage des


drones civils (1), disponible sur :
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000033293745?msclkid=5135b56aa92e11e
cbae756dac3e3c4bd

Site web

Service-public.fr. Disponible sur : https://www.service-public.fr/particuliers/vosdroits/F34630


(consulté en mars 2022)

Agisoft Metashape User Manual: Standard Edition, Version 1.5. Disponible sur :
https://www.agisoft.com/pdf/metashape_1_5_en.pdf (consulté en mars 2022)

62
Table des annexes
ANNEXE 1 : Tableau descriptif des différentes classes de drone ........................................... 64
ANNEXE 2 : Caractéristiques techniques du drone DJI Phantom 4 Pro V2.0 ........................ 65
ANNEXE 3 : Caractéristiques techniques du drone DJI Phantom 4 RTK .............................. 68
ANNEXE 4 : Caractéristiques techniques du SLT Leica RTC360 LT .................................... 70
ANNEXE 5 : Caractéristiques techniques du récepteur GNSS Spectra Geospatial SP60 ....... 71
ANNEXE 6 : Caractéristiques techniques de la station totale Leica TS16 .............................. 72
ANNEXE 7 : Evaluation de la précision de positionnement relative planimétrique pour le
drone DJI Phantom 4 Pro V2.0 ........................................................................................ 73
ANNEXE 8: Chaines de traitement réalisées avec le logiciel Metashape ............................... 75
ANNEXE 9 : Impact du nombre de points d’appui et de leur répartition pour un levé
photogrammétrique nadiral réalisé avec un drone RTK .................................................. 78
ANNEXE 10 : Impact du nombre de points d’appui pour un relevé de façade automatisé par
drone ................................................................................................................................. 82
ANNEXE 11 : Planification du vol avec Drone Harmony pour le levé photogrammétrique de
la façade de l’église Saint-Jean-Baptiste .......................................................................... 84
ANNEXE 12 : Répartition des points d’appui pour la façade de l’église Saint-Jean-Baptiste 85
ANNEXE 13: Orthomosaïques de l’église Saint-Jean-Baptiste .............................................. 86
ANNEXE 14 : Nuage 3D de l’église Saint-Jean-Baptiste ....................................................... 87
ANNEXE 15 : Nuages de points photogrammétriques de la façade Sud de la mairie d’Olivet
.......................................................................................................................................... 88
ANNEXE 16 : Visuels des écarts entre les nuages photogrammétriques et du nuage
lasergrammétrique ............................................................................................................ 90
ANNEXE 17 : Orthomosaïques de la façade Sud de la mairie d’Olivet.................................. 92
ANNEXE 18 : Qualification de l’exactitude des données lasergrammétriques....................... 94
ANNEXE 19 : Qualification de l’exactitude des données tachéométriques ............................ 96

63
ANNEXE 1 : Tableau descriptif des différentes classes de drone

Catégorie Poids Altitude Vol hors vue Indication au


Classes Équipement
de vol maximum maximale autorisé télépilote

C0 A1 à A3 250 g 120 m Non / /

C1 A1 à A3 900 g 120 m Non / /

C2 A2 et A3 4 kg 120 m Non / /

C3 A3 25 kg 120 m Non / /

Pas de système de contrôle


C4 A3 25 kg 120 m Non /
automatique

Hauteur de vol Système de géovigilence

Système de coupure des


C5 STS-01 / / Non
Qualité du signal moteurs
radio
Mode basse vitesse (5 m/s)

Système de géovigilence
Position
géographique, vitesse
et hauteur Système de limitation de
franchissement de limites
C6 STS-02 / / Oui
Système de coupure des
moteurs
Qualité du signal
radio
Vitesse limitée à 50 m/s

Tableau 11 : Tableau descriptif des différentes classes de drone

64
ANNEXE 2 : Caractéristiques techniques du drone DJI Phantom
4 Pro V2.0

Appareil

Poids (batterie et hélices incluses) 1 375 g

Diagonale (sans hélice) 350 mm

Mode S : 6 m/s
Vitesse d’ascension max.
Mode P : 5 m/s

Mode S : 4 m/s
Vitesse de descente max.
Mode P : 3 m/s

Mode S : 72 km/h

Vitesse max. Mode A : 58

Mode P : 50 km/h

Plafond pratique max. au-dessus du


6 000 m
niveau de la mer

Résistance au vent max. 10 m/s

Temps de vol max. Environ 30 minutes

Plage de températures de
0 °C à 40 °C
fonctionnement

Systèmes de positionnement satellite GPS / GLONASS

Verticale :

±0,1 m (avec positionnement visuel)

±0,5 m (avec positionnement satellite)


Plage de précision du vol stationnaire
Horizontale :

±0,3 m (avec positionnement visuel)

±1,5 m (avec positionnement satellite)

65
Nacelle

Stabilisation 3-axes (inclinaison verticale, roulis, panoramique)

Plage réglable Inclinaison : -90° à +30°

Vitesse de contrôle angulaire max. Inclinaison : 90°/s

Plage de vibrations angulaire ± 0,02°

Système optique

Plage de vitesse ≤ 50 km/h (31 mph) à 2 m (6,6 pieds) au-dessus du sol

Plage d’altitude 0-10 m (0-33 pieds)

Portée de fonctionnement 0-10 m (0-33 pieds)

Portée de détection d'obstacles 0,7-30 m (2-98 pieds)

Vol vers l’avant : 60° (horizontal), ±27° (vertical)

Champ de vision Arrière : 60° (horizontal), ±27° (vertical)

Inférieur : 70° (avant et arrière), 50° (gauche et droite)

Conditions d’utilisation Surface régulière et bien éclairée (> 15 lux)

Système de détection infrarouge

Portée de détection d'obstacles 0,2 à 7 m (0,6 à 23 pieds)

Champ de vision 70° (horizontal), ±10° (vertical)

Fréquence de mesure 10 Hz

Conditions d’utilisation Surface avec matériau à réflexion diffuse, réflexivité > 8%

Caméra

CMOS 1 pouce
Capteur
Pixels effectifs : 20 M

66
FOV 84°, 8,8 mm / 24 mm (format équivalent 35 mm) f/2,8 - f/11
Objectif
mise au point automatique à 1 m - ∞

Vidéo :

100 à 3 200 (auto)

100 à 6 400 (manuel)


Gamme ISO
Photo :

100 à 3 200 (auto)

100 à 12 800 (manuel)

Vitesse d'obturation mécanique 8-1/2000 s

Vitesse d’obturation électronique 8-1/8000 s

Proportion 3:2 : 5472 x 3648

Taille d'image Proportion 4:3 : 4864 x 3648

Proportion 16:9 : 5472 x 3078

Plage de températures de
0 °C à 40 °C
fonctionnement
Tableau 12 : Caractéristiques techniques du drone DJI Phantom 4 Pro V2.0

67
ANNEXE 3 : Caractéristiques techniques du drone DJI Phantom
4 RTK

Appareil

Poids au décollage 1391 g

Diagonale 350 mm

Plafond pratique max. au-dessus du niveau


6000 m (19685 pi)
de la mer

Vitesse d’ascension max. 6 m/s (vol automatique) ; 5 m/s (commande manuelle)

Vitesse de descente max 3 m/s

50 km/h (31 mph)(mode P)


Vitesse max.
58 km/h (36 mph) (mode A)

Temps de vol max. Environ 30 minutes

Plage de températures de fonctionnement 0 à 40 °C (32 à 104 °F)

RTK activé et fonctionnant correctement :


Vertical : ±0,1 m ; Horizontal : ±0,1 m

RTK désactivé
Plage de précision du vol stationnaire
Vertical : ±0,1 m (avec positionnement optique) ;
±0,5 m (avec positionnement GNSS)
Horizontal : ±0,3 m (avec positionnement visuel) ;
±1,5 m (avec positionnement GNSS)

Système optique

50 km/h (≤31 mph) à 2 m (6,6 pieds) au-dessus du sol avec


Plage de vitesse éclairage adéquat

Plage d'altitude 0-10 m (0-33 pieds)

Portée de fonctionnement 0-10 m (0-33 pieds)

Portée de la détection d'obstacles 0,7-30 m (2-98 pieds)

Avant/arrière : 60° (horizontal), ±27° (vertical)


FOV Vers le bas : 70° (avant et arrière), 50° (gauche et droite)

68
Conditions d'utilisation Surfaces régulières et bien éclairées (> 15 lux)

Caméra

Capteur CMOS 1" ; Pixels effectifs : 20 millions

FOV 84° ; 8,8 mm/24 mm (format équivalent à 35 mm) ;


Objectif
f/2,8-f/11, mise au point automatique à 1 m - ∞

Vidéo :100-3200 (auto)


100-6400(manuel) ;
Gamme ISO
Photo :100-3200 (auto)
100-12800 (manuel)

Vitesse d'obturation mécanique 8 - 1/2000 s

Vitesse d’obturation électronique 8 - 1/8000 s

4864 x 3648 (4:3) ;


Taille d'image maximale
5472 x 3648 (3:2)

Plage de températures de fonctionnement 0 à 40 °C (32 à 104 °F)

Nacelle

Stabilisation 3 axes (inclinaison, roulis, pano)

Inclinaison verticale -90° à +30°

Vitesse de contrôle angulaire max. 90°/s

Plage de vibrations angulaire ±0,02°


Tableau 13 : Caractéristiques technique du drone DJI Phantom 4 RTK

69
ANNEXE 4 : Caractéristiques techniques du SLT Leica RTC360
LT

Figure 22 : Caractéristiques technique de Leica RTC360 LT

70
ANNEXE 5 : Caractéristiques techniques du récepteur GNSS
Spectra Geospatial SP60

Figure 23 : Caractéristiques techniques du récepteur GNSS Spectra Geospatial SP60

71
ANNEXE 6 : Caractéristiques techniques de la station totale Leica
TS16

Figure 24 : Caractéristiques techniques de la station totale

72
ANNEXE 7 : Evaluation de la précision de positionnement
relative planimétrique pour le drone DJI Phantom 4 Pro V2.0
L’objectif de cette expérience est d’évaluer la capacité du drone DJI Phantom 4 Pro
V2.0 à maintenir une distance par rapport à une façade lors de l’exécution d’un plan de vol
vertical.

Dans un premier temps j’ai placé deux marquages au sol (M.1 et M.2) séparés d’une
distance de 15 m et visible depuis une altitude de 30 m. Ces marquages sont représentés par des
croix d’un diamètre de 1 m. Le centre de ces marquages est facilement identifiable.

A l’aide de l’application Tap2Map, j’ai par la suite défini un plan de vol simulant un
relevé de façade d’une largeur de 15 m et d’une hauteur de 10 m. Les deux extrémités du plan
de vol sont alors matérialisées par les deux marquages au sol.

L’expérience a été effectuée deux fois, avec un plan de vol identique mais une vitesse
du drone variant de 0.5 m/s à 1 m/s. Lors du vol, la caméra du drone était dirigée vers le sol. Le
drone capturait une image à chaque fois qu’il passait à l'extrémité du plan de vol, ce qui
permettait d’avoir une photo du marquage au sol.

Figure 25 : Schéma de la trajectoire prévu par le drone (à gauche vu de profil et à droite vu du dessus)

Avec ces deux séries de photo, il était alors possible de calculer le décalage du drone
par rapport à sa trajectoire initiale. En utilisant un simple logiciel de traitement d’image, ici
Gimp, il est alors possible de connaître les coordonnées du centre du marquage en pixel sur
l’image, et donc de connaître le décalage en pixel du drone entre deux passages successifs sur
un même marquage. Connaissant le diamètre de la croix, il est alors tout à fait possible de

73
calculer la taille pixel sol pour chaque altitude, permettant alors de calculer le décalage du drone
par rapport à sa première trajectoire en mètre.

Les résultats de l’expérience sont reportés dans le tableau suivant :

Différence de position en planimétrie entre deux passages successifs


en cm
Point de passage

Vitesse du drone = 0,5 m/s Vitesse du drone = 1 m/s

S1 – S4 80 60

S3 – S6 50 95

S5 – S8 90 60

S7 – S10 35 50

Moyenne 64 66
Tableau 14 : Différences de position en planimétrie entre deux passages successifs

Nous pouvons remarquer un décalage moyen de 64 cm entre deux passages successifs


pour une vitesse de 0,5 m/s et 66 cm pour une vitesse de 1 m/s. Au vu des résultats, nous
pouvons conclure qu’une telle variation de la vitesse du drone n’a pas de réel impact sur la
précision de son positionnement. Cependant nous pouvons noter un écart important avec la
précision relative de positionnement annoncé par le constructeur qui est de 30 cm en
planimétrie.

74
ANNEXE 8: Chaines de traitement réalisées avec le logiciel
Metashape

Import des images

Alignement des photos


• Précision : Haute
• Présélection : Générique

Import des coordonnées des GCP


• Système de coordonnées plannimétrique : RGF93 / CC48 (EPSG::3948)
• Système de coordonnées altimétriques : NGF IGN69 (EPSG::5720)

Identification des GCP sur les images

Optimisation des caméras


• Optimisation des paramètres f, cx, cy, k1, k2, k3, p1, p2

Construction d'un nuage dense


• Qualité : Moyenne
• Filtrage de profondeur : Modéré

Construction d'un modèle maillé


• Nombre de face : Moyen

Construction de l'orthomosaique
• Type : Plane

Figure 26 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un drone « classique ».

75
Import des images

Changement du système de coordonnées des images


• Système de coordonnées plannimétrique : RGF93 / CC48 (EPSG::3948)
• Système de coordonnées altimétriques : NGF IGN69 (EPSG::5720)

Alignement des photos


• Précision : Haute
• Présélection : Générique

Optimisation des caméras


• Optimisation des paramètres f, cx, cy, k1, k2, k3, p1, p2

Construction d'un nuage dense


• Qualité : Moyenne
• Filtrage de profondeur : Modéré

Construction d'un modèle maillé


• Nombre de face : Moyen

Construction de l'orthomosaique
• Type : Plane

Figure 27 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un drone RTK sans GCP.

76
Import des images
Changement du système de coordonnées des images
• Système de coordonnées plannimétrique : RGF93 / CC48 (EPSG::3948)
• Système de coordonnées altimétriques : NGF IGN69 (EPSG::5720)
Modification des précisions des coordonnées images
• Précision planimétrique : 3 cm
• Précision altimétrique : 5 cm
Alignement des photos
•Précision : Haute
•Préselection : Générique
Import des coordonnées des GCP
• Système de coordonnées plannimétrique : RGF93 / CC48 (EPSG::3948)
• Système de coordonnées altimétriques : NGF IGN69 (EPSG::5720)
Identification des GCP sur les images

Optimisation des caméras


•Optimisation des paramètres f, cx, cy, k1, k2, k3, p1, p2
Construction d'un nuage dense
• Qualité : Moyenne
• Filtrage de profondeur : Modéré
Construction d'un modèle maillé
• Nombre de face : Moyen
Construction de l'orthomosaique
• Type : Plane

Figure 28 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un drone RTK et mise en place
de GCP.

77
ANNEXE 9 : Impact du nombre de points d’appui et de leur
répartition pour un levé photogrammétrique nadiral réalisé avec
un drone RTK
L’objectif de cette expérimentation est de mesurer l’impact du nombre de points d’appui
ainsi que de leur répartition pour un levé photogrammétrique réalisé à l’aide d’un drone RTK.

Avec une superficie de 14000 m², la zone d’étude que nous avons choisie comprend un
terrain vague, un bâtiment, une portion de route ainsi que des éléments du mobilier
urbain. Concernant la stéréopréparation, j’ai placé et relevé avec le récepteur GNSS Spectra
Geospatial SP60 9 cibles de dimension 50*50 cm (noté C.1 à C.9) ainsi que des points
remarquables (noté P.1 à P.7). Tous ces points ont été relevés dans le système planimétrique
RGF93 CC48 et altimétrique IGN69. Ces points serviront soit de points d’appui soit de points
de contrôle.

Figure 29 : Localisation de la zone d’étude et répartition des GCP

Le vol a été planifié avec le logiciel DJI GS RTK directement sur le terrain. Afin
d’assurer une bonne corrélation entre images, nous avons choisi de fixer un recouvrement
longitudinal de 80% et latéral de 70%. La hauteur de vol a été fixée à 50 m afin d'obtenir une
taille pixel sol de 1,47 cm. Le vol a été réalisé à une vitesse de 7,5 m/s. Le plan de vol présente
6 bandes parallèles. Nous avons aussi effectué 4 bandes supplémentaires avec visées obliques.
Au total, le vol a duré 13 minutes et a permis au drone de capturer 122 photos. Le drone a été
en capacité de calculer sa position en NRTK pendant toute la durée du vol.

78
L’ensemble des traitements a été réalisé avec le logiciel Pix4Dmapper. Les nuages de
points et orthomosaïques issues de ces traitements seront géoréférencés dans le système
planimétrique RGF93 CC48 et altimétrique IGN69.

Protocole Nombre de GCP GCP utilisés

N-0 0 /

N-1 1 C.9

N-3P 3 P.3, P.5, P.6

N-3 3 C.5, P.1, P.4

N-10 10 C.1, C.3, C.5, C.6, C.8, P.1, P.2, P.3, P.6, P.7

N-0 N-1 N-3P N-3 N-10

Tableau 15 : Descriptif des différents protocoles mis en place et schéma de la répartition des GCP en fonction des protocoles

Tous les traitements réalisés ont été faits suivant les mêmes étapes et paramètres décrits
en annexe 8. Pour une meilleure prise en compte des points d’appui lors du traitement, les
précisions des positions des caméras calculées en NRTK sont définies à 3 cm en planimétrie et
5 cm en altimétrie. Les précisions des points d’appui sont définies à 2 cm en planimétrie et 2
cm en altimétrie.

Afin de pouvoir comparer les résultats obtenus, nous avons calculé les différences entre
les coordonnées calculées par GNSS et celles mesurées sur les nuages de points et
orthomosaïques. Nous obtenons alors les erreurs moyennes suivantes :

79
Figure 30 : Graphique des écart types planimétriques (cm)

Figure 31 : Graphique des écart types altimétriques (cm)

Concernant les orthomosaïques, sans grande surprise, on remarque que l’utilisation de


10 points d’appui permet d’obtenir la meilleure précision avec 2,3 cm d’erreur moyenne.
Cependant, l’utilisation d’uniquement 3 points d’appui permet d'obtenir des précisions très
similaires, avec une erreur moyenne de 2,6 cm. A contrario, l’absence de point d’appui dégrade
fortement la qualité de l'orthomosaïque avec une erreur moyenne de 4,0 cm. Par ailleurs, on
notera l’importance de la répartition des points d’appui puisque 3 points d’appui mais situés
dans un même périmètre de 100 m engendre une erreur moyenne de 3,7 cm, c’est à dire
équivalent à une orthomosaïque produite avec un unique point d’appui.

En ce qui concerne les nuages de points produits, nous nous concentrerons sur la
composante altimétrique. L’erreur sur la composante altimétrique est le principal frein dans
l’établissement d’une méthodologie de relevé photogrammétrique sans points d’appui. En effet,
dans notre expérience, on retrouve des erreurs très importantes en altimétrie pour le nuage de

80
points issu du traitement sans points d’appui, avec une erreur moyenne de 6,6 cm. La mise en
place d’un unique point d’appui permet déjà de faire diminuer cette erreur moyenne à 4,3 cm.
Cependant, les meilleures précisions sont obtenues après avoir utilisé 10 points d’appui, mais
qui restent assez proches des précisions obtenues avec uniquement 3 points d’appui répartis
uniformément sur le terrain. Cela permet de montrer que l’ajout de points d’appui après un
certain nombre ne permet pas un gain de précision très conséquent.

Une étude menée par [Berson Arnaud, 2015] a permis de montrer que, pour un drone
n’embarquant pas de récepteur NRTK, à partir de 10 GCP mis en place sur le terrain, l’ajout de
nouveaux GCP ne permet pas de gagner en précision. Notre expérience a permis elle de montrer
que, pour un drone embarquant un récepteur NRTK, les précisions obtenues ne s’améliorent
plus de façon significative à partir de 3 GCP. Nous pouvons conclure que l’utilisation d’un
drone NRTK permet bien de fortement réduire le nombre de GCP à mettre en place sur le terrain
à condition que les cibles soient positionnées de sorte à encadrer le modèle. Cependant,
l’absence de GCP ne permet pas encore d’obtenir des précisions équivalentes.

81
ANNEXE 10 : Impact du nombre de points d’appui pour un
relevé de façade automatisé par drone
L’objectif de cette étude est de mesurer l’impact du nombre de GCP sur la précision des
orthomosaïques et du nuage de points pour un relevé de façade effectué automatiquement par
drone ne possédant pas de récepteur RTK. Cette expérience a été effectuée à l’aide du drone
Phantom 4 Pro V2.0 de la marque DJI. La planification des vols a été réalisée avec l’application
mobile Tap2Map. L’ensemble des paramètres d’acquisition sont rassemblés dans le tableau ci-
dessous :

Recouvrement longitudinal 70%

Recouvrement interbande 70%

Distance de prise de vue 6m

Vitesse du drone 0,5 m/s

Nombre de bande 3

Nombre de photos acquises 27


Tableau 16 : Paramètres de vol et bilan d’acquisition

Nous avons choisi de faire varier le nombre de GCP de 3 à 9. Tous les traitements ont
été réalisés avec les mêmes photos, seul le nombre de GCP varie.

Le traitement des données a été réalisé avec le logiciel Metashape. La chaîne de


traitement réalisée est décrite en annexe 8. Les erreurs en mètre et en pixel indiquées par
Metashape sont rassemblées dans le tableau suivant :

3 GCP 4 GCP 5 GCP 7 GCP 9 GCP

Erreur en pixel 0,6460 0,625 0,5970 0,56 0,549

Erreur en mètre 0,0064 0,005664 0,006075 0,0064 0,005763


Tableau 17 : Erreur en mètre et en pixel indiqué par le logiciel Métashape en fonction du nombre de GCP.

82
Afin de comparer la précision des orthomosaïques de chacun des traitements, des
distances sont mesurées sur les orthomosaïques issues de chacun des traitements puis comparé
avec des distances mesurées à partir d’un levé tachéométrique. Les résultats obtenus sont
décrits dans le graphique ci-dessous :

Figure 32: Graphique des écarts moyen entre des distances mesurées sur orthomosaïques et des distances mesurées par
tachéométrie en fonction du nombre de GCP utilisé

Nous constatons un écart moyen de 8,1 mm avec 3 GCP. Cet écart diminue avec
l’augmentation du nombre de GCP jusqu’à obtenir un écart moyen de 5,2 mm avec 9 GCP.
Nous pouvons alors conclure que plus le nombre de GCP est important, plus les mesures
effectuées sur les orthomosaïques se rapprochent des mesures issues du nuage
lasergrammétrique. Cependant la tendance n’est pas linéaire, on remarque que dans notre cas à
partir de 5 GCP, l’amélioration de la précision est beaucoup moins prononcée. Nous pouvons
en conclure que l’ajout d’un nombre trop important de GCP n'engendre pas de gains
significatifs dans les précisions obtenues. La mise en place de 5 GCP semble être le meilleur
compromis entre temps de traitements et précisions obtenues.

83
ANNEXE 11 : Planification du vol avec Drone Harmony pour le
levé photogrammétrique de la façade de l’église Saint-Jean-
Baptiste

Figure 33 : Capture d’écran de l’interface de planification de vol avec Drone Harmony

84
ANNEXE 12 : Répartition des points d’appui pour la façade de
l’église Saint-Jean-Baptiste

Figure 34 : Répartition des points d’appui pour la façade de l’église Saint-Jean-Baptiste

85
ANNEXE 13: Orthomosaïques de l’église Saint-Jean-Baptiste

Figure 35 : Orthomosaïque issue du vol automatisé

Figure 36 : Orthomosaïque issue du vol manuel

86
ANNEXE 14 : Nuage 3D de l’église Saint-Jean-Baptiste

Figure 38 : Nuage 3D issu du vol automatisé Figure 37 : Nuage 3D issu du vol manuel

87
ANNEXE 15 : Nuages de points photogrammétriques de la façade
Sud de la mairie d’Olivet

Figure 39 : Nuage de points photogrammétrique issu du vol manuel

Figure 40 : Nuage photogrammétrique issu du protocole 1

88
Figure 41 : Nuage photogrammétrique issu du protocole 2

Figure 42 : Nuage photogrammétrique issu du protocole 3

89
ANNEXE 16 : Visuels des écarts entre les nuages
photogrammétriques et du nuage lasergrammétrique

Figure 43 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 1 et du nuage lasergrammétrique

Figure 44 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 2 et du nuage lasergrammétrique

90
Figure 45 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 3 et du nuage lasergrammétrique

Figure 46 : Visuel des écarts entre le nuage photogrammétrique issu du vol manuel et du nuage lasergrammétrique

91
ANNEXE 17 : Orthomosaïques de la façade Sud de la mairie
d’Olivet

Figure 47 : Orthomosaïque issue du vol manuel

Figure 48 : Orthomosaïque issue du protocole 1

92
Figure 49 : Orthomosaïque issue du protocole 2

Figure 50 : Orthomosaïque issue du protocole 3

93
ANNEXE 18 : Qualification de l’exactitude des données
lasergrammétriques
La constitution d’un nuage de points lasergrammétrique nous permet de constituer un
jeu de données de référence sur lequel on peut baser certaines de nos comparaisons. Il devient
alors nécessaire de mesurer l’exactitude de ce nuage de points afin d’apporter de la cohérence
à nos comparaisons. Dans cette partie, nous allons mesurer l’exactitude du nuage de points
lasergrammétrique en se basant sur les caractéristiques techniques fournies par le constructeur.

Pour commencer notre étude théorique, nous utiliserons les formules de mesure d’un
point avec un SLT ci-dessous :

X = di * cos θ * cos Φ
Y = di * cos θ * sin Φ
Z = di * sin θ
Avec : θ Angle vertical
Φ Angle horizontal
di Distance mesurée
XYZ Coordonnées d’un point

Nous appliquons par la suite les formules de transmission d’emq généralisées :

emq² X = (cos θ * cos Φ)² * emq² di + (di * (-sin θ) * cos Φ)² * emq² θ + (di * cos θ *
(-sin Φ))² * emq² Φ

emq² Y = (cos θ * sin Φ)² * emq² di + (di * (-sin θ) * sin Φ)² * emq² θ + (di * cos θ *
cos Φ)² * emq² Φ

emq² Z = (sin θ)² * emq² di + (di * cos θ)² * emq² θ

94
En utilisant les valeurs fournies par le constructeur et appliquant les formules calculées
ci-dessous tout en fixant Φ = 0 gon et en faisant varier θ à 0, 50 et 75 gon nous obtenons les
graphiques suivants :

Figure 51 : Courbes théoriques d’exactitude de mesure d’un point avec le Leica RTC360 (de haut en bas : θ = 0, θ = 50, θ =
75 gon)

Sur le terrain, toutes nos mesures de façade ont été effectuées à une distance comprise
entre 0 et 50 m. Selon nos calculs théoriques, nous obtenons une emq planimétrique et
altimétrique de ± 4 mm. Il est important de préciser que cette étude théorique porte uniquement
sur le relevé de points et ne prend pas en compte les calculs d’assemblage et de consolidation
des nuages de points.

95
ANNEXE 19 : Qualification de l’exactitude des données
tachéométriques
Afin d’estimer l’exactitude des points de façade relevé par tachéométrie, nous pouvons
calculer l’erreur moyenne quadratique pour chacun de ces points. Pour cela, nous allons utiliser
les formules de mesure d’un point au tachéomètre (au laser) :

Xi = XS + Di * sin Avs-i * sin (VO + Hzs-i)


Yi = Ys + Di * sin Avs-i * cos (VOs + Hzs-i)
Zi = Zs + Di * cos Avs-i + Ht

Avec Hzs-i Angle horizontal


Avs- Angle vertical
Di Distance inclinée
Xi Yi Zi Cordonnées de la station mesurée
XS Ys Zs Cordonnées de la station
Ht Hauteur des tournillons
Hp Hauteur du prisme

Nous considèrerons que les mesures de Hz, V et Di sont indépendantes. Même si le


cercle horizontal et vertical sont liés par un systématisme d’un point de vue matériel, nous
considérerons que ce systématisme est négligeable devant les autres paramètres. En appliquant
les formules de transmission d’emq généralisée nous obtenons alors les formules ci-dessous :

emq² Xi = emq² Xs + (sin Avs-i * sin (VO + Hzs-i))² * emq² Di + (Di * cos Avs-i * sin (VO
+ Hzs-i))² * emq² Avs-i + (Di * sin Avs-i * cos (VO + Hzs-i))² * emq² VO + (Di * sin Avs-i * cos
(VO + Hzs-i))² * emq² Hzs-i

emq² Yi = emq² Ys+ (sin Avs-i * cos (VO + Hzs-i))² * emq² Di + (Di * cos Avs-i * cos (VO
+ Hzs-i))² * emq² Avs-i + (Di * sin Avs-i * (- sin (VO + Hzs-i)))² * emq² VO+ (Di * sin Avs-i * (- sin
(VO + Hzs-i)))² * emq² Hzs-i

emq² Zi = emq² Zs + (cos Avs-i)² * emq² Di + (Di * (- sin Avs-i))² * emq² Avs-i + emq² Ht

96
Etant donné que nous calculons les précisions pour une station libre, nous fixons emq²
Xs = 0, emq² Ys = 0, emq² Zs = 0, emq V0 = 0 et V0 = 0. A l’aide des données fournies par le
constructeur et en estimant emq Ht = 0,005 m, nous obtenons alors une emq planimétrique de
± 2 mm et une emq altimétrique de ± 5 mm.

97
Liste des figures
Figure 1 : Photo de l’interface de planification d’un vol vertical avec DJI GS RTK............................ 21
Figure 2 : Comparaison entre le plan de vol calculé par DJI GS RTK et le plan de vol souhaité......... 22
Figure 3 : Capture d’écran de l’interface de planification d’un vol vertical avec Tap2Map................. 23
Figure 4 : Capture d’écran de l’interface de planification d’un vol vertical avec UgCS ...................... 24
Figure 5 : Capture d’écran de l’interface de planification d’un vol vertical avec Drone Harmony ...... 25
Figure 6 : Schéma de l’expérience réalisée afin de tester la capacité de détection des obstacles du
drone. ............................................................................................................................................ 30
Figure 7 : Répartition des points d’appui (PA) et des points de contrôle (PC) sur la façade Sud de la
mairie d’Olivet.............................................................................................................................. 32
Figure 8 : Capture d’écran du plan de vol effectué pour le protocole 1 avec Tap2Map ....................... 33
Figure 9 : Capture d’écran du plan de vol effectué pour le protocole 2 avec UgCS ............................. 34
Figure 10 : Capture d’écran du plan de vol effectué pour le protocole 3 avec Drone Harmony ........... 36
Figure 11 : Graphique des écart types planimétries .............................................................................. 42
Figure 12 : Graphique des écart types altimétrique ............................................................................... 42
Figure 13 : Comparatif des nuages de points du protocole 3 (à gauche) et du protocole 1 (à droite) ... 43
Figure 14 : Résultats du contrôle des orthomosaïques .......................................................................... 44
Figure 15 : Détails visibles sur l’orthomosaïque issue du protocole 3 .................................................. 45
Figure 16 : Comparatif des orthomosaïques issues d’un vol manuel et d’un vol automatique ............. 48
Figure 17 : Répartition des points d’appui (PA.) et points de contrôle (PC.) sur la façade .................. 49
Figure 18 : Graphique des écart types planimétriques (en cm) obtenus pour les nuages de points
photogrammétriques ..................................................................................................................... 53
Figure 19 : Graphique écart types altimétriques (en cm) obtenus pour les nuages de points
photogrammétriques ..................................................................................................................... 54
Figure 20 : Résultat du contrôle des orthomosaïques ............................................................................ 55
Figure 21 : Illustration du drone Leica BLK2FLY (https://leica-geosystems.com).............................. 56
Figure 22 : Caractéristiques technique de Leica RTC360 LT ............................................................... 70
Figure 23 : Caractéristiques techniques du récepteur GNSS Spectra Geospatial SP60 ........................ 71
Figure 24 : Caractéristiques techniques de la station totale .................................................................. 72
Figure 25 : Schéma de la trajectoire prévu par le drone (à gauche vu de profil et à droite vu du dessus)
...................................................................................................................................................... 73
Figure 26 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un
drone « classique ». ...................................................................................................................... 75
Figure 27 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un
drone RTK sans GCP. .................................................................................................................. 76
Figure 28 : Chaine de traitement réalisé avec le logiciel Metashape pour un levé effectué avec un
drone RTK et mise en place de GCP. ........................................................................................... 77
Figure 29 : Localisation de la zone d’étude et répartition des GCP ...................................................... 78
Figure 30 : Graphique des écart types planimétriques (cm) .................................................................. 80
Figure 31 : Graphique des écart types altimétriques (cm) ..................................................................... 80
Figure 32: Graphique des écarts moyen entre des distances mesurées sur orthomosaïques et des
distances mesurées par tachéométrie en fonction du nombre de GCP utilisé............................... 83
Figure 33 : Capture d’écran de l’interface de planification de vol avec Drone Harmony..................... 84
Figure 34 : Répartition des points d’appui pour la façade de l’église Saint-Jean-Baptiste ................... 85
Figure 35 : Orthomosaïque issue du vol automatisé ............................................................................. 86
Figure 36 : Orthomosaïque issue du vol manuel ................................................................................... 86
Figure 37 : Nuage 3D issu du vol manuel ............................................................................................. 87
Figure 38 : Nuage 3D issu du vol automatisé........................................................................................ 87
Figure 39 : Nuage de points photogrammétrique issu du vol manuel ................................................... 88
Figure 40 : Nuage photogrammétrique issu du protocole 1 .................................................................. 88
Figure 41 : Nuage photogrammétrique issu du protocole 2 .................................................................. 89
Figure 42 : Nuage photogrammétrique issu du protocole 3 .................................................................. 89

98
Figure 43 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 1 et du nuage
lasergrammétrique ........................................................................................................................ 90
Figure 44 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 2 et du nuage
lasergrammétrique ........................................................................................................................ 90
Figure 45 : Visuel des écarts entre le nuage photogrammétrique issu du protocole 3 et du nuage
lasergrammétrique ........................................................................................................................ 91
Figure 46 : Visuel des écarts entre le nuage photogrammétrique issu du vol manuel et du nuage
lasergrammétrique ........................................................................................................................ 91
Figure 47 : Orthomosaïque issue du vol manuel ................................................................................... 92
Figure 48 : Orthomosaïque issue du protocole 1 ................................................................................... 92
Figure 49 : Orthomosaïque issue du protocole 2 ................................................................................... 93
Figure 50 : Orthomosaïque issue du protocole 3 ................................................................................... 93
Figure 51 : Courbes théoriques d’exactitude de mesure d’un point avec le Leica RTC360 (de haut en
bas : θ = 0, θ = 50, θ = 75 gon) ..................................................................................................... 95

Liste des tableaux

Tableau 1 : Récapitulatif des acquisitions ............................................................................................. 37


Tableau 2 : Coordonnées des points de référence obtenus par GNSS................................................... 39
Tableau 3 : Ecarts entre les coordonnées des points levés au GNSS et les points levés par tachéométrie
après recalage Helmert ................................................................................................................. 39
Tableau 4 : Tableau récapitulatif des traitements .................................................................................. 41
Tableau 5 : Ecart types (en cm) obtenus pour les nuages 3D ................................................................ 42
Tableau 6 : Tableau bilan d’acquisition ................................................................................................ 47
Tableau 7 : Ecarts moyen entre des distances mesurées sur orthomosaïques et des distances mesurées
par tachéométrie ........................................................................................................................... 49
Tableau 8 : Tableau descriptif des différents traitements réalisés ......................................................... 50
Tableau 9 : Descriptif des temps de traitements pour chacun des protocoles ....................................... 52
Tableau 10 : Ecart types (cm) obtenus pour les nuages de points photogrammétriques ....................... 53
Tableau 11 : Tableau descriptif des différentes classes de drone .......................................................... 64
Tableau 12 : Caractéristiques techniques du drone DJI Phantom 4 Pro V2.0 ....................................... 67
Tableau 13 : Caractéristiques technique du drone DJI Phantom 4 RTK ............................................... 69
Tableau 14 : Différences de position en planimétrie entre deux passages successifs ........................... 74
Tableau 15 : Descriptif des différents protocoles mis en place et schéma de la répartition des GCP en
fonction des protocoles ................................................................................................................. 79
Tableau 16 : Paramètres de vol et bilan d’acquisition ........................................................................... 82
Tableau 17 : Erreur en mètre et en pixel indiqué par le logiciel Métashape en fonction du nombre de
GCP. ............................................................................................................................................. 82

99
Etude de l’automatisation de relevé de façade par photogrammétrie aérienne

Mémoire d'Ingénieur C.N.A.M., Le Mans 2022

_________________________________________________________________

RESUME

De nombreux logiciels proposent l’automatisation de plan de vol pour effectuer des levés
photogrammétriques par drone. Cependant, l’automatisation des plans de vol oblique pour les
relevés de façades en reste à ses prémices

Après avoir testé différents logiciels de planification de vol, nous avons établi 3 protocoles
pour l’automatisation d’un plan de vol par drone. Chacun de ces protocoles a été évalué selon
différents critères. Le meilleur protocole a été retenu pour pouvoir être comparé à un vol ef-
fectué manuellement. Une étude complémentaire a été menée concernant le nombre et la ré-
partition des GCP à mettre en place pour effectuer un levé de façade en utilisant un drone
RTK.

Mots clés : drone, façade, automatisation, photogrammétrie.

_________________________________________________________________

SUMMARY

Many software packages offer flight plan automation for photogrammetric surveys by drone.
However, the automation of oblique flight plans for facade surveys is still in its infancy.

After testing different flight planning software, we established 3 protocols for automating a
drone flight plan. Each of these protocols was evaluated according to different criteria. The
best protocol was selected to be compared to a manually executed flight. A complementary
study was carried out concerning the number and distribution of GCPs to be set up to carry
out a facade survey using an RTK drone.

Key words : drone, façade, automation, photogrammetry

100

Vous aimerez peut-être aussi